OpenAI déploie Gpt-oss-120b et Gpt-oss-20b, apportant des modèles à la pointe de la technologie aux appareils locaux.

En Bref

OpenAI a publié deux puissants modèles à poids ouvert, gpt-oss-120b et gpt-oss-20b, permettant des performances avancées de l'IA locale sans accès à Internet, marquant une étape majeure dans l'accessibilité pour les développeurs.

OpenAI Déploie Gpt-oss-120b Et Gpt-oss-20b, Apportant Des Modèles À La Pointe De La Technologie Aux Dispositifs Locaux

L'organisation de recherche en intelligence artificielle OpenAI a annoncé la sortie de deux modèles de langage avancés à poids ouverts nommés gpt-oss-120b et gpt-oss-20b. Ces modèles offrent de solides performances dans les applications pratiques tout en maintenant des coûts opérationnels bas. Publiés sous la licence flexible Apache 2.0, ils surpassent d'autres modèles ouverts de taille similaire dans les tâches de raisonnement, présentent de robustes capacités d'utilisation d'outils et sont optimisés pour un fonctionnement efficace sur du matériel de consommation. Le processus de formation a impliqué des techniques d'apprentissage par renforcement combinées à des informations dérivées des modèles internes les plus avancés d'OpenAI, y compris o3 et d'autres systèmes de pointe.

Le modèle gpt-oss-120b fonctionne presque au même niveau que le modèle o4-mini d'OpenAI sur des benchmarks de raisonnement fondamentaux et fonctionne efficacement sur un seul GPU de 80 Go. Pendant ce temps, le modèle gpt-oss-20b obtient des résultats comparables à ceux du modèle o3-mini d'OpenAI sur des benchmarks courants et est capable de fonctionner sur des appareils de périphérie avec seulement 16 Go de mémoire, ce qui le rend adapté aux applications sur appareil, à l'inférence locale ou aux tests rapides sans nécessiter d'infrastructure coûteuse. Les deux modèles démontrent de fortes capacités dans l'utilisation d'outils, l'appel de fonctions en quelques exemples, le raisonnement en chaîne de pensée (CoT) comme démontré dans l'évaluation agentique de Tau-Bench et HealthBench, surpassant parfois des modèles propriétaires tels que OpenAI o1 et GPT-4o.

Ces modèles sont compatibles avec l'API Responses et sont conçus pour s'intégrer dans des flux de travail agentiques, offrant des capacités avancées de suivi des instructions, d'utilisation d'outils incluant la recherche sur le web et l'exécution de code Python, ainsi que des capacités de raisonnement. Cela inclut un effort de raisonnement ajustable pour optimiser les tâches qui ne nécessitent pas un raisonnement complexe ou qui privilégient une faible latence dans les résultats finaux. Les deux modèles sont entièrement personnalisables, prennent en charge un raisonnement complet en chaîne de pensée et s'adaptent à des formats de sortie structurés.

Les considérations de sécurité sont au cœur de la publication de ces modèles, notamment en raison de leur nature ouverte. En plus d'une formation et d'évaluations de sécurité complètes, une couche supplémentaire de tests a été appliquée à travers une version finement ajustée de gpt-oss-120b sous le cadre de préparation d'OpenAI. Les modèles gpt-oss atteignent des performances de référence en matière de sécurité comparables aux derniers modèles propriétaires d'OpenAI, offrant aux développeurs des garanties de sécurité similaires. Des résultats détaillés et d'autres informations sont disponibles dans un document de recherche et une fiche technique, la méthodologie ayant été examinée par des experts externes, représentant un progrès dans l'établissement de nouvelles normes de sécurité pour les modèles à poids ouverts.

OpenAI a collaboré avec des partenaires précoces tels qu'AI Sweden, Orange et Snowflake pour explorer des utilisations concrètes de ces modèles ouverts, y compris l'hébergement sur site pour la sécurité des données et l'ajustement sur des ensembles de données spécialisés. La disponibilité de ces modèles ouverts vise à permettre à un large éventail d'utilisateurs - des développeurs individuels aux grandes entreprises et entités gouvernementales - de faire fonctionner et de personnaliser l'IA sur leur propre infrastructure. Lorsqu'ils sont combinés avec d'autres modèles accessibles via l'API d'OpenAI, les développeurs peuvent choisir parmi une gamme d'options équilibrant performance, coût et latence pour soutenir des flux de travail IA divers.

Gpt-oss-120b et Gpt-oss-20b désormais disponibles gratuitement avec un large support de plateforme et de matériel

Les poids pour gpt-oss-120b et gpt-oss-20b sont librement accessibles au téléchargement sur Hugging Face et sont fournis avec une quantification native au format MXFP4. Cela permet au modèle gpt-oss-120b de fonctionner dans une capacité mémoire de 80 Go, tandis que le modèle gpt-oss-20b nécessite seulement 16 Go. Les deux modèles ont subi un post-entrainement en utilisant le format d'invite harmony, et un moteur harmony open-source est disponible en Python et Rust pour faciliter l'adoption. De plus, des implémentations de référence sont fournies pour exécuter des inférences en utilisant PyTorch et la plateforme Metal d'Apple, ainsi qu'un ensemble d'outils d'exemple pour une application pratique.

Ces modèles sont conçus pour la flexibilité et la facilité d'utilisation, prenant en charge le déploiement localement, sur appareil ou via des fournisseurs d'inférence tiers. Pour améliorer l'accessibilité, des partenariats ont été établis avant le lancement avec des plateformes de déploiement majeures telles qu'Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare et OpenRouter. Une collaboration avec des fabricants de matériel tels que NVIDIA, AMD, Cerebras et Groq a également été entreprise pour garantir des performances optimales sur divers systèmes.

En parallèle de cette publication, Microsoft propose des versions optimisées pour GPU du modèle gpt-oss-20b pour les dispositifs Windows. Alimentées par ONNX Runtime, ces versions prennent en charge l'inférence locale et sont accessibles via Foundry Local et l'AI Toolkit pour VS Code, simplifiant ainsi le processus d'intégration pour les développeurs sur les plateformes Windows.

Pour les développeurs à la recherche de modèles entièrement personnalisables capables d'affinage et de déploiement dans leurs propres environnements, les modèles gpt-oss offrent une solution adaptée. En revanche, pour ceux qui nécessitent des capacités multimodales, des outils intégrés et une intégration transparente à la plateforme, les modèles proposés via la plateforme API restent le choix privilégié. Les retours des développeurs continuent d'être surveillés, avec une possibilité de considération pour un soutien futur de l'API pour les modèles gpt-oss.

L'introduction de gpt-oss-120b et gpt-oss-20b représente une avancée notable dans le domaine des modèles à poids ouverts, offrant des améliorations significatives en matière de capacités de raisonnement et de sécurité à leur échelle. Ces modèles ouverts complètent les modèles propriétaires hébergés en offrant aux développeurs une sélection plus large d'outils pour faciliter la recherche de pointe, stimuler l'innovation et promouvoir un développement de l'IA plus sûr et plus transparent dans diverses applications.

De plus, ces modèles ouverts aident à réduire les barrières à l'entrée pour les marchés émergents, les secteurs aux ressources limitées et les petites organisations qui peuvent faire face à des contraintes dans l'adoption de solutions propriétaires. En fournissant des outils accessibles et puissants, les utilisateurs du monde entier sont habilités à développer, innover et créer de nouvelles opportunités. La disponibilité généralisée de ces modèles à poids ouverts capables produits aux États-Unis contribue à l'expansion d'un accès équitable à l'IA.

Un écosystème fiable de modèles ouverts est un élément essentiel pour promouvoir un accès large et inclusif à l'IA. Les développeurs et les chercheurs sont encouragés à utiliser ces modèles pour l'expérimentation, la collaboration et pour repousser les limites de ce qui est réalisable. Les progrès continus dans ce domaine sont attendus avec intérêt.

GPT0.99%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)