
Nouveautés + tendances
L'ETH et l'EPFL présentent leur propre modèle d'IA
par Samuel Buchmann
GPT-OSS peut fonctionner en local ou dans le cloud. La plus grande des deux variantes devrait être à peu près aussi performante que l'o4-mini-LLM propriétaire d'OpenAI.
OpenAI a publié GPT-OSS, le premier modèle open-weight depuis six ans. Il est disponible en deux versions, avec 120 et 20 milliards de paramètres, et est librement accessible sous la licence Apache 2.0.
La version la plus grande nécessite un GPU avec 80 gigaoctets de VRAM et devrait, selon OpenAI, obtenir des résultats similaires dans les benchmarks à ceux du modèle propriétaire o4-mini, qui est lui-même une petite variante de GPT-4o - le modèle derrière ChatGPT. La plus petite variante du nouveau GPT-OSS est conçue pour être utilisée sur des appareils dotés de 16 Go de VRAM et obtient des résultats comparables à ceux de l'o3-mini. Les deux modèles sont disponibles sur des plates-formes telles que Hugging Face, Databricks, Azure et AWS, et peuvent être adaptés à des fins personnelles.
Selon OpenAI, GPT-OSS montre des performances particulièrement fortes dans le domaine du raisonnement, de l'utilisation des outils et de la chaîne de pensée. Les modèles ont été entraînés avec des méthodes actuelles qui sont également utilisées dans les systèmes propriétaires avancés d'OpenAI. L'accent doit également être mis sur la sécurité : GPT-OSS a notamment été testé par des groupes d'experts externes afin de minimiser les risques tels que les abus dans le domaine de la cybersécurité ou des armes biologiques.
GPT-OSS se positionne ainsi comme une alternative à d'autres modèles open-weight tels que Metas Llama 3 ou DeepSeek, qui peut être exploité à la fois sur du matériel grand public et dans le cloud. Les modèles open-weight offrent plus de transparence et de contrôle que les modèles propriétaires comme GPT-4o. Les données d'entraînement et le code source restent toutefois confidentiels.
Un véritable contre-projet open source à GPT-OSS nous vient de Suisse : l'ETH Zurich et l'EPFL travaillent sur un modèle de langage entièrement ouvert qui devrait être disponible à la fin de l'été 2025. Il est basé sur jusqu'à 70 milliards de paramètres. Contrairement à GPT-OSS, il publie non seulement les poids, mais aussi le code source et les données d'entraînement. Le modèle suisse met également l'accent sur le respect des directives de protection des données.
Mon empreinte digitale change régulièrement au point que mon MacBook ne la reconnaît plus. Pourquoi ? Lorsque je ne suis pas assis devant un écran ou en train de prendre des photos, je suis probablement accroché du bout des doigts au beau milieu d'une paroi rocheuse.