
Novità e trend
L'ETH e l'EPFL presentano il proprio modello di AI
di Samuel Buchmann
GPT-OSS può essere utilizzato localmente o nel cloud. Si dice che la più grande delle due varianti sia potente quanto l'o4-mini-LLM di OpenAI.
OpenAI ha rilasciato GPT-OSS, un modello open-weight per la prima volta dopo sei anni. Si presenta in due varianti con 120 e 20 miliardi di parametri ed è liberamente disponibile sotto la licenza Apache 2.0.
La versione più grande richiede una GPU con 80 gigabyte di VRAM e, secondo OpenAI, dovrebbe avere prestazioni simili al modello proprietario o4-mini nei benchmark, che a sua volta è una variante ridotta di GPT-4o - il modello alla base di ChatGPT. La versione più piccola del nuovo GPT-OSS è progettata per l'uso su dispositivi con 16 GB di VRAM e ottiene risultati paragonabili a o3-mini. Entrambi i modelli sono disponibili su piattaforme come Hugging Face, Databricks, Azure e AWS e possono essere personalizzati per i tuoi scopi.
Secondo OpenAI, GPT-OSS si comporta particolarmente bene nelle aree del ragionamento, dell'utilizzo degli strumenti e della catena del pensiero. I modelli sono stati addestrati con metodi attuali, utilizzati anche nei sistemi avanzati proprietari di OpenAI. Un occhio di riguardo è stato dato anche alla sicurezza: GPT-OSS è stato provato da gruppi di esperti esterni, tra gli altri, per ridurre al minimo i rischi come l'uso improprio nell'area della sicurezza informatica o delle armi biologiche.
GPT-OSS si posiziona quindi come un'alternativa ad altri modelli open-weight come Llama 3 o DeepSeek di Meta, che possono essere utilizzati sia su hardware consumer che nel cloud. I modelli open-weight offrono maggiore trasparenza e controllo rispetto ai modelli proprietari come GPT-4o. Tuttavia, i dati di formazione e il codice sorgente rimangono sotto chiave.
Una vera e propria controparte open source del GPT-OSS arriva dalla Svizzera: l'ETH di Zurigo e l'EPFL stanno lavorando a un modello linguistico completamente aperto che dovrebbe essere rilasciato alla fine dell'estate del 2025. Si basa su un massimo di 70 miliardi di parametri. A differenza di GPT-OSS, il codice sorgente e i dati di addestramento saranno pubblicati insieme ai pesi. Il modello svizzero pone inoltre l'accento sul rispetto delle linee guida sulla protezione dei dati.
Le mie impronte digitali cambiano talmente spesso che il mio MacBook non le riconosce più. Il motivo? Se non sono seduto davanti a uno schermo o in piedi dietro a una telecamera, probabilmente mi trovo appeso a una parete di roccia mantenendomi con i polpastrelli.