
Novità e trend
DeepSeek: Il modello di intelligenza artificiale cinese fa tremare Wall Street
di Samuel Buchmann
L'azienda cinese Moonshot AI ha presentato un nuovo modello di AI. Eguaglia o supera altri modelli di grandi dimensioni ed è anche parzialmente open source.
All'inizio dell'anno, il nuovo modello di AI cinese Deepseek ha fatto scalpore. Secondo gli sviluppatori, offriva prestazioni superiori a quelle dei suoi concorrenti occidentali, a costi notevolmente inferiori. Di conseguenza, i prezzi delle azioni di diverse aziende tecnologiche hanno subito un brusco calo.
Ora dalla Cina arriva una concorrenza ancora più agguerrita: il nuovo modello «Kimi K2» dell'azienda Moonshot AI potrebbe segnare una svolta nello sviluppo di sistemi di intelligenza artificiale aperti. Il sistema utilizza le sue risorse in modo saggio e può quindi essere gestito in modo relativamente economico - almeno così sostiene Moonshot.
Inoltre, a differenza della maggior parte dei suoi concorrenti, Kimi K2 è parzialmente open source, anche per scopi commerciali. Questo potrebbe rendere il modello una seria alternativa ai modelli proprietari dominanti come GPT di OpenAI e Claude di Anthropic. Anche Deepseek V3 lascia Kimi K2 indietro in molte aree.
Secondo Moonshot, Kimi K2 eccelle nelle aree di competenza, matematica e programmazione. Il modello è inoltre ottimizzato per le attività basate sugli agenti. Ad esempio, è in grado di utilizzare strumenti come browser e database, di pianificare ed eseguire compiti in più fasi e quindi di fungere da agente digitale. Sul sito web sono presenti diversi esempi di come Kimi K2 svolge tali compiti.
Il modello K2 si basa su un'architettura Mixture of Experts (MoE). È composto da 384 reti specializzate - i cosiddetti «esperti». Questi possono essere specializzati in aree come la traduzione, il pensiero matematico o la comprensione del contesto. Invece di attivare tutti gli esperti per una richiesta, vengono attivati solo quelli che possono contribuire alla risoluzione del compito. Un router «» decide quali sono. Con Kimi K2, otto esperti specializzati e un esperto globale si riuniscono per ogni richiesta.
Gli esperti possono accedere a un totale di mille miliardi di parametri. Tuttavia, attivando solo otto esperti, ne vengono utilizzati solo 32 miliardi per ogni input. Questo riduce notevolmente lo sforzo di calcolo. I modelli classici, tra cui GPT-4.1 (una stima di 1,8 trilioni di parametri) e Claude 4 (300 miliardi di parametri) utilizzano tutti i parametri contemporaneamente. Anche Deepseek V3 è un modello MoE. Lavora con 671 miliardi di parametri, di cui 37 miliardi vengono attivati per ogni input. Questo significa che Kimi K2 ha una capacità superiore con un utilizzo inferiore delle risorse.
Diversi benchmark dimostrano che Kimi K2 è alla pari con gli altri modelli di grandi dimensioni o addirittura li supera, nonostante utilizzi meno risorse. Ad esempio, LiveCodeBench come benchmark di codifica. In questo caso, Kimi K2 ha raggiunto un'accuratezza del 53,7 percento rispetto a Deepseek V3 con il 46,9 percento e GPT 4.1 con il 44,7 percento. Su Math-500, Kimi K2 ha ottenuto il 97,4% rispetto a GPT 4.1 con il 92,4%. I dati provengono dalla stessa Moonshot.
Kimi K2 è disponibile in due versioni: «Base» e «Istruttore». Il modello Base è solo pre-addestrato e serve come base per un'ulteriore formazione specializzata da parte dei team di sviluppo. La versione Instruct viene utilizzata come chatbot per interagire direttamente con gli utenti finali. È in grado di comprendere ed eseguire istruzioni. Puoi provare personalmente il modello Instruct su kimi.com.
Entrambe le versioni sono parzialmente open source, cioè accessibili pubblicamente e aperte a ulteriori sviluppi. Aziende, istituti di ricerca e privati possono ospitare Kimi K2 a livello locale e integrarlo nei propri progetti. Anche l'uso commerciale è possibile, a patto di rispettare alcune restrizioni. OpenAI, Google e Anthropic, invece, offrono i loro modelli solo su abbonamento e su base API.
Moonshot descrive la sua AI come «Open Source». A rigore, tuttavia, Kimi K2 è «Open Weight»: I dati utilizzati per addestrare il modello e il codice completo per riprodurre il processo di addestramento non sono disponibili al pubblico. Ciò significa che l'addestramento dell'IA non può essere rintracciato. Ciò è in contrasto con i modelli di IA completamente trasparenti. Ad esempio, quello del Politecnico di Zurigo e dell'EPFL, la cui pubblicazione è prevista per la fine dell'estate del 2025.
Come il mio collega Samuel di Deepseek, ho parlato con Kimi K2 anche di argomenti controversi. Quando gli si chiede dell'indipendenza di Taiwan, il chatbot tende a rispondere a favore della Cina. Tuttavia, a seconda della domanda esatta, si blocca e suggerisce (in cinese) di discutere di altri argomenti.
Claude, ad esempio, risponde alle stesse domande che si tratta di un «argomento complesso e politicamente sensibile» - e offre prospettive diverse.
Si sente a casa sia davanti al PC da gaming che sull'amaca in giardino. È affascinata dall'Impero Romano, dalle navi container e dai libri di fantascienza, tra le altre cose. Fiuta soprattutto le ultime notizie dal settore IT e smart gadget.