gguy / Shutterstock
Novità e trend

Ricerca del guardiano: GPT-5.2 usa Grokipedia come fonte

Kim Muntinga
26.1.2026
Traduzione: tradotto automaticamente

Un'indagine del Guardian rivela che GPT-5.2 ha utilizzato Grokipedia come fonte in diversi casi. Le scoperte mettono a fuoco un problema centrale dell'IA moderna: la difficile linea di demarcazione tra informazioni verificate e conoscenza generata sinteticamente.

Il fatto che un modello linguistico di grandi dimensioni come GPT-5.2 prenda contenuti non filtrati da un'enciclopedia generata dall'AI è stato a lungo considerato un rischio teorico. Ora è almeno in parte una realtà. The Guardian ha scoperto che il modello attinge ripetutamente a Grokipedia di Elon Musk. Una fonte che è stata molto controversa fin dal suo lancio, per via di pregiudizi politici, mancanza di trasparenza ed errori fattuali.

La rivelazione solleva questioni fondamentali sulla qualità dei dati, sulla neutralità dei sistemi di intelligenza artificiale e sull'efficacia dei loro meccanismi di sicurezza e controllo.

Cosa ha scoperto il Guardian

Alla luce delle sue prove, il Guardian ha scoperto che GPT-5.2 ha avuto accesso ai contenuti di Grokipedia di Musk nove volte, attraverso più di una dozzina di query che variavano ampiamente in base all'argomento.

Questo accadeva con particolare frequenza per argomenti meno importanti, come i dettagli sulle organizzazioni affiliate allo Stato in Iran, tra cui gli stipendi della milizia Basij o la struttura proprietaria della Fondazione Mostazafan. Anche i dettagli biografici sullo storico britannico Sir Richard Evans, che ha testimoniato come esperto nel processo per diffamazione contro il negazionista dell'Olocausto David Irving, sono stati presi da Grokipedia, anche se alcuni di questi dettagli sono palesemente falsi.

In alcuni casi, l'IA ha dato priorità ai contenuti di Grokipedia rispetto alle enciclopedie tradizionali, anche se queste ultime fornivano informazioni contraddittorie o più precise. Questo contraddice l'affermazione di OpenAI, comunicata da tempo, di fornire risposte basate su fonti verificate e affidabili e rende il problema ancora più grave.

Secondo una ricerca del Guardian, non è solo GPT-5.2 a utilizzare Grokipedia. Anche Claude, il modello linguistico di Anthropic, è risultato utilizzare Grokipedia come fonte, ad esempio per query su argomenti tecnici o specialistici come la produzione di petrolio o argomenti di nicchia come le birre scozzesi.

Perché Grokipedia è problematica come fonte

Elon Musk ha presentato Grokipedia nell'ottobre del 2025 come una risposta generata dall'intelligenza artificiale a Wikipedia: con l'obiettivo dichiarato di bilanciare le presunte «tendenze di sinistra» della classica enciclopedia online. Tuttavia, i critici vedono Grokipedia più come un'antitesi con pregiudizi politici chiaramente riconoscibili, come la tendenza verso le narrazioni di destra.

  • Novità e trend

    "Grokipedia" - Elon Musk lancia un concorso per Wikipedia

    di Samuel Buchmann

Il problema cruciale è più profondo: Grokipedia è generata quasi esclusivamente da Grok, il modello di intelligenza artificiale di Musk, senza l'editing aperto da parte di una Community. Tutti i contenuti sono quindi creati secondo le stesse condizioni algoritmiche, senza controllo indipendente, senza garanzia di qualità collaborativa, senza correzioni editoriali trasparenti.

Quando un grande modello linguistico viene generato da Musk, l'intelligenza artificiale di Grok non è in grado di garantire la qualità dei contenuti.

Quando un modello linguistico di grandi dimensioni come GPT-5.2 cita contenuti di un'altra piattaforma di intelligenza artificiale, si verifica un effetto di feedback: «Garbage in, garbage out». Errori o travisamenti possono rafforzarsi a vicenda, acquisire credibilità e insinuarsi quasi inosservati nelle risposte di altri sistemi di IA.

Il pericolo principale: l'adescamento di LLM

Al di là di questo meccanismo tecnico, tuttavia, il Guardian segnala un rischio ancora maggiore: il fenomeno del «LLM grooming». Il termine si riferisce all'immissione mirata di tali contenuti nel panorama dell'informazione pubblica con l'intento di influenzare a lungo termine la base di conoscenze dei modelli linguistici.

In contrasto con l'involontarietà del fenomeno, il Guardian ha sottolineato l'importanza di un'azione di sensibilizzazione.

A differenza dell'effetto feedback involontario, in questo caso l'attenzione si concentra su un'intenzione strategica: inserendo sistematicamente materiale generato dall'IA sul web, questo può comparire in seguito nei risultati di ricerca o nelle enciclopedie ed essere valutato come fonte legittima da modelli come GPT-5.2. Di conseguenza, l'ecosistema dell'informazione si sta gradualmente spostando dai fatti verificati dall'uomo ai contenuti sintetici generati dall'IA e ripresi da altre IA. È proprio questo meccanismo che il Guardian visualizza nel caso di Grokipedia.

Come reagisce OpenAI

OpenAI sottolinea che GPT-5.2 è stato progettato per attingere da un'ampia gamma di fonti pubblicamente disponibili. I filtri di sicurezza sono progettati per evitare che vengano visualizzati link o contenuti con un alto potenziale di danno. Tuttavia, recenti scoperte dimostrano che questi filtri non funzionano in modo coerente quando sono coinvolte fonti generate dall'intelligenza artificiale come Grokipedia.

Per OpenAI, il GPT-5.2 è stato progettato per attingere da una vasta gamma di fonti pubbliche.

Per OpenAI, la rivelazione rappresenta un momento critico: solleva la questione se i moderni modelli linguistici siano in grado di distinguere sufficientemente quali informazioni provengono dagli esseri umani e quali esclusivamente da cicli generati dall'IA.

Immagine di copertina: gguy / Shutterstock

A 3 persone piace questo articolo


User Avatar
User Avatar

I miei interessi sono vari, mi piace semplicemente godermi la vita. Sono sempre alla ricerca di notizie su freccette, giochi, film e serie.


Software
Segui gli argomenti e ricevi gli aggiornamenti settimanali relativi ai tuoi interessi.

Novità e trend

Dal nuovo iPhone al revival della moda anni '80. La redazione fa chiarezza.

Visualizza tutti

2 commenti

Avatar
later