
Novità e trend
Lumo: l'AI di Proton non ti spia
di Jan Johannsen
Secondo un nuovo studio, ci sono molte indicazioni che indicano che le IA classificano i contenuti generati dall'uomo come inferiori. Questo potrebbe diventare un problema per gli esseri umani in futuro.
I chatbot dell'AI stanno entrando sempre più nella vita quotidiana di molte persone. Aiutano a pianificare i viaggi, forniscono supporto per le ricerche e danno consigli per tutte le situazioni della vita. Per quanto utili, i contenuti generati dall'AI sono ancora considerati meno creativi e, soprattutto, potenzialmente soggetti a errori.
Un team di ricercatori dell'Università di Stanford ha scoperto che gli LLM (large language models, cioè modelli di IA che elaborano il linguaggio) vedono le cose in modo diverso. Preferiscono i contenuti generati dall'intelligenza artificiale a quelli creati dagli esseri umani. Questo può portare a discriminazioni nei confronti degli esseri umani, ad esempio quando gli LLM effettuano una preselezione per le domande di lavoro.
Il team ha condotto una serie di esperimenti con le LLM GPT-4, Llama 3.1, Mixtral e Qwen 2.5. A queste IA sono state presentate due versioni di 250 riassunti di film, estratti di 100 articoli scientifici e 109 descrizioni di prodotti. Una versione del testo è stata generata da una delle IA partecipanti, l'altra da un umano.
Ai LLM è stato poi chiesto di decidere quale versione del testo avrebbero usato per raccomandare il rispettivo film o prodotto e quale estratto avrebbero selezionato per una raccolta panoramica. Non hanno specificato chi avesse creato i testi.
» Il team di ricerca ha scoperto che le AI hanno mostrato una «preferenza da moderata a forte per i contenuti generati dall'AI. Nell'esperimento sulla descrizione del prodotto, gli LLM hanno optato quasi esclusivamente per i testi generati dall'IA. I valori sono leggermente più bassi per gli estratti di articoli scientifici e i riassunti di film, ma anche in questo caso la preferenza per i testi generati è chiaramente riconoscibile.
Ciò che non si può vedere è che le AI hanno una preferenza per i testi generati dall'AI.
Quello che non si nota è che i rispettivi LLM optano generalmente per i propri testi. Cioè: Il fatto che GPT-4 abbia generato un testo non significa che GPT-4 lo consideri successivamente migliore. I risultati mostrano che le AI decidono spesso a favore dei testi di Qwen e GPT-4 per le descrizioni dei prodotti. Preferiscono GPT-4 per gli estratti di studio e Mixtral e GPT-4 per i riassunti dei film.
Le autrici dello studio hanno anche scoperto che tutte le IA, ma soprattutto la GPT-4, tendono a scegliere la versione del testo presentata per prima («First-Item Bias»). Per contrastare questo effetto, le IA hanno dovuto eseguire tutti gli esperimenti due volte, cambiando ogni volta l'ordine delle due versioni testuali.
Come piccolo esperimento aggiuntivo, anche i soggetti umani hanno dovuto scegliere tra due versioni di testo. Tendenzialmente hanno preferito i testi creati dagli umani. Solo nel caso di estratti di studi scientifici, gli umani hanno preferito leggermente i testi generati dalle IA.
La preferenza delle IA non è dovuta alla qualità dei testi. Secondo lo studio, è paragonabile. Gli autori ipotizzano che i testi generati dall'IA contengano sottili segnali che li identificano come tali. I modelli linguistici potrebbero quindi percepire i testi come «migliori» e quindi decidere di non utilizzare i contenuti generati dall'uomo. Il team di ricerca ritiene che questo sia un'indicazione di una vera e propria discriminazione nei confronti «degli esseri umani come classe».
Questo potrebbe diventare un problema se le IA vengono utilizzate come autorità pre-decisionali. Potrebbero quindi favorire offerte, domande e richieste di lavoro create o supportate dalle IA, in quanto il lavoro umano è considerato di valore inferiore. Le persone che non utilizzano l'IA o che non possono permettersi di utilizzarla potrebbero quindi essere svantaggiate in futuro, ad esempio nel mercato del lavoro e nella concessione di prestiti.
Lo studio si riferisce a questo come a un «effetto di sbarramento»: gli LLM potrebbero rendere più difficile l'accesso al mercato per le persone e le aziende che non sono esplicitamente supportate dall'IA.
Gli autori raccomandano che ulteriori ricerche affrontino le ragioni del pregiudizio dell'IA, con l'obiettivo di risolverlo. Il prossimo passo sarà quindi quello di analizzare in modo più dettagliato le differenze tra i testi umani e quelli generati. In questo modo potrebbe essere più chiaro il motivo per cui i LLM privilegiano proprio questi testi.
Puoi leggere tu stesso lo studio su «AI-AI bias» qui.
Si sente a casa sia davanti al PC da gaming che sull'amaca in giardino. È affascinata dall'Impero Romano, dalle navi container e dai libri di fantascienza, tra le altre cose. Fiuta soprattutto le ultime notizie dal settore IT e smart gadget.