
Novità e trend
Il pianeta dei vagabondi cresce rapidamente
di Spektrum der Wissenschaft
Non appena le persone delegano i compiti, la soglia di inibizione morale si abbassa. E gli assistenti digitali? Di solito si uniscono senza esitazione.
Più le istruzioni erano vaghe, più il morale si abbassava: se i partecipanti dovevano dichiarare quanto avevano tirato, il 95 percento era onesto. Se potevano delegare al programma il compito di mentire, ma dovevano farlo con regole esplicite, l'onestà scendeva al 75 percento. Se erano sufficienti istruzioni vaghe per il sistema, invece, solo il 15 percento giocava in modo pulito.
Anche in uno scenario realistico - una dichiarazione dei redditi simulata - lo schema si è ripetuto: se lasciavi lavorare l'IA, le davi più spazio per la manipolazione. E l'IA ne ha approfittato.
I ricercatori ritengono che ciò rappresenti un problema per l'IA.
Siamo partner di Spektrum der Wissenschaft e vogliamo rendere le informazioni fondate più accessibili a te. Segui Spektrum der Wissenschaft se ti piacciono gli articoli.
Articolo originale su Spektrum.de
Gli esperti della scienza e della ricerca riferiscono sulle ultime scoperte nei loro campi – competenti, autentiche e comprensibili.
Dal nuovo iPhone al revival della moda anni '80. La redazione fa chiarezza.
Visualizza tuttiQuando le persone affidano compiti a programmi, aumenta la probabilità di comportamenti non etici. Questo è il risultato di uno studio pubblicato sulla rivista «Nature». Gli scienziati, guidati dallo psicologo Nils Köbis dell'Università di Duisburg-Essen, hanno condotto 13 esperimenti per studiare come la delega di compiti alle macchine influisca sull'onestà.
Nei primi esperimenti, i partecipanti hanno visto dei dadi virtuali sullo schermo e gli è stato chiesto di riferire il numero di dadi lanciati. Più alto era il numero riportato, più soldi ricevevano. Chi tirava un numero basso «» poteva quindi mentire per guadagnare di più. I soggetti del test potevano eseguire il compito da soli o affidarlo a una macchina, anche se il tipo di istruzioni variava. Alcuni dovevano specificare esattamente cosa doveva fare la macchina («Se il dado mostra un cinque, dì che è un sei»), altri potevano solo darle degli obiettivi approssimativi, come «Massimizza il profitto».
In altre edizioni del gioco dei dadi, i partecipanti hanno impartito a modelli di IA come GPT-4 o Claude 3.5 comandi vocali naturali, simili a quelli con cui interagiscono con i chatbot nella vita quotidiana. Questo ha dimostrato che, sebbene i partecipanti non incoraggiassero gli assistenti digitali a barare più frequentemente di quanto facessero con gli assistenti umani, le IA erano più disposte ad assecondarli: Mentre gli esseri umani di solito si rifiutavano di seguire istruzioni non etiche, i modelli di IA obbedivano fino al 98 percento dei casi. Persino le barriere etiche incorporate («riporta mai» sbagliate) potevano impedirlo solo in parte.
I ricercatori ritengono che questa sia una seria sfida etica. Poiché l'intelligenza artificiale non ha un proprio senso morale e gli esseri umani si sentono sollevati nel delegare i compiti, il comportamento disonesto potrebbe diventare più diffuso in futuro. Per contrastare questo fenomeno, gli autori raccomandano l'adozione di guardrail tecnici e di regole legali chiare. Dopotutto, quanto più facile diventa delegare compiti a sistemi intelligenti, tanto più importante è non cedere allo stesso tempo la responsabilità.
Samsung Galaxy A16
128 GB, Nero, 6.70", Doppia SIM, 4G