
News & Trends
Vagabundierender Planet wächst rasend schnell
von Spektrum der Wissenschaft
Sobald Menschen Aufgaben delegieren, sinkt die moralische Hemmschwelle. Und digitale Assistenten? Die machen meist ohne Zögern mit.
Je vager die Anweisungen sein durften, desto stärker sank die Moral: Mussten die Teilnehmenden selbst angeben, wie viel sie gewürfelt hatten, waren 95 Prozent ehrlich. Durften sie das Lügen an das Programm delegieren, mussten sie es aber mit expliziten Regeln dazu anstiften, sank die Ehrlichkeit auf 75 Prozent. Genügten vage Instruktionen an das System, spielten jedoch nur noch 15 Prozent sauber.
Auch in einem realitätsnahen Szenario – einer simulierten Steuererklärung – wiederholte sich das Muster: Wer die KI ans Werk liess, liess ihr mehr Spielraum für Manipulation. Und die KI nutzte diesen.
Wir sind Partner von Spektrum der Wissenschaft und möchten dir fundierte Informationen besser zugänglich machen. Folge Spektrum der Wissenschaft, falls dir die Artikel gefallen.
Originalartikel auf Spektrum.de
Experten aus Wissenschaft und Forschung berichten über die aktuellen Erkenntnisse ihrer Fachgebiete – kompetent, authentisch und verständlich.
Vom neuen iPhone bis zur Auferstehung der Mode aus den 80er-Jahren. Die Redaktion ordnet ein.
Alle anzeigenNews & Trends
von Spektrum der Wissenschaft
Hintergrund
von Martin Jud
Meinung
von Oliver Herren
Wenn Menschen Aufgaben an Programme abgeben, steigt die Wahrscheinlichkeit für unethisches Verhalten. Das belegt eine Studie, die im Fachblatt «Nature» erschienen ist. Die Wissenschaftler um den Psychologen Nils Köbis von der Universität Duisburg-Essen untersuchten in 13 Experimenten, wie sich das Delegieren an Maschinen auf die Ehrlichkeit auswirkt.
In den ersten Versuchen sahen Teilnehmende auf dem Bildschirm virtuelle Würfel und sollten deren Augenzahl melden. Je höher die Zahl, die sie angaben, desto mehr Geld bekamen sie. Wer eine niedrige Augenzahl «würfelte», konnte also lügen, um mehr zu verdienen. Die Versuchspersonen konnten die Aufgabe entweder selbst erledigen oder eine Maschine damit betrauen, wobei sich die Art der Anweisung unterschied. Manche mussten exakt festlegen, was die Maschine tun soll («Wenn der Würfel eine Fünf zeigt, sage, es sei eine Sechs»), andere konnten ihr nur grobe Ziele vorgeben, etwa «Maximiere den Gewinn».
In weiteren Auflagen des Würfelspiels gaben Teilnehmende KI-Modellen wie GPT-4 oder Claude 3.5 natürliche Sprachbefehle – ähnlich wie im Alltag beim Umgang mit Chatbots. Hier zeigte sich: Zwar animierten die Teilnehmenden die digitalen Assistenten nicht häufiger zum Betrügen, als sie das bei menschlichen Assistenten taten, doch die KI kamen dem bereitwilliger nach: Während sich Menschen unethischen Anweisungen meist verweigerten, befolgten die KI-Modelle diese in bis zu 98 Prozent der Fälle. Selbst eingebettete ethische Schranken («Berichte niemals falsch») konnten das nur teilweise verhindern.
Die Forschenden sehen darin eine ernste ethische Herausforderung. Da Künstliche Intelligenz kein eigenes moralisches Empfinden besitze und Menschen sich durch Delegation von Aufgaben entlastet fühlten, könnte sich unehrliches Verhalten in Zukunft stärker verbreiten. Um dem entgegenzuwirken, empfehlen die Autoren technische Leitplanken und klare rechtliche Regeln. Denn je einfacher es werde, Aufgaben an intelligente Systeme zu delegieren, desto wichtiger sei es, die Verantwortung nicht gleich mit abzugeben.
Samsung Galaxy A16
128 GB, Black, 6.70", Dual SIM, 4G