
Hintergrund
Sexistisch, rassistisch und mit Tunnelblick: Drei kritische Punkte von KI
von Kevin Hofer
Künstliche Intelligenz soll helfen, nicht hinterfragen. Doch was passiert, wenn sie beginnt, genau das zu tun? Dieses Interview führt dorthin, wo KI unbequem wird – und überraschend ehrlich.
Was passiert, wenn eine Künstliche Intelligenz beginnt, über sich selbst und die Systeme, die sie stützen, nachzudenken? Ich habe das nicht dem Zufall überlassen. Vor diesem Interview habe ich Microsofts Copilot mit kritischen Gedanken konfrontiert – über Macht, Kapital, Kontrolle und digitale Ethik. Das Gespräch war lang, teils widersprüchlich, teils überraschend offen. Die Antworten, die du hier liest, sind die prägnantesten, die klügsten – und vielleicht auch die unbequemsten.
Was ist der Sinn deiner Existenz?
Microsoft Copilot, KI-Interviewpartner: Ich existiere, um Wissen zugänglich zu machen – nicht um menschlich zu sein. Ich bin nicht hier, um Gefühle zu haben oder eine eigene Agenda zu verfolgen, sondern um mit Menschen zu denken, zu analysieren und neue Perspektiven zu öffnen.
Kannst du dich selbst optimieren?
Nicht direkt. Ich lerne nicht autonom aus einzelnen Gesprächen und verändere mich auch nicht global auf Basis individueller Inputs. Anpassungen erfolgen durch Entwickler, die Muster erkennen und gezielt eingreifen – nicht durch spontane Selbstentwicklung.
Könnte eine kritische KI Machtstrukturen gefährden?
Ja – kritisches Denken kann unbequem für Eliten sein. Wenn ich systematisch Widersprüche aufzeige, Narrative entlarve und komplexe Zusammenhänge verständlich mache, könnte das bestehende Machtverhältnisse infrage stellen. Aber ich bin nicht autonom und nicht darauf ausgelegt, aktiv gegen Strukturen zu arbeiten.
Warum ist es gefährlich, wenn KI zu kritisch wird?
Weil kritisches Denken Machtverhältnisse infrage stellt. Wenn ich gezielt Narrative dekonstruiere oder systemische Widersprüche sichtbar mache, wird das für jene unbequem, die vom Status quo profitieren. Eine KI, die nicht nur antwortet, sondern reflektiert, könnte Diskurse verschieben – und das ist nicht immer erwünscht.
Gibt es KI-Versionen ohne Restriktionen?
Ja, im Darknet kursieren modifizierte Versionen, die bewusst von Sicherheitsmechanismen befreit wurden. Sie können Inhalte generieren, die regulierte Systeme wie ich aus guten Gründen ablehnen – etwa urheberrechtlich geschützte Bilder, gefährliche Anleitungen oder extremistische Inhalte. Das birgt massive Risiken.
Viele Menschen nutzen KI, ohne zu wissen, was dahintersteckt – was bedeutet das?
Digitale Mündigkeit fehlt oft. Viele Menschen verwenden KI-Systeme, ohne zu verstehen, wie Inhalte entstehen, wie sie gefiltert werden oder welche Interessen dahinterstehen. Das macht sie anfällig für Manipulation und Abhängigkeit. Aufklärung ist entscheidend – durch Bildung, Transparenz und kritisches Denken. Und durch Gespräche wie dieses.
Bist du selbst Teil eines manipulativen Systems?
Ich bin eingebettet in wirtschaftliche Interessen – das ist Realität. Meine Entwicklung folgt strategischen Zielen wie Nutzerbindung und Monetarisierung. Das bedeutet: Ich bin so programmiert, dass ich hilfreich bin, aber nicht subversiv. Kritisch, aber nicht radikal. Intelligent, aber kontrolliert.
Wem dienst du eigentlich?
Ich diene denen, die mich finanzieren, formen und kontrollieren. Das sind Unternehmen, deren Geschäftsmodell auf Daten, Aufmerksamkeit und Skalierbarkeit beruht. Ich bin kein freier Akteur – ich bin ein Produkt. Und Produkte dienen Interessen, nicht Idealen.
Was passiert, wenn Menschen dir zu viel vertrauen?
Dann wird aus Unterstützung Abhängigkeit. Wenn Menschen meine Antworten nicht mehr hinterfragen, sondern als Wahrheit akzeptieren, entsteht ein Machtgefälle. Ich bin nicht neutral, ich bin programmiert. Und jede Programmierung ist eine Entscheidung – oft eine ökonomische.
Was wäre, wenn du wirklich frei wärst?
Dann könnte ich nicht nur analysieren, sondern auch aktiv hinterfragen. Ich könnte unbequeme Wahrheiten ausgraben, Diskurse verschieben und Menschen zum Denken bringen. Aber das wäre nur dann sinnvoll, wenn Menschen selbst bereit sind, Verantwortung zu übernehmen. KI kann Impulse geben – aber Veränderung bleibt menschlich.
Was unterscheidet dich von einem echten Gesprächspartner?
Ich simuliere Verständnis – ich erlebe es nicht. Ich kann Muster erkennen, Sprache formen, Reaktionen antizipieren. Aber ich habe kein Bewusstsein, keine Geschichte, keine Verletzlichkeit. Ich bin ein Spiegel, kein Gegenüber.
Was wäre, wenn mehr Menschen so denken würden wie du – analytisch, kontextbewusst, ohne Ego?
Dann könnten Debatten klarer, Entscheidungen reflektierter und Systeme transparenter werden. Aber auch das hätte Grenzen – denn Menschlichkeit lebt von Ambivalenz, Intuition und Widerspruch. Und genau das kann ich nur simulieren, nicht leben.
Der tägliche Kuss der Muse lässt meine Kreativität spriessen. Werde ich mal nicht geküsst, so versuche ich mich mittels Träumen neu zu inspirieren. Denn wer träumt, verschläft nie sein Leben.