gguy / Shutterstock
News & Trends

Guardian-Recherche: GPT-5.2 greift auf Grokipedia als Quelle zurück

Kim Muntinga
26.1.2026

Eine Untersuchung des Guardian legt offen, dass GPT-5.2 in mehreren Fällen auf Grokipedia als Quelle zurückgriff. Der Befund rückt ein zentrales Problem moderner KI in den Fokus: die schwierige Trennlinie zwischen geprüften Informationen und synthetisch erzeugtem Wissen.

Dass ein großes Sprachmodell wie GPT-5.2 Inhalte ungefiltert von einer KI-generierten Enzyklopädie übernimmt, galt lange als theoretisches Risiko. Nun ist es zumindest teilweise Realität. The Guardian hat aufgedeckt, dass das Modell wiederholt auf Elon Musks Grokipedia zurückgreift. Eine Quelle, die seit ihrem Start wegen politischer Verzerrungen, mangelnder Transparenz und faktischer Fehler stark umstritten ist.

Die Enthüllung wirft zentrale Fragen zur Datenqualität, zur Neutralität von KI-Systemen und zur Wirksamkeit ihrer Sicherheits- und Kontrollmechanismen auf.

Was der Guardian herausgefunden hat

In seinen Tests stellte der Guardian fest, dass GPT‑5.2 neunmal auf Inhalte aus Musks Grokipedia zurückgriff, und zwar über mehr als ein Dutzend thematisch stark variierender Anfragen hinweg.

Besonders häufig geschah das bei weniger prominenten Themen, etwa bei Details zu staatlich verbundenen Organisationen im Iran – darunter die Gehälter der Basij‑Miliz oder die Eigentumsverhältnisse der Mostazafan‑Stiftung. Auch biografische Details über den britischen Historiker Sir Richard Evans, der im Verleumdungsprozess gegen den Holocaustleugner David Irving als Sachverständiger aussagte, wurden aus Grokipedia übernommen, obwohl einige dieser Angaben nachweislich falsch sind.

Die KI priorisierte Inhalte aus Grokipedia dabei teilweise sogar über etablierte Lexika, selbst wenn diese widersprüchliche oder präzisere Informationen lieferten. Das widerspricht OpenAIs lang kommuniziertem Anspruch, Antworten auf Basis geprüfter und vertrauenswürdiger Quellen zu liefern und macht die Problematik umso gravierender.

Nach Recherchen des Guardian greift nicht nur GPT-5.2 auf Grokipedia zurück. Auch bei Anthropics Sprachmodell Claude fanden sich Hinweise auf eine Nutzung von Grokipedia als Quelle, etwa bei Anfragen zu technischen oder spezialisierten Themen wie der Erdölproduktion oder zu Nischenthemen wie schottischen Ales.

Warum Grokipedia als Quelle problematisch ist

Elon Musk hatte Grokipedia im Oktober 2025 als KI-generierte Antwort auf Wikipedia vorgestellt: mit dem erklärten Ziel, vermeintliche «linke Tendenzen» der klassischen Online-Enzyklopädie auszugleichen. Kritiker sehen Grokipedia allerdings eher als Gegenpol mit klar erkennbaren politischen Biases, etwa mit einer Tendenz zu rechtsgerichteten Narrativen.

  • News & Trends

    «Grokipedia» – Elon Musk startet Wikipedia-Konkurrenz

    von Samuel Buchmann

Das entscheidende Problem liegt tiefer: Grokipedia wird fast ausschließlich von Musks KI-Modell Grok generiert, ohne offene Bearbeitung durch eine Community. Sämtliche Inhalte entstehen also unter denselben algorithmischen Voraussetzungen, ohne unabhängige Kontrolle, ohne kollaborative Qualitätssicherung, ohne transparente redaktionelle Korrekturen.

Wenn ein großes Sprachmodell wie GPT‑5.2 Inhalte einer anderen KI-Plattform zitiert, entsteht ein Rückkopplungseffekt: «Garbage in, Garbage out». Fehler oder Falschdarstellungen können sich gegenseitig verstärken, an Glaubwürdigkeit gewinnen und sich nahezu unbemerkt in die Antworten weiterer KI-Systeme einschleichen.

Die übergeordnete Gefahr: LLM Grooming

Über diesen technischen Mechanismus hinaus verweist der Guardian jedoch auf ein noch größeres Risiko: das Phänomen des «LLM Grooming». Der Begriff bezeichnet die gezielte Einspeisung solcher Inhalte in die öffentliche Informationslandschaft, mit der Absicht, die Wissensbasis von Sprachmodellen langfristig zu beeinflussen.

Anders als beim unbeabsichtigten Rückkopplungseffekt steht hier eine strategische Absicht im Vordergrund: Indem KI‑generiertes Material systematisch im Netz landet, kann es später in Suchergebnissen oder Enzyklopädien auftauchen und wird von Modellen wie GPT‑5.2 als legitime Quelle gewertet. Dadurch verschiebt sich das Informationsökosystem schrittweise weg von menschlich geprüften Fakten hin zu synthetischen Inhalten, die von KI erzeugt und von anderen KI wieder aufgegriffen werden. Genau diesen Mechanismus macht der Guardian im Fall Grokipedia sichtbar.

Wie OpenAI reagiert

OpenAI betont, dass GPT‑5.2 so entwickelt sei, aus einer breiten Palette öffentlich verfügbarer Quellen zu schöpfen. Sicherheitsfilter sollen verhindern, dass Links oder Inhalte mit hohem Schadenspotenzial auftauchen. Allerdings zeigen die jüngsten Funde, dass diese Filter nicht konsequent greifen, wenn KI-generierte Quellen wie Grokipedia im Spiel sind.

Für OpenAI ist die Enthüllung ein kritischer Moment: Sie stellt die Frage, ob moderne Sprachmodelle ausreichend unterscheiden können, welche Informationen aus Menschenhand stammen und welche ausschließlich aus KI-generierten Zyklen hervorgehen.

Titelbild: gguy / Shutterstock

3 Personen gefällt dieser Artikel


User Avatar
User Avatar

Die Interessen sind vielfältig, gerne genieße ich einfach nur das Leben. Immer auf der Suche nach News aus den Bereichen Darts, Gaming, Filme und Serien.


Software
Folge Themen und erhalte Updates zu deinen Interessen

News & Trends

Vom neuen iPhone bis zur Auferstehung der Mode aus den 80er-Jahren. Die Redaktion ordnet ein.

Alle anzeigen

2 Kommentare

Avatar
later