Fertig Fake-News? Computer erkennt Deep Fakes
Haben Forscher die Schwachstelle von Deep Fakes gefunden? Bei einer simplen mathematischen Analyse der Pixel verraten sich Bilder, die die KI erzeugt hat, durch auffällige Muster.
Deep Fakes sind von einer künstlichen Intelligenz erschaffene, gefälschte Bilder, Fotos und Videos. Sie werden mit Hilfe von Deep-Learning-Netzwerken erzeugt und wirken oft so täuschend echt, dass sie ahnungslose Betrachter leicht hinters Licht führen. Wer es selbst einmal ausprobieren will, kann auf der Website whichfaceisreal.com raten, welches von zwei Gesichtern das echte und welches das vom Computer erzeugte ist. Auch mit Hilfe von Software gelingt diese Unterscheidung nicht immer zuverlässig.
Womöglich wird aber zumindest der Computer bald nicht mehr auf die Täuschung hereinfallen, denn eine einfache mathematische Analyse der Pixel hilft, die Manipulation zu erkennen. Wie ein Entwicklerteam um Joel Frank von der Ruhr-Universität Bochum auf der International Conference on Machine Learning (ICML) berichtet, verraten sich Deep Fakes durch ein auffälliges Gittermuster, wenn man sie in eine Frequenzdarstellung umwandelt.
Artefakte verraten den Fake
Bei der diskreten Kosinustransformation werde das Bild als Summe vieler verschiedener Kosinusfunktionen ausgedrückt, erläutern die Forscher. Während natürliche Bilder grösstenteils aus niederfrequenten Funktionen bestünden, zeigten künstlich generierte Bilder verschiedene Arten von Artefakten im hochfrequenten Bereich.
Ein natürliches Bild (links) und ein computergeneriertes (rechts) | Die Gitterstruktur könnte ein Merkmal aller – oder zumindest aller derzeitigen – Deep-Learning-Netze sein, die Bilder erzeugen.
Es scheine sich dabei um ein strukturelles Problem aller Deep-Learning-Algorithmen zu handeln, erläutert Frank. «Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde.»
Deep Fakes werden zumeist mit Hilfe zweier künstlicher neuronaler Netze hergestellt, die in einer Art Wettkampf gegeneinander arbeiten. Das eine lernt, möglichst naturalistisch aussehende Bilder zu erzeugen, das andere lernt, diese Fake-Bilder von echten zu unterscheiden. Im Verlauf des Lernvorgangs werden die Ergebnisse beider Netze immer besser. Die Technik läuft unter dem Namen Generative Adversarial Networks oder GAN und liefert die bislang besten Imitate.
Wer mit Hilfe der Entdeckung der Bochumer Forscher selbst auf Fake-Jagd gehen möchte, kann den Code der Gruppe auf GitHub herunterladen.
Spektrum der Wissenschaft
Wir sind Partner von Spektrum der Wissenschaft und möchten dir fundierte Informationen besser zugänglich machen. Folge Spektrum der Wissenschaft, falls dir die Artikel gefallen.
Originalartikel auf Spektrum.de \Experten aus Wissenschaft und Forschung berichten über die aktuellen Erkenntnisse ihrer Fachgebiete – kompetent, authentisch und verständlich.