Du bist nicht mit dem Internet verbunden.
Corporate logo
FotografieVideoKnowhow 2256

Gefälschte Fotos und Videos: Was heute möglich ist und wie du Fakes erkennst

Der Fortschritt in Software, Hardware und künstlicher Intelligenz bringt uns realistisch wirkende Bilder und Videos, die aber manipuliert oder computergeneriert sind. Wie wir damit umgehen sollen, ist eine schwierige Frage. Auf jeden Fall sollten wir möglichst viel über Fake-Techniken wissen, um Fälschungen zu erkennen.

Die wenigsten Bildbearbeitungen sind Fälschungen. Denn eine Fälschung bedingt eine Täuschungsabsicht. Natürlich gibt es unterschiedliche Meinungen darüber, wie stark Fotos nachbearbeitet werden dürfen, etwa für Mode-Shootings, und die Grenze zwischen Optimierung und Betrug ist fliessend. Aber das ist ein anderes Thema. Darauf gehe ich in diesem Artikel nicht näher ein. Hier geht es vor allem um die Frage, ob und wie sich Bildfälschungen erkennen lassen.

Sehen heisst glauben – unsere Kontrollinstanz ist lasch

Ob du eine Fälschung als solche erkennst, hängt natürlich davon ab, wie gut sie gemacht ist. Experten sind sich einig, dass eine gute Fälschung extrem schwer zu erkennen ist – ausser man hat das Originalbild zum Vergleich. Das ist sogar in der Malerei so, wie das Beispiel des Kunstfälschers Wolfgang Beltracchi zeigt. In einem spannenden Interview mit der NZZ schildert Beltracchi, wie Kunstexperten in Gutachten verbissen an der Echtheit der Bilder festhielten – bis er die Fälschungen gestand.

Natürlich brauchst du zuerst einmal einen Anfangsverdacht. Misstrauisch wirst du normalerweise, wenn das Motiv unrealistisch ist, wenn Geometrie oder Grössenverhältnisse irgendwie seltsam aussehen, oder wenn du die Quelle für nicht vertrauenswürdig hältst. Die innere Kontrollinstanz ist bei Bildern allerdings viel lascher als bei Texten. Dabei wird mit Bildern nicht weniger gelogen als mit Worten. Warum glauben wir Bildern viel mehr? Der offensichtlichste Grund: Wir können nicht auf alles achtgeben. Wir schauen immer nur auf bestimmte Dinge in einem Bild.

Unsere Leichtgläubigkeit bei Bildern mag auch mit der Evolution zu tun haben. Mit Worten trickst der Mensch, seit er reden kann. Mit Bildern erst seit relativ kurzer Zeit. Hinzu kommt, dass viele Menschen ein Foto schlicht für die Abbildung der Realität halten. Diese Vorstellung war schon immer naiv und streng genommen falsch: Auch sogenannt «echte» Fotos sind künstliche Gebilde – wie Gemälde oder Erzählungen. In der digitalen Zeit ganz besonders.

Schliesslich ist die Art der Bildmanipulation massgebend für die Chance, sie zu erkennen. Schauen wir uns ein paar wichtige Techniken genauer an.

Bildmontage

Bei der Bildmontage wird ein Objekt aus einem anderen Foto in das Bild eingefügt. Damit das realistisch aussieht, müssen verschiedene Dinge stimmen:

  • Die Grössenverhältnisse. Nicht immer ganz einfach, da Objekte näher bei der Kamera grösser sein müssen – aber wie viel grösser?
  • Der Winkel und die Perspektive. Wenn Person A von leicht unten zu sehen ist, muss auch Person B von leicht unten zu sehen sein.
  • Die Richtung des Lichts (gut zu erkennen an den Schatten) und auch der Charakter des Lichts (hartes oder weiches Licht, kaltes oder warmes Licht)
  • Helligkeit, Kontrast, Sättigung, Farbbalance und Schärfe müssen beim eingesetzten Bildteil ungefähr gleich sein wie im Rest des Bildes.

Seve Kinya aus Kenia hat dieses Foto am 2. März 2016 auf Facebook gepostet. Die schöne Geschichte dahinter, wenn man Medienberichten glauben darf, geht so: Seve wäre gern nach China gereist, hatte aber kein Geld dafür, nicht einmal einen Pass. Also führte sie die Reise in ihrer Fantasie mit selbstgebastelten Fotomontagen durch. Natürlich erkennt jeder die Fälschung auf Anhieb, weil weder Kontrast noch Farben noch Licht zusammenpassen. Aus irgend einem Grund wurde die Fotomontage zum viralen Renner, Leute montierten die Frau in viele weitere Bilder rein. Das wurde für Seve zum Glücksfall: Ein Landsmann bekam Mitleid und trommelte Spendengelder zusammen. Noch im gleichen Jahr konnte Seve ein echtes Foto von sich auf der Great Wall posten.

Wenn du dieses Foto zum Vergleich hast, siehst du auch sofort, dass die Grössenverhältnisse im oberen gefälschten Bild überhaupt nicht stimmen.

An den obigen Punkten kannst du eine Fälschung von blossem Auge erkennen, wenn handwerklich nicht sauber gearbeitet wurde. Ein wichtiges Erkennungsmerkmal sind auch die Ränder des Objekts – seine Konturen. Damit ein Objekt ins Bild eingefügt werden kann, muss es zuerst vollständig von seinem ursprünglichen Hintergrund separiert werden. Alleine das kann schon eine extrem aufwendige Arbeit sein – je nach Konturen und Hintergrund. Wenn ein Mensch herausgeschnitten werden soll, müssen die einzelnen Haare freigestellt werden. Wobei dies viel einfacher ist, wenn die Original-Umgebung ein gleichmässiger Hintergrund (zum Beispiel im Studio) ist.

Retusche

Die Retusche ist sozusagen das Gegenteil der Montage. Ein Objekt wird aus einem Bild entfernt. Dabei darf natürlich kein Loch entstehen, sondern die Stelle muss mit plausiblen Bildteilen übermalt werden. Je nach Grösse und Bild ist das sehr einfach bis sehr schwierig. Einen Pickel aus dem Gesicht retuschieren kann jeder. Dazu nimmst du in Photoshop den Bereichsreparatur-Pinsel und klickst auf den Pickel. Fertig. Das Tool nimmt Fläche aus der Umgebung und kopiert sie auf die zu entfernende Stelle. Es gibt mehrere ähnliche Tools in Photoshop, die so arbeiten, zum Beispiel der Kopierstempel.

Ganze Menschen oder grössere Objekte wegzuretuschieren, ist je nach Hintergrund schwer. Vor einem regelmässigen Hintergrund kann das in Photoshop mit der Funktion «inhaltssensitives Füllen» vollautomatisch gemacht werden.

Genau wie der Kopierstempel und der Reparatur-Pinsel verwendet auch das inhaltssensitive Füllen umliegende Bildteile für die Retusche. Daher wiederholen sich die Muster: Es kommen zum Beispiel zwei exakt gleiche Wolken oder zwei exakt gleiche Wellen im Wasser vor. Dem menschlichen Auge fällt das kaum auf, wenn wir nicht eh schon misstrauisch sind. Diese Art von Retusche lässt sich aber gut computergestützt erkennen. Mehr dazu unten im Abschnitt über forensische Hilfsmittel.

Verformungen

Mit dem Verflüssigen-Tool in Photoshop ist es sehr leicht, Konturen zu verändern.

Solche und ähnliche Tools werden gerne benutzt, um Frauen eine vorteilhafte Figur zu verpassen, und noch häufiger, um Frauen mit einer eh schon vorteilhaften Figur in surreale Wesen zu verwandeln.

Man kann es auch übertreiben mit dem Verlängern der Beine. Immerhin ist das ein gutes Anschauungsmaterial für diesen Beitrag. Screenshot: aliexpress.com

Allerdings sind diese Manipulationen meist auch leicht zu erkennen. Der Hintergrund wird nämlich mitverformt. Wenn wir uns nicht gerade inmitten der Natur befinden, umgeben uns überall Linien, die gerade sein sollten: Tür- und Fensterrahmen, Tischkanten, Bodenplatten, etc. Wenn diese Linien ausgerechnet auf Brust- oder Hüfthöhe seltsam krumm sind, weisst du sofort, woher der Wind weht. Ebenso, wenn die Taille sehr schmal, die Unterarme dafür sehr breit sind.

Auch dieses Bild bewirbt ein Kleid auf aliexpress.com. Dass dem Model nachträglich Kurven verpasst wurden, ist an den verbogenen Linien des Möbels rechts davon zu erkennen.

Vor neutralem Hintergrund kann man das Objekt unter Umständen direkt verformen, ohne dass es auffällt. Allerdings sind Models, die sich nur vor solchen Hintergründen präsentieren, in der heutigen Zeit an sich schon verdächtig.

Forensische Hilfsmittel

Verschiedene Methoden der Forensik erleichtern das Erkennen von Bildfälschungen. Der Schweizer Software Engineer Jonas Walker hat ein leicht verständliches Web-Interface entwickelt, mit dem du einige gängige Methoden selbst ausprobieren kannst. Doch zuvor muss ich dich vor überzogenen Erwartungen warnen. Diese Tools nützen dir nur etwas, wenn du weisst, worauf du achten musst. Ausserdem geben sie nur Hinweise auf mögliche Manipulationen, es sind keine Beweise. Und schliesslich sind diese Methoden vor allem wirksam bei Originaldateien. Bei Bildern, die du irgendwo aus dem Netz gezogen hast, entpuppen sie sich vielfach als wirkungslos.

Clone Detection: Erkennt automatisch duplizierte Bildteile. Damit zeigt die Funktion Stellen auf, wo Dinge mit dem Kopierstempel oder einem ähnlichen Tool wegretuschiert wurden.

Error Level Analysis (ELA): Erkennt JPEG-Artefakte, die durch (Mehrfach-)Kompression entstehen. Die Artefakte an sich sind noch kein Indiz für Manipulation. Verdächtig ist, wenn eine Stelle deutlich andere Artefakte aufweist als eine andere Bildstelle, die etwas sehr Ähnliches zeigt.

In der ELA-Darstellung werden die Farben mit jedem Mal neu abspeichern dunkler. Wenn nun ein Objekt ins Bild reinmontiert wird, ist dieses in der ELA viel heller, als es seinem Aussehen nach eigentlich sein müsste.

Dabei ist aber zu beachten, dass Bilder aus dem Web unter Umständen eh schon mehrfach neu abgespeichert und verändert worden sind. Daher ist der Umkehrschluss nicht erlaubt: das Fehlen von solchen Unregelmässigkeiten ist kein Hinweis, dass das Bild nicht manipuliert wurde.

Principal Component Analysis: Wie die Principal Component Analysis (PCA) funktioniert und wofür sie gut ist, erklärt Jonas Walker in diesem Blogbeitrag. In seinem Beispiel wird das oben erwähnte «inhaltssensitive Füllen» von Photoshop sichtbar gemacht. Auch wenn diese Analyse Bearbeitungen optisch besser hervorhebt, musst du trotzdem genau wissen, worauf du achten musst.

Automatische Tools (Deep Fakes) ermöglichen Videofälschungen

Eine echt wirkende Bildmontage ist also nicht so leicht zu machen. Umso erstaunlicher, dass in letzter Zeit Tools entwickelt worden sind, mit denen nicht nur einzelne Bilder, sondern ganze Video-Clips manipuliert werden können. Das Schlagwort dazu ist Deep Fake. Für die Fakes (Fälschungen) werden Methoden des Deep Learning eingesetzt.

Für viele mag es ein Schock sein, wenn nun Porno-Videos die Runde machen, in denen das Gesicht einer Prominenten einigermassen überzeugend reinmontiert wurde. Aber so plötzlich kommt das nicht. Schon lange gibt es Software, die automatisch Gesichter erkennt – unabhängig von Blickwinkel und anderen Variablen. Den automatisch erkannten Blickwinkel auf ein bestehendes anderes Bild anzuwenden, ist der nächste logische Entwicklungsschritt. Auch das gab es schon länger, etwa diverse Morphing-Apps, die Gesichter vermischen, oder Face Swap aus der App Snapchat, eine Funktion, die zwei Gesichter vertauscht. Mit Deep Learning wird die Software so lange trainiert, bis sie Gesichtsmontagen ohne jede menschliche Hilfe vornehmen kann. Und wenn man mal so weit ist, kann man die Technik auch auf ganze Videos anwenden.

Was ich damit sagen will: Es sind viele kleine Entwicklungsschritte, die zu diesen Deepfake-Videos geführt haben, nicht ein einzelner grosser. Aber nun, wo die Technik so weit ist, dass sie für gefälschte Pornos taugt, ist natürlich die medienwirksame Aufregung (oder Erregung) perfekt.

Bislang sind diese Videos meistens leicht als Fälschung zu erkennen. Sie sind unscharf, wabbeln und schwabbeln herum, zuweilen entstehen auch ganz merkwürdige, unrealistische Vermischungen. Trotzdem haben diese Videos ein grosses Potenzial, Unsicherheit zu stiften, weil wir bei Videos noch leichtgläubiger sind als bei Fotos. Schliesslich galt bisher, dass sich Videos im Unterschied zu Fotos nur unter extremem Aufwand fälschen lassen. Das hat sich geändert.

Zukunft: Geht uns das Gefühl für Realität verloren?

Wir müssen davon ausgehen, dass sich die Resultate in Zukunft deutlich verbessern und es dann schwieriger wird, Fälschungen zu enttarnen. Wenn es einmal nicht mehr möglich sein sollte, echte Fotos und Videos von manipulierten zu unterscheiden, wird der Justiz eines der wichtigsten Beweismittel fehlen. Fortschritt als Rückschritt: Die Rechtsprechung würde um über 100 Jahre zurückgeworfen. Und natürlich tut es der Gesellschaft insgesamt nicht gut, wenn keine Einigkeit mehr darüber herrscht, was real ist und was nicht.

Doch auch bei der computergestützten Erkennung von Fälschungen finden natürlich laufend Fortschritte statt. Es ist ein Wettlauf. Bodenlosen Pessimismus halte ich für falsch. Ausserdem werden auch die Menschen in ihrer Wahrnehmung sensibilisiert. Stell dir mal vor, ein Mensch im Jahr 1990 würde ein gut gemachtes Computerspiel aus dem Jahr 2018 sehen. Dieser Mensch würde die Spielszene wahrscheinlich für einen Spielfilm halten. Ein heute 20-jähriger hingegen kann ein Computerspiel deutlich besser von einem Spielfilm unterscheiden. Auch wenn die virtuelle Welt der realen immer näher kommt, bedeutet das nicht zwangsläufig, dass wir die beiden Dinge irgendwann nicht mehr unterscheiden können. Nachfolgende Generationen werden diesbezüglich neue Fähigkeiten entwickeln.

Titelbild: Screenshot aus dem Video «Ed». Ed ist eine computergenerierte Figur des Künstlers Chris Jones.

User

David Lee, Zürich

  • Teamleader Thor
Durch Interesse an IT und Schreiben bin ich schon früh (2000) im Tech-Journalismus gelandet. Mich interessiert, wie man Technik benutzen kann, ohne selbst benutzt zu werden. Meine Freizeit ver(sch)wende ich am liebsten fürs Musikmachen, wo ich mässiges Talent mit übermässiger Begeisterung kompensiere.

22 Kommentare

3000 / 3000 Zeichen
Es gelten die Community-Bedingungen.

User Screwface

Mein "Beitrag" zum Thema "Fake-Bilder" - Vom ZH-Fäscht 2016: fs5.directupload.net/images...

31.07.2018
User David Lee

Hmmmm. Ich habe da irgendwie so einen Verdacht, dass da etwas nicht stimmt.

31.07.2018
User MakeAppsNotWar

@David Lee Stimmt, da ist echt was mega fake.
Muss ein neuartiges Raumschiff Design sein!

02.08.2018
User Dominik Bärlocher

Offensichtlicher Fake! Ist doch klar, dass der Superlaser immer aufrecht sein muss. Denn die acht Khyber-Kristalle strahlen horizontal, nicht vertikal. Du kannst sie schon vertikal strahlen lassen, aber dann bleibt das Licht etwa einen Meter von der Quelle entfernt stehen. Das siehst du schön beim Lichtschwert. Das Imperium weiss das natürlich. Darum: 0/10 für den Fake.

02.08.2018
User ExtraTNT

Fake! Das blau ist nicht richtig, es sollte weniger blau sein, um es als blau zu erkennen... aber mal ehrlich alles ist fake! Kamele haben zum beispiel eigentlich keine höcker, das sind implantate... wenn wir tagesschau schauen, so sehen wir nicht wie jemand im studio spricht, nein es sitzt jemand im fernseher, der immer wenn wir tagesschau schauen uns die nachrichten vorliest... wenn wir mit dem flugzeug fliegen, so heben heben wir nicht ab, an den fenstern sind in wahrheit bildschirme. Wir gehen also nicht in ein anderes land, sie bringen das land einfach zu uns... alles ist fake!!! :D

03.08.2018
Antworten
User Mansgo

Wenn es um manipulierte Videos geht kann ich nur zu gerne youtube.com/user/CaptainDis... weiterempfehlen.

31.07.2018
User Ragedliam

Andere kommen mir immer zuvor! :)

31.07.2018
Antworten
User luberg

"Sie sind unscharf, wabbeln und schwabbeln herum, [...]"
Pun intended?

31.07.2018
User Anonymous

Netter Artikel :-)
Denke auch Fälschugen werden immer schwieriger zu erkennen und sofern es nicht mehr oder weniger offensichtlich ist hat man als Laie kaum eine Chance sowas zu erkennen.

Ein Klassiker (CollegeHumor - Photoshop Has Gone Too Far):
youtube.com/watch?v=Hnvoz91...

31.07.2018
User luberg

Auch noch interessant: Ein Startup hat eine AI entwickelt, welche nach einem Lernzeitraum dann per Texteingabe praktisch jede Stimme nachahmen kann.

YouTube Video von Bloomberg; "This AI Can Clone Any Voice, Including Yours" (YT Links nicht erlaubt?)

31.07.2018
User luberg

Ah doch: youtube.com/watch?v=VnFC-s2...

31.07.2018
User Softloader

Das ist aber nichts im Vergleich zu Adobe VoiceOver
youtube.com/watch?v=I3l4XLZ...

01.08.2018
Antworten
User bernhard1945

Eine Frage, die beim Lesen des Artikels aufgetaucht ist. Gesichtserkennung ist offenbar schon weit fortgeschritten. Wieso kann man dieselbe Technik nicht auch auf das Erkennen von Blumen(-blüten) z.B. anwenden, so dass eine App den Namen der Blume enzeigt? Oder für Blätter, Gräser, Insekten. ...?

02.08.2018
User der_Graf

Gibts ja schon, schon mal von umgekehrter Bildersuche gehört? Ein Bild eingeben und Google schlägt dir ähnliche Bilder vor, welche dich durchaus zu einem Beitrag führen mit infos über das/die Tier/Pflanze. Aber klar in der heutigen Zeit braucht man dafür eine App... Damit man dann ne Firma verklagen kann wenn man doch einen Knollenblätterpiltz gegessen hat, weil man man auf seinem IPhone mit gebrochenem Screen nichts richtig erkennen kann. Lese Bücher, wenn du dich für die Natur interessierst.

08.08.2018
User noSuchUsername

Pl@ntNet, etwas Frankreich-Botanik-lastig bei der Erkennung aber grundsätzlich ziemlich zuverlässig.

08.08.2018
User bernhard1945

Der_Graf: Von "umgekehrter Bildersuche" habe ich noch nie etwas gehört. "Ein Bild eingeben ..." schreibst Du, aber wo bitte sehr? (in GoogleSuche kann ich keine Bilder eingeben ...).
Dasnke für Deine Hilfe und sorry für die späte Reaktion – war abwesend.

09.09.2018
User noSuchUsername

Für umgekehrte Bildersuche: Bei der Googlesuche auf Bilder/Images (google.ch/imghp), dort auf das Kamerasymbol klicken und ein Bild hochladen/aufnehmen. Alternativ schon auf der normalen Google-Seite ein Bild per Drag&Drop ins Suchfeld reinziehen.

09.09.2018
User bernhard1945

Umgekehrte Bildsuche: Danke für den Hinweis. Habe es nun ausprobiert und technisch funktionierts. Trefferquote bis jetzt: 50 % (immerhin ...).

09.09.2018
Antworten
User fastfurious09

Toujours d'excellents articles, merci Digitec !
Pour le montage photo, j'ajouterais :
- L'objet ajouté doit avoir une résolution = ou > à celle de l'image de base. Cet objet pourra être réduit mais jamais agrandi. A défaut l’effet de pixellisation sur l’objet rendra le montage visible.

09.08.2018