Donald Trump flieht panisch vor New Yorker Polizisten und Papst Franziskus posiert cool im Luxusmantel von Balenciaga: Mithilfe von künstlicher Intelligenz (KI) am Computer generierte Bilder haben es in den vergangenen Monaten häufiger in die Schlagzeilen geschafft. Dass es sich bei den vermeintlichen Skandalfotos um Fakes handelte, erkannten selbst Experten nicht immer sofort.
Wie glaubhaft Programme wie Midjourney oder Dall-E-2 in den letzten Jahren geworden sind, zeigte jüngst das Beispiel des Berliner Künstlers Boris Eldagsen. Dessen KI-generiertes Bild „The Electrician“ war dabei offenbar so überzeugend, dass selbst die Jury eines wichtigen internationalen Fotografiepreises darauf hereinfiel. Eldagsen lehnte den Preis ab – er habe mit der Aktion lediglich eine Debatte anstoßen wollen. Allerdings können sogenannte Deepfakes auch realen Schaden anrichten, etwa wenn Persönlichkeitsrechte verletzt werden. Woran also kann man gefälschte KI-Fotos erkennen? Es gibt Anhaltspunkte.
What would be the name of the Pope Francis lifestyle brand? pic.twitter.com/PQf8ogP3PD
— Don Moynihan (@donmoyn) March 25, 2023
KI-Fakes entlarven: Programme scheitern an der Physik
Tatsächlich lassen sich die meisten KI-Fotos bei genauerem Hinsehen schnell entlarven. Das liegt an der Art, wie die Bilder mittels Spracheingabe generiert werden. Fragt man einen Bildgenerator beispielsweise nach der Festnahme des ehemaligen US-Präsidenten, wird die Anwendung die genannte Person täuschend echt und detailgetreu darstellen. Im Hintergrund können sich dagegen kleinere Fehler einschleichen – etwa Kurven in eigentlich geraden Wänden oder unlogische Schattenwürfe. Auch wirre Schriftzeichen oder Textfehler deuten auf ein Fake hin. Die Gesetze der Physik beherrschen die Programme eben (noch) nicht ganz.
Angesichts des rasanten technologischen Fortschritts könnte es in den kommenden Jahren jedoch zunehmend schwieriger werden, mittels KI gefälschte Bilder zu entlarven, wie Wael AbdAlmageed von der University of Southern California dem Magazin Scientific American erklärte. Auch eigens für die Erkennung solcher Fotos entwickelte Programme – wiederum eine andere Form von KI – müssten erst den Test der Zeit bestehen.
„Der Kampf zwischen KI-Systemen, die Bilder erzeugen, und KI-Systemen, die diese Bilder enttarnen, wird ein regelrechtes Wettrüsten werden“, sagte AbdAlmageed.
KI-Forscher: „Dürfen nicht mehr einfach glauben, was wir sehen“
Im Bereich der Gesichtserkennung haben viele Menschen bereits jetzt Probleme damit, zwischen Wahrheit und Fälschung zu unterscheiden. „Software ist heute in der Lage, Gesichter zu erzeugen, die von echten Gesichtern nicht zu unterscheiden sind“, heißt es im Abschlussbericht einer Studie der Universität Lancaster. So hätten die 315 Befragten in gerade einmal 48 Prozent der Fälle richtig erkannt, ob es sich bei einem Foto um eine echte Person oder ein KI-generiertes Motiv handelte.



