Ein Unbekannter hat sich mithilfe Künstlicher Intelligenz (KI) als US-Außenminister Marco Rubio ausgegeben und hochrangige Politiker kontaktiert – darunter drei Außenminister, ein US-Gouverneur und ein Kongressabgeordneter. Das berichtet die Washington Post unter Berufung auf ein internes Schreiben des US-Außenministeriums vom 3. Juli.
Der Täuschungsversuch begann Mitte Juni. Der oder die Täter nutzten die Messaging-App Signal sowie Textnachrichten, um täuschend echte Sprachnachrichten und Mitteilungen im Stil Rubios zu versenden. Die gefälschte Absenderkennung lautete „Marco.Rubio@state.gov“, war jedoch keine echte E-Mail-Adresse. Ziel der Aktion sei laut dem Schreiben mutmaßlich gewesen, sensible Informationen oder Zugangsdaten zu erlangen. Auch weitere Mitarbeitende des State Department sollen mit falschen Identitäten imitiert worden sein.
Experten warnen: Deepfake-Stimmen sind schnell erstellt
Wer hinter der Aktion steckt, ist bislang unklar. Die betroffenen Politiker wurden namentlich nicht genannt. Das Außenministerium hat eine Untersuchung eingeleitet, das FBI äußerte sich auf Anfrage der Zeitung nicht. Experten für digitale Forensik wie Hany Farid von der University of California warnen, dass Deepfake-Angriffe technisch längst kein Hexenwerk mehr seien. Schon 15 Sekunden Audio reichen oft aus, um eine glaubhafte KI-Stimme zu erzeugen – besonders bei öffentlichen Personen wie Rubio, von denen zahlreiches Tonmaterial verfügbar ist.
Der Fall Rubio reiht sich ein in eine wachsende Zahl globaler Deepfake-Angriffe: Auch in Kanada und der Ukraine wurden jüngst Fälle bekannt, in denen staatliche Akteure und Betrüger KI-gestützte Identitätsfälschungen nutzten, um politische oder wirtschaftliche Ziele zu verfolgen. Die US-Behörden rufen ihre Beschäftigten und internationale Partner dazu auf, verdächtige Nachrichten sofort zu melden und bei vermeintlichen Kontaktaufnahmen von Spitzenpolitikern stets misstrauisch zu bleiben.


