Vor ein paar Wochen erhielt die Kanadierin Ruth Card einen Anruf. Am anderen Ende der Leitung meldete sich ein Mann, der wie ihr Enkel klang. Er sei im Gefängnis und brauche dringend Geld für die Kaution, stammelte er aufgeregt in den Hörer. Die 73-jährige Frau bekam Panik. „Es war definitiv dieses Gefühl von Angst“, erzählte sie der Washington Post. „Dass wir ihm jetzt helfen müssen.“
Mit ihrem Mann eilte sie in die Stadt und hob am Schalter 3000 kanadische Dollar ab, rund 2000 Euro – das Maximum. Doch das reichte nicht. Also hetzten sie zur nächsten Bank. Als das Ehepaar dort die Geschichte erzählte, wurde der Bankangestellte hellhörig: Ein anderer Kunde hatte kurz zuvor unter demselben Vorwand einen Fake-Anruf erhalten. Der Mitarbeiter warnte: Der Anrufer ist womöglich nicht der Enkel, sondern ein Betrüger, der dessen Stimme geklont hat.
Mithilfe von Künstlicher Intelligenz (KI) lassen sich im Handumdrehen Stimmen reproduzieren. Alles, was man dazu braucht, sind eine Computersoftware und ein paar Minuten Audio-Material. Bei hochleistungsfähigen KI-Systemen reichen sogar wenige Sekunden.
Aufgrund sprachlicher Muster der Stimmprobe entsteht eine Kopie
Die KI, die mit der Stimmprobe gefüttert wird, analysiert in den Trainingsdaten sprachliche Muster und erstellt per Sprachsynthese eine Kopie der Stimme. Ein Text-to-Speech-System verwandelt dann den Eingabetext in eine Sprachausgabe. Mit der Technik ist es möglich, mit dem Timbre eines Schauspielers zu sprechen oder wie ein Rockmusiker zu singen – selbst wenn man die Zielsprache gar nicht beherrscht.
Die Musikindustrie hat KI längst als Techno-Instrument entdeckt. So hat der Star-DJ David Guetta mithilfe von KI einen Song im Stil von Eminem geschrieben und die Stimme des Rappers reproduziert. Im Silicon Valley forschen Start-ups an Stimmveränderungssoftware, die den harten Akzent von indischen Call-Center-Mitarbeitern in einen wohlklingenden Brooklyn-Akzent färbt, so wie ihn amerikanische Ohren aus Fernsehserien gewohnt sind.
Doch auch Cyberkriminelle, sogenannte Scammer, machen sich die Technik zunutze: Sie klonen die Stimmen von Menschen und tricksen damit ihre Freunde und Verwandte aus. Auf einen solchen Voice Scam – übersetzt: Sprachbetrug oder Stimmbetrug– wäre auch das kanadische Ehepaar beinahe hereingefallen. Dem aufmerksamen Bankangestellten ist es zu verdanken, dass die Cards ihr Geld behielten.
Das Vorgehen der Täter beim sogenannten Enkeltrick ist äußerst perfide
Andere haben weniger Glück. Tausende Menschen werden jedes Jahr Opfer des sogenannten Enkeltricks. Der Schaden geht in die Milliardenhöhe. Allein in den USA gab es im vergangenen Jahr nach Angaben der Wettbewerbs- und Verbraucherschutzbehörde Federal Trade Commission (FTC) 36.000 gemeldete Delikte.
Einige Fälle werden allerdings gar nicht aktenkundig – die Dunkelziffer ist hoch. Viele Opfer melden sich aus Scham nicht bei der Polizei, weil sie glauben, sie seien naiv oder dumm. Eben weil sich die Masche in den Medien herumgesprochen hat und allenthalben gewarnt wird. Doch dieses Schamgefühl ist unberechtigt. Denn das Vorgehen der Täter ist äußerst perfide.
Die Betrüger spielen mit der Angst der Opfer: Sie gaukeln einen Unfall vor und fordern Geld für eine „Kaution“. Am Anfang meldet sich meist eine weinende Stimme, dann übernimmt ein vermeintlicher Anwalt oder Polizist das Gespräch. Die Opfer der dreisten Betrugsmasche sind situativ überrumpelt und heben Bargeld ab, das sie dann in gutem Glauben einem Strohmann aushändigen.
Die KI-Software für den Betrug ist teilweise im Internet frei zugänglich
Wenn der Schwindel auffliegt, sind die Täter längst über alle Berge. An die Hintermänner der gut organisierten Banden gelangen die Ermittler nur selten. Als wäre das Problem nicht groß genug, wird der Telefonbetrug nun durch Stimmklone perfektioniert.
Die KI-Software, die im Internet teilweise frei zugänglich ist oder für ein paar Euro abonniert werden kann, ist mittlerweile so ausgefeilt, dass man die Kopie vom Original kaum unterscheiden kann. Auch das Ehepaar Card war überzeugt, mit seinem Enkel zu sprechen. In grauer analoger Vorzeit nutzten Entführer Stimmverzerrer, um ihre Identität zu verschleiern. Heute nutzen Betrüger Stimmgeneratoren, um wie Verwandte zu klingen.
Die Behörden sind alarmiert. Europol warnte erst vor ein paar Wochen vor dem Missbrauch von KI-Systemen durch Kriminelle, zu deren Werkzeugkoffer längst auch das Sprachmodell ChatGPT gehört. Mit dem Tool lassen sich auch Schadsoftware, etwa für Phishing-Attacken, gefälschte SMS- oder E-Mail-Nachrichten schreiben, mit denen Angreifer sensible Daten wie Passwörter abgreifen und dann Konten leerräumen.
Täglich sieben Milliarden Sprachnachrichten allein auf WhatsApp
In einer aktuellen Erhebung des IT-Sicherheitsunternehmens McAfee geben neun Prozent der Befragten in Deutschland an, bereits Ziel eines Voice Scams gewesen zu sein. Weitere 13 Prozent berichten von Telefonbetrugsversuchen im Bekanntenkreis.
Wie die Täter an die Stimmproben gelangen, ist unklar. Fakt ist: An Audio-Dateien mangelt es im Netz nicht. Allein auf WhatsApp werden pro Tag sieben Milliarden Sprachnachrichten verschickt. Durch Hacks und Datenlecks können die sensiblen biometrischen Daten schnell in die falschen Hände gelangen.
Es ist noch gar nicht so lange her, da erklärten Tech-Gurus die Stimme zum neuen Passwort. Banken setzen auf Stimmbiometrie zur Identifizierung der Kunden, auch Google ließ Käufe mit der Stimme authentifizieren. Doch die Technik ist nicht so sicher, wie es ihre Entwickler behaupten.
Zugang zum Bankkonto – per Telefonabfrage mit Stimmklon
Wie einfach es ist, diese biometrischen Authentifizierungssysteme zu überlisten, demonstrierte kürzlich der Journalist Joseph Cox: Mithilfe einer Software synthetisierte er seine eigene Stimme und erhielt bei der Telefonabfrage mit dem Stimmklon Zugang zu seinem Bankkonto: Finanzdaten, Kontostand, letzte Transaktionen – alles war einsehbar. Ein Angreifer hätte leichtes Spiel gehabt. In Zeiten von KI ist der Stimme nicht mehr zu trauen.
Wie aber können sich Verbraucher dennoch schützen? Grundsätzlich sollte man bei Geldforderungen am Telefon skeptisch sein. Man landet nicht gleich im Gefängnis, wenn man einen Unfall verursacht hat. Kautionszahlungen werden zudem nicht in bar und schon gar nicht an der Haustür abgewickelt. In jedem Fall empfiehlt es sich, Ruhe zu bewahren, den Angehörigen direkt zu kontaktieren und gegebenenfalls die Polizei zu Rate zu ziehen.






