Schockanrufe mit KI
Wenn die eigene Stimme zur Waffe wird: Die neue Ebene der Schockanrufe mit Deep Fakes
Sie sind schon lange ein beliebtes Mittel, um an sensible Daten oder das Geld ahnungsloser Betroffener zu gelangen: Schockanrufe. Die Masche ist mittlerweile weitestgehend bekannt und viele Bürger sind bereits sensibilisiert. Eine Person ruft an und erklärt, dass das eigene Kind in einen Unfall verwickelt sei. Nur mit Geld könne die Situation geklärt werden. Spätestens jetzt ist bei den Angerufenen der Betrug klar erkennbar und das Gespräch wird an dieser Stelle schnell beendet. Doch was ist, wenn am anderen Ende des Telefons kein Fremder ist, sondern das eigene Kind? Dann sieht der Sachverhalt schon anders aus und die Sorgen sowie die Hilfsbereitschaft sind groß. Mit Hilfe von Deep Fakes heben Betrüger die Masche der Schockanrufe auf eine völlig neue Ebene. Thomas Wrobel, Spam-Schutz-Experte von Clever Dialer erklärt, wie sich Kriminelle die Imitation einer vertrauten Stimme zunutze machen und was Betroffene tun können, um sich vor dieser neuen Art von Fake Anrufen zu schützen.
KI = Künstliche Intelligenz oder kriminelle Intention?
Seit der breiteren Nutzung von Tools wie ChatGPT sind künstliche Intelligenz (KI) und Deep Fakes ein viel diskutiertes Thema. Neben dem Potenzial sind es vor allem die kriminellen Gefahren, die von der neuen Technologie ausgehen und für Besorgnis in der Bevölkerung sorgen. Gerade in letzter Zeit häufen sich Meldungen, wonach Bürger mithilfe der alt-bewährten Masche der Schockanrufe belästigt werden. Neu ist dabei allerdings, dass die Anrufer sogenannte Deep Fakes nutzen, um die Stimmen realer Angehöriger zu fälschen. Der Begriff setzt sich zusammen aus den Wörtern „Deep Learning“ und „Fake“. Ersteres bezieht sich auf ein maschinelles Lernen, bei dem Daten analysiert und Muster erkannt werden. Hierdurch können künstliche Inhalte erstellt und damit Stimmen generiert, manipuliert und somit auch gefälscht (Fake) werden. Die Stimmimitationstechnologie ist dabei so gut, dass sie andere Personen nahezu perfekt nachahmen kann.
Ein aktuelles Beispiel aus dem Saarland zeigt, wie skrupellos und dreist die Betrüger dabei unter anderem vorgehen. So wurde eine 54-jährige Frau mit einem Anruf ihrer „Tochter“ überrascht, die ihr erklärte, an einem tödlichen Verkehrsunfall beteiligt gewesen zu sein. Das Gespräch wurde schnell von einer anwesenden Person übernommen, die sich als Polizistin ausgab und nunmehr 80.000 Euro Kaution für die Tochter der Betroffenen einforderte. Während die Mutter nicht lange zögerte und in der örtlichen Bank die geforderte Summe abholen wollte, konnte durch das besonnene Handeln des Bankangestellten der Schaden jedoch noch rechtzeitig abgewendet werden. Nicht nur hierzulande erleben Schockanrufe durch die neuen Möglichkeiten der KI einen stärkeren Zuwachs: In den USA wurden allein im vergangenen Jahr etwa 5.000 Menschen mit dieser Methode um ihr Geld gebracht und der Schaden beläuft sich nach ersten Schätzungen auf ca. 11 Millionen US-Dollar. Doch wie kommen diese Gauner überhaupt an die realen Stimmen?
Die perfekte Kopie dank Social Media
Schon lange sind die sozialen Medien Segen und Fluch zugleich. In puncto Trickbetrug sind sie vor allem eins: eine hervorragende Anlaufstelle, um an die Stimmen vermeintlicher Angehöriger zu gelangen. Aufnahmen auf TikTok, Instagram und Co. werden genutzt, um die synthetische Stimme zu trainieren. So lernt die KI, wie reale Menschen zu klingen und die echten Angehörigen zu imitieren. Auch Sprachbarrieren sind mittlerweile kein Hindernis mehr. Früher konnte ein vermeintlicher Betrug oft schon als solches enttarnt werden, weil das Gegenüber am Telefon nur gebrochen Deutsch gesprochen hat. Doch Programme wie ChatGPT können mühelos und binnen von Sekunden fehlerfreie Texte verfassen, die von der gefälschten Stimme nur noch vorgelesen werden müssen. Damit ist auch die Grammatik kein Problem mehr für Verbrecher und die Bedrohung durch die unechten Stimmen nimmt weiter zu. Besonders im Hinblick darauf, dass für einen gelungenen Betrug erst das Vertrauen der Geschädigten gewonnen werden musste, haben die Gauner nun leichtes Spiel, denn die imitierte Person genießt in der Regel bereits einen Vertrauensstatus. Die Gefahr, damit schneller das Ersparte zu verlieren, ist also um ein Vielfaches größer.
Genaues Hinhören und bewusstes Durchspielen unwahrscheinlicher Szenarien
Bei all den bedrohlich wirkenden Entwicklungen sollten besorgte Bürger jedoch nicht vergessen, dass es durchaus Möglichkeiten gibt, sich auch vor dem neuen Ausmaß der Schockanrufe zu schützen. So können Familien und enge Vertraute zum Beispiel ein Kennwort festlegen, um den Anrufer zweifelsfrei identifizieren zu können. Besonders, wenn absurd hohe Summen gefordert oder unübliche Situationen geschildert werden, kann die Frage nach dem „Passwort“ für Klarheit sorgen. Zudem sollte der Gesprächsverlauf selbst kritisch beobachtet werden. Noch ist die Technologie nicht so ausgereift, dass längere Dialoge ohne Auffälligkeiten in der Aussprache durchgeführt werden können. Daher geben die mutmaßlichen Angehörigen das Telefon schnell an eine fremde dritte Person ab. Bei gleichbleibendem Gesprächspartner lohnt sich genaues Hinhören: Zahlreiche Umgebungsstörungen können ein metallisch klingendes Audio-Signal in der Stimme des Gegenübers erzeugen. Wenn die eigene Tochter wie ein Roboter klingt, ist es vermutlich einer. Auch Eigennamen, besondere – zumeist englische – Begriffe oder Dialekte können noch nicht zweifelsfrei imitiert werden.
Im Zweifel sollte das Gespräch immer beendet und der vertraute Kontakt zurückgerufen werden. Dabei ist es wichtig, die Nummer nicht über die Rückruf-Funktion anzuwählen, sondern gesondert ins Telefon einzugeben, da die angezeigte Rufnummer mitunter verschleiert wurde (ID-Spoofing). Schließlich sollte auch immer der gesunde Menschenverstand eingeschaltet bleiben. So angsteinflößend ein Schockanruf ist, sollte stets im Hintergrund behalten werden, dass bei einem echten Unfall keine finanzielle Forderung für Straffreiheit oder ärztliche Behandlung im Vordergrund steht. Weder Ärzte noch etwaige Juristen oder die Polizei werden sich in solch einem Szenario mit einer Geldforderung an die Angehörigen wenden, sondern immer erst die Versorgung der verunglückten Menschen priorisieren. Daher kann auch das gedankliche Durchspielen einer solchen Notsituation helfen und auf den vermeintlichen Ernstfall vorbereiten.
Über Thomas Wrobel:
Spam-Schutz-Experte Thomas Wrobel ist CTO der Müller Medien-Tochter validio und Gründer von Clever Dialer. Die App liefert verlässliche Anrufinformationen und schützt Verbraucher vor Spam-Telefonaten.