Interview | Betrug durch Künstliche Intelligenz
Beim Enkeltrick versuchen sich Betrüger als Verwandte auszugeben, um älteren Menschen Geld abzunehmen. Nun gibt es eine Möglichkeit, bei der die Stimmen der echten Enkel eingesetzt werden. Verantwortlich dafür ist die Künstliche Intelligenz.
Michael Zerna aus Cottbus beschäftigt sich seit langem mit den Anwendungsbereichen Künstlicher Intelligenz - nicht erst seit dem Durchbruch von ChatGPT. Mittlerweile sind die Anwendungsbereiche der KI gewachsen, auch GPT hat Deutsch gelernt. Betrüger könnten sich die neuen Möglichkeiten zunutze machen - und eine alte Betrugsmasche updaten.
rbb|24: Herr Zerna, der Enkeltrick ist eine altbekannte Betrugsmasche. Nun sagen Sie, besteht die Gefahr, dass sich Betrüger in dem Zusammenhang die Künstliche Intelligenz zunutze machen könnten. Was ist die Gefahr?
Michael Zerna: Die große Gefahr, die aktuell besteht, ist, dass sich die meisten Menschen nicht bewusst sind, dass Künstliche Intelligenz weit über das hinausgeht, was sie vielleicht aktuell über ChatGPT wissen. Dort gebe ich einen Text ein und bekomme Text zurück. Ich kann die Künstliche Intelligenz aber auch dafür nutzen, Stimmen oder einfach Sprache zu generieren. Das ist aktuell so stark, dass man Probleme haben könnte zu unterscheiden, was ist generiert und was ist echt?
Das nutzen Betrüger, um Stimmen zu klonen. Das heißt, sie nehmen die Stimme eines realen Menschen, kopieren diese Stimme und fügen eigene Texte ein. Das führt wiederum dazu, dass ich einen Menschen sagen lassen kann, was ich möchte. In den USA gibt es solche Fälle schon, vermehrt auch in Großbritanien. Aber die KI lernt sehr schnell Deutsch.
Bei dem Enkeltrick führt es nun dazu, dass Menschen angerufen werden, die glauben, es sei ein Verwandter am Telefon. Es ist aber kein Verwandter, es ist nur eine Künstliche Intelligenz, die die Stimme geklont hat. Die Leute werden am Telefon dann trotzdem unter Druck gesetzt und um Geld erpresst.
Sie sagen, für die Masche werden echte Stimmen, beispielsweise von Enkeln geklont. Wo kommen die geklonten Stimmen denn her?
Das ist das Gefährliche und das ist auch der Grund, wegen dem ich für das Thema sensibilisieren möchte: Die Stimmen kommen aus dem Internet. Wie viele Menschen kennen wir, die Videos bei TikTok posten, die Sprachnachrichten in öffentliche Whatsapp-Gruppen schicken, die Instagram- oder Youtube-Videos machen. Alles, was an Stimmen irgendwie im Internet gelandet ist, ist potentiell klonbar.
Man muss nicht mal viel Material dafür haben. Je mehr, desto besser natürlich. Aber es reichen aktuell nur wenige Minuten aus, um eine Stimme zu klonen. Die kann dann verwendet werden, einerseits um den Enkeltrick durchzuführen, aber andererseits auch, um in Unternehmen beispielsweise den Chef zu simulieren und dann Druck auf Angestellte auszuüben.
Lassen sich diese Betrugsversuche erkennen? Wie kann man sich möglicherweise schützen?
Es wird keinen effektiven Schutz geben. Es wird immer ein Katz und Maus-Spiel bleiben. Es wird sicherlich hier und da mal technische Möglichkeiten geben. Aber aktuell müssen wir einfach sehr sensibel auf solche Anrufe reagieren. Und nicht nur auf Anrufe, es geht auch um Sprachnachrichten oder E-Mails mit Anhängen.
Man muss in solchen Situationen ruhig bleiben. Man sollte auf jeden Fall erstmal darüber nachdenken, kann das echt sein, so abstrus das klingt. Das FBI in Amerika rät beispielsweise dazu, dass man sich ein Codewort für Menschen in Stresssituationen überlegt, das dann bei einem solchen Anruf abgefragt werden kann.
Aktuell ist es auch so, dass die KI's nicht in Echtzeit, also so, wie wir uns unterhalten, agieren können. Es können eigentlich nur vorgefertigte Texte produziert werden, kein Dialog. Man könnte also auch einfach mal dumme Fragen stellen. Sobald die Antworten nicht korrekt sind oder einem komisch vorkommen ist es vermutlich Betrug.
Aber man muss natürlich sehen, dass es eine Stresssituation ist. Niemand von uns ist darauf vorbereitet, dass die Tochter, der Ehemann, der Chef einen anruft, heulend, mit starken Emotionen. Hier einen klaren Kopf zu bewahren ist sehr schwierig, aber wir müssen uns darauf vorbereiten, denn jeder, der irgendwas im Internet gepostet hat, ist potentiell ein Ziel einer solchen Klonattacke.
Hier bleibt nicht viel mehr zu tun, als das, was man vielleicht schon früher zu seinen Eltern gesagt hat: klickt nicht jeden E-Mail-Anhang an, der euch komisch vorkommt. Jetzt müssen wir eben sagen: Akzeptiere nicht jeden Anruf als gegeben, als real. Das ist die Zukunft, auf die wir uns zubewegen und das ist keine ferne Zukunft. Im englischsprachigen Raum ist die Gefahr zwar noch größer, aber es beginnt auch hier. Und diese KI-Modelle für Sprachen werden so stark. Ein Beispiel: Meta, der Konzern hinter Facebook, hat seine KI zur Generierung von Sprache vorerst zurückgezogen. Die sehen auch hier genau das Problem.
Vielen Dank für das Gespräch!
Das Interview führte Florian Ludwig für Antenne Brandenburg.
Sendung: Antenne Brandenburg, 26.06.2023, 12:13 Uhr
Artikel im mobilen Angebot lesen