Ein internationales Forscherteam hat mit ScamChatBot ein KI-System gebaut, das sich als potenzielles Opfer ausgibt, um Betrüger zu enttarnen. Ziel ist es, Zahlungsinformationen aufzudecken, um so den Betrug zu bekämpfen.
Das Ziel: Sobald der Onlinebetrüger Kontodaten nennt, an die das Geld überwiesen werden soll, werden diese automatisch an Zahlungsdienstleister wie zum Beispiel PayPal weitergeleitet. Diese können dann die Konten sperren und so Internetnutzende und davor bewahren, betrogen zu werden.
Über vier Monate tauschte ScamChatBot mehr als 18.000 Chatnachrichten mit Betrügern aus. In rund 500 Fällen gelang es, konkrete Informationen zu sammeln, darunter Wallet-Adressen, PayPal-Konten oder Links zu Betrugswebseiten. Die Plattform X bestätigte gegenüber den Wissenschaftlern, dass 84 Prozent der gemeldeten Profile gegen Richtlinien verstießen und leitete Maßnahmen gegen 1,4 Millionen verknüpfte Accounts ein.
Aktuell trainieren die Forscherinnen und Forscher die KI, so dass sie auch mit Betrügern telefonieren kann.
Laut dem UN-Büro für Drogen- und Verbrechensbekämpfung in Südostasien belaufen sich die Schäden weltweit auf rund 40 Milliarden US-Dollar pro Jahr. Befördert wird das unter anderem durch den Einsatz von KI, die es den Kriminellen erlaubt, Sprachbarrieren zu überwinden und automatisiert auf viele Opfer gleichzeitig zuzugehen.
Laut den Vereinten Nationen werden in Südostasien mehr als 100.000 Menschen in sogenannten Scam-Fabriken unter Zwang festgehalten. Sie müssen unter falscher Identität betrügen, dies oft mit Hilfe von Tools wie ChatGPT. Laut UN-Analyst Benedikt Hofmann entstehen in Ländern wie Myanmar oder Laos systematisch neue Standorte für organisierten Internetbetrug, begünstigt durch instabile politische Verhältnisse.
Auch hierzulande zeigt sich das Problem: Im Jahr 2024 wurden laut Bundeslagebild Cybercrime mehr als 130.000 Fälle mit Tatort in Deutschland erfasst, dazu rund 202.000 Taten, deren Ursprung im Ausland liegt, die aber in Deutschland ihre Wirkung entfalten. Das Bundeskriminalamt nennt vor allem "Cybercrime-as-a-Service" als wachsenden Faktor: Kriminelle mieten sich Dienstleistungen vom Fake-Profil bis zur automatisierten Zahlungsaufforderung.
Doch auch die Cyberkriminellen entwickeln sich immer weiter. In etwa jedem vierten Fall stellte das Forscherteam fest, dass die Betrüger selbst automatisierte Texte verwendeten. Manche Online-Betrüger reagierten etwa in unter einer Sekunde, was ein Hinweis auf Bot-Nutzung ist. "Wir stehen erst am Anfang", sagt IT-Sicherheitsforscher Thorsten Holz. "Die nächste Welle an Betrugs-KI ist bereits unterwegs."