ADVERTORIAL
Kaum jemand hätte noch vor wenigen Jahren gedacht, dass ausgerechnet Künstliche Intelligenz dazu verwendet wird, um Stimmen zu klauen, Gesichter in falsche Kontexte zu setzen und ahnungslose Menschen dazu zu bringen, Geld an Betrüger zu überweisen. Doch genau das passiert und zwar immer öfter. Deepfakes, ursprünglich als faszinierendes Technikwunder bestaunt, haben sich inzwischen zum Werkzeug digitaler Trickbetrüger entwickelt. Besonders raffiniert wird es dann, wenn diese täuschend echten Fälschungen mit klassischen Phishing-Methoden kombiniert werden. Das Ergebnis ist ein Cocktail aus perfektem Betrugspotenzial, dem selbst Sicherheitsprofis nicht immer gewachsen sind.
Was Deepfakes so gefährlich macht
Die Grundidee lässt sich schnell erfassen, doch ihre Wirkung ist enorm. Deepfakes sind Medieninhalte, meist Videos oder Audiodateien, die mithilfe künstlicher Intelligenz so manipuliert wurden, dass sie real erscheinen. Dahinter steckt kein Hexenwerk, sondern maschinelles Lernen. Genauer gesagt kommen neuronale Netze zum Einsatz. Besonders sogenannte GANs, also Generative Adversarial Networks, ermöglichen es, Gesichter, Stimmen und sogar Bewegungsmuster digital nachzubauen und das mit einer Qualität, die es Laien fast unmöglich macht, zwischen echt und gefälscht zu unterscheiden. Was diese Technik besonders gefährlich macht, ist ihre emotionale Durchschlagskraft. Während klassische Phishing-Mails oft plump wirken und mit Grammatikfehlern oder offensichtlichen Lügen arbeiten, treten Deepfakes mit einem scheinbar menschlichen Lächeln, vertrauter Stimme und dem Tonfall auf, den man sonst nur aus echten Videokonferenzen kennt. Genau darin liegt ihr Vorteil. Sie spielen gezielt mit dem natürlichen Vertrauen in visuelle und akustische Informationen. Wenn ein bekanntes Gesicht auf dem Bildschirm erscheint und scheinbar überzeugend spricht, wird selbst ein kritisches Bauchgefühl träge. Diese Art des Betrugs ist längst keine futuristische Ausnahmeerscheinung mehr, sondern bereits Realität. Deepfake-Phishing kombiniert technische Raffinesse mit psychologischem Feingefühl, was die Verteidigung gegen solche Angriffe enorm erschwert.
Wie Deepfake-Phishing-Angriffe in der Realität funktionieren
Die Vorstellung, dass solche Angriffe nur in Kinofilmen vorkommen, hält nicht lange stand. Ein besonders aufsehenerregender Fall spielte sich in Hongkong ab. Ein Mitarbeiter glaubte, per Videocall mit seinem CFO aus Großbritannien zu sprechen. Der Mann im Video sah vertraut aus, sprach mit britischem Akzent und wies eine dringende Überweisung an. Am Ende waren mehr als 20 Millionen Euro verschwunden. Der CFO hatte nie an diesem Gespräch teilgenommen, er wurde digital nachgebaut. Solche Fälle häufen sich. Immer häufiger gelingt es Betrügern, mithilfe öffentlich zugänglicher Videoaufzeichnungen oder Sprachproben, reale Personen zu imitieren und damit gezielte Täuschungsmanöver durchzuführen. Diese Videos enthalten oft nur wenige Sekunden an scheinbar glaubhafter Kommunikation und reichen trotzdem aus, um Druck aufzubauen oder Vertrauen zu erschleichen. Auch in der Glücksspielbranche treten diese Phänomene auf. Hier nutzen Betrüger Deepfakes, um Identitätsprüfungen zu umgehen. Bei sogenannten KYC-Prozessen (Know Your Customer) wird ein Video benötigt, das das Gesicht der anmeldenden Person zeigt. Deepfake-Technologie erlaubt es, solche Videos mit kopierten Gesichtern und Stimmen zu fälschen. So können gesperrte Konten wieder aktiviert, Bonusangebote mehrfach genutzt oder gar Geldwäsche verschleiert werden. Dass auf einer Website über Ruhrgebiet-Stadtrundfahrten auch Erfahrungsberichte zu Online-Casinos erscheinen, mag im ersten Moment überraschen, ist jedoch keineswegs ungewöhnlich. Im Zuge des stetig wachsenden Online-Marktes ist es durchaus üblich, dass thematisch gemischte Portale verschiedene digitale Angebote vorstellen oder testen.
Woran sich ein Deepfake erkennen lässt
Es gibt durchaus Hinweise, die auf eine Fälschung hindeuten, allerdings sind diese selten eindeutig. In der Anfangszeit waren es starre Gesichter, ein fehlender Lidschlag oder monotone Stimmen, die Deepfakes entlarvten. Doch die Technik entwickelt sich rasant. Heute blinzeln diese digitalen Doubles, reagieren scheinbar spontan und sprechen in fließenden Sätzen. Trotzdem bleiben feine Unstimmigkeiten bestehen. Beispielsweise wirken Lippenbewegungen manchmal leicht verzögert oder der Ton klingt ungewöhnlich gleichmäßig. In anderen Fällen passen Schatten und Lichtverhältnisse nicht zur Umgebung oder der Hintergrund beginnt bei Kopfbewegungen zu flackern. Wer genau hinsieht, erkennt solche Details, aber im Alltag bleibt dafür oft keine Zeit.
Technik und Menschenverstand können Deepfake-Phishing verhindern
Sinnvoller Schutz basiert auf einer Kombination aus technischen Hilfsmitteln, Weitsicht und einem wachsamen Verstand. Besonders in Unternehmen sollten nicht nur IT-Systeme gestärkt, sondern auch die Mitarbeitenden umfassend geschult werden, denn ein Video, das auf den ersten Blick vertraut erscheint, kann trotzdem trügen. Trainings zur Erkennung digitaler Manipulationen sind keine freiwillige Maßnahme zur Imagepflege, sondern essenziell. Daneben bieten technische Hilfsmittel zusätzliche Sicherheit. Tools zur Videoanalyse, die Metadaten überprüfen oder künstlich generierte Bewegungsmuster erkennen, gehören ebenso dazu wie digitale Signaturen.
Was erlaubt ist und wo Grenzen überschritten werden
Die rechtliche Bewertung von Deepfakes bleibt kompliziert. Sobald Persönlichkeitsrechte verletzt werden, liegt in der Regel ein klarer Verstoß vor. Gleiches gilt für Fälle von Betrug, Identitätsdiebstahl oder Fälschung. Doch viele Inhalte bewegen sich unterhalb dieser Schwelle. Ein satirisch gemeintes Tanzvideo mit einem Politiker imitiert zwar ein reales Gesicht, zielt jedoch nicht auf Täuschung ab und ist möglicherweise vom Recht auf freie Meinungsäußerung gedeckt. Schwierig wird es erst, wenn Schaden entsteht oder gezielte Irreführung beabsichtigt ist. Zudem ist die Rechtsdurchsetzung nicht immer praktikabel. Viele Deepfake-Produzenten operieren anonym oder im Ausland. Nationale Gesetzgebungen stoßen hier schnell an ihre Grenzen. Zwar wird derzeit über eine Kennzeichnungspflicht für KI-generierte Inhalte diskutiert, doch eine einheitliche Regelung ist bislang nicht absehbar. Bis dahin bleibt es bei der Verantwortung des Einzelnen, aufmerksam zu bleiben und Manipulation nicht unwidersprochen hinzunehmen.
Empfehlungen aus offizieller Sicht
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) betrachtet Deepfakes als reale Gefahr. In Stellungnahmen wird deutlich, wie einfach es inzwischen ist, überzeugend wirkende Fälschungen zu erstellen und wie schnell diese in alltägliche Prozesse eindringen können. Empfohlen wird ein ganzheitlicher Sicherheitsansatz, der technologische Maßnahmen mit menschlicher Wachsamkeit verbindet. Kritisches Hinterfragen digitaler Inhalte, Plausibilitätschecks und der bewusste Umgang mit medialen Reizen sind laut BSI unverzichtbar. Auch klicksafe.de schließt sich diesen Einschätzungen an. Neben technischen Hinweisen liegt der Fokus hier verstärkt auf Bildung, Medienkompetenz und Aufklärung. Schulen, Unternehmen und öffentliche Einrichtungen sollen befähigt werden, mit Deepfakes verantwortungsvoll umzugehen. Solange die Technik immer raffinierter wird, sollte man stets wachsam bleiben, Informationen nicht blind glauben und sich selbst regelmäßig fragen, wie viel Realität tatsächlich im Bildschirm steckt, denn genau im Zweifel und im Denken beginnt der Schutz.