Eingabehilfen öffnen

Skip to main content

Generative KI und Cybersecurity: Wissenschaft trifft Praxis


Generative KI und Deepfake-Technologien bringen neue Herausforderungen für die Cybersicherheit mit sich. Durch täuschend echte Video- und Audiofälschungen können Angreifer in die Identität von Führungskräften oder Mitarbeitern schlüpfen und unerlaubte Transaktionen auslösen oder sensible Daten abgreifen. Die Weiterentwicklung dieser Technologien macht es notwendig, durch gezielte Mitarbeiterschulungen und Sicherheitsprozesse ein Bewusstsein für diese Risiken zu schaffen.

Einleitung

Das Telefon klingelt, und der Buchhaltungsmitarbeiter seufzt – ein Anruf kurz vor Feierabend. Zögernd nimmt er ab; auf dem Bildschirm erscheint ein Video: Die Geschäftsführerin, ernst und gestresst. Sie sei im Ausland, es gebe ein Problem. Ein wichtiger Deal drohe zu platzen. „Wir müssen heute noch eine Überweisung machen.“

Die Verbindung knistert, das Bild flackert, aber die Stimme ist unverkennbar. Kein Zweifel, es ist die Chefin. Der Mitarbeiter nickt, versucht zu begreifen, was auf dem Spiel steht. „Wir reden hier von Millionen“, fügt die Geschäftsführerin hinzu, sein Blick durchdringend. Alles hänge davon ab.

Das Gespräch endet abrupt, und sofort erscheint eine E-Mail. Der Mitarbeiter öffnet sie, seine Hände zittern leicht. Kontodaten, Betrag – alles ist klar und präzise aufgelistet. Es bleibt keine Zeit für Fragen, keine Zeit, das Gesagte zu hinterfragen. Die Stimme war authentisch, die Dringlichkeit echt – die Geschäftsführerin hat es angeordnet, und es gibt keine Zeit zu verlieren.

Was der Mitarbeiter nicht weiß: Am anderen Ende der Leitung saß nicht die Geschäftsführerin. Es war eine Künstliche Intelligenz (KI), ein Deepfake, der mit erschreckender Präzision Stimme und Gesicht imitiert hat. Ein perfekt orchestrierter Betrug, der in wenigen Minuten Millionen aus dem Unternehmen schleust.

Diese Geschichte ist fiktiv, doch genau so oder ähnlich kann es in der Realität passieren. Anfang 2024 wurde ein internationaler Konzern Opfer eines solchen Deepfake-Betrugs. Kriminelle inszenierten eine täuschend echte Videokonferenz, in der sie Stimmen und Gesichter von Führungskräften nachahmten. Der Druck war groß, die Situation schien dringend, und so gelang es ihnen, 24 Millionen Euro zu erbeuten. Der Mitarbeiter, der die Überweisung vornahm, hatte keine Chance, den Betrug zu erkennen.1

Doch nicht immer sind solche Angriffe erfolgreich. Im Frühjahr 2024 geriet Ferrari ins Visier von Betrügern. Ein Topmanager erhielt WhatsApp-Nachrichten und sogar einen Anruf von einer KI, die Stimme und Akzent des Ferrari-CEOs Benedetto Vigna perfekt imitierte. Doch der Manager war misstrauisch. Kleine Unstimmigkeiten in der Sprechweise ließen ihn aufhorchen, und er stellte eine Fangfrage. Der Betrug flog auf, bevor Schaden angerichtet werden konnte. Dieser Fall zeigt, wie täuschend echt solche Deepfake-Angriffe inzwischen sein können und wie knapp Unternehmen oft an einem Desaster vorbeischrammen.2 Für kleine und mittlere Unternehmen (KMU) ist es daher entscheidend, sich der Risiken bewusst zu sein und geeignete Sicherheitsmaßnahmen zu ergreifen.3

Das „Business Innovation Lab“ (BIL) der HAW Hamburg, als Teil des Mittelstand-Digital Zentrums Hamburg, untersucht und testet die Potenziale und Gefahren von Technologien wie Deepfakes und anderen generativen KI-Anwendungen. Ziel ist es, Unternehmen fundierte Einschätzungen zu möglichen Risiken und Nutzen dieser Technologien zu geben. Neben den Gefahren durch Missbrauch gibt es aber auch positive Einsatzszenarien. So können KMU generative KI nutzen, um beispielsweise automatisierte Produktvideos oder multilinguale Onboarding-Videos zu entwickeln. Durch praxisnahe Forschung und realitätsnahe Szenarien bietet das BIL KMU wertvolle Einblicke und unterstützt sie dabei, sich besser gegen Bedrohungen zu schützen und gleichzeitig innovative Anwendungen gewinnbringend zu nutzen.

Deepfakes: Die Kunst der digitalen Täuschung

Ursprünglich beschrieb der Begriff Deepfakes lediglich der Erstellung von KI-generierten Bildern. Mittlerweile sind damit jedoch auch täuschend echte Audio- und Videoaufnahmen gemeint. Deepfakes basieren auf Deep-Learning-Algorithmen, die Mimik, Gestik oder die Stimme einer Person analysieren und verblüffend realistisch reproduzieren können.5,6,7 Kriminelle nutzen diese Fortschritte, um in die Rolle von Geschäftsleitung, Mitarbeitern oder anderen Vertrauenspersonen zu schlüpfen. So können sie unbemerkt unbefugte Transaktionen durchführen oder auf sensible Daten zugreifen. Die Auswirkungen sind gravierend: Identitätsbetrug, Industriespionage und finanzieller Schaden sind nur einige der möglichen Konsequenzen.3,6,9

Früher waren minutenlanges Videomaterial und stundenweise Audioaufnahmen erforderlich, um realistische Fälschungen zu erstellen. Heute sind moderne Deep-Learning-Modelle in der Lage, mit nur einem oder wenigen Bildern einen einigermaßen realistischen Deepfake zu erzeugen. Ebenso können sie innerhalb weniger Sekunden die Stimme einer Person klonen. Die Erstellung hochwertiger Deepfakes war einst mit großem technischem Aufwand und hohen Kosten verbunden, die erhebliche Rechenleistung erforderten. Mittlerweile sind benutzerfreundliche Tools frei verfügbar, und kommerzielle Dienste bieten Deepfake-Software an, die auch auf normaler Verbraucher-Hardware läuft. Dadurch ist es nun auch technisch weniger versierten Personen möglich, täuschend echte Fälschungen zu erstellen.7

Automatisierte Phishing-Angriffe: Massenhafte Täuschung

Generative KI eröffnet Cyberkriminellen neue Möglichkeiten bei klassischen Phishing- und Spear-Phishing-Angriffen. Sie können personalisierte Phishing-Angriffe in großem Maßstab automatisieren und so massenhaft täuschen. Die durch Large Language Model generierten E-Mails wirken täuschend echt, weil sie individuell auf die jeweiligen Empfänger zugeschnitten werden können.4,6,8 Ein alarmierendes Beispiel ist der 135%ige Anstieg von Spam-Mails mit verbesserter Grammatik und Syntax, der auf den Einsatz generativer KI zurückzuführen ist.8

Neben E-Mails setzen Kriminelle auch automatisierte Telefonanrufe ein. Dabei verwenden sie synthetische Stimmen, um sensible Informationen zu erlangen – ein Vorgehen, das als Voice Phishing (Vishing) bezeichnet wird.4,8

WormGPT: Large Language Models für schnelle Malware-Entwicklung

Die Produktivitätsgewinne durch Large Language Models (LLMs) wie ChatGPT kommen nicht nur Unternehmen zugute, sondern auch Cyberkriminellen. Bereits 2021 tauchte WormGPT in Darknet-Foren auf; es soll speziell für die Entwicklung von Schadsoftware entwickelt worden sein. Im Gegensatz zu ethisch ausgerichteten Modellen bietet es uneingeschränkte Möglichkeiten zur Erstellung schädlicher Inhalte.4 Mit der Weiterentwicklung immer besserer freiverfügbarer Modelle ist davon auszugehen, dass auch die Qualität und Vielfalt der Malware steigen wird.

Visuelle Deepfakes: Funktionsweise und Technologien

Die Erstellung visueller Deepfakes basiert auf verschiedenen KI-Technologien, darunter Autoencoder, Generative Adversarial Networks (GANs) und Diffusionsmodelle.

Autoencoder

Autoencoder sind neuronale Netze, die darauf trainiert werden, Daten zu komprimieren und wiederherzustellen. Für Deepfakes werden zwei Autoencoder eingesetzt: einer mit Bildern der Zielperson, also der Person, deren Gesicht im Video erscheinen soll, und einer mit Bildern der Originalperson aus dem ursprünglichen Video.

Der Prozess funktioniert folgendermaßen: Der Encoder wandelt das Gesicht der Originalperson in eine komprimierte Darstellung um. Anstatt diese Daten mit dem eigenen Decoder zu rekonstruieren, wird der Decoder der Zielperson verwendet. So entsteht ein Gesichtstausch, bei dem das Gesicht der Originalperson durch das der Zielperson ersetzt wird. Das Ergebnis ist ein Video, in dem die Zielperson scheinbar die Mimik und Lippenbewegungen der Originalperson ausführt, was den täuschend echten Effekt des Deepfakes erzeugt.5 Möchte man hochqualitative Deepfakes wie in der Filmindustrie erzeugen, benötigt man in der Regel eine große Menge an Trainingsdaten. Tausende von Bildern oder Stunden an Rohvideomaterial sind nötig, damit die KI die Mimik, Gestik und andere Details einer Person präzise erlernen kann. Zusätzlich ist eine Trainingszeit von mehreren Tagen bis Wochen erforderlich, um diese hochauflösenden Deepfakes zu erstellen. Aufgrund des enormen Rechenaufwands sind solche Deepfakes oft nicht in Echtzeit nutzbar.5

Für eine Online-Videokonferenz mit begrenzter Qualität ist der Aufwand jedoch geringer. Hier können oft nur wenige Minuten Videomaterial oder sogar ein einzelnes Bild ausreichen. Das Training eines solchen Modells kann in wenigen Stunden bis zu einem Tag abgeschlossen sein.

Funktionsweise von Deepfake mittels Autoencoder
Abbildung 1: Deepfake mittels Autoencoder

Generative Adversarial Networks (GANs)

Es gibt auch Systeme, die kein spezielles weiterführendes Training benötigen. Einmal auf eine Vielzahl von Gesichtern trainiert, können diese Modelle in Echtzeit ein Deepfake eines bisher ungesehenen Gesichts erstellen. GANs bestehen aus zwei neuronalen Netzen: dem Generator und dem Diskriminator. Der Generator versucht, realistische Daten zu erzeugen, während der Diskriminator echte von gefälschten Daten zu unterscheiden versucht. Dieser Wettbewerb führt dazu, dass der Generator immer bessere und realistischere Deepfakes erstellt.9 Aufgrund des fehlenden speziellen Trainings weist das erzeugte Bild meist weniger Ähnlichkeit zum Original auf. Um Echtzeit-Fakes erstellen zu können, ist die Auflösung dieser Modelle oft zu gering.

Diffusionsmodelle

Diffusionsmodelle sind eine neuere Technologie, die hochrealistische Bilder erzeugen kann, indem sie den Prozess der Datenzerstörung umkehrt. Sie fügen zunächst Rauschen zu den Daten hinzu und trainieren dann ein neuronales Netzwerk, dieses Rauschen wieder in klare, realistische Bilder zu verwandeln. Diese Modelle sind in der Lage, äußerst komplexe und detailreiche Bild-Deepfakes zu erzeugen.10 Allerdings ist der Prozess derzeit noch recht aufwendig, und es gibt bisher keine praktikablen, frei verfügbaren Echtzeit-Anwendungen für Videos. Es ist jedoch zu erwarten, dass sich diese Technologie weiterentwickeln wird und in Zukunft realistische Echtzeit-Videoanwendungen möglich sein könnten – ähnlich wie wir es bereits von Video-Generatoren wie OpenAI’s Sora sehen.

Funktionsweise von Voice Deepfakes

Voice Deepfakes oder genauer gesagt Voice Cloning nutzen KI-Modelle, die Sprachaufnahmen analysieren, um die einzigartigen Merkmale einer Stimme zu erlernen – wie Tonhöhe, Sprachmelodie und Rhythmus. Mit diesen Informationen erzeugen sie neue Sprachdaten, die der Originalstimme sehr ähnlich sind. Die meisten modernen Voice-Cloning-Systeme basieren auf einer speziellen Art von Autoencoder.

Variational Autoencoder (VAE)

Variational Autoencoder (VAE) bestehen ebenfalls aus einem Encoder-Decoder-Paar. Der Encoder nimmt die Sprachaufnahme und extrahiert daraus die charakteristischen Merkmale der Stimme. Diese Merkmale werden in einem komprimierten Code, dem sogenannten latenten Raum, gespeichert. Der Decoder nutzt diesen Code, um eine neue Audioausgabe zu erzeugen, die der Originalstimme entspricht. Der Encoder des VAE strukturiert den latenten Raum so, dass er nicht nur die Stimme klonen, sondern auch neue Variationen der Stimme erzeugen kann. Dadurch kann der VAE die Originalstimme nicht nur imitieren, sondern sie auch in verschiedenen Stilen und Nuancen reproduzieren, was ihm eine größere Flexibilität verleiht.11,12,13

Früher benötigten solche Systeme viel Rechenzeit und Stunden an Aufnahmen, um eine Stimme realistisch zu klonen. Die Ausgaben klangen oft noch „mechanisch“ oder verzerrt. Heute genügen bereits Minuten oder sogar wenige Sekunden, um täuschend echte Stimmklone zu erzeugen. Neben kommerziellen Anbietern, die Voice Cloning als kostengünstige Dienstleistung für automatische Voice-Overs oder Videoübersetzungen anbieten, gibt es auch frei verfügbare Software. Die synthetischen Stimmen können in Echtzeit erzeugt werden, direkt während eines Gesprächs in Telefonaten oder Videokonferenzen.12

KI-gestützte Phishing-Angriffe: Funktionsweise

KI-gestützte Phishing-Angriffe nutzen Large Language Models (LLMs) wie ChatGPT, um personalisierte und überzeugende Phishing-Nachrichten zu erstellen. Automatisierte Systeme durchsuchen das Internet und soziale Netzwerke nach Informationen über Unternehmen und deren Mitarbeiter – wie Namen, Positionen und E-Mail-Adressen. Selbst scheinbar unwichtige Details werden verwendet, um spätere Phishing-Nachrichten authentischer zu gestalten.8 Mit diesen Daten erstellen LLMs personalisierte E-Mails und Nachrichten, die täuschend echt wirken und mit passenden Ansprachen und Themen versehen sind.8,9 Dadurch können Cyberkriminelle in Echtzeit massenhafte Phishing-Kampagnen durchführen, was die Effizienz und den potenziellen Schaden solcher Angriffe steigert.6

Gegenmaßnahmen – Praktische Ansätze für KMUs

Um sich vor den Gefahren von KI-unterstützten Cyberangriffen wie Deepfakes und Phishing zu schützen, müssen Unternehmen proaktiv handeln. Diese Bedrohungen lassen sich nicht allein durch technische Lösungen abwehren; sie erfordern gezielte Mitarbeiterschulungen und Sensibilisierung.

Es gibt zwar Softwarelösungen, die speziell zur Erkennung von Deepfakes entwickelt wurden.14 Doch dies ist ein ständiges Katz-und-Maus-Spiel zwischen Angreifern und Detektoren, und die Wirksamkeit dieser Systeme ist in der Praxis oft unzuverlässig. Daher ist es ratsam, die öffentliche Verfügbarkeit von Bildern und Videos von Mitarbeitern und Führungskräften zu minimieren, um weniger Angriffsfläche für Deepfakes zu bieten. Unternehmenswebseiten und soziale Netzwerke sollten regelmäßig überprüft werden, um sensible Materialien zu entfernen oder den Zugang zu beschränken. Sensible Informationen sollten nicht öffentlich zugänglich sein, und der Zugriff auf solche Daten sollte streng kontrolliert und nur autorisierten Personen gewährt werden.8 Ein bewusster Umgang mit Daten kann potenzielle Deepfake- oder Spear-Phishing-Angriffe bereits im Vorfeld erschweren.

Der wichtigste Schutz ist die Schulung der Mitarbeiter: Sie sollten über die Existenz, Funktionsweise und Risiken von Deepfakes und Phishing aufgeklärt werden. Durch regelmäßige Sensibilisierung sind sie besser darauf vorbereitet, verdächtige Inhalte zu erkennen. Ungewöhnliches Verhalten – wie ein abweichendes Profilbild, mangelnde Interaktion oder ein abruptes Beenden des Gesprächs – sollte als potenzielles Warnsignal erkannt werden. Im Zweifelsfall ist es ratsam, gezielte Fragen zu stellen, die nur die echte Person beantworten kann. E-Mails und Anrufe, vor allem aus unbekannten Quellen, sollten kritisch betrachtet und nicht sofort vertraut werden. KMUs sollten klare Prozesse zur Identitätsprüfung von Anrufern und Videokonferenzteilnehmern etablieren, um sich vor KI-unterstützten Angriffen zu schützen. Besonders bei sensiblen Themen oder finanziellen Transaktionen ist es wichtig, eine zusätzliche Sicherheitsebene einzuführen.3 Beispielsweise können festgelegte Sicherheitsfragen oder Codewörter genutzt werden, um die Identität des Gesprächspartners zu verifizieren. Zusätzlich können einfache Methoden angewendet werden, um Deepfake-Systeme zu stören. Viele dieser Systeme nutzen Gesichtserkennung, bei der die Software die Position des Gesichts im Bild erkennt, um es anschließend manipulieren zu können. Sie funktionieren oft nicht richtig, wenn das Gesicht verdeckt wird oder man die gespreizten Finger langsam vor dem Gesicht vorbeiführt, im Zweifel müssen Mitarbeiter ihre Gesprächspartner dazu auffordern, um den Deepfake zu entlarven. Diese Methode, die auch bei Online-Identifizierungsverfahren von Banken eingesetzt wird, bietet jedoch keinen vollständigen Schutz, da fortgeschrittene Deepfake-Modelle solche Störungen umgehen könnten.

Glossar

Autoencoder

Neuronale Netze, die darauf trainiert sind, Daten zu komprimieren und wiederherzustellen. In Deepfake-Technologien genutzt, um Gesichter zu tauschen.

Deepfake

Digital erstellte Fälschungen, realistische Audio- oder Videoinhalte, die mit KI-Technologien wie Deep Learning generiert wurden.

Deep Learning

Ein Bereich des maschinellen Lernens, der auf tiefen (vielschichtigen) neuronalen Netzen basiert und es Computern ermöglicht, komplexe Muster in Daten zu erkennen.

Diffusionsmodelle

KI-Technologie, die hochrealistische Bilder erzeugt, indem sie den Prozess der Datenzerstörung umkehrt und aus verrauschten Daten klare Bilder rekonstruiert.

Generative Adversarial Networks (GANs)

Ein neuronales Netzwerkmodell, bestehend aus einem Generator, der neue Daten erzeugt, und einem Diskriminator, der authentische Daten von den generierten unterscheidet, was zu stetig verbesserten und realistischeren Ausgaben führt.

Generative KI

KI-Systeme, die neue Inhalte wie Texte, Bilder oder Musik selbstständig erzeugen können. Sie nutzen fortgeschrittene Algorithmen, um Muster in Daten zu lernen und kreativ anzuwenden.

Large Language Models (LLMs)

Große neuronale Netzwerke, die darauf spezialisiert sind, menschenähnliche Texte zu generieren. Sie verstehen und produzieren Sprache basierend auf umfangreichen Trainingsdaten.

Phishing

Betrügerische Versuche, durch gefälschte E-Mails oder Nachrichten vertrauliche Informationen zu erlangen.

Spear-Phishing

Eine zielgerichtete Form des Phishings, bei der die Angriffe auf spezifische Individuen oder Unternehmen zugeschnitten sind.

Variational Autoencoder (VAE)

Eine spezielle Art von Autoencoder, der für generative Aufgaben verwendet wird. Der VAE modelliert die zugrunde liegenden Wahrscheinlichkeitsverteilungen der Eingabedaten, um neue Datenpunkte zu generieren, die den Originaldaten ähnlich sind.

Vishing

Phishing durch Einsatz von Telefonanrufen, wobei oft synthetische Stimmen verwendet werden, um sensible Informationen zu erschleichen.

Voice Cloning

Prozess des Nachbildens einer menschlichen Stimme mithilfe von KI, um täuschend echte Audioinhalte zu erzeugen.

Voice Deepfakes

Anwendung von Deepfake-Technologie auf menschliche Stimmen, oft für betrügerische Zwecke.

WormGPT

Eine spezielle Version von Large Language Models, die zur schnellen Entwicklung von Schadsoftware im Darknet eingesetzt wird.

FAQ: Wir beantworten Ihre Fragen zu KI und Cybersecurity.

Was sind Deepfakes und wie funktionieren sie?

Deepfakes basieren auf Deep-Learning-Algorithmen (z. B. Autoencodern, GANs, Diffusionsmodellen), die Mimik, Gestik und Stimme einer Person analysieren und täuschend realistisch reproduzieren. Für hochqualitative Ergebnisse sind meist umfangreiche Trainingsdaten und viel Rechenleistung nötig, doch für einfache Video- oder Voice-Fakes genügen bereits wenige Minuten Material.

Welche Risiken entstehen durch KI-gestützte Phishing-Angriffe?

Mit Large Language Models lassen sich personalisierte Phishing-Mails und Vishing (Von Video-Phishing)-Anrufe automatisiert und in großer Zahl versenden. Die Nachrichten sind oft grammatikalisch einwandfrei und enthalten Informationen aus öffentlichen Quellen, was die Glaubwürdigkeit erhöht und den potenziellen Schaden vergrößert.

Wie können KMU sich effektiv gegen diese Bedrohungen schützen?

Neben technischen Detektionslösungen sind klare Prozesse zur Identitätsprüfung (z. B. Codewörter, Sicherheitsfragen) und regelmäßige Sensibilisierungs- und Schulungsmaßnahmen für alle Mitarbeitenden essenziell. Auch die Minimierung öffentlich verfügbarer Bilder und Videos von Führungskräften verringert die Angriffsfläche für Deepfakes.

Gibt es zuverlässige Tools zur Erkennung von Deepfakes?

Es existieren spezialisierte Softwarelösungen, doch das Wettrüsten zwischen Angreifern und Detektoren hält an. Menschliche Überprüfungen und proaktive Sicherheitsprozesse bleiben daher unverzichtbar.

Wie können KMU generative KI positiv nutzen?

Über die Risiken hinaus bietet generative KI für KMU Chancen, etwa durch automatisierte Produktpräsentationen, mehrsprachige Onboarding-Videos oder personalisierte Marketingkampagnen. Praxisnahe Forschung, wie im Business Innovation Lab der HAW Hamburg, unterstützt Unternehmen dabei, diese Potenziale zu heben.

Der Artikel steht Ihnen hier als PDF zum Download bereit – kompakt, fundiert und praxisnah. Haben Sie noch mehr Interesse zu diesem Thema, dann wagen Sie doch einen Blick ins Mittelstand-Digital Magazin – WISSENSCHAFT TRIFFT PRAXIS zum Thema Cybersicherheit.

Generative KI & Cybersecurity: Wissenschaft trifft Praxis

Autoren:

Jan Fischer M.Sc. und Prof. Dr.-Ing. Axel Wagenitz

Quellen

[1] Hurtz S. Deepfake-Betrug: Angestellter überweist 24 Millionen Euro ins Nichts [Internet]. Süddeutsche.de. Süddeutsche Zeitung; 2024 [cited 2024 Sep 19]. Available from: https://www.sueddeutsche.de/wirtschaft/deepfake-betrug-videokonferenz-hongkong-1.6344209

[2] Brien J. KI-Deepfake-Betrug gescheitert: Ferrari-Manager stellt entscheidende Frage [Internet]. t3n Magazin. t3n Magazin; 2024 [cited 2024 Sep 19]. Available from: https://t3n.de/news/ki-deepfake-betrug-ferrari-manager-entscheidene-frage-1638005/

[3] Bundesamt für Sicherheit in der Informationstechnik [Internet]. Bundesamt für Sicherheit in der Informationstechnik. BSIWEB; 2022 [cited 2024 Sep 19]. Available from: https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html

‌[4] Falade P. Decoding the Threat Landscape : ChatGPT, FraudGPT, and WormGPT in Social Engineering Attacks. J Sci Res Comput Sci Eng Inf Technol [Internet]. 2023;9(5):185–98. Available from: https://arxiv.org/ftp/arxiv/papers/2310/2310.05595.pdf

[5] Perov I, Gao D, Chervoniy N, Liu K, Marangonda S, Umé C, et al. DeepFaceLab: A simple, flexible and extensible face swapping framework. arXiv:200505535 [cs, eess] [Internet]. 2020 May 20; Available from: https://arxiv.org/abs/2005.05535

[6] Mirsky Y, Demontis A, Kotak J, Shankar R, Gelei D, Yang L, et al. The Threat of Offensive AI to Organizations [Internet]. arXiv.org. 2021 [cited 2024 Sep 19]. Available from: https://arxiv.org/abs/2106.15764

[7] Bovenschulte M. Deepfakes – Manipulation von Filmsequenzen. 2019 Jan 1 [cited 2024 Sep 19]; Available from: https://publikationen.bibliothek.kit.edu/1000133910

[8] Neupane S, Fernandez IA, Mittal S, Rahimi S. Impacts and Risk of Generative AI Technology on Cyber Defense [Internet]. arXiv.org. 2023 [cited 2024 Sep 19]. Available from: https://arxiv.org/abs/2306.13033v1

[9] Dash B, Sharma P. Are ChatGPT and Deepfake Algorithms Endangering the Cybersecurity Industry? A Review. IJEAS. 2023;10(1). doi: 10.31873/IJEAS.10.1.01.

[10] Bhattacharyya C, Wang H, Zhang F, Kim S, Zhu X. Diffusion Deepfake [Internet]. arXiv.org. 2024 [cited 2024 Sep 19]. Available from: https://arxiv.org/abs/2404.01579v1

[11] Casanova E, Davis K, Gölge E, Göknar G, Gulea I, Hart L, et al. XTTS: a Massively Multilingual Zero-Shot Text-to-Speech Model [Internet]. arXiv.org. 2024. Available from: https://arxiv.org/abs/2406.04904

[12] Bird JJ, Lotfi A. Real-time Detection of AI-Generated Speech for DeepFake Voice Conversion [Internet]. arXiv.org. 2023 [cited 2024 Sep 19]. Available from: https://arxiv.org/abs/2308.12734v1

[13] Kim J, Kong J, Son J. Conditional Variational Autoencoder with Adversarial Learning for End-to-End Text-to-Speech [Internet]. arXiv.org. 2021 [cited 2024 Sep 19]. Available from: https://arxiv.org/abs/2106.06103v1

‌[14] Pei G, Zhang J, Hu M, Zhang Z, Wang C, Wu Y, et al. Deepfake Generation and Detection: A Benchmark and Survey [Internet]. arXiv.org. 2024 [cited 2024 Sep 19]. Available from: https://arxiv.org/abs/2403.17881v4






Fazit

Die rasante Entwicklung von generativer KI und Deepfake-Technologien stellt eine erhebliche Gefahr für die Cybersicherheit dar. Von täuschend echten Video- und Audioaufnahmen bis hin zu KI-gestützten Phishing-Angriffen – die Möglichkeiten für Cyberkriminelle, Unternehmen zu schädigen, nehmen stetig zu. Diese Technologien haben nicht nur die Qualität von Angriffen verbessert, sondern auch die Eintrittsbarriere für weniger versierte Täter gesenkt.

Die Bedrohung durch Deepfakes und automatisierte Phishing-Angriffe zeigt, dass technische Lösungen allein nicht ausreichen. Besonders KMUs müssen auf Mitarbeiterschulungen und ein erhöhtes Bewusstsein setzen. Nur durch gezielte Sensibilisierung und die Einführung klarer Sicherheitsprozesse kann man sich effektiv gegen diese Art von Angriffen schützen.

Obwohl spezialisierte Softwarelösungen zur Erkennung von Deepfakes existieren, bleibt der Kampf zwischen Angreifern und Verteidigern ein fortwährendes Katz-und-Maus-Spiel. Deshalb ist es entscheidend, proaktiv zu handeln – sei es durch die Kontrolle öffentlich verfügbarer Informationen oder durch die Entwicklung eines gesunden Misstrauens gegenüber ungewöhnlichen Anfragen. Letztlich liegt der Fokus darauf, die menschlichen Faktoren zu stärken. Geschulte und aufmerksame Mitarbeiter machen den entscheidenden Unterschied im Kampf gegen KI-gestützte Cyberangriffe aus.

Unser kostenfreies Unterstützungsangebot für Sie

Sie wollen die Cybersicherheit in Ihrem Unternehmen verbessern oder die neue KI-Technologie im Einsatz erleben? Ob offene Fragen oder konkrete Problemstellungen, die Sie mit uns angehen möchten – unsere Expert:innen bieten KMUs vielfältige Unterstützungsangebote zu generativen KI-Technologien. Diese umfassen Beratungen zur Identifikation von Risiken und Entwicklung von Schutzstrategien, aber auch Schulungen, um die Potenziale der Technologien im Bereich Kundenkommunikation und Marketing zu nutzen.

Kontaktieren Sie uns einfach unter: mittelstand-digital@haw-hamburg.de