deepfakes

Deepfakes: Eine Bedrohung für Unternehmen und Gesellschaft

Was sind Deepfakes?

Deepfakes sind manipulierte Inhalte, die mithilfe künstlicher Intelligenz erstellt werden. Der Begriff setzt sich aus „Deep Learning“ und „Fake“ zusammen, da tief lernende neuronale Netzwerke für ihre Erstellung verwendet werden. Diese Technologien können täuschend echte Videos, Audios oder Texte erzeugen, die auf den ersten Blick authentisch wirken. Durch den technischen Fortschritt und die Weiterentwicklung von KI-Algorithmen ist die Erstellung hochwertiger Deepfakes mittlerweile auch für Laien möglich geworden. Ein Beispiel hierfür ist ein virales TikTok-Video, das scheinbar den Schauspieler Tom Cruise zeigte, tatsächlich aber durch einen Imitator und KI-Software erstellt wurde. Eine ausführlichere Einführung in das Thema Deepfakes bietet ein Interview des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), das Sie hier finden.

 

Arten von Manipulationen

Deepfakes treten in verschiedenen Medienformaten auf und umfassen zahlreiche Manipulationsmethoden. Bei der Gesichtsfälschung, dem sogenannten Face-Swapping, wird das Gesicht einer Person durch das einer anderen ersetzt, wobei Mimik, Beleuchtung und Bewegungen der Ursprungsperson erhalten bleiben. Eine weitere Methode, Face-Reenactment, verändert Mimik und Bewegungen einer Zielperson, um Aussagen oder Reaktionen zu erzeugen, die täuschend echt wirken. Darüber hinaus können Künstliche Intelligenzen Gesichter synthetisieren, die in Wirklichkeit nicht existieren.

Auch die Manipulation von Stimmen ist eine gängige Methode. Mithilfe von Text-to-Speech-Systemen werden Texte in Audiodateien umgewandelt, die einer echten Stimme ähneln. Ebenso kann vorhandenes Audiomaterial durch Voice Conversion in die Stimme einer anderen Person umgewandelt werden. Diese Technologien entwickeln sich rasant weiter und könnten in Zukunft mit noch weniger Ausgangsmaterial auskommen.

Neben Videos und Audios generiert KI auch realistisch wirkende Texte. Modelle wie GPT können aus wenigen Eingaben überzeugende längere Texte erstellen, die kaum von menschlich geschriebenen Texten zu unterscheiden sind. Solche Technologien werden in Chatbots oder zur Automatisierung von Nachrichten genutzt, was sowohl Positive als auch potenziell problematische Anwendungen ermöglicht.

 

Wie erkennt man Deepfakes?

Die Erkennung von Deepfakes ist eine Herausforderung, da sie oft so realistisch wirken, dass sie schwer zu durchschauen sind. Es gibt jedoch einige Merkmale, an denen manipulierte Inhalte erkannt werden können. Unlogische oder inkonsistente Elemente, unterschiedliche Schärfen oder Beleuchtungen zwischen Vorder- und Hintergrund sowie unnatürlich glatte Gesichter und Bewegungen können Hinweise auf Deepfakes sein. Zudem sollte die Quelle stets auf ihre Zuverlässigkeit überprüft werden. Auch Technologien wie das Tool „DeepFake-o-meter“ können helfen, Deepfakes zu identifizieren. Weitere Informationen und Empfehlungen zur Erkennung und zum Umgang mit Deepfakes finden Sie auf der Webseite des Bundesamts für Sicherheit in der Informationstechnik (BSI) hier.

 

Gefahren für Unternehmen und Gesellschaft

Die Gefahren, die Deepfakes mit sich bringen, sind vielfältig und betreffen insbesondere Unternehmen. So könnten biometrische Sicherheitssysteme durch gefälschte Videos oder Stimmen ausgetrickst werden. Ebenso besteht die Gefahr finanziellen Betrugs, wenn beispielsweise Betrüger mit Deepfakes die Identität von Führungskräften annehmen und gefälschte Anweisungen erteilen (CEO-Fraud). Rufschädigungen durch manipulierte Inhalte sowie Desinformationskampagnen können ebenfalls erhebliche Schäden verursachen. In einigen Fällen werden Deepfakes auch zur Erpressung oder für Cybermobbing eingesetzt. Hinzu kommen rechtliche Risiken, da Deepfakes häufig Persönlichkeits- oder Urheberrechte verletzen.

 

Wie können Unternehmen sich schützen?

Um sich vor diesen Gefahren zu schützen, ist IT-Sicherheit von zentraler Bedeutung. Unternehmen sollten Maßnahmen ergreifen, um Identitätsdiebstahl zu verhindern, etwa durch den Einsatz von Mehrfaktor-Authentifizierung. Spezielle Software zur Erkennung von Deepfakes und die Verschlüsselung sensibler Daten können die Sicherheit weiter erhöhen. Mitarbeiterschulungen und Awareness-Programme spielen eine wichtige Rolle, um für die Risiken zu sensibilisieren. Notfallpläne, die im Falle eines Angriffs aktiviert werden können, helfen dabei, den Schaden zu begrenzen und das Vertrauen der Öffentlichkeit wiederherzustellen.

Auch die Überwachung von Netzwerken und Systemen ist entscheidend, um verdächtige Aktivitäten frühzeitig zu erkennen. Anomalie-Erkennung und Log-Analyse können dabei helfen, Angriffe aufzudecken. Unternehmen sollten den Zugang zu sensiblen Daten wie Videos beschränken und darauf achten, dass öffentlich zugängliche Inhalte minimiert werden. Die Zusammenarbeit mit Cybersecurity-Experten und Forschungseinrichtungen ermöglicht den Zugang zu den neuesten Technologien und Sicherheitslösungen.

 

Technologische Entwicklungen zur Deepfake-Erkennung

Parallel dazu arbeiten große Unternehmen wie Microsoft und Facebook an automatisierten Tools zur Erkennung von Deepfakes. Diese Technologien zeigen, wie wichtig es ist, Sicherheitsstrategien kontinuierlich anzupassen. Deepfakes entwickeln sich ständig weiter, sodass Unternehmen und Organisationen wachsam bleiben müssen, um digitale Identitäten und sensible Daten effektiv zu schützen.

 

Fazit

Deepfakes stellen eine komplexe und wachsende Bedrohung für Unternehmen, Organisationen und die Gesellschaft dar. Sie haben das Potenzial, erhebliche Schäden in den Bereichen Sicherheit, Finanzen, Reputation und Informationsintegrität zu verursachen. Obwohl Deepfakes auch positive Anwendungen haben können, überwiegen derzeit die Risiken, insbesondere durch die zunehmende Verfügbarkeit von Tools, die es selbst technisch versierten Laien ermöglichen, täuschend echte Manipulationen zu erstellen.

Der Umgang mit dieser Bedrohung erfordert eine ganzheitliche Herangehensweise, die technische Innovation, Aufklärung und rechtliche Rahmenbedingungen vereint. Unternehmen und Organisationen müssen wachsam bleiben, um digitale Identitäten und sensible Daten zu schützen und die Integrität von Informationen in einer zunehmend manipulierbaren digitalen Welt zu wahren.

Christian Herbst - CEO, IT-Security, NIS-2, Projektmanagement und Datenschutz

Christian Herbst

Chief Executive Officer