
Deepfakes: Wenn Realität ins Wanken gerät
Zahlreiche Anwendungen der KI haben sich in den vergangenen Jahren bewährt, insbesondere in Bereichen wie Text- und Bildgenerierung, Automatisierung und Datenanalyse. Gleichzeitig mehren sich Stimmen, die auf potenzielle Gefahren hinweisen: etwa in Bezug auf Datenschutz, unbewusste Diskriminierung durch algorithmische Verzerrungen oder missbräuchliche Nutzung von Inhalten.
Ein besonders sensibles Thema ist dabei die Manipulation audiovisueller Medien durch sogenannte Deepfakes.
Was versteht man unter Deepfakes?
Der Begriff „Deepfake“ setzt sich aus den Worten „Deep Learning“ und „Fake“ zusammen.(1)(3) Gemeint sind Bild-, Video- oder Tonaufnahmen, die durch KI-basierte Methoden derart verändert wurden, dass sie echt erscheinen – obwohl sie es nicht sind. So lassen sich unter anderem Gesichter austauschen, Stimmen imitieren oder Aussagen generieren, die nie gefallen sind.(4)
Diese Technik basiert auf komplexen neuronalen Netzwerken, die Muster erkennen und imitieren. (2) In der Praxis entstehen daraus teils täuschend echte Inhalte, deren Ursprung oft nicht mehr eindeutig nachvollziehbar ist.(4)
Welche Verfahren werden eingesetzt?
In der Anwendungspraxis gibt es unterschiedliche Methoden, um Deepfakes zu erzeugen:
Face Swapping: Ein Gesicht wird durch ein anderes ersetzt, wobei Mimik und Bewegung erhalten bleiben.
Face Reenactment: Die Mimik einer anderen Person wird auf ein vorhandenes Gesicht projiziert.
Text-to-Speech: Geschriebener Text wird synthetisch vertont.
Voice Conversion: Eine Stimme wird so verändert, dass sie wie die einer bestimmten Person klingt.
Digitale Identitäten: Durch Kombination mehrerer Verfahren entstehen komplett künstliche Persönlichkeiten.
Diese Techniken sind heute mit geringem Aufwand und teils frei zugänglicher Software realisierbar – selbst ohne tiefere technische Kenntnisse.(4)
Wozu werden Deepfakes genutzt – und wo liegen die Risiken?
Während Deepfakes in kreativen Bereichen wie Film oder Werbung Anwendung finden, geraten sie zunehmend durch missbräuchliche Nutzung in den Fokus. Im politischen Kontext etwa werden manipulierte Videos eingesetzt, um gezielt Desinformationen zu verbreiten. Auch im juristischen Umfeld können sie Beweismittel verfälschen und so Ermittlungen erschweren.(5)
Zudem werden Einzelpersonen gezielt mit täuschend echten Audio- oder Videoaufnahmen konfrontiert – etwa in Form von Betrugsversuchen via Messenger oder Telefon, bei denen vermeintliche Angehörige um Hilfe bitten.(4)
Wie lassen sich Deepfakes erkennen?
Obwohl Deepfakes technisch immer ausgefeilter werden, lassen sich Manipulationen unter bestimmten Bedingungen nachweisen.Hinweise können u. a. sein:
- Unstimmige Gesichtsbewegungen oder Übergänge
- Unnatürliche Licht- und Schattenverhältnisse
- Asynchrone Lippenbewegungen zur Sprache
- Monotone oder metallische Stimmklänge
- Fehlende spontane Gesprächsreaktionen
Hilfreich ist zudem ein kritischer Blick auf die Quelle: Woher stammt der Inhalt, ist er überprüfbar, lässt sich der Kontext nachvollziehen?(4)
Gesetzliche Einordnung und rechtliche Grauzonen
Aktuell ist die rechtliche Bewertung von Deepfakes noch nicht abschließend geregelt. Grundsätzlich gilt: Solange kein Schaden entsteht und Rechte Dritter gewahrt bleiben, ist die Nutzung legal. Dennoch ist Zurückhaltung geboten – insbesondere bei der Veröffentlichung oder Weitergabe manipulierter Inhalte.(4)
Wissen stärken & souveränder Umgang mit KI-Content
Deepfakes lassen sich nur schwer erkennen – deshalb ist Aufklärung im privaten und professionellen Umfeld essenziell. Für das eigene Teameignen sich kurze Schulungen, reale Beispiele und einfache Checklisten, das nötige Bewusstsein zu schaffen. Wichtig ist auch: klare Meldewege im Verdachtsfall und eine Kultur der digitalen Achtsamkeit fördern. So wird der Umgang mit KI-Content sicherer und souveräner.
Fazit
Deepfakes sind ein wachsendes Phänomen mit gesellschaftlicher Tragweite. Umso wichtiger ist es, Bild- und Tonmaterialien im digitalen Raum sorgfältig zu prüfen, aufmerksam zu bleiben und verdächtige Inhalte nicht ungeprüft weiterzugeben.
Künstliche Intelligenz kann ein wertvolles Werkzeug sein – wenn wir uns der Verantwortung bewusst sind, die mit ihrer Nutzung einhergeht.(5)
Quellen (Stand Juli 2025):
(1) Bundesamt für Sicherheit in der Informationstechnik: Deepfakes – Gefahren und Gegenmaßnahmen.
(2) Holdsworth, Jim; Scapicchio, Mark: Was ist Deep Learning? 2024.
(3) Duden: Fake, der oder das.
(4) Hochschule Makromedia, University of Applied Sciences: Die Gefahren von Deepfakes.
(5) Walter, Tim: Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann, 2023.
(6) Brodsky, Sascha: Tech industry ramps up erfforts to combat rising deepfake threats, 2024.
alfatraining gmbh
Kriegsstr. 100
76133 Karlsruhe
Telefon: +49 (721) 90990900
https://www.alfatraining.com
Presse & Marketing | alfatraining.com
E-Mail: marketing@alfatraining.com
