STAND 11.01.2024 | LESEZEIT 9 MIN
Spätestens seitdem ChatGPT der Arbeitswelt Möglichkeiten aufzeigt, vieles zu erleichtern, ist die Künstliche Intelligenz (KI) in aller Munde. Deepfakes – künstlich erzeugte mediale Identitäten – zeigen die Schattenseite dieses Fortschritts. Fotos, Videos und Audio-Dateien können heute so gut manipuliert werden, dass sie Gesichter, Stimmen oder Texte fälschen, die täuschend echt sind. Welche Gefahren das birgt und wie man Deepfakes erkennt, fassen wir in diesem Beitrag zusammen.
Bei Deepfakes handelt es sich um mediale Identitäten wie ein Foto, ein Video oder eine Audio-Datei, die anhand von Künstlicher Intelligenz (KI) bewusst manipuliert worden sind. Personen sagen oder tun Dinge, die sie in der Realität nicht gesagt oder getan haben. Der Begriff „Deepfake“ ist zusammengesetzt aus den Wörtern „Deep Learning“ (eine Methode, durch die eine KI lernt) und dem Wort „Fake“. Umgangssprachlich nutzt man „Deepfake“ aber auch in Bezug auf die Nutzung von tiefen neuronalen Netzen (englisch: deep neural networks).
Medieninhalte auf eine solche Art zu manipulieren ist nicht neu, sondern wird vor allem im politischen Bereich schon länger verwendet. Es gibt vielfältige Methoden, Bilder zu manipulieren. Anhand der Künstlichen Intelligenz (KI) ist es heute deutlich einfacher und weniger zeitaufwendig, Fälschungen in hoher Qualität zu erstellen. Um das Endergebnis realistisch erscheinen zu lassen, benötigt die Software möglichst viele Daten. Dieser Aspekt spielte bisher auch eine große Rolle, warum es so viele Deepfakes von Prominenten und Persönlichkeiten gibt. Der Unterschied liegt heute zum einen in der Verwendung der Künstlichen Intelligenz und der Rechenleistung eines Computers, zum anderen betrifft es mittlerweile immer mehr Privatpersonen. Man kann davon ausgehen, dass sich das auch immer weiter fortsetzen wird.
So verschieden die drei Medienarten oder auch medialen Identitäten von Deepfakes sind, so unterschiedlich sind auch die Darstellungen und Techniken, diese zu erstellen.
Bei einer Gesichtsfälschung werden verschiedene KI-basierte Verfahren verwendet, um unterschiedliche Ziele zu erreichen. Zum Beispiel kann man Gesichter austauschen, Mimik oder Kopfbewegungen in Videos nachahmen oder völlig neue Identitäten erstellen. Beim „Face Swapping“ wird das Gesicht einer Zielperson in das Gesicht eines Angreifers eingefügt, wobei die Mimik des Angreifers erhalten bleibt. Das Ziel ist es, ein Bild zu erzeugen, das wie das Gesicht einer anderen Person aussieht und deren Mimik, Beleuchtung und Blickrichtung hat. Man kann dafür Modelle aus öffentlichen Softwarebibliotheken verwenden. Diese Modelle extrahieren die wichtigen Informationen zur Mimik und Beleuchtung aus einem Gesichtsbild und erzeugen so ein passendes Bild.
Beim „Face Reenactment“ manipuliert man die Kopf- oder Lippenbewegungen sowie die Mimik einer Person. Dadurch entstehen täuschend echte Videos, in denen eine Person etwas sagt, was sie in Wirklichkeit nie gesagt hat. Dabei werden 3D-Modelle des Gesichts der Person aus einem Videostream erzeugt. Die ausführende Person hat dann die Kontrolle über den Videostream und kann reale Gesichtsausdrücke bei der Zielperson modellieren. Beim „Body Puppetry“ kann man einzelne Bewegungen oder sogar komplette Bewegungsabläufe auf eine Zielperson übertragen. Durch die Synthetisierung von Gesichtsbildern können auch völlig neue, nicht existierende Personen erschaffen werden. Die üblichen Verfahren sind zwar auf einzelne Bilder beschränkt, aber diese haben eine hohe Bildauflösung und Detailtiefe.
Bei einer Stimmenfälschung werden hauptsächlich zwei Verfahren verwendet: „Text-to-Speech (TTS)“ und „Voice Conversion (VT)“. Beim TTS wird ein Audio-Signal in einen festgelegten Text umgewandelt. Dadurch werden sowohl Menschen als auch automatische Spracherkennungssysteme getäuscht. Beim Voice Conversion-Verfahren gibt der Benutzer ein Audio-Signal vor, das dann manipuliert wird. Idealerweise ähnelt es der ausgewählten Zielperson. Diese Verfahren basieren auf dem Training mit Daten. Je nach Art des Angriffs unterscheiden sich die Daten für TTS und VC, aber sie haben eines gemeinsam: eine hohe und konstante Qualität.
Eine weitere Möglichkeit eines Deepfakes ist die Fälschung von Texten. Diese Verfahren basieren auf tiefen neuronalen Netzen, die es anhand neuer KI-Modelle, großer Textdatenbanken und einer hohen Rechenleistung schaffen, lange und zusammenhängende Texte zu erstellen. Auf den ersten Blick ist nicht erkennbar, ob der Text von einem Menschen oder einer Maschine geschrieben worden ist. Wenige Wörter am Anfang reichen aus, damit das Modell den Text sinnvoll fortsetzt. Auf diese Weise ist es einfach, Blogeinträge, Nachrichten oder auch Chat-Antworten zu erzeugen. Wenn sich die Technik fortschreitend weiterentwickelt, ist es vorstellbar, dass fiktive Gesprächspartner simuliert werden können, beispielsweise in Chatbots oder Social Bots.
Insgesamt ist es wichtig, wachsam und skeptisch gegenüber ungewöhnlichen Anfragen oder verdächtigen Inhalten zu sein, insbesondere wenn sie von unbekannten Personen stammen.
Auf folgende Artefakte sollten Sie je nach Medienart achten, um manipulierte Medien zu erkennen:
Relevante Artefakte bei Gesichtsmanipulation
Relevante Artefakte für synthetische Stimmen
Relevante Artefakte bei Kryptografie
Hier wird versucht, die Quelle des Materials eindeutig auszumachen. Diese Quelle sollte vertrauenswürdig und authentisch sein, damit Manipulationen sofort auszumachen sind. Das schließt jedoch nicht aus, dass die Quelle selbst manipuliert worden ist. Um dem vorzubeugen, wird aktuell daran gearbeitet, digitale Signaturen beim Aufnahmeprozess zu entwickeln. So kann sichergestellt werden, dass das Material nach der Aufnahme nicht mehr manipuliert wurde.
Deepfakes können dazu missbraucht werden, gezielt Meinungsmache zu betreiben und Fake News zu verbreiten, wie bei politischen Entscheidungen, gegen bestimmte Gruppen oder einzelne Persönlichkeiten. Ein systematischer Einsatz von Deepfakes kann der Verbreitung von Falschinformationen dienlich sein, der Propaganda oder auch einer Rufschädigung. Deepfakes können für ein Unternehmen ein Reputationsrisiko darstellen, wenn sich in einem Deepfake-Video beispielsweise ein CEO polarisierend äußert. Hier werden Behauptungen verbreitet, durch die die soziale und/oder wirtschaftliche Existenz des CEO, aber auch des Unternehmens, ruiniert werden können. Der Begriff Rufmord oder auch Rufschädigung stellt an sich keinen eigenen Straftatbestand dar, erfüllt aber meist den Tatbestand der Üblen Nachrede oder Verleumdung gemäß §§ 186, 187 StGB. Denn auch hier werden nicht eindeutige, beweisbare Tatsachen behauptet, die das Opfer in ihrer Ehre verletzen können. Dieses Beispiel veranschaulicht noch einmal die Komplexität von Deepfakes und der Problematik einer Zuordnung zu einem bestimmten Straftatbestand.
Durch Deepfakes hat auch die Cyberkriminalität enorm an Zuwachs gewonnen. Phishing ist eine betrügerische Technik, sensible Daten zu stehlen, indem sich die Cyberkriminellen als vertrauenswürdig ausgeben. Identifikationssysteme werden überwunden, wenn gefälschte Login-Seiten erstellt werden, um Nutzername oder Passwörter zu stehlen und solche zu missbrauchen. Bekannt sind die sogenannten Phishing-E-Mails, anhand derer die Opfer ahnungslos auf einen Link klicken oder persönliche Informationen preisgeben.
Waren es früher Prominente und Persönlichkeiten, sind zunehmend Privatpersonen davon betroffen. Hier dient ein Beispiel zur Veranschaulichung: Eine Frau entdeckt von sich private Bilder in einem Pornoforum, die sie als Minderjährige zeigen. Vermutlich hat ein Mitschüler von ihr Fotos hochgeladen, die anderen Nutzern im Forum als Vorlagen für Deepfakes dienen sollen. Mittlerweile kursieren im Netz bis zu 96 Prozent KI-manipulierte Fotos und Videos aus dem pornografischen Bereich. Die Beweggründe der Betrüger bzw. Täter können vielfältig sein. Hierbei kann es sich um Rache an einem Ex-Partner, um Erpressung, Bedrohung oder Demütigung handeln. Häufig sind die Täter aus dem näheren Umfeld des Opfers, wie dem Bekanntenkreis. Recherchen ergaben, dass der Ursprung solcher Taten häufig darin besteht, Fantasien auszuleben, zu demütigen und für Beziehungsstreitigkeiten einzusetzen. Die Opfer haben häufig Probleme, rechtlich dagegen vorzugehen, zu groß ist die Angst, den Täter damit noch mehr zu provozieren.
Bilder haben einen großen Einfluss auf den Menschen, häufig wird ihnen mehr vertraut als einem reinen Text. Ein KI-generiertes Gesicht kann bei einem Identitätsdiebstahl eine Rolle spielen. Eine Identität wird missbraucht, um auf sozialen Netzwerken Freunde und Bekannte zu einem Spendenaufruf zu bewegen. Damit der Straftatbestand einer Verleumdung oder Beleidigung erfüllt ist, bedarf es nicht einer verbalen Äußerung, sondern ist auch durch Gestik, Tonaufnahmen, Bilder oder Schrift möglich. Die Schwierigkeit besteht darin, dass es für Beleidigungen keinen Bußgeldkatalog gibt. Daher ist es sinnvoll, Rat bei einem Anwalt für Schadensersatz einzuholen, der Sie bei der Durchsetzung von Schadensersatz unterstützen kann.
Obwohl Deepfakes weit verbreitet und viele Menschen davon nachteilig betroffen sind, zählen sie nicht als eigener Straftatbestand. Da der Tatbestand der Erstellung eines Deepfakes nicht klar einzuordnen ist, ist er juristisch problematisch. Wenn ein Video von einer Person erstellt wird, das manipuliert wurde, besteht die Möglichkeit, gegen einen Verstoß gegen das Recht am eigenen Bild, das Allgemeine Persönlichkeitsrecht oder Urheberrecht anzugehen. Als Tatbestände kommen u. a. Beleidigung, Verleumdung und üble Nachrede infrage. Ebenso kann in einigen Fällen als Tatbestand ein Verstoß gegen die Darstellung sexuellen Missbrauchs an Kindern und Jugendlichen vorliegen.
Betrüger können Deepfakes auf verschiedene Weisen nutzen. Hier sind einige Beispiele:
Wenn Sie von Deepfake betroffen sind, sollten Sie schnell reagieren, damit ein Reputationsschaden verhindert werden kann. Wichtig dabei ist, stichhaltig nachweisen zu können, dass es sich bei dem Inhalt um einen Deepfake handelt. Der Umgang mit Deepfakes hängt von der spezifischen Situation ab, insofern gibt es dafür verschiedene Ansätze. Je nach Tatbestand sollten Sie sich entweder mit der Polizei in Verbindung setzen, um eine Strafanzeige vorzunehmen oder sich an einen Fachanwalt wenden. In der telefonischen Erstberatung von KLUGO erhalten Sie nicht nur erste Hinweise und Handlungsempfehlungen zu Ihrer Rechtsfrage, sondern auch den Rat, welcher Fachanwalt für Ihr Anliegen infrage kommt.
Dann nutzen Sie einfach die KLUGO Erstberatung. Die Erstberatung ist ein Telefongespräch mit einem zertifizierten Anwalt aus unserem Netzwerk.
Beitrag juristisch geprüft von der KLUGO-Redaktion
Der Beitrag wurde mit großer Sorgfalt von der KLUGO-Redaktion erstellt und juristisch geprüft. Dazu ergänzen wir unseren Ratgeber mit wertvollen Tipps direkt vom Experten: Unsere spezialisierten Partner-Anwälte zeigen auf, worauf es beim jeweiligen Thema ankommt.