7. Februar 2024 | Datenschutz, KI, Medienrecht

Deepfake-Pornographie – das wachsende Problem digitaler Gewalt gegen Frauen

KI-generiertes Bild, Frau, Web, Posts, Social Media, Deep Fake

Die aktuellen Geschehnisse um den weltbekannten Popstar Taylor Swift lenken die Aufmerksamkeit auf ein bekanntes, aber auch zunehmend dringliches Problem: die Verbreitung von Deepfakes und sexuell expliziten Bildern ohne Einwilligung der abgebildeten Personen im Internet. Mehrere Tage überfluteten gefälschte pornografische Bilder der Sängerin Taylor Swift das Internet insbesondere auf der Plattform X, ehemals Twitter, wo sie Millionenfach angesehen und verbreitet wurden. Zwischenzeitlich berichtet die New York Times, dass die gefälschten Inhalte wohl von User*innen der Plattform 4chan erstellt wurden. Diese Ereignisse rücken das weit verbreitete Problem der nicht-einvernehmlichen Sexualisierung von Frauen im digitalen Raum insgesamt in den Fokus. Dabei ist hervorzuheben, dass das Problem nicht auf Social-Media Plattformen beschränkt ist.

Mit Blick auf bereits länger bekannte Erkenntnisse zu der Verbreitung von gefälschtem Bildmaterial mit intimem Inhalt zeigt sich eine gewisse Schieflage der Diskussion um Deepfakes. So berichtet die Süddeutsche Zeitung davon, dass in der öffentlichen Debatte um die politischen Auswirkungen von gefälschtem Propagandamaterial oder Desinformation häufig vergessen werde, dass Deepfakes seit vielen Jahren als „Waffe gegen Frauen“ eingesetzt würden. Nach einer Studie aus dem Jahr 2019 habe der Anteil von nicht konsensualen pornografischen Deepfakes an allen im Internet verbreiteten Deepfakes bei 96 Prozent gelegen. Eine weitere bedenkliche Entwicklung zeige sich nun dadurch, dass die Möglichkeiten zur Herstellung dieser Inhalte durch den technischen Fortschritt bei der Entwicklung von KI-Technologie beinahe für jede Person greifbar geworden sind.

In der praktischen juristischen Auseinandersetzung sind Betroffene vor allem auf die individuelle Durchsetzung Ihrer Ansprüche verwiesen und können unter verschiedenen Voraussetzungen Ansprüche, etwa aus dem Bildnisschutz, ihrem allgemeinen Persönlichkeitsrecht oder ggf. dem Urheberrecht herleiten. Auch das Datenschutzrecht mit seinen Betroffenenrechten und dem in Art. 82 DSGVO normierten Schadenersatzanspruch vermittelt ein gewisses Schutzniveau.

Da die Inhaber*innen von Accounts oft nur schwer zu ermitteln sind, ist die Haftung der Intermediäre ein wichtiger Baustein der Rechtsdurchsetzung. Das bisherige Haftungssystem des Telemediengesetzes findet sich für einen erweiterten Anwendungsbereich nach dem Marktortprinzip in den Bestimmungen des wieder, der ab dem 17. Februar 2024 Wirkung gegenüber allen Vermittlungsdiensten entfaltet, die sich (auch) an Nutzer*innen in der Europäischen Union richten. Ein zentrales Ziel des DSA ist die Bekämpfung von „rechtswidrigen Inhalten“ im Sinne der Verordnung. Der DSA sieht zu diesem Zweck etwa auch die Implementierung eines „notice-and-take-down“ Verfahrens für alle Hostingdiensteanbieter*innen vor. Anders als unter dem Verfahren des NetzDG ist im Geltungsbereich des DSA die Durchsetzung von Löschansprüchen auf Grundlage von Verstößen gegen die einschlägigen Vorschriften des Bildnis-, Urheber und Datenschutzrechts möglich. Mit der Verordnung soll nach der Vorstellung der Europäischen Union u.a. auch die viel beklagte insuffiziente Content-Moderation adressiert werden, weshalb im DSA zusätzliche Transparenz- und Sorgfaltspflichten für die Anbieter*innen von Online-Plattformen normiert wurden.

Darüber hinaus bietet auch das Strafrecht u.a. mit Bestimmungen zu den Ehrdelikten im StGB und den Bestimmungen des Nebenstrafrechts (u.a. § 33 Abs. 1 KUG; §§ 106, 108 UrhG) einige Anknüpfungspunkte für die Bestrafung einschlägigen Verhaltens. An dieser Stelle sind zudem die Bestrebungen der Europäischen Union erwähnenswert, auf sekundärrechtlicher Ebene einheitliche Verhältnisse schaffen zu wollen, um Gewalt gegen Frauen in unterschiedlichen Bereichen effektiv zu bekämpfen. Bereits im Jahr 2022 wurde ein entsprechender Vorschlag für eine Richtlinie zur Bekämpfung von Gewalt gegen Frauen von der Kommission verabschiedet. Durch die Richtlinie sollen die Mitgliedsstaaten etwa zur Normierung eines Straftatbestandes angehalten werden, der tatbestandlich bereits an die Herstellung eines nicht-einvernehmlichen pornografischen Deepfakes anknüpfen würde. Derzeit wird die Richtlinie im Rat der EU blockiert.

In näherer Zukunft wird es außerdem zu einer Regulierung durch den AI-Act der Europäischen Union kommen. In der jüngsten Fassung enthält der Entwurf erweiterte Transparenzvorschriften für Anbieter*innen von KI-Systemen und auch für Personen, die Inhalte aus der Nutzung dieser Systeme verbreiten. Das Anwendungsfeld des Deepfakes ist in Art. 52 Abs. 1a und Abs. 3 KI-VO (Draft-Agreement) berücksichtigt und verpflichtet die Adressat*innen der Norm zur Offenlegung der künstlichen Herstellung oder Manipulation von Inhalten. Das zuletzt geleakte Draft-Agreement legt im Hinblick auf das offensichtliche Bedürfnis aller Akteur*innen nach der Erkennbarkeit von künstlich hergestellten Inhalten besonderes Augenmerk auf die Transparenzpflicht der Provider*innen (Vgl. Art. 52 Abs. 1a KI-VO (Draft Agreement).

JBB berät Sie umfassend zu allen Fragen im Zusammenhang mit dem Digital Services Act und dem AI-Act. Neben den regulatorischen Fragen bieten wir als Kanzlei auch umfassende Beratung für Personen, die persönlich von digitaler Gewalt betroffen sind.

 

Bild: mit KI generiert über Dall-E