Deepfake-Regulierung

  • , Von Paul Waite
  • 24 min Lesezeit

Im Januar 2024 überschwemmten KI-generierte, explizite Bilder von Taylor Swift die sozialen Medien und erreichten über 47 Millionen Aufrufe, bevor sie entfernt werden konnten. Wochen zuvor hatte ein gefälschtes Video von Papst Franziskus in einer Designer-Daunenjacke internationale Medien getäuscht. Im selben Zeitraum rief ein KI-generierter Audio-Clip von Präsident Biden die Wähler in New Hampshire dazu auf, den Vorwahlen fernzubleiben. Diese Vorfälle stellen nur einen Bruchteil der Deepfake-Krise dar, mit der Gesetzgeber, Plattformen und Unternehmen weltweit konfrontiert sind.

Deepfake-Technologie nutzt künstliche Intelligenz – insbesondere generative adversarial Networks (GANs) und neuere Diffusionsmodelle –, um synthetische Medien zu erzeugen, die das Aussehen, die Stimme oder die Handlungen realer Personen überzeugend imitieren. GANs funktionieren, indem zwei neuronale Netze gegeneinander antreten: Eines generiert Fälschungen, während das andere versucht, diese zu erkennen. Durch diesen Wettbewerb entstehen immer realistischere Ergebnisse. Diffusionsmodelle verfolgen einen anderen Ansatz: Sie verfeinern iterativ zufälliges Rauschen zu zusammenhängenden Bildern oder Videos. Beide Ansätze sind durch benutzerfreundliche Apps zugänglich geworden und ermöglichen so praktisch jedem die anspruchsvolle Manipulation von Bildern und Videos.

Dieser Artikel beantwortet eine entscheidende Frage: Wie werden Deepfakes derzeit in den USA, der EU, Großbritannien und im asiatisch-pazifischen Raum reguliert, und welche Regelungen sind bis 2026 zu erwarten? Die zentrale Herausforderung für die Regulierungsbehörden liegt auf der Hand: Sie müssen schwerwiegende Gefahren wie nicht einvernehmliche Deepfake-Pornografie, Wahlbeeinflussung und Identitätsdiebstahl bekämpfen und gleichzeitig die Meinungsfreiheit, Satire und legitime künstlerische Nutzungen schützen. Bestehende Gesetze zu Datenschutz, Verleumdung, Betrug und geistigem Eigentum decken synthetische Medien nur teilweise ab. Dies hat weltweit zu einer Welle spezifischer Deepfake-Gesetze geführt, die Transparenz, Kennzeichnung und Herkunftsnachverfolgung anstelle von vollständigen Verboten in den Vordergrund stellen.

Wichtigste Risiken für die Regulierung von Deepfakes

Zwischen 2019 und 2025 verlagerten die Regulierungsbehörden ihren Fokus von passiver Beobachtung hin zu proaktiver Gesetzgebung, da die Verbreitung von Deepfakes exponentiell zunahm. Berichten zufolge stiegen die Deepfake-Vorfälle zwischen 2023 und 2024 um 550 %, wobei die Erstellung komplexer Manipulationen zum Kinderspiel wurde. Das Ausmaß und die Schwere der dokumentierten Schäden machten Untätigkeit der Legislative politisch untragbar.

Nicht einvernehmliche intime Bilder

Laut Analysen von Sensity AI (Stand 2024) sind erschreckende 96 % aller Deepfakes nicht einvernehmliche Pornografie, die sich überwiegend gegen Frauen richtet. Über 100.000 solcher Videos existieren online. Die Erstellung sexueller Deepfakes ohne Einwilligung verursacht schwere psychische Traumata und Rufschädigung bei den Opfern – ob Prominente oder Privatpersonen. Sexuelle Deepfakes verbreiten sich viral, bevor Plattformen reagieren können, und den Opfern fehlen oft klare rechtliche Möglichkeiten, da die bestehenden Gesetze gegen Rachepornos KI-generierte Inhalte möglicherweise nicht explizit abdecken.

Wahl- und demokratische Prozessmanipulation

Die Bedrohungen der Integrität von Wahlen waren im Vorfeld der weltweiten Wahlen 2024 nicht mehr zu übersehen. In den Vereinigten Staaten kursierten manipulierte Medien mit Kamala Harris und Donald Trump in sozialen Netzwerken. Auch in der Slowakei und in Indien kam es zu ähnlichen Vorfällen, bei denen Deepfake-Audioaufnahmen auftauchten, die kurz vor der Wahl die Wahlen beeinflussen sollten. Solche Inhalte können die Wählerstimmung verzerren, die Wahlbeteiligung senken oder diplomatische Konflikte zwischen Staaten auslösen, wenn deren Führungskräfte den Anschein erwecken, gefälschte Aussagen zu machen.

Finanz- und Unternehmensbetrug

KI-generierte Inhalte haben ausgeklügelten Betrug in nie dagewesenem Ausmaß ermöglicht. Anfang 2024 überwies ein Finanzangestellter in Hongkong 25 Millionen US-Dollar, nachdem er an einem Videoanruf teilgenommen hatte, bei dem alle anderen Teilnehmer Deepfake-Imitationen von Führungskräften seines Unternehmens waren. Laut Daten von Regula Forensics gaben 50 % der Unternehmen an, 2024 Opfer von Betrugsfällen mit KI-manipulierten Medien geworden zu sein. Stimmenfälschung von CEOs, Versuche, die KYC-Prüfung zu umgehen, und Identitätsdiebstahl mit synthetischen Identitäten sind zu gängigen kriminellen Methoden geworden.

Desinformation im Bereich der nationalen Sicherheit und Geopolitik

Gefälschte Videos können die nationale Sicherheit gefährden, wie das gefälschte „Kapitulationsvideo“ des ukrainischen Präsidenten Selenskyj zeigte, das zu Beginn des russisch-ukrainischen Konflikts kursierte. Die Abteilung für Wissenschaft und Technologie im US-Heimatschutzministerium hat solche Technologien als wichtige Einfallstore für ausländische Interventionsoperationen eingestuft.

Die Lügnerdividende

Der vielleicht heimtückischste Effekt ist das, was Forscher als „Lügnerdividende“ bezeichnen – die Möglichkeit für jeden, authentische Beweise als Deepfake abzutun. Dieser Vertrauensverlust in Beweise wirkt sich auf Gerichtssäle, Journalismus und den öffentlichen Diskurs aus. Wenn ein vernünftiger Mensch nicht mehr zwischen echt und gefälscht unterscheiden kann oder wenn echte Inhalte plausibel geleugnet werden können, bröckelt die Grundlage der Verantwortlichkeit.

Risiken, denen Gesetzgeber höchste Priorität einräumen:

  • Sexuelle Ausbeutung (insbesondere zum Schutz von Frauen und Minderjährigen)

  • Integrität der Wahlen (zeitlich begrenzte Verbote in der Nähe von Wahlperioden)

  • Plattformverantwortung (Pflichten zur Entfernung von Inhalten und Transparenz)

  • Biometrische Daten und Identitätsschutz (Gesichter, Stimmen als geschützte Daten)

  • Anforderungen an die Menschenwürde und die Einwilligung

Vereinigte Staaten: Bundesgesetzgebung zu Deepfakes

In den Vereinigten Staaten fehlt ein einheitliches, umfassendes Bundesgesetz gegen Deepfakes. Stattdessen besteht die Regulierungslandschaft aus allgemeinen Gesetzen, spezifischen Gesetzesentwürfen in verschiedenen Stadien des Gesetzgebungsverfahrens und behördlichen Durchsetzungsmaßnahmen. Dieser Flickenteppich spiegelt sowohl die Komplexität des Problems als auch die politischen Schwierigkeiten wider, einen Konsens über die Inhaltsregulierung zu erzielen.

Das Deepfakes-Rechenschaftsgesetz

Der Deepfakes Accountability Act (HR 5586, 118. Kongress, 2023–2024) stellt den bisher ambitioniertesten Versuch einer umfassenden bundesweiten Gesetzgebung gegen Deepfakes dar, ist aber noch nicht verabschiedet. Der Gesetzentwurf zielt auf „fortschrittliche technologische Falschdarstellungen“ ab – ein weit gefasster Begriff, der synthetische audiovisuelle, Audio- und visuelle Inhalte umfasst, die Personen überzeugend bei Handlungen oder Äußerungen darstellen, die sie nie begangen haben.

Zu den wichtigsten Bestimmungen gehören:

Element

Beschreibung

Offenlegungspflichten

Alle erfassten Deepfakes müssen eingebettete Herkunftsinformationen und sichtbare oder maschinenlesbare Kennzeichnungen enthalten, die ihren synthetischen Ursprung angeben.

Strafrechtliche Sanktionen

Bei schweren Verstößen, insbesondere bei Deepfakes mit sexuellem Bezug oder solchen, die darauf abzielen, Wahlen zu beeinflussen, drohen bis zu fünf Jahre Haft und Geldstrafen von bis zu 150.000 US-Dollar pro Fall.

Zivilrechtliche Klagegründe

Opfer können Urheber und Vertreiber auf Schadensersatz verklagen, wobei auch Unterlassungsansprüche geltend gemacht werden können.

Datenschutzbestimmungen

Spezielle Schutzmaßnahmen für Personen, deren Abbild missbräuchlich verwendet wird

Die Transparenzbestimmungen des Gesetzes würden Entwickler von Deepfake-Tools verpflichten, Herkunftsnachweistechnologien zu unterstützen und entsprechende Nutzungsbedingungen bereitzustellen, die missbräuchliche Verwendung untersagen. Die Federal Trade Commission (FTC) würde diese Anforderungen im Rahmen ihrer Zuständigkeit für unlautere oder irreführende Geschäftspraktiken gemäß dem Federal Trade Commission Act durchsetzen.

Eine bemerkenswerte Verfahrensinnovation ermöglicht die dingliche Klageerhebung gegen Deepfake-Inhalte selbst, wenn deren Urheber aus dem Ausland stammen oder anonym sind. Gerichte können somit bestimmte Inhalte für falsch erklären und die Einziehung des erzielten Gewinns anordnen, selbst ohne die Beklagten zu identifizieren. Dieser Mechanismus zielt darauf ab, anonymen Missbrauch über Ländergrenzen hinweg zu verhindern.

Das „Nehmt es runter“-Gesetz

Der wegweisende „TAKE IT DOWN Act“ (Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act) trat am 19. Mai 2025 als erstes Bundesgesetz gegen Deepfakes in Kraft, nachdem Präsident Trump es nach überwältigender parteiübergreifender Unterstützung unterzeichnet hatte (Repräsentantenhaus 409:2 Stimmen, Senat einstimmig). Das Gesetz stellt die wissentliche Veröffentlichung oder die Drohung mit der Veröffentlichung nicht einvernehmlicher intimer Bilder unter Strafe, einschließlich KI-generierter Deepfakes.

Zu den wichtigsten Merkmalen gehören:

  • Strafrechtliche Sanktionen: Freiheitsstrafe bis zu drei Jahren und Geldstrafen

  • Klarstellung, dass die vorherige Zustimmung zur Erstellung keine Veröffentlichungsrechte impliziert.

  • Die Plattform ist verpflichtet, gemeldete Inhalte innerhalb von 48 Stunden nach Meldung durch das Opfer zu entfernen.

  • Vollständige Compliance-Mechanismen erforderlich bis zum 19. Mai 2026

  • Die Durchsetzungsbehörde der FTC behandelt Verstöße als unlautere oder irreführende Geschäftspraktiken.

Verwandte Maßnahmen der Bundesregierung

Mehrere sich ergänzende Vorschläge und Änderungsanträge befassen sich mit spezifischen Deepfake-Risiken:

DEFIANCE Act (Disrupt Explicit Forged Images and Non-Consensual Edits): Dieser im Mai 2025 erneut eingebrachte Gesetzentwurf würde Opfern von explizit gefälschten Bildern Rechtsmittel durch Zivilklagen mit gesetzlichen Schadensersatzleistungen von bis zu 250.000 US-Dollar gewähren.

Gesetz zum Schutz von Wahlen vor irreführender KI (März 2025): Würde irreführende KI-Medien, die Kandidaten für Bundesämter darstellen, verbieten und die politische Meinungsäußerung vor synthetischer Manipulation schützen.

NO FAKES Act (April 2025): Verbietet unautorisierte Stimm- und Abbildkopien mit Ausnahme von Satire und Kommentaren.

Änderungen gemäß 18 USC § 1028: Die vorgeschlagenen Aktualisierungen würden audiovisuellen Identitätsbetrug und hochentwickelte technologische Identitätsfälschung ausdrücklich in die Bundesgesetze zum Identitätsdiebstahl einbeziehen.

Rollen im Bereich der inneren Sicherheit

Die Deepfakes-Taskforce innerhalb der Technologieabteilung des Heimatschutzministeriums (DHS) erstellt jährliche Berichte für den Kongress über ausländische Einmischungsversuche mithilfe synthetischer Medien. Informationsaustauschprogramme vernetzen Regierungsbehörden mit den betroffenen Plattformen, um die Reaktion auf bösartige Deepfakes, die die nationale Sicherheit bedrohen, zu koordinieren.

Die Maßnahmen der Bundesregierung betonen konsequent Transparenz (Kennzeichnung, Wasserzeichen, Herkunftsnachweis) und die Kriminalisierung der schädlichsten Deepfake-Inhalte bei gleichzeitiger Ermöglichung der behördenübergreifenden Koordinierung – anstatt zu versuchen, alle synthetischen Medien zu verbieten.

Bundesaufsicht und Plattformverpflichtungen

Die Federal Trade Commission (FTC) betrachtet die Nichtkennzeichnung oder Nichtoffenlegung von Deepfakes oder irreführenden KI-Werbeaussagen als potenziell unlautere oder irreführende Geschäftspraktiken, die gemäß dem FTC-Gesetz verfolgt werden können. Dieser Durchsetzungsansatz existierte bereits vor der Verabschiedung spezifischer Gesetze zu Deepfakes und wird auch nach Inkrafttreten neuerer Gesetze fortgeführt.

Aufgrund verschiedener Vorschläge und des TAKE IT DOWN Act stehen Online-Plattformen vor erheblichen Verpflichtungen:

  • Herkunftssicherung: Möglichkeit zum Einfügen und Pflegen von Metadaten zur Inhaltsherkunft.

  • Erkennungssysteme: Werkzeuge zur Identifizierung und Kennzeichnung von Deepfakes in nutzergenerierten Inhalten

  • Meldemechanismen: Benutzerzugängliche Werkzeuge zur Kennzeichnung synthetischer Medien mit dem Ziel, umgehend darauf zu reagieren.

  • Beschwerdeverfahren: Mechanismen zur Anfechtung von Löschungen

  • Transparenzberichte: Öffentliche Offenlegungen zur Moderation synthetischer Medien

  • Zusammenarbeit der Regierung: Teilnahme an Informationsaustauschprogrammen

Viele Anforderungen sehen einen verzögerten Inkrafttretungstermin vor – in der Regel ein Jahr nach Verabschiedung –, um Unternehmen Zeit für die Implementierung von Erkennungs- und Kennzeichnungstools zu geben. Die Durchsetzung kann zivilrechtliche Strafen, Vergleichsvereinbarungen und verpflichtende Compliance-Programme umfassen, die auf KI-bezogene Risiken zugeschnitten sind, wodurch erhebliche Anbieterrisiken für Unternehmen entstehen, die Deepfake-Dienste nutzen.

Vereinigte Staaten: Deepfake-Gesetze auf Ebene der Bundesstaaten

Bis Mitte 2025 hatten 47 Bundesstaaten Gesetze zum Thema Deepfakes erlassen, wodurch ein komplexes Geflecht an Bestimmungen entstand. Die Gesetze der einzelnen Bundesstaaten konzentrieren sich typischerweise auf Wahlen, nicht einvernehmliche intime Bilder und den Schutz des Persönlichkeitsrechts.

Wahlbezogene Gesetzgebung

Vorreiter wie Texas haben den Weg geebnet:

Zustand

Gesetz

Wichtigste Bestimmungen

Texas

SB 751 (2019/2023)

Verbietet irreführende politische Deepfakes innerhalb von 30 Tagen vor Wahlen, die darauf abzielen, Kandidaten zu schädigen; zivil- und strafrechtliche Sanktionen

Kalifornien

AB 2839/AB 2355 (2024)

Erforderliche Haftungsausschlüsse auf synthetischen Wahlkampfmedien; im August 2025 teilweise aufgehoben aufgrund von Konflikten mit dem Ersten Verfassungszusatz und Paragraph 230.

Colorado

HB 1147 (Mai 2024)

Offenlegungspflichten für synthetische Medien in Kampagnen

Montana

SB 25 (2025)

Sieht einstweilige Verfügungen und Geldstrafen von 500 US-Dollar für irreführende Wahlfälschungen vor.

Ähnliche Maßnahmen wurden in Florida, Virginia, Ohio, Washington, Wisconsin und Mississippi verabschiedet oder stehen kurz vor der Verabschiedung.

Gesetze zu nicht einvernehmlichen intimen Darstellungen

Die Bemühungen um eine Änderung des einzelstaatlichen Strafgesetzbuches haben die bestehenden Gesetze gegen Rachepornos auf synthetische Inhalte ausgeweitet:

  • Kriminalisierung der Herstellung und Verbreitung synthetischer intimer Bilder ohne ausdrückliche Einwilligung

  • Verschärfte Strafen bei Darstellung von Minderjährigen

  • Bestimmungen zum Zivilrecht, die es Opfern ermöglichen, Schadensersatz einzuklagen.

  • Anforderungen an Löschungsmitteilungen für Plattformen

Tennessees ELVIS-Gesetz

Der ELVIS Act (2024) des US-Bundesstaates Tennessee stellt einen innovativen Ansatz dar, indem er den traditionellen Schutz des Persönlichkeitsrechts auf KI-generierte Stimmen-, Bild- und Abbildimitationen ausdehnt. Das Gesetz behandelt diese Rechte als einklagbare Eigentumsrechte und ermöglicht es Einzelpersonen – und ihren Erben –, Ansprüche gegen unautorisierte synthetische Reproduktionen geltend zu machen. Dieses Modell könnte ähnliche Gesetze bundesweit beeinflussen.

Biometrische Datenschutzanwendungen

Landesgesetze zum Schutz biometrischer Daten, wie beispielsweise der Illinois BIPA (Biometric Information Privacy Act), finden zunehmend auch im Bereich Deepfakes Anwendung. Die unbefugte Verwendung von Gesichtsgeometrie- oder Sprachdaten zur Erstellung synthetischer Medien kann die Einwilligungserfordernisse und Schadensersatzbestimmungen dieser Gesetze auslösen.

Das Problem der uneinheitlichen Gesetzgebung ist real: Unterschiedliche Definitionen, Anforderungen an die Absicht und Rechtsbehelfe in den einzelnen Bundesstaaten erschweren die Einhaltung der Vorschriften für Unternehmen mit Niederlassungen in mehreren Bundesstaaten. Organisationen sollten sowohl wahlbezogene als auch auf intime Bilder zugeschnittene Gesetze sowie allgemeine Datenschutz- und Persönlichkeitsrechte im Blick behalten.

Der Fall in Kalifornien verdeutlicht die Spannungen zwischen Deepfake-Gesetzgebung und dem Ersten Verfassungszusatz. Ein Bundesrichter blockierte das kalifornische Gesetz im August 2025 teilweise, da es die geschützte politische Meinungsäußerung potenziell einschränken könnte. Gleichzeitig wies eine Exekutivanordnung vom Dezember 2025 den Bund an, belastende KI-Gesetze der Bundesstaaten auf Grundlage der Handelsklause und des Vorrangs des Bundesrechts anzufechten, was die Unsicherheit im Vorfeld der Zwischenwahlen 2026 weiter verschärfte.

Europäische Union: Deepfake-Regulierung gemäß AI Act, DSA und DSGVO

Die Europäische Union verfügt zwar nicht über eine eigenständige „Deepfake-Verordnung“, hat aber durch drei wichtige Instrumente – das EU-Gesetz über künstliche Intelligenz (EU AI Act), das Gesetz über digitale Dienste (Digital Services Act, DSA) und die Datenschutz-Grundverordnung (DSGVO) – einen koordinierten Rahmen geschaffen. Dieser integrierte Ansatz spiegelt die Präferenz der EU für eine umfassende horizontale Regulierung gegenüber branchenspezifischen Regeln wider.

Transparenzanforderungen des KI-Gesetzes

Der EU-KI-Akte, der am 1. August 2024 in Kraft trat und dessen wichtigste Bestimmungen ab Mitte 2025 gelten, legt spezifische Verpflichtungen für KI-generierte Medien fest:

  • Artikel 50 Transparenz: Anbieter müssen KI-generierte oder KI-manipulierte Inhalte mit sichtbaren Wasserzeichen oder unsichtbaren Metadaten kennzeichnen, wenn die Inhalte reale Personen oder Ereignisse darstellen.

  • Hochrisikoklassifizierung: Anträge auf Identitätsmanipulation werden verstärkt geprüft

  • Erhebliche Strafen: Geldstrafen von bis zu 6 % des weltweiten Jahresumsatzes bei schwerwiegenden Verstößen.

  • Herkunftsanforderungen: Unterstützung von C2PA-ähnlichen Standards zur Inhaltsauthentizität.

Die vollständige Durchsetzung der Transparenzpflicht beginnt im August 2026, wodurch Organisationen Zeit haben, konforme Systeme zu implementieren.

Pflichten der Plattform gemäß dem Gesetz über digitale Dienste

Das DSA schafft Risikominderungspflichten für sehr große Online-Plattformen (VLOPs) und Suchmaschinen mit mehr als 45 Millionen EU-Nutzern:

  • Systemische Risikoanalysen: Obligatorische Bewertung der Bedrohungen durch Desinformation und Wahlbeeinflussung mittels schädlicher Deepfakes

  • Schnelle Inhaltsentfernung: Verpflichtung zur Entfernung illegaler Inhalte, einschließlich schädlicher Deepfake-Inhalte, nach Bekanntgabe

  • Verbesserte Transparenz: Detaillierte Berichterstattung über Entscheidungen zur Inhaltsmoderation.

  • Zugang für Forscher: Zusammenarbeit mit unabhängigen Forschern, die die Risiken synthetischer Medien untersuchen

DSGVO Biometrische Schutzmaßnahmen

Die DSGVO behandelt Gesichter und Stimmen als biometrische Daten, die besonderen Schutz erfordern:

  • Rechtsgrundlage: Die Verarbeitung biometrischer Daten für Deepfakes erfordert eine ausdrückliche Einwilligung oder eine andere gültige Rechtsgrundlage.

  • Rechte der betroffenen Person: Einzelpersonen können die Löschung von synthetischen Medien verlangen, die ihr Abbild verwenden.

  • Strenge Strafen: Bis zu 4 % des weltweiten Umsatzes für den Missbrauch personenbezogener Daten in synthetischen Medien.

Die Leitlinien der Europäischen Kommission und des Europäischen Datenschutzausschusses empfehlen Wasserzeichen, Herkunftsmetadaten und eindeutige „KI-generierte“ Indikatoren als erwartete Schutzmaßnahmen.

Praktische Auswirkungen auf Plattformen und Unternehmen in der EU

Plattformen mit Sitz in der EU oder mit Fokus auf die EU müssen technische Systeme zur Kennzeichnung von Deepfakes implementieren, insbesondere wenn die Inhalte realistisch wirken und die Nutzer wahrscheinlich über deren Echtheit täuschen.

Zu den erforderlichen Transparenzinstrumenten gehören:

  • Benutzerseitige Etiketten oder Warnhinweise auf synthetischen Medien

  • Erläuterungsseiten, die die Erkennungs- und Kennzeichnungsmethoden beschreiben

  • Öffentliche Transparenzberichte zur Inhaltsmoderation und zu systemischen Risiken

Während Wahlperioden unterliegen die Plattformen verstärkten Überwachungspflichten, darunter die Zusammenarbeit mit unabhängigen Forschern und Vereinbarungen mit den Wahlbehörden, um die virale Verbreitung irreführender Deepfakes einzuschränken.

Unternehmen, die synthetische Medien im Marketing oder in internen Abläufen einsetzen, müssen KI-generierte Inhalte klar kennzeichnen, um Verbraucher nicht irrezuführen und behördliche Prüfungen zu vermeiden. Der EU-Rahmen betont Grundrechte, demokratische Integrität und Kinderschutz als zentrale Werte, die die Durchsetzungsprioritäten bestimmen.

Vereinigtes Königreich und andere europäische Rechtsordnungen

Vereinigtes Königreich nach dem Brexit

Das Vereinigte Königreich stützt sich auf den Online Safety Act, die britische Datenschutz-Grundverordnung (DSGVO) und branchenspezifische Regelungen anstelle eines einheitlichen Deepfake-Gesetzes. Der Online Safety Act stellt die Erstellung von Deepfake-Pornografie ohne Einwilligung unter Strafe und sieht dafür Freiheitsstrafen vor. Damit wird die Erstellung sexueller Deepfakes ohne Einwilligung eindeutig als Straftatbestand definiert.

Die Plattformen sind gemäß dem Gesetz verpflichtet, die Konfrontation der Nutzer mit solchen Inhalten zu minimieren durch:

  • Risikobewertungen für Schäden durch synthetische Medien

  • Verhaltensregeln für die Meldung von Nutzerdaten

  • Systeme zur Begrenzung der Verbreitung schädlicher Inhalte

Ofcom fungiert als Regulierungsbehörde für Online-Sicherheit und verfügt über Durchsetzungsbefugnisse, die unter anderem erhebliche Geldstrafen und die Einschränkung der Dienstleistungen nicht konformer Plattformen umfassen. Die Verhaltensregeln der Regulierungsbehörde werden die praktischen Anforderungen an die Einhaltung der Vorschriften prägen.

Das Information Commissioner's Office (ICO) behandelt Deepfakes in erster Linie als Datenschutz- und Privatsphärefragen und gibt Leitlinien zur KI-Governance heraus. Zudem fördert es die freiwillige Kennzeichnung und das Anbringen von Wasserzeichen als bewährte Verfahren gemäß der britischen DSGVO.

Andere europäische Länder

Mehrere europäische Rechtsordnungen haben gezielte Maßnahmen erlassen:

Frankreich: Artikel 226-8-1 des Strafgesetzbuches (Änderung 2024) sieht für nicht einvernehmliche sexuelle Deepfakes eine Freiheitsstrafe von bis zu 2 Jahren und eine Geldstrafe von 60.000 Euro vor.

Deutschland und Spanien: Die bestehenden Straf- und Wahlgesetze sollten an die Gegebenheiten synthetischer Medien angepasst werden.

Die europäischen Ansätze konzentrieren sich im Allgemeinen auf Transparenzanforderungen, Rechenschaftspflicht der Plattformen und Schutz vor sexueller Ausbeutung und Wahlmanipulation – Prinzipien, die die Koordinierung trotz nationaler Unterschiede erleichtern.

Deepfake-Regulierungen im asiatisch-pazifischen Raum und anderen globalen Regionen

Die Länder des asiatisch-pazifischen Raums sind bei der Regulierung von Deepfakes schneller und oft aggressiver vorgegangen als ihre westlichen Pendants, typischerweise durch Inhaltskontrollen, Cybersicherheitsgesetze und Plattformverpflichtungen.

Chinas umfassender Rahmen

Chinas Regeln zur „tiefen Synthese“ stellen wohl den umfassendsten Regulierungsansatz weltweit dar:

Erfordernis

Beschreibung

Obligatorische Wasserzeichen

Alle KI-generierten Inhalte müssen sichtbare oder unsichtbare Wasserzeichen enthalten.

Registrierung unter dem richtigen Namen

Nutzer von Deep-Synthese-Diensten müssen ihre Identität verifizieren.

Inhaltssperren

Verbot von Deepfakes, die die nationale Sicherheit oder den Ruf gefährden

Aufgaben beim Plattformabbau

Verpflichtung zur schnellen Entfernung von Inhalten, die gegen geltendes Recht verstoßen

Diese Regeln zielen darauf ab, die nationale Sicherheit zu schützen und gleichzeitig die soziale Stabilität zu wahren, und spiegeln Chinas umfassenderen Ansatz zur Internet-Governance wider.

Singapur

Singapurs Ansatz kombiniert das Gesetz zum Schutz vor Online-Falschinformationen und Manipulation (POFMA) mit dem singapurischen Strafgesetzbuch:

  • Kriminalisierung von Falschinformationen, einschließlich irreführender Deepfakes

  • Nicht einvernehmliche Deepfake-Pornografie wird als Straftat behandelt.

  • Berichtigungsmitteilung und Befugnisse zur Entfernung von Inhalten für die Behörden

  • Bei Verstößen drohen erhebliche Strafen.

Südkorea

Südkorea hat einige der weltweit strengsten Strafen für sexuelle Ausbeutung mithilfe von Deepfakes erlassen:

  • Strafrechtliche Verantwortlichkeit für die Erstellung, Verbreitung und den Besitz von sexuellen Deepfakes

  • Spezielle Opferunterstützungsmaßnahmen

  • Aggressive Strafverfolgung und Verurteilung

Andere Regionen

Australien: Der Online Safety Act zielt auf sexuelle Inhalte ab und sieht Plattformpflichten und strafrechtliche Sanktionen vor.

Kanada: Untersuchung der Transparenz von KI durch den Gesetzesentwurf C-63 Online Harms Act unter Berücksichtigung des bestehenden Straf- und Zivilrechts in Bezug auf intime Bilder.

Naher Osten: Gesetze gegen Cyberkriminalität befassen sich mit bösartigen synthetischen Medien, wobei der Schwerpunkt auf dem Schutz von Ordnung und Reputation liegt.

Viele Länder kombinieren strafrechtliche Sanktionen, Wasserzeichenpflichten und Plattformpflichten mit einem starken Fokus auf den Schutz von Frauen, Kindern und der öffentlichen Ordnung vor Deepfake-Risiken.

Compliance und Governance: Was die Regulierung von Deepfakes für Unternehmen bedeutet

Die Umsetzung dieser rechtlichen Rahmenbedingungen in die Praxis erfordert systematische Governance-Ansätze. Organisationen, die in mehreren Jurisdiktionen tätig sind, stehen vor der größten Komplexität, tragen aber auch das höchste Risiko, die Compliance-Vorgaben nicht zu erfüllen.

Wichtigste Säulen der Compliance

Richtlinien für KI-Inhalte

  • Definition der verbotenen Verwendung von Deepfake-Technologie innerhalb der Organisation

  • Genehmigungsverfahren für legitime synthetische Mediennutzungen einrichten

  • Erstellen Sie Verfahren zur Reaktion auf Sicherheitsvorfälle, um schädliche Deepfakes zu erkennen, die auf die Organisation abzielen.

Etikettierung und Herkunft

  • Implementierung von Deepfake-Kennzeichnungssystemen, die den jeweiligen Rechtsvorschriften entsprechen

  • Übernahme digitaler Wasserzeichen- und Herkunftsstandards im C2PA-Stil

  • Protokolle für die Erstellung und Verteilung von KI-generierten Medien erstellen und verwalten

Identitätsprüfung

  • Robuste Verifizierung für risikoreiche Anwendungen (Finanzanweisungen, Mitteilungen der Geschäftsleitung) implementieren

  • Implementieren Sie Sicherheitsvorkehrungen zur Sprach- und Videoauthentifizierung gegen Spoofing.

  • Schulen Sie Ihre Mitarbeiter im Umgang mit KI-gestützten Social-Engineering-Bedrohungen.

Inhaltsmoderation

  • Entwicklung von Arbeitsabläufen, die speziell auf synthetische Medien in nutzergenerierten Inhalten eingehen.

  • Eskalationswege für Grenzfälle erstellen

  • Protokolle zur Tonaufzeichnung und Videoauthentifizierung einrichten

Aktualisierungen zu Vertrag und Datenschutz

Organisationen sollten Folgendes aktualisieren:

  • Verträge: Bestimmungen zu KI-generierten Abbildern und Stimmklonen enthalten

  • Datenschutzhinweise: Offenlegung der Verarbeitungstätigkeiten für synthetische Medien

  • Einwilligungsformulare: Holen Sie gegebenenfalls die ausdrückliche Einwilligung zur Verwendung von KI-Abbildungen ein.

  • Datenübertragungsvereinbarungen: Umgang mit biometrischen Daten über Grenzen hinweg

Interne Überprüfungsstrukturen

Erwägen Sie die Einrichtung von Ethikkommissionen oder Prüfungsgremien zur Überprüfung von KI-Inhalten mit hoher Wirkung:

  • Wahlkampagnen und politische Kommunikation

  • Verwendung von Abbildungen von Prominenten, für die eine Genehmigung der Persönlichkeitsrechte erforderlich ist.

  • Sensible öffentliche Kommunikation, bei der Authentizität zählt

  • Schulungsmaterialien mit synthetischen Personen

Laufende Überwachung

Die regulatorischen Rahmenbedingungen entwickeln sich weiterhin rasant. Organisationen sollten:

  • Verfolgen Sie die Entwicklungen bei den Wasserzeichenmandaten im Zeitraum 2025–2026

  • Überwachung der sich entwickelnden Haftungsrahmen für KI

  • Achten Sie auf die grenzüberschreitende Koordinierung der Strafverfolgungsmaßnahmen.

  • Dokumentation für Audits und Untersuchungen führen

  • Rechnen Sie mit einer erheblichen Abhängigkeit von KI-Modellen, die eine Offenlegung erfordern.

Rechtliches Risiko und Innovation im Gleichgewicht halten

Organisationen können solche Technologien in Film-, Werbe-, Schulungs- und Barrierefreiheitsanwendungen verantwortungsvoll nutzen, indem sie drei Prinzipien priorisieren:

  1. Einwilligung: Eine schriftliche Genehmigung der abgebildeten Personen muss eingeholt werden.

  2. Klare Kennzeichnung: Synthetische Inhalte kontextgerecht kennzeichnen.

  3. Leitplanken: Technische und organisatorische Maßnahmen gegen Missbrauch implementieren

Folgenabschätzungen sollten der Einführung von Deepfake-basierten Produkten oder Kampagnen vorausgehen, wobei besonderes Augenmerk auf Folgendes zu richten ist:

  • Gefährdete Gruppen, die möglicherweise unverhältnismäßig stark betroffen sind

  • Wahlperioden, in denen die Sensibilität erhöht ist

  • Potenzial für die irreführende Wiederverwendung von Inhalten

Regulierungsbehörden unterscheiden im Allgemeinen zwischen eindeutig satirischen oder künstlerischen Deepfakes und irreführenden oder böswilligen. Ein Musikvideo mit offensichtlicher KI-Bearbeitung unterscheidet sich von einem Deepfake, der die Zuschauer über eine dargestellte Person und deren Handlungen täuschen soll, die diese nie begangen hat. Transparenz und das Verständnis der Nutzer sind entscheidende Unterscheidungskriterien bei der Strafverfolgung, wobei der Nachweis böswilliger Absicht oft Voraussetzung für eine Strafbarkeit ist.

Ausblick: 2026 und darüber hinaus

Die regulatorische Landschaft im Bereich Deepfakes wird sich bis 2026 weiterentwickeln, wobei mehrere Entwicklungen wahrscheinlich sind:

  • Internationale Koordinierung: Harmonisierte Standards entstehen durch Gremien wie die OECD und die G7.

  • Reife der Erkennungstechnologie: Verbesserte Werkzeuge reduzieren das Problem der „Lügnerdividende“.

  • Standardisierung von Wasserzeichen: Weit verbreitete technische Standards zur Kennzeichnung von KI-generierten Audio- und Videodateien

  • Ausweitung der Plattformhaftung: Erhöhte Pflichten von Social-Media-Plattformen zur proaktiven Erkennung

Organisationen, die Transparenz, Einwilligung und die Einhaltung von Vorschriften nach Treu und Glauben bereits jetzt in ihre KI-Praktiken einbeziehen, werden für den letztendlich entstehenden regulatorischen Rahmen am besten gerüstet sein.

Wichtigste Erkenntnisse

  • Die Regulierung von Deepfakes setzt auf Transparenz statt auf Verbot – Kennzeichnung, Wasserzeichen und Herkunftsverfolgung sind die wichtigsten Regulierungsinstrumente weltweit.

  • Die USA kombinieren Ansätze auf Bundes- und Landesebene . Der „Take It Down Act“ (2025) war das erste bedeutende Bundesgesetz, das in Kraft trat, und 47 Bundesstaaten haben eigene Gesetze gegen Deepfakes.

  • Die EU nutzt das KI-Gesetz, das DSA und die DSGVO gemeinsam, um umfassende Verpflichtungen für Plattformen und Unternehmen zu schaffen.

  • Die Gerichtsbarkeiten im asiatisch-pazifischen Raum verfolgen oft strengere Ansätze , insbesondere in Bezug auf sexuelle Ausbeutung und nationale Sicherheit.

  • Die Einhaltung der Vorschriften erfordert eine systematische Steuerung : KI-Richtlinien, Kennzeichnungssysteme, Identitätsprüfung, aktualisierte Verträge und fortlaufende regulatorische Überwachung.

  • Verantwortungsvolle Innovation bleibt durch Zustimmung, klare Kennzeichnung und die Unterscheidung zwischen legitimen und irreführenden Verwendungen möglich.

Abschluss

Die Regulierung von Deepfakes hat sich innerhalb weniger Jahre von einer theoretischen Überlegung zu einem konkreten Rechtsrahmen entwickelt. Auslöser waren virale Vorfälle, die reale Schäden für Einzelpersonen, Institutionen und demokratische Prozesse aufzeigten. Die regulatorischen Maßnahmen variieren je nach Rechtsordnung, orientieren sich aber an Kernprinzipien: Transparenz durch Kennzeichnung und Herkunftsnachweis, Verantwortung der Plattformen für schädliche Inhalte und strafrechtliche Verfolgung der schwerwiegendsten Missbräuche.

Für Organisationen, die sich in diesem Umfeld bewegen, erfordert der Weg in die Zukunft ein ausgewogenes Verhältnis zwischen Innovation und Verantwortung. Generative KI-Funktionen bieten echten Mehrwert in den Bereichen Unterhaltung, Barrierefreiheit, Schulung und Kommunikation – doch um diesen Mehrwert zu realisieren und gleichzeitig rechtliche und Reputationsrisiken zu vermeiden, ist eine proaktive Steuerung unerlässlich.

Beginnen Sie mit der Überprüfung Ihrer aktuellen Richtlinien für KI-Inhalte anhand der hier vorgestellten Rahmenwerke. Identifizieren Sie Lücken in der Kennzeichnung, der Einwilligungsdokumentation und den Erkennungsfunktionen. Ziehen Sie juristische Expertise hinzu, um die Einhaltung der Vorschriften in mehreren Jurisdiktionen sicherzustellen, insbesondere wenn Sie in den USA, der EU und im asiatisch-pazifischen Raum tätig sind. Organisationen, die heute Technologien und Verfahren für den verantwortungsvollen Umgang mit synthetischen Medien entwickeln, werden am besten aufgestellt sein, da die regulatorischen Anforderungen bis 2026 und darüber hinaus weiter steigen.


Anmeldung

Haben Sie Ihr Passwort vergessen?

Sie haben noch kein Konto?
Konto erstellen