Gesetzgebung zu Online-Schadensrisiken
- , Von Paul Waite
- 24 min Lesezeit
Weltweit bemühen sich Regierungen, die Schattenseiten des digitalen Zeitalters zu bekämpfen. Gesetze wie der Kids Online Safety Act (KOSA) in den USA und der Online Harms Act (Bill C-63) in Kanada repräsentieren eine neue Generation von Regulierungen, die darauf abzielen, schädliche Inhalte und gefährliche Plattformdesigns im Internet einzudämmen. Dieser Artikel analysiert diese wichtigen Initiativen, erläutert ihre Kernbestimmungen und untersucht die damit verbundenen intensiven Debatten über Meinungsfreiheit, Datenschutz und die Verantwortung von Plattformen.
Einführung in die Gesetzgebung zu Online-Schadensrisiken
Der Druck, Online-Gefahren zu regulieren, hat einen kritischen Wendepunkt erreicht. Politiker in den USA, Kanada, Großbritannien und anderen Ländern sehen sich mit der Erkenntnis konfrontiert, dass soziale Medien Hassrede, gewalttätigen Extremismus, nicht einvernehmliche intime Inhalte und Material, das zu Selbstverletzungen anstiftet, verstärken können – und das alles mithilfe von süchtig machenden Designfunktionen, die Nutzer, insbesondere Kinder, stundenlang zum Scrollen verleiten.
Die Dringlichkeit wird durch fundierte Daten untermauert. Studien seit Anfang der 2010er-Jahre belegen besorgniserregende Zusammenhänge zwischen der intensiven Nutzung sozialer Medien durch junge Menschen und steigenden Raten von Angstzuständen, Depressionen, Mobbing und Essstörungen. Im Jahr 2021 veröffentlichte die Facebook-Whistleblowerin Frances Haugen interne Firmendokumente, die belegten, dass Instagrams eigene Forscher festgestellt hatten, dass die Plattform die psychische Gesundheit und das Wohlbefinden von Teenager-Mädchen negativ beeinflusst. Diese Enthüllungen trugen maßgeblich zu gesetzgeberischen Maßnahmen bei, darunter die Einbringung des KOSA-Gesetzes am 16. Februar 2022 durch die Senatoren Richard Blumenthal (Demokrat, Connecticut) und Marsha Blackburn (Republikanerin, Tennessee). Der kanadische Gesetzentwurf C-63 wurde Anfang 2024 in der 44. Legislaturperiode des Parlaments erstmals beraten.
Dieser Artikel vergleicht diese wichtigen Initiativen – KOSA in den USA, den Online Harms Act in Kanada und den Online Safety Act 2023 in Großbritannien – und erläutert ihre wichtigsten Bestimmungen. Außerdem werden die laufenden Debatten darüber untersucht, wie man Nutzer schützen kann, ohne die freie Meinungsäußerung einzuschränken oder einen Übergriff der Regierung zu ermöglichen.
Was ist die Gesetzgebung zu „Online-Schadensrisiken“?
Gesetzgebung gegen Online-Schaden bezeichnet Gesetze, die darauf abzielen, die negativen Auswirkungen digitaler Plattformen auf Nutzer, insbesondere Kinder, zu reduzieren. Konkret zielen diese Gesetze auf zwei große Kategorien von Schäden ab:
-
Verbotene Inhalte : Material mit Bezug zu sexuellem Kindesmissbrauch, Hasspropaganda, Aufrufe zu gewalttätigem Extremismus, nicht einvernehmliche intime Darstellungen und andere Handlungen, die eindeutig nach dem Strafrecht verboten sind.
-
Rechtmäßiger, aber schädlicher Inhalt : Material, das zwar nicht direkt illegal ist, aber zu ernsthaften Schäden beiträgt – wie zum Beispiel Inhalte, die Selbstmord, Essstörungen, Substanzkonsumstörungen oder Mobbing und Belästigung fördern.
Über die Inhalte hinaus befassen sich diese Gesetze auch mit dem Plattformdesign. Funktionen wie unendliches Scrollen, automatisch abspielende Videos, algorithmische Empfehlungssysteme und ständige Push-Benachrichtigungen werden zunehmend als Werkzeuge erkannt, die psychologische Schwächen ausnutzen, insbesondere bei jungen Nutzern.
Gesetzgebung gegen Online-Gefahren funktioniert typischerweise wie folgt:
|
Richtlinieninstrument |
Beschreibung |
|---|---|
|
Sorgfaltspflicht |
Erfordert, dass Plattformen vorhersehbare Risiken für Nutzer bewerten und mindern. |
|
Meldepflicht |
Verpflichtet Plattformen und Internetdienstanbieter, Kinderpornografie im Internet zu melden und Daten zu speichern |
|
Verpflichtungen zur Inhaltsentfernung |
Legt Fristen für die Entfernung illegaler Inhalte fest, sobald diese identifiziert wurden. |
|
Datenschutz- und Elternfunktionen |
Schreibt standardmäßig hohe Datenschutzeinstellungen für Minderjährige und elterliche Kontrollfunktionen vor. |
|
Regulierungsbehörden |
Schafft oder ermächtigt Behörden (wie die britische Ofcom oder die geplante kanadische Kommission für digitale Sicherheit), die Einhaltung der Vorschriften durchzusetzen. |
Diese Rahmenwerke ändern häufig bestehende Gesetze. In Kanada schlug der Gesetzentwurf C-63 Änderungen am Strafgesetzbuch, am kanadischen Menschenrechtsgesetz und am Gesetz von 2011 zur Meldepflicht von Kinderpornografie im Internet vor. Im Vereinigten Königreich ermächtigt der Online Safety Act 2023 die Regulierungsbehörde Ofcom, die Pflichten von Nutzer-zu-Nutzer-Diensten und Suchmaschinen durchzusetzen.
Die Unterscheidung zwischen illegalen und „rechtmäßigen, aber schädlichen“ Inhalten steht im Mittelpunkt der Debatten um die Meinungsfreiheit. Regierungen müssen festlegen, was in welche Kategorie fällt, und Kritiker befürchten, dass vage Definitionen Plattformen dazu verleiten, legitime Äußerungen übermäßig zu entfernen.
Der Kids Online Safety Act (KOSA) in den Vereinigten Staaten
Der Kids Online Safety Act ist ein 2022 eingebrachter Gesetzentwurf auf Bundesebene, der sich mit den Gefahren im Internet für Kinder und Jugendliche auf großen Social-Media-Plattformen auseinandersetzen soll. Die beiden parteiübergreifenden Initiatoren – die Senatoren Marsha Blackburn (Republikanerin aus Kentucky) und Richard Blumenthal (Demokrat aus Connecticut) – bezeichneten ihn als Reaktion auf zunehmende Hinweise darauf, dass die Plattformen die psychische Gesundheit junger Nutzer schädigen.
Gesetzgebungsentwicklung
Der Weg von KOSA durch den Kongress verdeutlicht sowohl die Dynamik hinter Gesetzen zur Online-Sicherheit von Kindern als auch die damit verbundenen politischen Komplexitäten:
-
Februar 2022 : Erste Einführung nach Frances Haugens Aussage und den Dokumentenlecks
-
Mai 2024 : Versuch, KOSA an die FAA-Neuzulassungsgesetzgebung anzuhängen.
-
Juli 2024 : Zusammengeführt mit COPPA 2.0 und dem Filter Bubble Transparency Act zum Kids Online Safety and Privacy Act (KOSPA, S.2073), der vom Senat mit überwältigender Mehrheit von 91 zu 3 Stimmen verabschiedet wurde.
-
Dezember 2025 : Der Abgeordnete Gus Bilirakis brachte den Kids Internet and Digital Safety (KIDS) Act ein, der KOSA um zusätzliche Altersverifizierungsvorschriften ergänzt.
-
März 2026 : Fortschritte im Unterausschuss für Energie und Handel des Repräsentantenhauses
Trotz der parteiübergreifenden Unterstützung von über 60 Senatoren sah sich KOSA anhaltenden Debatten im Repräsentantenhaus ausgesetzt. Eine Abstimmung im Ausschuss des Repräsentantenhauses über ein damit zusammenhängendes Paket zur Kindersicherheit endete mit 28 zu 24 Stimmen, was die anhaltende Uneinigkeit über den Umfang und die potenziellen Auswirkungen des Gesetzesentwurfs widerspiegelt. Republikaner und Demokraten im Ausschuss stritten über einzelne Bestimmungen, obwohl beide Parteien darin übereinstimmten, dass etwas zum Schutz von Kindern im Internet unternommen werden muss.
Der Gesetzentwurf konzentriert sich auf Plattformdesign und Empfehlungssysteme, anstatt einzelne Inhalte direkt zu zensieren. Er zielt auf Algorithmen, Standardeinstellungen, Autoplay-Funktionen und endloses Scrollen ab – also auf die architektonischen Entscheidungen, die Nutzer zwar fesseln, aber schädliche Inhalte verstärken können.
Kernverpflichtungen und Schutzmaßnahmen gemäß KOSA
KOSA würde den betroffenen Plattformen, darunter sozialen Medien, Online-Spielen, Virtual Reality, Messaging-Diensten und Videostreaming-Diensten, mehrere bedeutende Verpflichtungen auferlegen. E-Mail-Anbieter, Internetdienstanbieter und Bildungseinrichtungen sind ausgenommen.
Anforderungen an die Konstruktion, die standardmäßig auf Sicherheit setzen:
-
Deaktivieren Sie süchtig machende Funktionen wie unendliches Scrollen, automatische Wiedergabe und Push-Benachrichtigungen für Nutzer unter 17 Jahren.
-
Deaktivieren Sie personalisierte algorithmische Empfehlungen.
-
Beschränken Sie die Standortfreigabe, Nachrichten an Fremde und Live-Funktionen ohne elterliche Zustimmung oder Altersbestätigung.
-
Legen Sie strenge Datenschutzvorgaben für minderjährige Nutzer fest
Elterliche Instrumente und Aufsicht:
-
Dashboards, die es Eltern ermöglichen, die auf Plattformen verbrachte Zeit zu überwachen
-
Zugriff auf Kontoeinstellungen und Datenschutzeinstellungen
-
Klare Wege zur Meldung von Schäden wie Mobbing, Grooming, sexueller Ausbeutung oder Drogenmissbrauch
Der Gesetzentwurf befasst sich mit folgenden gezielten Schäden:
|
Kategorie |
Beispiele |
|---|---|
|
Psychische Gesundheit |
Förderung von Suizid, Selbstverletzung und Essstörungen |
|
Physische Sicherheit |
Sexuelle Ausbeutung, Anbahnung von Kontakten, räuberischer Kontakt |
|
Illegale Produkte |
Werbung mit Altersbeschränkung (Tabak, Glücksspiel), Inhalte zum Thema Drogenmissbrauch |
|
Algorithmische Verstärkung |
Systeme, die schädliche Inhalte erkennen und diese an gefährdete Nutzer weiterleiten |
Sorgfaltspflicht und Rechenschaftspflicht:
Plattformen müssen angemessene Sorgfalt walten lassen, um Schäden für Minderjährige durch ihre Dienste zu verhindern. Dies umfasst die Durchführung von Risikobewertungen und die Umsetzung von Risikominderungsstrategien. Der Gesetzentwurf schafft Verantwortlichkeit durch:
-
Unabhängige Prüfungen zur Überprüfung der Sicherheitsversprechen der Plattform
-
Zugang von Forschern zu Datensätzen für die Wirkungsanalyse
-
Transparenzanforderungen ermöglichen es Regulierungsbehörden und der Öffentlichkeit zu beurteilen, ob Plattformen ihren Verpflichtungen nachkommen.
Durchsetzungsstruktur:
Die Änderungen vom Februar 2024 verschoben die Prioritäten bei der Durchsetzung der Vorschriften. Die Federal Trade Commission (FTC) sollte die Definitionen schädlicher Inhalte und die Sorgfaltspflicht überwachen, während die Generalstaatsanwälte der Bundesstaaten für die Durchsetzung der Schutz-, Offenlegungs- und Transparenzpflichten gegenüber Minderjährigen zuständig sein sollten.
Unterstützung, Kritik und laufende Debatten rund um KOSA
Unterstützung für KOSA:
KOSA hat die Unterstützung hunderter Organisationen gewonnen, die sich für Kindersicherheit, psychische Gesundheit und die Verantwortung von Technologieunternehmen einsetzen. Präsident Biden räumte dem Gesetzesvorhaben in seiner Rede zur Lage der Nation 2023 Priorität ein und argumentierte, es würde große Technologieunternehmen endlich dazu zwingen, der Sicherheit von Kindern Vorrang vor Kennzahlen zur Nutzerbindung einzuräumen.
Die Befürworter argumentieren, dass:
-
Plattformen haben es konsequent versäumt, sich selbst zu regulieren.
-
Die psychischen Krisen junger Menschen erfordern gesetzliche Maßnahmen.
-
Designorientierte Anforderungen vermeiden direkte Zensur und gehen gleichzeitig auf die Ursachen ein.
-
Die parteiübergreifende Unterstützung (91 zu 3 Stimmen im Senat) belegt einen breiten politischen Konsens.
Kritik von Bürgerrechtsgruppen:
Organisationen wie die Free Speech Coalition und Public Knowledge haben Bedenken hinsichtlich möglicher unbeabsichtigter Folgen des Gesetzesentwurfs geäußert:
-
Unklare Schadensdefinitionen : Kritiker argumentieren, dass Begriffe wie „Schaden“ Plattformen unter Druck setzen könnten, Inhalte zu LGBTQ+-Themen, Sexualaufklärung oder kontroversen politischen Äußerungen übermäßig zu entfernen – selbst ohne explizite Löschvorschriften.
-
Durchsetzung durch die Generalstaatsanwälte der Bundesstaaten : Die Befugnis der Generalstaatsanwälte zur Durchsetzung des Gesetzes weckt Befürchtungen, dass politisch motivierte Beamte Inhalte ins Visier nehmen könnten, die sie persönlich ablehnen.
-
Bedenken hinsichtlich der Altersverifizierung : Obwohl der Text von KOSA eine pauschale Altersverifizierung nicht vorschreibt, befürchten Kritiker, dass Plattformen invasive Verifizierungssysteme implementieren werden, um ihrer Sorgfaltspflicht nachzukommen.
Was KOSA nicht tut:
Es ist wichtig zu beachten, was der Gesetzentwurf ausschließt:
-
Es begründet kein Klagerecht für Einzelpersonen, das es ihnen ermöglicht, wegen bestimmter Inhalte zu klagen.
-
Es schreibt die Entfernung von Inhalten nicht direkt vor.
-
Es ist nicht erforderlich, dass Plattformen private Messaging-Funktionen überwachen.
Kritiker erkennen diese Einschränkungen an, argumentieren aber, dass indirekter Druck – durch Designvorgaben und Drohungen mit Strafverfolgung – Kinder dennoch in Situationen bringen könnte, in denen Plattformen rechtmäßige Inhalte entfernen, um Haftungsansprüche zu vermeiden, was die Eltern möglicherweise schlechter stellen würde als gezielte Interventionen.
Die Überarbeitung vom Mai 2023 ging auf einige Bedenken ein, indem sie die erfassten Schäden (Suizidförderung, Essstörungen, Substanzmissbrauch) explizit auflistete, anstatt sich auf vage Definitionen zu stützen. Es bestehen jedoch weiterhin Debatten darüber, ob der Gesetzentwurf ein ausgewogenes Verhältnis zwischen Schutz und Meinungsfreiheit herstellt.
Kanadas Gesetz gegen Online-Schadensrisiken (Gesetzentwurf C-63) und damit verbundene Maßnahmen
Kanadas Ansatz zur Gesetzgebung gegen Online-Schadensrisiken gipfelte im Gesetzesentwurf C-63, dem Online Harms Act, der im Februar 2024 im 44. Parlament eingebracht wurde. Dieser umfassende Rahmen sah die Verabschiedung eines neuen Gesetzes in Bezug auf Online-Schadensrisiken sowie die Änderung des Strafgesetzbuches, des kanadischen Menschenrechtsgesetzes und des Gesetzes von 2011 über die Meldepflicht für Kinderpornografie im Internet vor.
Der Gesetzentwurf stellte einen ambitionierten Versuch dar, Online-Gefahren durch einen einheitlichen Regulierungsrahmen zu bekämpfen. Er schlug die Einrichtung einer Kommission für digitale Sicherheit mit mehreren Abteilungen vor, die für die Überwachung der Einhaltung von Vorschriften, Sicherheitsstandards, systemische Risikobewertungen, Beschwerden und Transparenz zuständig sein sollten.
Gesetzlicher Kontext:
Gesetzesentwurf C-63 baute auf früheren Bemühungen auf:
-
Gesetzesentwurf C-36 (2021) : Schwerpunkt auf Hassrede im Internet mit Geldstrafen von bis zu 50.000 US-Dollar
-
Gesetzesentwurf C-9 (Gesetz zur Bekämpfung von Hassverbrechen) : Enthält einige Bestimmungen gegen Online-Hass aus früheren Gesetzesentwürfen.
-
Gesetz zur Meldepflicht von 2011 : Verpflichtende Meldung von Kinderpornografie im Internet durch Internetanbieter
Trotz der Unterstützung durch die regierenden Liberalen und einige Sicherheitsbefürworter löste der Online Harms Act eine intensive nationale Debatte über freie Meinungsäußerung, Überwachung und den Umfang der staatlichen Macht über digitale Räume aus.
Wichtigste Bestimmungen und regulatorische Architektur des Gesetzesentwurfs C-63
Folgende Arten schädlicher Inhalte werden ins Visier genommen:
|
Inhaltskategorie |
Beschreibung |
|---|---|
|
Hasspropaganda |
Inhalte, die Hass gegen identifizierbare Gruppen schüren |
|
Gewalttätiger Extremismus |
Material, das zu gewalttätigem Extremismus oder Terrorismus anstiftet |
|
Material über sexuellen Kindesmissbrauch |
Bilder und Inhalte, die Kindesausbeutung darstellen |
|
Intime Inhalte wurden ohne Einwilligung übermittelt. |
Rachepornos und nicht einvernehmliche intime Bilder |
|
Mobbing und Belästigung |
Gezielter Missbrauch, insbesondere von Minderjährigen |
|
Inhalte zu Selbstverletzung und Suizid |
Material, das zu Selbstverletzung oder Suizid anstiftet. |
Plattformaufgaben:
Das Gesetz würde Plattformen dazu verpflichten:
-
Führen Sie Risikobewertungen für schädliche Inhalte durch.
-
Setzen Sie angemessene Maßnahmen zur Schadensminderung um.
-
Setzen Sie altersgerechte Designmerkmale ein.
-
Den Zugang zu bestimmten Kategorien schädlicher Inhalte, insbesondere für Kinder im Internet, verhindern oder einschränken.
-
Ermöglichen Sie es Nutzern, Schäden über leicht zugängliche Mechanismen zu melden.
Regulierungsarchitektur:
Die vorgeschlagene Kommission für digitale Sicherheit würde als Kanadas wichtigste Regulierungsbehörde für Online-Sicherheit fungieren und mehrere Schlüsselfunktionen haben:
-
Büro für digitale Sicherheit : Überwachung der Einhaltung von Plattformen
-
Normenbüro : Festlegung durchsetzbarer Sicherheitsstandards
-
Büro für Systemrisiken : Durchführung umfassenderer Bewertungen der Auswirkungen von Plattformen
-
Beschwerdestelle : Bearbeitung von Nutzerbeschwerden über Plattformausfälle
-
Transparenzbüro : Überwachung der Berichtspflichten und Offenlegungspflichten
Folgeänderungen und damit zusammenhängende Änderungen:
Gesetzesentwurf C-63 schlug bedeutende Änderungen an bestehenden Gesetzen vor:
-
Änderungen des Strafgesetzbuches : Präzisierte Definitionen von „Hass“, aktualisierte Straftatbestände im Zusammenhang mit Hassrede und angepasste Strafen (einschließlich der Möglichkeit einer lebenslangen Freiheitsstrafe in extremen Fällen).
-
Änderungen des kanadischen Menschenrechtsgesetzes : Ermöglichten die Einreichung von Online-Hassbeschwerden über die Personalabteilung der kanadischen Menschenrechtskommission
-
Aktualisierungen zur Meldepflicht : Das Gesetz von 2011, das Internetdienstanbieter verpflichtet, die Behörden über Kinderpornografie zu informieren und die Daten 21 Tage lang aufzubewahren, wurde beibehalten und verschärft.
Das Gesetz zielte außerdem darauf ab, die interprovinzielle Koordinierung bei der Durchsetzung der Gesetze zu erleichtern und klare Standards für die internationale Online-Kommunikation mit kanadischen Nutzern festzulegen.
Unterstützung, Gegenwind und Status des Online-Schadensgesetzes
Unterstützung für Gesetzesentwurf C-63:
Frances Haugen, deren Facebook-Enthüllungen weltweit Debatten über Online-Gefahren auslösten, befürwortete den kanadischen Ansatz. Einige Rechtswissenschaftler argumentierten, der Gesetzentwurf schaffe ein notwendiges Gleichgewicht zwischen freier Meinungsäußerung und Schutz vor schwerwiegenden Schäden, da er sich auf systemische Risiken und nicht auf individuelle Äußerungen konzentriere.
Die Befürworter betonten:
-
Das erhebliche Risiko, das von der unregulierten Verbreitung schädlicher Inhalte durch Plattformen ausgeht
-
Die Notwendigkeit einer eigens dafür eingerichteten Regulierungsbehörde mit echten Durchsetzungsbefugnissen
-
Schutzmaßnahmen für Kinder, die über freiwillige Branchenverpflichtungen hinausgehen.
-
Angleichung an internationale Trends (EU-Gesetz über digitale Dienste, britisches Online-Sicherheitsgesetz)
Kritik und Gegenreaktion:
Gesetzesentwurf C-63 stieß auf heftigen Widerstand von Bürgerrechtsgruppen und prominenten Persönlichkeiten des öffentlichen Lebens:
-
Kanadische Bürgerrechtsvereinigung : Warnung vor zu weitreichenden Befugnissen, die die Verfolgung von „Gedankenverbrechen“ ermöglichen könnten
-
Margaret Atwood : Die gefeierte Autorin kritisierte Bestimmungen, die sie als Bedrohung der freien Meinungsäußerung ansah.
-
Konservative Kritiker argumentierten, das Gesetz räume der Regierung übermäßige Überwachungs- und Zensurbefugnisse ein.
Zu den konkreten Bedenken zählten:
|
Ausgabe |
Sorge |
|---|---|
|
Schwere Strafen |
Bei extremen Hassverbrechen droht eine lebenslange Haftstrafe. |
|
Präventive Maßnahmen |
Bestimmungen, die Hausarrest vor der Begehung einer Straftat ermöglichen |
|
Auswirkungen auf die Meinungsfreiheit von Minderheiten |
Befürchtungen, dass Diskussionen über Sexualität, Identität oder kontroverse Themen eingefroren werden könnten |
|
Verbotene Bodenerweiterung |
Bedenken darüber, wie Definitionen von „verbotenen Gründen“ legitime Debatten beeinflussen könnten |
Status:
Politische Verzögerungen, anhaltende Kritik und Debatten darüber, ob der Gesetzesentwurf in separate parteipolitische Gesetze zum Kinderschutz und zur Bekämpfung von Hassrede aufgeteilt werden sollte, führten letztendlich zum Scheitern des Gesetzgebungsverfahrens. Gesetzesentwurf C-63 wurde im Januar 2025 nicht verabschiedet und gelangte somit in die erste Sitzungsperiode des neuen Parlaments, ohne in Kraft zu treten.
Das Scheitern hat Kanadas Bemühungen nicht beendet. Es werden Nachfolgeinitiativen mit enger gefassten Zielen erwartet, darunter separate Gesetzesentwürfe zu folgenden Themen:
-
Kinderschutz und Kindersicherheit im Internet
-
Hassrede und Extremismus
-
KI-spezifische Regulierung
-
Finanztransaktionen im Zusammenhang mit Online-Ausbeutung
Der britische Online-Sicherheitsgesetz 2023 als globaler Referenzpunkt
Der britische Online Safety Act 2023 gilt als eines der einflussreichsten und umfassendsten Gesetze gegen Online-Gefahren weltweit und bietet ein Modell, das von kanadischen und US-amerikanischen Gesetzgebern eingehend studiert wurde.
Umfang und Abdeckung:
Das Gesetz gilt für:
-
Nutzer-zu-Nutzer-Dienste (Anbieter sozialer Medien, Foren, Messaging-Apps)
-
Suchmaschinen
-
App-Stores und regulierte Dienstanbieter, die nutzergenerierte Inhalte hosten
Wichtigste Anforderungen:
|
Erfordernis |
Beschreibung |
|---|---|
|
Risikobewertungen |
Plattformen müssen die Risiken illegaler und schädlicher Inhalte bewerten. |
|
Inhaltsmoderation |
Systeme zur umgehenden Erkennung und Entfernung illegaler Inhalte |
|
Kinderschutz |
Spezifische Pflichten in Bezug auf Inhalte zu Selbstverletzung, Suizid und Essstörungen |
|
Transparenzberichte |
Regelmäßige öffentliche Berichterstattung über Sicherheitsmaßnahmen und deren Ergebnisse. |
|
Designcodes |
Standards für elterliche Kontrollen und standardmäßige Sicherheitseinstellungen |
Durchsetzung der Vorschriften:
Ofcom, die britische Kommunikationsbehörde, setzt den Online Safety Act durch und verfügt über folgende Befugnisse:
-
Prüfung der Plattformkonformität
-
Verhaltenskodizes herausgeben
-
Bei Verstößen erhebliche Geldstrafen verhängen
-
Erfordern Änderungen am Plattformdesign und an den Moderationssystemen
Einschränkungen und Kritikpunkte:
Obwohl das britische Gesetz oft als Vorlage herangezogen wird, ist es auch Kritik ausgesetzt:
-
Risiken übermäßiger Löschungen : Plattformen könnten rechtmäßige Inhalte entfernen, um behördlichen Kontrollen zu entgehen.
-
Belastung für kleinere Plattformen : Compliance-Kosten können kleinere Dienste benachteiligen
-
Bedenken hinsichtlich des Datenschutzes : Debatten darüber, ob das Gesetz zum Scannen privater Nachrichten führen könnte (obwohl eine proaktive Überwachung privater Nachrichten nicht vorgeschrieben ist).
Der Ansatz Großbritanniens legt den Schwerpunkt auf das Management systemischer Risiken und weniger auf die Kontrolle einzelner Inhalte. Dieses Prinzip hat die designorientierten Bestimmungen im KOSA und ähnlichen Gesetzen in anderen Ländern beeinflusst.
Politische Schwerpunkte: Sicherheit, Datenschutz und freie Meinungsäußerung
Die Gesetzgebung zu Online-Schadensrisiken muss grundlegende Spannungen zwischen konkurrierenden Werten berücksichtigen. Das Verständnis dieser Abwägungen ist unerlässlich für die Bewertung jedes Regulierungsrahmens.
Die zentrale Spannung
Jeder Gesetzentwurf zum Schutz vor Online-Gefahren zielt darauf ab, Nutzer – insbesondere Kinder und marginalisierte Gruppen – vor schwerwiegenden Schäden zu bewahren und gleichzeitig die Schaffung eines Zensurapparats zu vermeiden. Dies ist leichter gesagt als getan.
Designorientierte Ansätze:
Gesetze wie KOSA und Bill C-63 versuchen, den Fokus auf Plattformdesign und systemische Risiken zu legen, anstatt die direkte staatliche Kontrolle über einzelne Beiträge zu übernehmen:
-
Targeting-Algorithmen und Empfehlungssysteme
-
Vorgabe von Standard-Datenschutzeinstellungen
-
Erfordert elterliche Hilfsmittel und altersgerechte Funktionen
-
Pflichten zur Beurteilung und Minderung von Risiken auferlegen
Dieser Ansatz vermeidet, dass Regierungsbeamte die Befugnis erhalten, die Entfernung bestimmter Inhalte zu fordern. Kritiker argumentieren jedoch, dass dadurch indirekt Druck entsteht, auch rechtmäßige Inhalte zu entfernen. Plattformen, denen rechtliche Schritte drohen, könnten daher eher auf Nummer sicher gehen und potenziell schädliche Inhalte entfernen, anstatt ein Haftungsrisiko einzugehen.
Abwägungen zum Datenschutz
Technologien zur Alterssicherung stellen eine erhebliche Herausforderung dar:
|
Ansatz |
Nutzen |
Risiko |
|---|---|---|
|
Altersverifizierung |
Ermöglicht gezielten Schutz für Minderjährige |
Erfordert die Erhebung personenbezogener Daten, untergräbt die Anonymität |
|
Altersschätzung |
Weniger invasiv als die Verifizierung |
Möglicherweise ungenau, erfasst aber dennoch biometrische Daten. |
|
Kindersicherung |
Respektiert die Autonomie der Familie |
Setzt auf elterliches Engagement und lässt Kinder möglicherweise ungeschützt. |
Die Gesetzgeber haben in den meisten Vorschlägen bewusst darauf verzichtet, eine proaktive Überwachung privater Nachrichten oder KI-Chatbot-Interaktionen vorzuschreiben, da sie erkannt haben, dass eine solche Überwachung die Natur der privaten Online-Kommunikation grundlegend verändern würde.
Öffentliche vs. private Kommunikation
Ein wesentlicher Unterschied in diesen Gesetzen besteht zwischen:
-
Öffentliche Social-Media-Feeds : Unterliegen Inhaltsmoderation, algorithmischer Überwachung und Transparenzanforderungen
-
Interaktionen mit der privaten Messaging-Funktion : Im Allgemeinen ausgeschlossen oder nur eingeschränkt abgedeckt
-
KI-Chatbots und persönliche Dienstleistungen : Oft außerhalb des Geltungsbereichs von Gesetzen, die für traditionelle Social-Media-Plattformen konzipiert wurden.
Der kanadische Rahmen für Online-Schadensbekämpfung und ähnliche Regelungen schließen private Nachrichten bewusst aus oder beschränken deren Geltungsbereich, da sie sowohl die Bedenken hinsichtlich des Datenschutzes als auch die praktischen Herausforderungen bei der Regulierung flüchtiger, eins-zu-eins-Kommunikation anerkennen.
Verantwortlichkeit anderer Nutzer und der Plattform
Diese Gesetze regeln auch, wie Plattformen mit Interaktionen zwischen anderen Nutzern umgehen:
-
Meldemechanismen für Belästigung, Mobbing und räuberisches Verhalten
-
Anforderungen zur Beantwortung von Nutzerbeschwerden innerhalb festgelegter Fristen
-
Verpflichtung zur Transparenz hinsichtlich der Durchsetzungsentscheidungen
-
Zugang von Forschern zu Daten, die eine externe Bewertung der Auswirkungen der Plattform ermöglichen
Zukünftige Ausrichtungen der Regulierung von Online-Schadensrisiken
Die regulatorischen Rahmenbedingungen entwickeln sich rasant. Mehrere wichtige Trends werden die Gesetzgebung zu Online-Schadensrisiken in den kommenden Jahren prägen.
Vereinigte Staaten: Raffinerie KOSA
Die fortgesetzten Verhandlungen über KOSA konzentrieren sich auf:
-
Sorgfaltspflicht : Klarstellung, was angemessene Sorgfalt ausmacht, ohne unerreichbare Standards zu schaffen.
-
Umfang der erfassten Dienste : Feststellung, welche Plattformen groß genug sind, um eine Regulierung zu rechtfertigen
-
Schutz der Bürgerrechte : Sicherstellen, dass die Durchsetzung nicht unverhältnismäßige Auswirkungen auf LGBTQ+-Jugendliche, Informationen zur sexuellen Gesundheit oder die Meinungsfreiheit von Minderheiten hat.
-
Alternativen zur Altersverifizierung : Ansätze zum Schutz von Minderjährigen ohne invasive Datenerfassung finden
Die überwältigende Zustimmung des Senatsentwurfs lässt vermuten, dass ein Kompromiss letztendlich möglich ist, doch die Debatten im Repräsentantenhaus und konkurrierende Prioritäten (einschließlich der Regulierung von KI) könnten eine endgültige Entscheidung verzögern.
Kanada: Hinwendung zu differenzierten Ansätzen
Das Scheitern des Gesetzesentwurfs C-63 hat Kanadas Engagement für die Regulierung von Online-Schadensrisiken nicht beendet. Vielmehr hat es zu einer Verlagerung hin zu gezielteren Gesetzen geführt:
-
Separate Kinderschutzgesetze : Speziell darauf ausgerichtet, Kinder vor Ausbeutung und räuberischen Inhalten zu schützen
-
Eigenständige Gesetzgebung gegen Hassrede : Aufbauend auf Elementen des Gesetzes zur Bekämpfung von Hassrede
-
KI-spezifische Regulierung : Umgang mit Schäden durch generative KI, große Sprachmodelle und Chatbots
-
Maßnahmen zur Rechenschaftspflicht von Plattformen : Unternehmen werden verpflichtet, angemessene Schritte zu unternehmen, um schädliche Inhalte zu identifizieren und angemessen darauf zu reagieren.
In den Eröffnungsreden von Parlamentsdebatten wird zunehmend auf die Notwendigkeit von Ansätzen hingewiesen, die sowohl politischer Opposition als auch verfassungsrechtlicher Prüfung standhalten können.
Die Herausforderung der generativen KI
Viele bestehende Gesetze gegen Online-Schadensrisiken wurden mit Blick auf soziale Medien verfasst. Sie passen möglicherweise nicht:
-
Eins-zu-eins-Interaktionen mit KI-Chatbots
-
Kurzlebige oder hochgradig personalisierte Inhalte
-
Generative KI-Systeme, die schädliche Inhalte auf Anfrage erstellen
-
Anwendungen künstlicher Intelligenz, die nicht dem Modell „Plattform, die Benutzerinhalte hostet“ entsprechen
Gesetzgeber beginnen, sich mit diesen Herausforderungen auseinanderzusetzen, doch die regulatorischen Rahmenbedingungen hinken der technologischen Entwicklung hinterher. Der Hauptzweck vieler Gesetzesentwürfe liegt weiterhin in der Regulierung traditioneller sozialer Medien, wodurch erhebliche Lücken im Schutz bestehen bleiben.
Internationale Trends
Die globale Koordination nimmt zu durch:
-
G7-Diskussionen : Gemeinsame Grundsätze zur Plattformverantwortlichkeit
-
Auswirkungen des EU-Gesetzes über digitale Dienste : Druck auf interoperable Standards
-
Zugangsbestimmungen für Forschende : Ermöglichung grenzüberschreitender Evaluierung der Auswirkungen von Plattformen
-
Transparenzanforderungen : Hinwendung zu gemeinsamen Berichtsrahmen
Diese Entwicklungen lassen die Möglichkeit harmonisierterer internationaler Vorgehensweisen aufkommen, doch nationale Unterschiede in den Traditionen der freien Meinungsäußerung und den politischen Systemen werden weiterhin für Variationen sorgen.
Der Weg nach vorn
Die Gesetzgebung zu Online-Gefahren wird sich mit dem Aufkommen neuer Technologien und Gefahren stetig weiterentwickeln. Die in diesem Artikel besprochenen Gesetzesentwürfe – KOSA, der kanadische Online Harms Act und der britische Online Safety Act – stellen erste Versuche dar, Herausforderungen zu bewältigen, die zunehmend komplexer werden.
Jedes dauerhafte Gerüst muss Folgendes aufweisen:
-
Sicherheit und Innovation im Einklang bringen
-
Grundrechte schützen und gleichzeitig reale Schäden angehen.
-
Anpassung an neue Technologien
-
Ermöglichen Sie sinnvolle Rechenschaftspflicht, ohne Zensurregime zu schaffen.
-
Plattformen sollen verpflichtet werden, angemessene Sorgfalt walten zu lassen, ohne dabei konkrete Inhaltsentscheidungen vorzuschreiben.
Für Eltern, Pädagogen, Interessenvertreter und politische Entscheidungsträger ist es unerlässlich, diese Rahmenbedingungen jetzt zu verstehen. Die Debatten darüber, wie Unternehmen verpflichtet werden können, gegen Online-Gefahren vorzugehen und gleichzeitig das offene Internet zu bewahren, werden das digitale Leben künftiger Generationen prägen.
Ob Sie nun ein besorgter Elternteil sind, der seine Kinder schützen möchte, ein Plattformbetreiber, der seine Compliance-Verpflichtungen verstehen will, oder ein Bürger, der sich an demokratischen Debatten beteiligt – sich über Gesetze zum Schutz vor Online-Schadenen zu informieren, ist nicht länger optional – es ist unerlässlich.