Regulierung sozialer Medien

  • , Von Paul Waite
  • 25 min Lesezeit

Die Regeln für soziale Medien ändern sich rasanter denn je. Seit dem Inkrafttreten des britischen Online Safety Act im Oktober 2023, der vollständigen Anwendung des EU Digital Services Act (DSA) ab Februar 2024 und über 250 Gesetzesentwürfen einzelner US-Bundesstaaten seit 2021 sehen sich Plattformen und Nutzer gleichermaßen einer neuen Realität gegenüber. Dieser Artikel erläutert die Funktionsweise der Social-Media-Regulierung, ihren Geltungsbereich, ihre Durchsetzung und warum Kindersicherheit, Algorithmen und Desinformation zu zentralen Streitpunkten geworden sind.

Überblick über die Regulierung sozialer Medien in den Jahren 2024–2026

Die Regulierung sozialer Medien ist heute unerlässlich, da die Schäden nicht länger ignoriert werden können. In den letzten Jahren gaben 41 % der US-amerikanischen Teenager an, Cybermobbing erlebt zu haben, und Studien belegen einen Zusammenhang zwischen vermehrter Nutzung sozialer Medien und steigenden psychischen Problemen junger Menschen. Regierungen weltweit sind zu dem Schluss gekommen, dass die Selbstregulierung der Plattformen nicht die gewünschten gesellschaftlichen Ergebnisse liefert.

Die regulatorische Landschaft in den Jahren 2024–2026 dreht sich um mehrere Schlüsselthemen:

  • Nutzersicherheit : Schutz der Nutzer vor illegalen Inhalten, Belästigung und Ausbeutung

  • Meinungsfreiheit : Die Balance zwischen Schadensminimierung und Meinungsfreiheit finden

  • Plattformmacht : Soziale Medienunternehmen für die von ihnen entworfenen Systeme zur Rechenschaft ziehen

  • Grenzüberschreitende Durchsetzung : Globale Plattformen zur Einhaltung nationaler Gesetze verpflichten

Geändert hat sich der Wandel von der freiwilligen Selbstregulierung der Plattformen hin zu gesetzlichen Pflichten, die von unabhängigen Regulierungsbehörden durchgesetzt werden. In Großbritannien ist Ofcom nun für die Online-Sicherheit zuständig. Die Europäische Kommission setzt die Einhaltung der DSA-Vorschriften gegenüber sehr großen Online-Plattformen (VLOPs) durch. In den USA spielen die FTC und die Generalstaatsanwälte der Bundesstaaten eine zunehmend aktive Rolle, selbst ohne umfassende Bundesgesetzgebung.

Dieser Artikel erläutert die Ziele dieser Regulierungen, die spezifischen Rahmenbedingungen in Großbritannien, der EU und den USA, für wen sie gelten, welche Verpflichtungen Plattformen erfüllen müssen und wohin sich das Recht zukünftig entwickeln wird. Ob Sie sich mit Compliance, Richtlinien oder einfach nur mit der Regulierung des Internets befassen – diese Entwicklungen sind relevant.

Was die Regulierung sozialer Medien erreichen soll

Im Kern verfolgt die Regulierung sozialer Medien mehrere miteinander verbundene Ziele: die Reduzierung illegaler und schädlicher Inhalte, den Schutz gefährdeter Nutzer (insbesondere Kinder), die Verbesserung der Transparenz der Funktionsweise von Plattformen und die Erhaltung von Raum für Innovation und freie Meinungsäußerung. Die Herausforderung besteht darin, all diese Ziele gleichzeitig zu erreichen.

Die Regulierungsbehörden in allen Rechtsordnungen konzentrieren sich auf eine gemeinsame Reihe konkreter Schäden:

  • Cybermobbing und Online-Belästigung

  • Bildbasierter Missbrauch (einschließlich intimer Bilder, die ohne Einwilligung geteilt wurden)

  • Terroristische Inhalte und gewalttätiger Extremismus

  • Material zum sexuellen Missbrauch von Kindern (CSAM)

  • Förderung von Selbstverletzung und Suizid

  • Koordinierte Desinformationskampagnen

  • Online-Pornografie für Minderjährige zugänglich

Moderne Regulierungsansätze unterscheiden sich von früheren durch die Fokussierung auf systemische Risiken, nicht nur auf einzelne Inhalte. Regulierungsbehörden hinterfragen nun, wie Empfehlungsalgorithmen schädliche Inhalte massenhaft verstärken können, anstatt lediglich nachträglich deren Entfernung zu fordern. Dies stellt einen grundlegenden Wandel im Verständnis von Plattformverantwortung durch Regierungen dar.

Es ist wichtig, den Unterschied zwischen „illegalen Inhalten“ und „legalen, aber schädlichen“ Inhalten zu verstehen. Illegale Inhalte umfassen Material, das gegen das Strafrecht verstößt – beispielsweise Aufrufe zur Gewalt, Kinderpornografie und terroristische Propaganda. „Legale, aber schädliche“ Inhalte können beispielsweise Material umfassen, das Magersucht propagiert oder extreme Frauenfeindlichkeit ausdrückt und zwar nicht strafbar ist, aber dennoch realen Schaden anrichten kann. Verschiedene Rechtssysteme handhaben diese Kategorien unterschiedlich. Großbritannien schlug zunächst weitreichende Pflichten in Bezug auf legale, aber schädliche Inhalte für Erwachsene vor, schränkte diesen Ansatz jedoch später aufgrund von Bedenken hinsichtlich der Meinungsfreiheit ein.

Wichtige Rahmenbedingungen: Ansätze des Vereinigten Königreichs, der EU und der USA

Drei wichtige Regulierungsmodelle prägen heute die Geschäftstätigkeit von Social-Media-Unternehmen weltweit: der britische Online Safety Act, der EU Digital Services Act und verwandte Gesetze sowie der fragmentiertere Ansatz in den Vereinigten Staaten. Jedes dieser Modelle spiegelt unterschiedliche Rechtstraditionen, politische Prioritäten und Ansichten über das angemessene Verhältnis zwischen Regierung und Plattformen wider.

Das britische Online-Sicherheitsgesetz

Das Online-Sicherheitsgesetz trat am 26. Oktober 2023 mit der königlichen Zustimmung in Kraft und wurde zum Online-Sicherheitsgesetz. Die Umsetzung erfolgt schrittweise von 2024 bis 2026 unter der Leitung von Ofcom als unabhängiger Regulierungsbehörde. Das Gesetz verpflichtet Plattformen zur Sorgfaltspflicht und dazu, proaktiv Maßnahmen zum Schutz der Nutzer vor illegalen Inhalten und – bei Diensten, die voraussichtlich von Kindern genutzt werden – vor jugendgefährdenden Inhalten zu ergreifen.

Zu den wichtigsten Verpflichtungen Großbritanniens gehören:

  • Risikobewertungen für illegale Inhalte (fällig 2025) und Kinderschutzbewertungen (bis Juli 2025)

  • Robuste Inhaltsmoderationssysteme

  • Melde- und Beschwerdemechanismen für Nutzer

  • Altersverifizierung für Plattformen, die Online-Pornografie anbieten

  • Transparenzberichterstattung an Ofcom

Das Gesetz schafft außerdem neue Straftatbestände, darunter Cyberflashing und bedrohliche Kommunikation, die am 31. Januar 2024 in Kraft traten.

EU-Gesetz über digitale Dienste

Der DSA stellt den umfassendsten harmonisierten Rahmen für die Regulierung von Online-Plattformen innerhalb eines bedeutenden Wirtschaftsraums dar. Während die Verpflichtungen für VLOPs (Plattformen mit mehr als 45 Millionen monatlichen Nutzern in der EU) bereits 2023 in Kraft traten, gilt der vollständige DSA seit dem 17. Februar 2024 für alle betroffenen Intermediäre.

Zu den wichtigsten EU-Verpflichtungen gehören:

  • Melde- und Handlungsmechanismen für illegale Inhalte

  • Transparenzberichte zur Inhaltsmoderation

  • Risikobewertungen für systemische Schäden (VLOPs)

  • Algorithmische Prüfungen und Datenzugriff für Forscher (VLOPs)

  • Klare Nutzungsbedingungen und Beschwerdebearbeitung

Die DSA verfolgt einen gestaffelten Ansatz: Je größer und risikoreicher die Plattform, desto strenger die Anforderungen. VLOPs wie Meta, TikTok und YouTube unterliegen der strengsten Prüfung, einschließlich potenzieller Geldstrafen von bis zu 6 % ihres weltweiten Jahresumsatzes.

Die Vorgehensweise der Vereinigten Staaten

In den USA fehlt ein einheitliches Bundesgesetz zur Regulierung sozialer Medien, wie es beispielsweise in Großbritannien und der EU existiert. Paragraph 230 des Communications Decency Act von 1996 gewährt Plattformen weitgehende Immunität vor Haftung für nutzergenerierte Inhalte – ein Schutz, der das Wachstum des modernen Internets ermöglicht hat, aber mittlerweile von beiden politischen Parteien kritisiert wird.

Die aktuellen regulatorischen Aktivitäten in den USA umfassen:

  • Seit 2021 wurden in 38 Bundesstaaten über 250 Gesetzesentwürfe eingebracht.

  • Der Kids Online Safety Act (KOSA) schreitet mit parteiübergreifender Unterstützung voran.

  • Der kalifornische Kodex für altersgerechtes Design (CAADCA) steht zwar vor gerichtlichen Anfechtungen

  • Vorschläge zur Einschränkung oder Reform von Abschnitt 230

Der verfassungsrechtliche Schutz der Meinungsfreiheit gemäß dem Ersten Verfassungszusatz erschwert die Bundesregulierung, da Gerichte mehrere Landesgesetze als verfassungswidrig aufgehoben haben. Dies führt zu einem Flickenteppich an Gesetzen und anhaltender Unsicherheit für landesweit tätige Plattformen.

Für wen gilt die Regulierung sozialer Medien?

Gesetze erfassen in der Regel „Online-Plattformen“, die nutzergenerierte Inhalte hosten oder die Interaktion zwischen Nutzern ermöglichen – eine Definition, die weit über traditionelle soziale Netzwerke hinausgeht. Um die Einhaltung der Gesetze zu gewährleisten, ist es unerlässlich zu verstehen, wer darunter fällt.

Zu den üblicherweise abgedeckten Dienstleistungen gehören:

Serviceart

Beispiele

Soziale Netzwerke

Facebook, X (ehemals Twitter), Threads, LinkedIn

Video-Sharing-Plattformen

YouTube, TikTok, Vimeo

Messaging- und Chat-Apps

WhatsApp, Telegram, Snapchat

Dating-Apps

Tinder, Bumble, Grindr

Spieleplattformen mit sozialen Funktionen

Discord, Twitch, Roblox

Foren und Community-Websites

Reddit, spezialisierte Interessenforen

Das Konzept der „relevanten Verbindungen“ zu einer bestimmten Gerichtsbarkeit bestimmt, ob eine Plattform den Gesetzen dieses Landes unterliegen muss. Eine in den USA ansässige Plattform mit Millionen von Nutzern in Großbritannien fällt unter den Online Safety Act und die Aufsicht von Ofcom, unabhängig vom Sitz des Unternehmens.

Sowohl Großbritannien als auch die EU verwenden Kriterien wie Größe, Funktionalität und Risiko zur Kategorisierung von Dienstleistungen:

  • Vereinigtes Königreich : Dienstleistungen der Kategorie 1 (größte Reichweite) unterliegen den umfangreichsten Pflichten.

  • EU : Sehr große Online-Suchmaschinen (VLOPs und VLOSEs) mit mehr als 45 Millionen monatlichen Nutzern in der EU unterliegen verstärkten Verpflichtungen

Auch kleine Dienste können von Regulierungen betroffen sein, wenn sie besondere Risiken bergen. Ein Nischenforum, das bei Minderjährigen beliebt ist und extremistische oder pornografische Inhalte verbreitet, würde trotz seiner Größe genauer unter die Lupe genommen. Im Fokus steht der potenzielle Schaden, nicht nur die Nutzerzahlen.

Kernaufgaben auf Social-Media-Plattformen

Moderne Regulierungen wandeln Plattformen von einem passiven „Host“-Modell – bei dem sie lediglich Infrastruktur bereitstellten – hin zu einem aktiven Risikomanagement. Die meisten Rahmenbedingungen gehen jedoch nicht so weit, eine generelle Vorab-Überwachung vor der Veröffentlichung vorzuschreiben, da dies unpraktisch wäre und ernsthafte Bedenken hinsichtlich Zensur aufwerfen würde.

Zu den typischen Hauptaufgaben von Plattformen gehören:

  • Regelmäßige Risikobewertungen hinsichtlich illegaler und schädlicher Inhalte durchführen

  • Umsetzung verhältnismäßiger Sicherheitsmaßnahmen auf Grundlage dieser Bewertungen

  • Bereitstellung von Melde- und Beschwerdeinstrumenten für Nutzer

  • Veröffentlichung von Transparenzberichten

  • Zusammenarbeit mit Aufsichtsbehörden und Beantwortung von Informationsanfragen

Diese Verpflichtungen unterscheiden sich je nach Nutzergruppe. Plattformen müssen stärkere und proaktivere Maßnahmen zum Schutz von Kindern ergreifen, während bei Erwachsenen der Schwerpunkt auf Wahlmöglichkeiten und Instrumenten zur Selbstbestimmung der Nutzer liegt.

Gemäß dem britischen Online-Sicherheitsgesetz:

  • Risikobewertungen zu illegalen Inhalten sind für 2025 fällig.

  • Kindersicherheitsprüfungen sind bis Juli 2025 fällig.

  • Verhaltensregeln von Ofcom zur Umsetzung bis 2024–2026

Im Rahmen des EU-DSA:

  • Jährliche Transparenzberichte für VLOPs/VLOSEs ab 2023–2024

  • Systemische Risikobewertungen und Risikominderungsmaßnahmen

  • Unabhängige Prüfungen der Einhaltung

Beide Rahmenwerke erfordern klare Nutzungsbedingungen, die konsequente Durchsetzung dieser Bedingungen sowie leicht zugängliche Beschwerdemechanismen, über die Nutzer Moderationsentscheidungen anfechten können.

Pflichten für illegale Inhalte

„Rechtswidrige Inhalte“ im Sinne dieser Rahmenbedingungen umfassen Material, das gegen Strafrecht verstößt. Konkrete Beispiele hierfür sind:

  • Terrorismus und gewalttätiger Extremismus

  • Material zum sexuellen Missbrauch von Kindern (CSAM)

  • schweres Hassverbrechen

  • Bedrohungen und Belästigungen

  • Missbrauch intimer Bilder (einschließlich Rachepornos)

  • Betrug und bestimmte Arten ausländischer Einmischung

Plattformen müssen unverzüglich handeln, um illegale Inhalte zu entfernen, sobald sie davon Kenntnis erlangen. Das EU-DSA (Digital Security Act) legt Melde- und Handlungsregeln fest, die Plattformen verpflichten, Meldungen zu bestätigen, zu untersuchen und darauf zu reagieren. Der britische Online Safety Act sieht proaktive Maßnahmen für bestimmte risikoreiche Inhaltskategorien vor.

Im Hinblick auf Terrorismus und insbesondere CSAM (Computer-Sexual Assault Marketing) wird von Plattformen erwartet, dass sie automatisierte Erkennungstools einsetzen und eigene Moderationsteams unterhalten. Die Dringlichkeit spiegelt die Schwere des Schadens wider – der australische eSafety Commissioner beispielsweise verlangt die Entfernung bestimmter schädlicher Inhalte innerhalb von 24 Stunden.

Auch Großbritannien hat neue Straftatbestände eingeführt:

  • Cyberflashing (Versenden unerwünschter sexueller Bilder)

  • Bedrohliche Kommunikation

Diese Regelungen traten am 31. Januar 2024 in Kraft, was bedeutet, dass nun auch Einzelpersonen direkt strafrechtlich verfolgt werden können, nicht nur Plattformen.

Suchmaschinen haben ihrerseits Verpflichtungen: Sie müssen illegale Suchergebnisse herabstufen oder entfernen und gegebenenfalls sichere Suchoptionen implementieren.

Inhalte, die für Kinder schädlich sind

Die Online-Sicherheit von Kindern ist der politisch wichtigste Faktor für neue Regulierungen. Großbritannien, die EU und mehrere US-Bundesstaaten haben diesem Bereich Priorität eingeräumt, was die weit verbreitete Besorgnis von Eltern, Pädagogen und Gesetzgebern widerspiegelt.

Zu den Kategorien schädlicher Inhalte, die typischerweise von Regulierungen behandelt werden, gehören:

  • Online-Pornografie und altersunangemessene Inhalte

  • Extreme Gewalt und Blutvergießen

  • Inhalte zu Selbstverletzung und Suizid

  • Werbematerial für Essstörungen

  • Arzneimittelwerbung

  • Anbahnung sexueller Kontakte und unangemessener Kontakt

Das britische Online-Sicherheitsgesetz unterscheidet zwischen Inhalten mit „primärer Priorität“ (die schwerwiegendsten Gefahren) und Inhalten mit „Priorität“ (bedeutend, aber weniger schwerwiegend). Dienste, die voraussichtlich von Kindern genutzt werden, müssen den Zugriff auf solche Inhalte verhindern oder altersgerechte Angebote bereitstellen.

Die Regulierungsbehörden erwarten von den Plattformen den Einsatz spezifischer Tools:

Werkzeug

Zweck

Altersnachweis/Altersverifizierung

Minderjährige vor dem Zugriff auf Inhalte für Erwachsene schützen

Standard-Sicherheitseinstellungen

Kinderschutz standardmäßig statt optional

Profile mit hohem Datenschutz

Einschränkung der Auffindbarkeit und Kontaktaufnahme durch Fremde

Kindersicherung

Eltern mehr Kontrolle über die Online-Aktivitäten ihrer Kinder geben

Großbritannien hat klare Fristen für die Einführung der Altersverifizierung auf Online-Pornografieseiten festgelegt, mit Fristen um Anfang 2025. Webseiten, die Inhalte nicht angemessen einschränken, müssen mit Durchsetzungsmaßnahmen bis hin zur möglichen Sperrung rechnen.

Der Schutz von Kindern ist nicht allein die Verantwortung der Plattformen. Eltern, Schulen und Jugendämter spielen alle eine wichtige Rolle. Regulierungen sind dann am wirksamsten, wenn sie es diesen Akteuren ermöglichen, die von den Plattformen bereitgestellten Tools und Ressourcen effektiv zu nutzen.

Kontrolle und Ermächtigung erwachsener Nutzer

Für Erwachsene priorisieren viele Gesetze die Wahlfreiheit der Nutzer und Transparenz gegenüber einem vollständigen Verbot legaler Inhalte. Der Grundsatz lautet, dass Erwachsene die Möglichkeit haben sollten, ihre Online-Umgebung selbst zu gestalten, da sie wissen, wie die Plattformen funktionieren.

Zu den spezifischen Mechanismen, die Plattformen bereitstellen müssen oder sollten, gehören:

  • Inhaltsfilter für sensible Themen (Gewalt, Selbstverletzung, Hassrede)

  • Kontrolle darüber, wer den Benutzer kontaktieren oder ihm Nachrichten senden kann

  • Optionen zur Beschränkung der Interaktionen auf verifizierte Konten

  • Detaillierte Einstellungen für Kommentare und Antworten

  • Die Möglichkeit, chronologische Feeds anstelle von algorithmischen Empfehlungen anzuzeigen.

Gemäß dem britischen Online-Sicherheitsgesetz müssen Dienste der Kategorie 1 (die größten Plattformen) erweiterte Kontrollmöglichkeiten für Erwachsene bereitstellen. Diese Dienste müssen Nutzern außerdem klare und verständliche Erklärungen zur Funktionsweise ihrer Empfehlungsalgorithmen geben.

Die Identitätsprüfung ist ein Ansatz zur Reduzierung anonymen Missbrauchs. Erwachsene können ihre Identität freiwillig verifizieren, und Plattformen können Nutzern ermöglichen, die Interaktion auf verifizierte Konten zu beschränken. Die Verifizierung muss jedoch freiwillig bleiben und die Privatsphäre wahren – eine verpflichtende Verifizierung würde ernsthafte Bedenken hinsichtlich Überwachung und Zugriff aufwerfen.

Hier besteht ein inhärenter Widerspruch. Sicherheitsmechanismen, die Inhalte einschränken oder Nutzer blockieren, können bei schlechter Konzeption die Meinungsfreiheit beeinträchtigen und zu übermäßiger Moderation führen. Plattformen müssen ein sensibles Gleichgewicht finden zwischen der Stärkung der Nutzerrechte und der Vermeidung der Zensur legitimer Meinungsäußerungen.

Regulierung von Algorithmen und Empfehlungssystemen

Neuere Gesetze erkennen zunehmend an, dass die größten Schäden nicht von einzelnen Inhalten ausgehen, sondern von Systemen, die schädliches Material massenhaft verbreiten. Empfehlungsalgorithmen – der Code, der bestimmt, was in Ihrem Feed erscheint – stehen daher im Mittelpunkt der Regulierungsbemühungen.

Sowohl der britische Online Safety Act als auch der EU DSA verpflichten Plattformen dazu, zu bewerten, wie ihre Empfehlungssysteme die Reichweite ihrer Nutzer erhöhen könnten:

  • Illegale Inhalte

  • Material zu Selbstmord und Selbstverletzung

  • Extremistische Inhalte und gewalttätige Radikalisierung

  • Desinformation und manipulierte Medien

Zu den von den Aufsichtsbehörden erwarteten Minderungsmaßnahmen gehören:

  • Änderung der Standardempfehlungen für Minderjährige, um schädliche Inhalte auszuschließen

  • Einschränkung der Autoplay-Funktionen, die zu längerem Ansehen anregen

  • Die Auseinandersetzung mit „Kaninchenbau“-Designmustern, die zunehmend extremeren Inhalten dienen.

  • Bereitstellung von Benutzeroptionen zum Abschalten personalisierter Empfehlungen

Die Transparenzpflichten sind erheblich. VLOPs gemäß DSA müssen detaillierte jährliche Transparenzberichte veröffentlichen, in denen die Funktionsweise ihrer Systeme erläutert wird. Ofcom führt bis 2026 Konsultationen zur algorithmischen Sicherheit und Transparenz durch; Verhaltenskodizes sollen dabei konkretere Leitlinien liefern.

Eine der wichtigsten Entwicklungen ist die Verpflichtung für Plattformen, geprüften Forschern, die systemische Risiken untersuchen, Datenzugriff zu gewähren. Dies ermöglicht eine unabhängige Analyse der Funktionsweise von Algorithmen in der Praxis – allerdings muss dies mit Geschäftsgeheimnissen und dem Datenschutz der Nutzer in Einklang gebracht werden.

Durchsetzung, Strafen und grenzüberschreitende Reichweite

Wirksame Durchsetzungsinstrumente sind unerlässlich, um die Glaubwürdigkeit von Regulierungen gegenüber globalen Technologiekonzernen zu gewährleisten, die über deutlich höhere Ressourcen als viele Regierungen verfügen. Moderne Rahmenbedingungen verleihen Regulierungsbehörden erhebliche Durchsetzungskraft.

Zu den wichtigsten Durchsetzungsinstrumenten gehören:

  • Ermittlungen und Informationsanfragen

  • Unabhängige Prüfungen (für VLOPs gemäß DSA obligatorisch)

  • Verbindliche Anordnungen zur Änderung von Systemen oder Praktiken

  • Erhebliche Verwaltungsstrafen

  • In extremen Fällen kann der Zugriff über Internetanbieter oder Zahlungsdienstleister blockiert werden.

Die finanziellen Strafen sind so ausgelegt, dass sie selbst für die größten Unternehmen spürbar sind:

Zuständigkeit

Höchststrafe

Vereinigtes Königreich (Online-Sicherheitsgesetz)

18 Millionen Pfund oder 10 % des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist)

EU (Gesetz über digitale Dienste)

6 % des weltweiten Jahresumsatzes

Australien (Online-Sicherheitsgesetz)

555.000 AUD pro Person oder 10 % des australischen Umsatzes

Diese Zahlen sind nicht theoretisch. Meta zahlte 2023 im Rahmen der DSGVO 1,2 Milliarden Euro für Datentransfers in die USA. TikTok wurde 2023 wegen Verstößen gegen den Datenschutz von Kindern mit einer Geldstrafe von 345 Millionen Euro belegt. Die gesamten EU-Bußgelder gegen Technologieunternehmen haben seit 2018 5 Milliarden Euro überschritten.

Die grenzüberschreitende Durchsetzung ist in diesen Rahmenwerken ausdrücklich vorgesehen. Ofcom kann gegen in den USA ansässige Plattformen mit einer großen Nutzerbasis im Vereinigten Königreich vorgehen. Die Europäische Kommission kann jeden VLOP (Video-Loop-Service) untersuchen, der Nutzer in der EU bedient, unabhängig vom Sitz des Unternehmens. Bei schwerwiegenden und anhaltenden Verstößen können die Maßnahmen bis zur Sperrung des Zugangs reichen – dies bleibt jedoch das letzte Mittel.

Im Vereinigten Königreich wurde die persönliche Haftung von Führungskräften eingeführt, die bestimmten Anordnungen nicht nachkommen. Dies soll die Verantwortlichkeit auf Vorstandsebene stärken und sicherstellen, dass die Einhaltung von Vorschriften für die Führungsebene höchste Priorität hat.

Rolle der Regulierungsbehörden und Beratungsgremien

Mehrere wichtige Regulierungsbehörden überwachen mittlerweile die Einhaltung der Vorschriften für soziale Medien:

Zuständigkeit

Primärregler

Vereinigtes Königreich

Ofcom

EU

Europäische Kommission + nationale Koordinatoren für digitale Dienste

UNS

FTC, Generalstaatsanwälte der Bundesstaaten (keine zentrale Bundesaufsichtsbehörde)

Australien

Beauftragter für Internetsicherheit

Es werden spezialisierte Beratungsgremien eingerichtet, um fachliche Expertise bereitzustellen:

  • Ofcoms Beratungsausschuss für Desinformation und Fehlinformation (Sitzungen ab April 2025 geplant)

  • Expertengruppen zum Thema Gewalt gegen Frauen und Mädchen

  • Zugangsgremien für Forscher zur Bereitstellung von DSA-Daten

Die Regulierungsbehörden erstellen detaillierte Verhaltenskodizes und Leitfäden. Ofcom hat einen Umsetzungsplan für das Online-Sicherheitsgesetz veröffentlicht; die Konsultationen laufen von 2024 bis 2026. Die Europäische Kommission hat Leitlinien zur Einhaltung des DSA herausgegeben und überwacht aktiv die Umsetzung des VLOP.

Zu den ersten Durchsetzungsmaßnahmen gemäß dem DSA gehören Untersuchungen gegen X (ehemals Twitter) wegen des Umgangs mit illegalen Inhalten und Desinformation. Diese Fälle werden wichtige Präzedenzfälle dafür schaffen, wie konsequent Regulierungsbehörden gegen Verstöße vorgehen.

Besondere Schwerpunkte: Frauen, Mädchen und schutzbedürftige Gruppen

Regulierungsbehörden erkennen zunehmend an, dass bestimmte Gruppen überproportional häufig von Online-Missbrauch und -Schädigung betroffen sind. Frauen, Mädchen, ethnische Minderheiten, LGBTQ+-Nutzer und Menschen mit Behinderungen sind häufiger gezielten Belästigungen ausgesetzt als die Allgemeinbevölkerung.

Das britische Online-Sicherheitsgesetz legt besonderen Wert auf die Bekämpfung folgender Probleme:

  • Missbrauch intimer Bilder (einschließlich Rachepornos)

  • Cyberflashing

  • Online-Stalking

  • Belästigungen, die Frauen und Mädchen unverhältnismäßig stark betreffen

Neue Straftatbestände und beschleunigte Maßnahmen zur Festnahme von Opfern spiegeln diese Priorität wider. Die Regierung hat in Zusammenarbeit mit dem Opferbeauftragten und dem Beauftragten für häusliche Gewalt Leitlinien veröffentlicht, um die Wirksamkeit dieser Bestimmungen zu gewährleisten.

Zu den Verantwortlichkeiten der Plattform für gefährdete Gruppen gehören:

  • Schnelle Entfernung gemeldeter Missbrauchsfälle intimer Bilder

  • Klare, zugängliche Meldewege

  • Spezialisierte Moderationsteams, die in Bezug auf geschlechtsspezifische Gewalt geschult sind

  • Partnerschaften mit NGOs und Unterstützungsorganisationen

Gesetze verpflichten Plattformen zunehmend dazu, Folgenabschätzungen unter Berücksichtigung spezifischer Gruppen durchzuführen – nicht nur des „durchschnittlichen“ Nutzers. Dies bedeutet, zu untersuchen, wie sich Moderationsrichtlinien, Algorithmen und Sicherheitsfunktionen unterschiedlich auf Frauen, Minderheiten und andere schutzbedürftige Gruppen auswirken.

Fehlinformationen, Desinformationen und demokratische Integrität

Die großen Wahlen 2024–2025 – darunter die US-Präsidentschaftswahlen, die britischen Parlamentswahlen und die Wahlen zum Europäischen Parlament – ​​verstärkten die Besorgnis über Online-Desinformation und ausländische Einmischung. Die Plattformen gerieten wegen ihres Umgangs mit Falschbehauptungen, manipulierten Medien und koordinierten Einflusskampagnen unter intensive Beobachtung.

Die meisten demokratischen Systeme sind vorsichtig, wenn es darum geht, „Wahrheit“ direkt zu regulieren. Die Bedenken hinsichtlich einer staatlichen Festlegung von Wahrheit liegen auf der Hand. Stattdessen liegt der Fokus auf Folgendem:

  • Rechtswidrige Inhalte (z. B. Straftaten im Zusammenhang mit ausländischer Einmischung, Wahlbetrug, Aufstachelung)

  • Transparenz bei politischer Werbung (wer hat bezahlt, wie viel, wer war die Zielgruppe)

  • Kennzeichnung manipulierter Medien und KI-generierter Inhalte

  • Zusammenarbeit mit den Wahlbehörden während der Wahlkampfzeiten

Die EU-Richtlinie zur Desinformationsstrategie (DSA) verpflichtet die Wahlleiter, Risiken für die Integrität von Wahlen zu bewerten und Gegenmaßnahmen zu ergreifen. Großbritannien richtet über Ofcom einen Beirat für Desinformation und Fehlinformationen ein; die ersten Sitzungen sind für April 2025 geplant.

Hier besteht ein echtes Spannungsverhältnis. Die Entfernung schädlicher Falschinformationen schützt demokratische Prozesse, doch aggressive Inhaltslöschungen können Vorwürfe der Zensur oder parteiischen Voreingenommenheit schüren. Plattformen und Regulierungsbehörden müssen hier mit Bedacht vorgehen; Transparenz und einheitliche Standards sind unerlässlich, um das Vertrauen zu erhalten.

Ökonomische und rechtsökonomische Perspektiven zur Regulierung sozialer Medien

Ökonomische Analysen liefern wertvolle Erkenntnisse darüber, wann Regulierungen das Gemeinwohl verbessern und wann Märkte und die freie Wahl der Nutzer besser funktionieren. Soziale Medien sind vielschichtige Märkte, in denen die Interessen von Nutzern, die ansprechende Inhalte wünschen, von Werbetreibenden, die für Aufmerksamkeit bezahlen, und von Kreativen, die Inhalte bereitstellen, im Gleichgewicht stehen. Strenge Regulierungen bergen die Gefahr, dieses Gleichgewicht zum Nachteil aller Beteiligten zu stören.

Das Prinzip der „kostenminimalen Vermeidung“ fragt: Wer kann Schaden am effizientesten verhindern? Bei manchen Problemen sind Plattformen eindeutig der richtige Gegenstand der Regulierung:

  • CSAM-Erkennung (Plattformen können KI mit 95% Genauigkeit einsetzen)

  • Entfernung terroristischer Inhalte (erfordert Umfang und Fachwissen)

  • Systemische Algorithmusrisiken (nur Plattformen können ihre Systeme ändern)

Bei anderen Problemen könnten andere Herangehensweisen effektiver sein:

  • Bildschirmzeitmanagement (Kindersicherung, Aufklärung)

  • Auseinandersetzung mit anspruchsvollen Ideen (Benutzerwerkzeuge, Medienkompetenz)

  • Einstellungen für Inhalte für Erwachsene (Nutzerwahl, keine pauschalen Verbote)

Ein zentrales Problem ist die „Kollateralzensur“. Sind die Haftungsregeln zu streng, entfernen Plattformen möglicherweise Inhalte, die sich im Grenzbereich des Legalen bewegen, um Risiken zu vermeiden. Dieser abschreckende Effekt verringert die Meinungsvielfalt und kann legitime Stimmen – insbesondere von kleineren Kreativen und kontroversen, aber legalen Standpunkten – zum Schweigen bringen.

Die Argumente für strenge Plattformpflichten sind am stärksten dort, wo schwerwiegende Schäden drohen (Kindersicherheit, schwere Kriminalität) und Plattformen eine einzigartige Position zum Handeln haben. Für weniger strenge Regulierungsansätze sprechen hingegen mehr Argumente für Äußerungen Erwachsener, Meinungsfragen und Bereiche, in denen die Stärkung der Nutzerrechte wirksam sein kann. Die Regulierung sollte verhältnismäßig sein und auf die schwerwiegendsten Schäden abzielen, gleichzeitig aber Raum für Innovation und Meinungsfreiheit lassen.

Zukünftige Entwicklungen und politische Debatten

Die Regulierung sozialer Medien wird sich im Zeitraum 2025–2030 weiterentwickeln, angetrieben durch technologische Veränderungen und die gesammelten Erfahrungen mit den bestehenden Rahmenbedingungen. Mehrere Entwicklungen werden die Landschaft prägen:

KI-generierte Inhalte und Deepfakes : Da synthetische Medien immer überzeugender und zugänglicher werden, benötigen Plattformen und Regulierungsbehörden neue Instrumente, um KI-generierte Inhalte zu identifizieren und zu kennzeichnen. Der EU-KI-Gesetzentwurf, der risikoreiche KI-Systeme, darunter auch Empfehlungssysteme für soziale Medien, klassifiziert, stellt einen ersten Rahmen dar.

Immersive Umgebungen : AR/VR-Plattformen wie Meta's Quest und aufkommende Metaverse-Dienste schaffen neue Herausforderungen für die Inhaltsmoderation in dreidimensionalen Echtzeitumgebungen.

Ende-zu-Ende-Verschlüsselung : Die Spannungen zwischen Datenschutz (verschlüsselte Nachrichten) und dem Zugriff der Strafverfolgungsbehörden (Aufdeckung illegaler Inhalte) bleiben ungelöst. Unternehmen und Zivilgesellschaft beobachten genau, wie Regierungen mit diesem heiklen Gleichgewicht umgehen.

Zu den wichtigsten anstehenden Debatten gehören:

  • Ob Abschnitt 230 in den USA reformiert oder ersetzt werden soll

  • Wie weit kann die Altersverifizierung gehen, ohne eine Überwachungsinfrastruktur zu schaffen?

  • Ob in mehr Ländern spezialisierte digitale Regulierungsbehörden geschaffen werden sollten

  • Wie man mit dezentralen Plattformen umgeht, die sich traditionellen Durchsetzungsmethoden widersetzen.

Konkrete, bevorstehende Meilensteine ​​sind:

  • Überprüfung der Umsetzung des britischen Online-Sicherheitsgesetzes (laufend bis 2026)

  • EU-DSA-Bewertungsklauseln, die formelle Überprüfungen auslösen

  • Es werden neue nationale und bundesstaatliche Gesetze zur Online-Sicherheit von Kindern erwartet.

  • Mögliche US-Bundesgesetzgebung, falls die politischen Bedingungen es zulassen

Die Abwägungen sind offensichtlich: Schadensminimierung versus Meinungsfreiheit, Innovation versus Compliance-Kosten, nationale Souveränität versus globale Plattformen. Eine wirksame Regulierung erfordert evidenzbasierte Ansätze, die Daten von Regulierungsbehörden, unabhängiger Forschung und der Zivilgesellschaft einbeziehen – und nicht rein reaktive Gesetzgebung nach aufsehenerregenden Vorfällen.

Wichtigste Erkenntnisse

Die Regulierung sozialer Medien hat eine neue Ära erreicht. Hier die wichtigsten Punkte:

  • Der britische Online Safety Act und der EU Digital Services Act stellen die weltweit umfassendsten Rahmenwerke dar, mit erheblichen, bereits in Kraft getretenen Verpflichtungen.

  • Die Sicherheit von Kindern ist der zentrale politische Antrieb, und Plattformen unterliegen strengen Verpflichtungen zum Schutz von Kindern vor schädlichen Inhalten.

  • Algorithmen stehen nun im Fokus der Regulierungsbehörden, nicht nur einzelne Inhalte.

  • Die Durchsetzung hat weitreichende Konsequenzen – Geldstrafen von bis zu 10 % des weltweiten Umsatzes und persönliche Haftung für Führungskräfte.

  • Die USA sind nach wie vor gespalten, bewegen sich aber in Richtung bundesweiter Maßnahmen zur Online-Sicherheit von Kindern.

  • Bedenken hinsichtlich der Meinungsfreiheit erfordern eine sorgfältige Abwägung mit Sicherheitsmaßnahmen.

  • Die Kosten für die Einhaltung der Vorschriften sind beträchtlich und belaufen sich bei großen Plattformen jährlich auf Milliarden.

Ob Sie nun Compliance-Experte, Richtlinienanalyst, Elternteil oder einfach nur ein engagierter Nutzer sind – das Verständnis dieser Rahmenbedingungen ist unerlässlich. Die Regeln, die festlegen, was Social-Media-Unternehmen tun müssen und was Nutzer erwarten können, werden derzeit formuliert.

Bleiben Sie informiert, indem Sie die regulatorischen Aktualisierungen von Ofcom, der Europäischen Kommission und den zuständigen nationalen Behörden verfolgen. Wenn Sie eine Plattform oder einen Dienst betreiben, beteiligen Sie sich an den Konsultationsprozessen, solange Sie die Richtlinien noch mitgestalten können. Und wenn Sie als Nutzer Bedenken hinsichtlich Online-Gefahren oder übermäßiger Überwachung haben, machen Sie Ihre Stimme hörbar – diese Regulierungen werden uns alle noch viele Jahre betreffen.


Anmeldung

Haben Sie Ihr Passwort vergessen?

Sie haben noch kein Konto?
Konto erstellen