Telekommunikationspolitik und Inhaltsmoderation: Umgang mit digitalen Risiken
- , Von Paul Waite
- 21 min Lesezeit
Zusammenfassung: Telekommunikationspolitik, Inhaltsmoderation und steigendes digitales Risiko
Die Annäherung von Telekommunikationspolitik und Inhaltsmoderation beschleunigte sich um 2018 dramatisch, als Regulierungsbehörden weltweit erkannten, dass die traditionellen, auf Mobilfunkanbieter ausgerichteten Regeln für die zunehmend von Telekommunikationsunternehmen angebotenen Dienste nicht ausreichten. Der Europäische Gesetzentwurf zu digitalen Diensten (Digital Services Act, DSA), der 2022 verabschiedet wurde und seit Februar 2024 vollständig gilt, verpflichtet nun eine Vielzahl von Vermittlungsdiensten zu Transparenz, systemischer Risikobewertung und Entfernung von Inhalten. Der britische Online Safety Act 2023 weitet ähnliche Pflichten auf Messaging-, Spiele- und Nutzer-zu-Nutzer-Dienste aus, die von Mobilfunkbetreibern gebündelt oder gehostet werden. In Lateinamerika schlägt der brasilianische Gesetzentwurf 2630/2020 Strukturreformen vor, die CGI.br als regulatorische Vermittlerbehörde positionieren und damit telekommunikationsgestützte Plattformen und Zero-Rating-Vereinbarungen direkt betreffen.
Das Besondere an diesem Moment ist die Überschneidung von Over-the-Top-Diensten (OTT) und traditioneller Telekommunikationsinfrastruktur. Mobilfunkbetreiber, die Messaging-Apps anbieten, Cloud-Marktplätze hosten oder IPTV vertreiben, sehen sich nun Verpflichtungen gegenüber, die einst Social-Media-Plattformen vorbehalten waren. Dazu gehören Pflichten zur Entfernung illegaler Inhalte, zur Eindämmung schädlicher Online-Inhalte, zum Schutz von Kindern und zur algorithmischen Transparenz. Die regulatorischen Herausforderungen betreffen nicht mehr nur die Übertragung von Diensten, sondern auch die Zugangskontrolle, die Kuratierung von Inhalten und die systemischen Risiken, die sich aus der Größe ergeben.
Dieser Artikel behandelt drei Kernthemen. Erstens untersucht er den Wandel von reiner Konnektivität hin zu plattformbasierten Haftungsregimen, in denen Telekommunikationsunternehmen ihre Dienste klassifizieren und ihre Pflichten entsprechend zuordnen müssen. Zweitens beleuchtet er den Aufstieg hybrider Governance-Strukturen und regulatorischer Intermediäre, die die praktische Umsetzung von Compliance-Maßnahmen verändern. Drittens bietet er einen praktischen Rahmen für die Entwicklung von Programmen zur Inhaltsmoderation und zum Risikomanagement, die sich über verschiedene Rechtsordnungen hinweg skalieren lassen. Die Ausführungen richten sich an die Rechts-, Politik- und Risikoteams von Telekommunikations- und Digitaldienstleistern, die in der EU, Großbritannien, den USA und wichtigen Schwellenländern tätig sind.
Von Telekommunikationsübertragungsregeln bis hin zu Haftungsregelungen nach Plattformmodell
Das Konzept der „gemeinsamen Beförderung“ prägte die Telekommunikationsregulierung über ein Jahrhundert lang. Im Rahmen von Gesetzen wie dem US-amerikanischen Kommunikationsgesetz von 1934 und den nachfolgenden Telekommunikationspaketen der EU trugen Netzbetreiber zwar Verpflichtungen hinsichtlich rechtmäßiger Überwachung, Dienstqualität und diskriminierungsfreiem Zugang – jedoch keine Verantwortung für die Inhalte, die über ihre Leitungen liefen. Die Logik war einfach: Die Netzbetreiber übermittelten, sie kuratierten nicht.
Diese Logik begann zu bröckeln, als Telekommunikationsanbieter ihre Angebote auf Hosting, Messaging, Cloud-Dienste und Content Delivery Networks ausweiteten. Das Gesetz über digitale Dienste (Digital Services Act, DSA), Verordnung (EU) 2022/2065, stellt die deutlichste regulatorische Anerkennung dieses Wandels dar. Das DSA ist seit November 2022 in Kraft und ab dem 17. Februar 2024 vollständig anwendbar. Es geht über die Übertragungspflichten hinaus und reguliert Hosting-Dienste, Caching-Anbieter, Online-Plattformen sowie sehr große Online-Plattformen (Very Large Online Platforms, VLOPs) und sehr große Online-Suchmaschinen (Very Large Online Search Engines, VLOSEs). Die Verordnung erkennt an, dass viele Internetdienstanbieter mittlerweile Funktionen erfüllen, die sich nicht mehr von denen traditioneller Plattformen unterscheiden.
Das DSA erhält den Schutzbereich für reine Übertragungsdienste – übernommen aus Artikel 4 der inzwischen abgelösten E-Commerce-Richtlinie. Gleichzeitig führt es neue Anforderungen für Dienste ein, die über die reine Datenübertragung hinausgehen. Hosting-Anbieter müssen Melde- und Handlungsmechanismen implementieren. Online-Plattformen unterliegen Transparenzpflichten hinsichtlich ihrer algorithmischen Systeme und ihrer Praktiken zur Inhaltsmoderation. Plattformen mit sehr großen Online-Plattformen (VLOPs und VLOSEs), definiert als Plattformen mit 45 Millionen monatlich aktiven Nutzern in der EU, müssen jährliche Risikobewertungen durchführen, sich unabhängigen Prüfungen unterziehen und Forschern und Regulierungsbehörden Datenzugriff gewähren.
Die praktischen Konsequenzen für Telekommunikationsanbieter sind erheblich. Compliance-Richtlinien müssen zwischen reinen Übertragungsdiensten und solchen, die als Hosting, Online-Marktplätze oder Plattformen gelten, unterscheiden. Ein von einem Telekommunikationsunternehmen betriebener DNS-Resolver kann anderen Regeln unterliegen als ein von ihm betriebener App-Store oder Cloud-Hosting-Dienst. Die Zuordnung jedes Produkts zu seiner regulatorischen Kategorie ist heute eine grundlegende Aufgabe im Bereich Compliance.
Vergleich der traditionellen Telekommunikationspflichten mit den modernen Inhaltsverpflichtungen
|
Art der Verpflichtung |
Traditionelle Aufgaben im Telekommunikationsbereich |
Aufgaben im Zusammenhang mit modernen Inhalten |
|---|---|---|
|
Rechtsgrundlage |
Kommunikationsgesetze, EECC, Regeln zur Netzneutralität |
DSA, Online-Sicherheitsgesetz, nationale Plattformgesetze |
|
Kernfokus |
Rechtmäßige Überwachung, Dienstqualität, Frequenzmanagement |
Entfernung illegaler Inhalte, Eindämmung schädlicher Inhalte, Transparenz |
|
Benutzerschutz |
Zugang für Notfalldienste, Datenschutz gemäß Telekommunikationsvorschriften |
Melde- und Handlungssysteme, Beschwerdemechanismen, Kindersicherheit |
|
Berichterstattung |
Qualitätskennzahlen, Spektrumnutzung |
Transparenzberichte zur Inhaltsmoderation, algorithmische Prüfungen |
|
Durchsetzung |
Nationale Telekommunikationsbehörden |
Koordinatoren für digitale Dienste, Ofcom, grenzüberschreitende Zusammenarbeit |
Wichtige globale Regelungen zur Gestaltung der Inhaltsmoderation im Telekommunikationsbereich
Die sich stetig weiterentwickelnden regulatorischen Rahmenbedingungen für die Inhaltsmoderation im Telekommunikationsbereich variieren je nach Rechtsordnung erheblich. Im Folgenden finden Sie eine strukturierte Übersicht der wichtigsten Regelungen, mit denen sich interne Teams auseinandersetzen müssen, einschließlich der jeweils relevanten Gesetze, Fristen und Aufsichtsbehörden.
europäische Union
Der Ansatz der EU kombiniert das Gesetz über digitale Dienste (Digital Services Act, DSA) mit dem Gesetz über digitale Märkte (Digital Markets Act, DMA) und dem bestehenden Europäischen Kodex für elektronische Kommunikation (European Electronic Communications Code, EECC). Das DSA sieht gestaffelte Verpflichtungen vor: Alle Vermittlungsdienste müssen grundlegende Transparenzregeln erfüllen; Hosting-Dienste unterliegen zusätzlichen Melde- und Handlungspflichten; Online-Plattformen müssen weitere Anforderungen hinsichtlich der Rückverfolgbarkeit von Händlern erfüllen; und sehr große Online-Plattformen und Suchmaschinen lösen Verpflichtungen im Bereich des Systemrisikomanagements aus.
Die Schwelle für die Einstufung als VLOP/VLOSE liegt bei 45 Millionen monatlich aktiven Nutzern in der EU. Nach der Einstufung müssen die Plattformen jährlich Risikobewertungen durchführen, die die Verbreitung illegaler Inhalte, negative Auswirkungen auf Grundrechte und Risiken für Wahlprozesse umfassen. Die Europäische Kommission forderte im Zeitraum 2023–2024 Informationen von den betroffenen Plattformen an, und die nationalen Koordinatoren für digitale Dienste setzen die Verpflichtungen nun in den Mitgliedstaaten durch. Der Europäische Datenschutzausschuss bietet Leitlinien für den Bereich, in dem die Inhaltsmoderation mit den Anforderungen der Datenschutz-Grundverordnung (DSGVO) in Konflikt steht.
Der DMA befasst sich derweil mit Wettbewerbsbedenken hinsichtlich bestimmter „Gatekeeper“ und hat Auswirkungen auf App-Stores oder Messaging-Dienste von Telekommunikationsunternehmen, die die Schwellenwerte für Gatekeeper erreichen. Durch das Zusammenspiel der beiden Gesetze können Telekommunikationsbetreiber gleichzeitig sowohl mit Verpflichtungen im Bereich der Plattform-Governance als auch im Bereich der digitalen Märkte konfrontiert sein.
Vereinigtes Königreich
Der Online Safety Act 2023 schafft einen umfassenden Rahmen für nutzergenerierte Dienste und Suchmaschinen. Ofcom ist die zuständige Regulierungsbehörde. Das Gesetz gilt für Dienste, die das Teilen nutzergenerierter Inhalte ermöglichen, darunter Messengerdienste, Online-Spieleplattformen und in Telekommunikationsprodukte integrierte soziale Funktionen.
Ofcom führte von 2023 bis 2025 Konsultationen zu Verhaltenskodizes durch, die Pflichten im Zusammenhang mit illegalen Inhalten, Kinderschutz und Transparenzberichterstattung umfassten. Die im Gesetz festgelegten Pflichten zum Schutz von Kindern sind besonders weitreichend und verpflichten Plattformen zur Anwendung von Alterssicherungsmaßnahmen und zur Verhinderung des Zugangs zu schädlichen Inhalten. Telekommunikationsanbieter, die Messaging-Apps bündeln oder familienorientierte Produkte anbieten, müssen ihre Dienste an diesen Anforderungen ausrichten.
Die Verschlüsselungsdebatten von 2023 sind weiterhin aktuell. Das Gesetz ermächtigt Ofcom, Technologieunternehmen zur Identifizierung und Entfernung von kinderpornografischem Material zu verpflichten, was Fragen zur Ende-zu-Ende-Verschlüsselung bei markeneigenen Kommunikationsdiensten aufwirft.
Vereinigte Staaten
Die USA verfolgen einen eigenen Ansatz, der sich auf Abschnitt 230 des Communications Decency Act stützt. Dieser schützt Plattformen vor Haftung für nutzergenerierte Inhalte und erlaubt gleichzeitig die freiwillige Inhaltsmoderation. Dieser Schutz ist nach wie vor grundlegend, steht aber zunehmend unter Druck vonseiten der Landesparlamente und Gerichte.
Die Gesetzesentwürfe HB20 (Texas) und SB7072 (Florida) versuchten, den Ermessensspielraum von Plattformen bei der Inhaltsmoderation einzuschränken, doch Bundesgerichte haben widersprüchliche Urteile zu deren Verfassungsmäßigkeit gefällt. Der kalifornische „Age-Appropriate Design Code Act“ legt Kinderschutzbestimmungen fest, die Telekommunikationsdienste für Minderjährige betreffen. Die FCC übt weiterhin die traditionelle Telekommunikationsaufsicht aus, hat sich aber weitgehend aus Streitigkeiten um die Inhaltsmoderation herausgehalten.
Für Telekommunikationsunternehmen mit Niederlassungen in den USA sieht die praktische Realität wie ein Flickenteppich aus: Bundesimmunität gemäß Abschnitt 230, Inhalts- und Altersverifizierungsvorschriften auf Ebene der Bundesstaaten sowie laufende Rechtsstreitigkeiten, die die Landschaft bis 2025-2026 möglicherweise umgestalten werden.
Brasilien
Der brasilianische Gesetzentwurf 2630/2020 (das „Fake-News-Gesetz“) sieht weitreichende Reformen der Plattformregulierung vor, darunter eine zentrale Rolle für CGI.br (das brasilianische Internet-Lenkungskomitee) als Regulierungsbehörde. Der Gesetzentwurf befasst sich mit Inhaltsmoderation, Transparenz und der Rechenschaftspflicht digitaler Plattformen in Brasilien.
Telekommunikationsanbieter sind durch Zero-Rating-Vereinbarungen involviert, die Einfluss darauf haben, auf welche Inhalte Nutzer ohne Datengebühren zugreifen können. Wenn Anbieter bestimmten Plattformen bevorzugten Zugang gewähren, werden sie Teil der Inhaltsverteilungskette, die durch Gesetzesentwurf 2630/2020 reguliert werden soll.
Indien
Die indischen IT-Richtlinien (Intermediärrichtlinien und Ethikkodex für digitale Medien) von 2021 verpflichten Intermediäre zu erheblicher Einhaltung der Vorschriften, darunter Rückverfolgbarkeitsanforderungen für Messaging-Dienste und Fristen für die Entfernung von Inhalten. Mobilfunkbetreiber, die Messaging- oder Content-Hosting-Dienste anbieten, müssen diese Richtlinien befolgen.
Die Regeln verpflichten bedeutende Social-Media-Plattformen zur Ernennung von Datenschutzbeauftragten, zur Ermittlung der Urheber bestimmter Nachrichten und zur Entfernung rechtswidriger Inhalte innerhalb festgelegter Fristen. Diese Datenschutzverpflichtungen berühren weitergehende Fragen zu grenzüberschreitenden Datentransfers und Verschlüsselung.
Australien
Das australische Online-Sicherheitsgesetz von 2021 und die beim eSafety Commissioner registrierten Branchenkodizes bilden einen Rahmen, in dem Industrie und Informationstechnologie gemeinsam Regulierungsrichtlinien für Online-Inhalte entwickeln. Mobilfunkbetreiber und Internetdienstanbieter (ISPs) sind betroffen, wenn sie Dienste anbieten, die schädliche Inhalte hosten oder verbreiten.
Der eSafety Commissioner ist befugt, Löschungsanordnungen zu erlassen und die Einhaltung der registrierten Verhaltensregeln durchzusetzen. Telekommunikationsanbieter müssen wissen, welche Verhaltensregeln für ihre Dienste gelten und geeignete Erkennungs- und Reaktionsmechanismen gewährleisten.
Telekommunikationsanbieter als Gatekeeper für Inhalte: praktische Moderationspunkte
Telekommunikationsnetze übernehmen zunehmend „Edge“- und Mehrwertfunktionen, die faktisch eine Verantwortung für die Inhaltsmoderation mit sich bringen. Für Compliance-Teams ist es unerlässlich zu verstehen, wo diese Berührungspunkte entstehen.
DNS- und Netzwerkblockierung
Gerichtlich angeordnete Website-Sperren stellen weiterhin eine zentrale Schnittstelle zwischen Telekommunikationsunternehmen und Inhaltsmoderation dar. Betreiber setzen DNS-Sperren ein für:
-
Bekämpfung von Piraterie : Urheberrechtsinhaber erwirken einstweilige Verfügungen, die Internetanbieter verpflichten, den Zugang zu urheberrechtsverletzenden Websites zu sperren.
-
Glücksspielbeschränkungen : Nationale Regulierungsbehörden ordnen die Sperrung nicht lizenzierter Glücksspielplattformen an.
-
Nationale Sicherheit : Regierungsanordnungen zur Einschränkung des Zugangs zu als terroristisch oder extremistisch eingestuften Inhalten
-
Online-Sicherheit : Sperrung von Webseiten mit kinderpornografischem Material gemäß gesetzlicher Vorgaben
Jede Sperrverfügung verpflichtet die Betreiber, die Einhaltung der Vorschriften mit den Risiken einer übermäßigen Sperrung abzuwägen. Die Rechtsprechung der EU und Indiens hat Bedenken hinsichtlich der Verhältnismäßigkeit ausgeräumt und verlangt, dass Sperrmaßnahmen den Zugang zu rechtmäßigen Inhalten nicht unbeabsichtigt einschränken.
Nullbesteuerung und Verkehrsmanagement
Vereinbarungen zur Datennutzung ohne Anrechnung bestimmter Inhalte auf das Datenvolumen beeinflussen die Sichtbarkeit von Inhalten. Wenn ein Anbieter einen Streaming-Dienst gegenüber einem anderen ohne Anrechnung des Datenvolumens anbietet, wirkt sich dies auf das Nutzungsverhalten der Nutzer aus. Die Netzneutralitätsregeln in der EU schränken solche Vereinbarungen ein, ihre Durchsetzung ist jedoch weltweit unterschiedlich.
Diese Entscheidungen überschneiden sich mit der Inhaltsmoderation, da sie beeinflussen, welche Plattformen die Aufmerksamkeit der Nutzer erhalten. Eine Social-Media-Plattform ohne Datenlimit kann für Nutzer mit begrenztem Datenvolumen zur wichtigsten Informationsquelle werden und dadurch etwaige Mängel der Inhaltsmoderation auf dieser Plattform verstärken.
Kindersichere und „rohrreine“ Produkte
Seit etwa 2015 bieten Mobilfunkanbieter Produkte zur Kindersicherung und Inhaltsfilterung an. Diese Dienste überschneiden sich mittlerweile mit folgenden Bereichen:
-
Anforderungen des britischen Verhaltenskodex für altersgerechte Gestaltung von Dienstleistungen, die voraussichtlich von Kindern in Anspruch genommen werden.
-
Die Transparenzanforderungen der DSA verpflichten zur Offenlegung der Funktionsweise von Inhaltsfiltersystemen.
-
Nationale Alterssicherungsvorschriften schreiben eine Verifizierung vor dem Zugriff auf bestimmte Inhaltskategorien vor.
Die Betreiber müssen sicherstellen, dass ihre Filterprodukte mit diesen Rahmenbedingungen übereinstimmen und gleichzeitig eine übermäßige Blockierung vermeiden, die legitime Äußerungen einschränkt.
Messaging und verschlüsselte Kommunikation
Telekommunikationsanbieter betreiben zunehmend eigene Messaging-Apps oder kooperieren mit Messaging-Plattformen. Der Konflikt zwischen Ende-zu-Ende-Verschlüsselung und den Pflichten zur Inhaltsprüfung ist akut:
-
Die Debatten im britischen Online-Sicherheitsgesetz drehen sich um clientseitiges Scannen.
-
EU-Vorschläge zur Erkennung von Material über sexuellen Kindesmissbrauch in verschlüsselter Kommunikation
-
Nationale Sicherheitsanforderungen für den rechtmäßigen Zugang
Die Betreiber müssen diese widersprüchlichen Anforderungen bewältigen und gleichzeitig das Vertrauen der Nutzer in sichere Kommunikationsdienste aufrechterhalten.
App-Stores, Streaming-Dienste und Cloud-Dienste
Wenn Telekommunikationsanbieter App-Stores, IPTV-Dienste oder Cloud-Marktplätze betreiben, können sie gemäß dem DSA als Online-Plattformen oder Online-Marktplätze gelten. Dies löst Folgendes aus:
-
Verpflichtungen zur algorithmischen Transparenz für Empfehlungssysteme
-
Anforderungen an die außergerichtliche Streitbeilegung
-
Rückverfolgbarkeitspflichten für Geschäftsanwender
-
Verbraucherschutzmaßnahmen für Marktplatztransaktionen
Jede Produktlinie muss anhand regulatorischer Definitionen klassifiziert werden, um die jeweils geltenden Verpflichtungen zu ermitteln.
Regulierungsstellen und hybride Governance in der Inhaltsmoderation
Die Inhaltsmoderation in Europa und weltweit erfolgt zunehmend über hybride Governance-Strukturen mit regulatorischen Vermittlern zwischen staatlichen Regulierungsbehörden und regulierten Unternehmen. Für Compliance-Teams im Telekommunikationsbereich ist das Verständnis dieser Strukturen unerlässlich.
Das regulatorische Vermittlungsmodell
Neuere Forschungen zur digitalen Governance beschreiben ein „Regulierungsdreieck“, in dem neben den direkten Regulierungsbehörden auch andere Institutionen strukturierte Rollen bei der Einhaltung und Durchsetzung von Vorschriften übernehmen. Das DSA formalisiert dies durch zertifizierte außergerichtliche Streitbeilegungsstellen (ODS) gemäß Artikel 21 und ermöglicht es Nutzern, Entscheidungen zur Inhaltsmoderation über unabhängige Mechanismen anzufechten.
Nationale Koordinatoren für digitale Dienste fungieren als primäre Durchsetzungsstellen, wobei die Europäische Kommission die direkte Aufsicht über VLOPs und VLOSEs behält. Dadurch entsteht ein mehrstufiges System, in dem Telekommunikationsbetreiber gleichzeitig der Kontrolle durch mehrere institutionelle Akteure ausgesetzt sein können.
EU-Streitbeilegungsstellen
Die DSA verpflichtet Plattformen zur Zusammenarbeit mit zertifizierten ODS-Stellen, die alternative Streitbeilegungsverfahren für Inhaltsmoderationsstreitigkeiten anbieten. Appeals Centre Europe, zertifiziert in Irland, ist eine dieser Stellen, mit der Plattformen – einschließlich Telekommunikationsdienste – zusammenarbeiten müssen, wenn Nutzer Moderationsentscheidungen anfechten.
Zu den wichtigsten Designüberlegungen für Telekommunikations-Compliance-Teams gehören:
-
Unabhängigkeit und Finanzierung : Sicherstellung der Zusammenarbeit mit wirklich unabhängigen Gremien
-
Grenzüberschreitende Anerkennung : Verstehen, welche ODS-Entscheidungen in verschiedenen Rechtsordnungen gelten
-
Konsistenzrisiken : Umgang mit potenziell widersprüchlichen Ergebnissen verschiedener nationaler Gremien
Das brasilianische CGI.br-Modell
Der Gesetzentwurf 2630/2020 sieht vor, CGI.br als Regulierungsstelle mit mehreren Interessengruppen zu positionieren, die für Standards der Inhaltsmoderation und Transparenzanforderungen zuständig ist. Für Telekommunikationsunternehmen mit Niederlassungen in Brasilien stellt dies ein eigenständiges Governance-Modell dar, das technische und politische Koordination vereint.
Branchenkodizes und Multi-Stakeholder-Foren
Neben den formalen Regulierungsbehörden interagieren Telekommunikationsbetreiber mit:
-
Australische Branchenkodizes , die beim eSafety Commissioner registriert sind und von Branchenverbänden entwickelt wurden.
-
Indiens digitale Ethikkomitees gemäß den IT-Regeln 2021
-
Regionale Telekommunikationsverbände in Afrika und Asien entwickeln gemeinsame Praktiken zur Inhaltsmoderation
-
GSMA-Initiativen zu Kindersicherheit, Betrugsprävention und vertrauenswürdiger Kommunikation
Beispiele für hybride Governance in der Praxis
Verschiedene Modelle veranschaulichen, wie nichtstaatliche Akteure die Inhaltsmoderation beeinflussen:
-
Meta-Aufsichtsrat : Ein unabhängiges Gremium, das in konkreten Inhaltsfällen verbindliche Entscheidungen trifft und die Plattform-Governance über regulatorische Vorgaben hinaus beeinflusst.
-
Verhaltenskodizes der EU : Koregulierungsvereinbarungen zu illegaler Hassrede, in denen sich Plattformen verpflichten, die meisten gemeldeten Inhalte innerhalb von 24 Stunden zu überprüfen.
-
Verhaltenskodizes im Telekommunikationssektor : Branchenvereinbarungen zu Kinderschutzfiltern, Abwehr von Betrugsanrufen und KI-generierter Inhaltserkennung
Für Verantwortliche im Bereich der Telekommunikations-Compliance erfordern diese hybriden Vereinbarungen ein Engagement, das über traditionelle regulatorische Beziehungen hinausgeht. Die Beteiligung an der Codeentwicklung, die Zusammenarbeit mit ODS-Gremien und die Abstimmung mit Brancheninitiativen werden allesamt zu Compliance-relevanten Aktivitäten.
Entwicklung von Inhaltsmoderations- und Risikomanagementsystemen für Telekommunikationszwecke
Telekommunikationsanbieter wenden etablierte Risikomanagementmethoden auf die Herausforderungen der Inhaltsmoderation an. Netzwerkresilienzplanung, Rahmenbedingungen für die rechtmäßige Überwachung und die Koordination von Notfalldiensten bilden die Grundlage für die Bekämpfung illegaler Inhalte, Fehlinformationen, Betrugsfälle und die Gewährleistung der Kindersicherheit in großem Umfang.
Ein praktischer Rahmen: Governance, Prozesse, Werkzeuge
Der Aufbau effektiver Rahmenbedingungen für Inhaltsmoderation und Risikomanagement erfordert einen strukturierten Ansatz über drei Ebenen:
Ebene 1: Governance
-
Verantwortung für die Inhaltsmoderationsrichtlinie auf Führungsebene mit klarer Rechenschaftspflicht
-
Bereichsübergreifende Koordination zwischen den Teams für regulatorische Angelegenheiten, Recht, Sicherheit und Produktentwicklung.
-
Regelmäßige Aktualisierungen der Richtlinien, die neue Gesetze, regulatorische Vorgaben und die Entwicklung der Bedrohungslage berücksichtigen.
-
Berichterstattung auf Vorstandsebene über systemische Risiken und den Compliance-Status
Schicht 2: Prozesse
-
Dienstleistungsklassifizierung, die jedes Produkt den Definitionen des DSA (Digital Services Act), des Online Safety Act und nationaler Gesetze zuordnet.
-
Benachrichtigungs- und Handlungsabläufe mit dokumentierten Zeitvorgaben für die Reaktion auf Meldungen illegaler Inhalte.
-
Nutzerbeschwerdemechanismen, die mit ODS-Gremien und regulatorischen Erwartungen kompatibel sind
-
Leitfäden für die Reaktion auf Vorfälle zur koordinierten Bekämpfung von schädlichen Inhaltsspitzen
-
KYC-Prüfungen (Know Your Business Customer) für Wiederverkäufer und Geschäftspartner
Ebene 3: Technische und betriebliche Kontrollen
-
Automatisierte Erkennungssysteme für verbotene Inhaltskategorien, mit menschlicher Überprüfung in Grenzfällen
-
Betrugserkennung integriert in nationale Initiativen zur Bekämpfung von Telekommunikationsbetrug
-
Alterssicherungsmechanismen, die auf die Kindersicherheitsanforderungen abgestimmt sind
-
Transparenzberichtssysteme, die DSA-konforme Offenlegungen generieren
-
Datenzugriffsinfrastruktur für Anfragen von Regulierungsbehörden und Forschern
Die Vereinbarkeit von Netzneutralität und Inhaltsbeschränkungen
Telekommunikationsanbieter stehen vor einem inhärenten Spannungsverhältnis zwischen den Regeln der Netzneutralität, die eine Diskriminierung des Datenverkehrs verbieten, und gerichtlich angeordneten oder behördlichen Vorgaben, die Inhaltsbeschränkungen erfordern. Praktische Lösungsansätze umfassen:
-
Klare Dokumentation der Rechtsgrundlage : Sicherstellen, dass jede Sperrmaßnahme einer konkreten Rechtsverordnung oder behördlichen Vorgabe entspricht.
-
Verhältnismäßigkeitsprüfungen : Bewertung der Risiken einer Überblockierung vor der Umsetzung weitreichender Beschränkungen
-
Transparenzberichterstattung : Offenlegung des Umfangs und der Kategorien von Inhaltsbeschränkungen in behördlichen Meldungen
-
Beschwerdeverfahren : Bereitstellung von Mechanismen für Betroffene, um fehlerhafte Sperren anzufechten.
Die Rechtsprechung der EU und Indiens bietet Orientierungshilfe zu Verhältnismäßigkeitsstandards, wobei die Gerichte zunehmend Sperrverfügungen prüfen, die den Zugang über gezielte illegale Inhalte hinaus einschränken.
Grenzüberschreitende Konsistenz
Globale Telekommunikationsunternehmen benötigen einheitliche interne Rahmenbedingungen, die den unterschiedlichen Rechtsordnungen Rechnung tragen. Zu den wirksamen Ansätzen gehören:
-
Einheitliche Inhaltsklassifizierung : Ein internes Klassifizierungssystem für „illegale vs. schädliche, aber legale“ Inhalte mit länderspezifischen Zuordnungen.
-
Globaler Leitfaden für die Reaktion auf Sicherheitsvorfälle : Kernprozesse, die weltweit gelten, mit regionalen Modulen zur Berücksichtigung lokaler Anforderungen
-
Strengere Standards : Wo immer möglich, nach dem höchsten anwendbaren Standard bauen und die Komplexität durch länderspezifische Unterschiede reduzieren.
-
Regionale Ergänzungen : Spezielle Verfahren für das deutsche NetzDG, die französischen Anti-Hass-Gesetze, die australischen Online-Sicherheitsgesetze und andere nationale Anforderungen
Dieser modulare Ansatz ermöglicht eine einheitliche Steuerung und trägt gleichzeitig den Gegebenheiten von Operationen in mehreren Jurisdiktionen Rechnung.
Zukünftige Entwicklungsrichtungen: KI, Verschlüsselung und demokratiefreundliche Inhalte
Die Landschaft der Inhaltsmoderation entwickelt sich weiterhin rasant, wobei drei Entwicklungen besondere Aufmerksamkeit von den Telekommunikationspolitik-Teams erfordern: KI-Systeme und synthetische Medien, Konflikte in der Verschlüsselungspolitik und Maßnahmen zum Schutz der Demokratie.
Generative KI und synthetische Medien
Das Aufkommen KI-generierter Inhalte – Deepfakes, synthetische Stimmen und KI-gestützte Textgenerierung – verändert die Landschaft schädlicher Inhalte grundlegend. Telekommunikationsnetze verbreiten diese Inhalte; einige Betreiber hosten KI-Chatbot-Plattformen oder integrieren generative KI in ihre Kundenservices.
Der EU-KI-Akt, der Ende 2023 politisch verabschiedet wurde und ab 2025/26 schrittweise in Kraft treten soll, legt Anforderungen für KI-Entwickler und -Anwender fest. Hochrisiko-KI-Systeme unterliegen Konformitätsbewertungen, Transparenzpflichten und der Aufsicht durch menschliche Kontrollinstanzen. Das Europäische KI-Büro koordiniert die Durchsetzung der KI-Regulierung.
Chinas Regulierung generativer KI gemäß der Cyberspace-Administration (2023) verfolgt einen anderen Ansatz und schreibt eine Vorabprüfung für öffentlich angebotene Dienste vor. Telekommunikationsanbieter mit grenzüberschreitenden Diensten müssen sich in diesen unterschiedlichen Rahmenbedingungen zurechtfinden.
Synthetische Medien stellen die Inhaltsmoderation vor besondere Herausforderungen. Die Erkennung KI-generierter Inhalte in großem Umfang ist nach wie vor technisch schwierig, und die Menge solcher Inhalte in Telekommunikationsdiensten wird weiter zunehmen. Das KI-Gesetz und die sich entwickelnden Branchenstandards regeln zwar die Offenlegungspflichten, doch die Erkennung und Kennzeichnung solcher Inhalte sind noch in der Entwicklung.
Spannungen zwischen Verschlüsselung und Kindersicherheit
Die Debatten um das Scannen verschlüsselter Kommunikation auf kinderpornografisches Material haben sich im Laufe der Jahre 2023-2024 intensiviert. Der britische Online Safety Act räumt Ofcom Befugnisse ein, die theoretisch den Einsatz von Erkennungstechnologien in verschlüsselten Diensten vorschreiben könnten, die Umsetzung ist jedoch weiterhin umstritten.
Parallele EU-Vorschläge (die CSA-Verordnung) würden Anbieter verpflichten, solche Inhalte zu erkennen, zu melden und zu entfernen, was potenziell Auswirkungen auf Ende-zu-Ende-verschlüsselte Messaging-Dienste haben könnte. Telekommunikationsbetreiber, die Messaging-Plattformen anbieten, stehen vor dem Dilemma, einerseits die Nutzer durch Verschlüsselung und andererseits Kinder durch Inhaltsprüfung schützen zu müssen.
Normungsgremien wie ETSI und 3GPP befassen sich mit diesen Fragen und erforschen technische Ansätze, die Datenschutz und Sicherheit in Einklang bringen könnten. Telekommunikationsbetreiber können diese Standards durch aktive Beteiligung mitgestalten.
Integrität der Wahlen und politischer Inhalt
Das DSA-Wahlinstrumentarium und die nationalen Taskforces zur Bekämpfung von Desinformation legen während Wahlperioden spezifische Verpflichtungen fest. VLOPs (Village Leaders of Police) unterliegen erweiterten Pflichten in Bezug auf Transparenz politischer Werbung, Überwachung von Desinformation und schnelle Reaktion auf wahlbezogene Schäden.
Telekommunikationsbetreiber können diesen Anforderungen beispielsweise begegnen durch:
-
Werbenetzwerke : Telekommunikationsunternehmen könnten mit neuen Regeln zur Offenlegung politischer Werbung konfrontiert werden.
-
Messaging-Kanäle : Virale Desinformation verbreitet sich über Messaging-Dienste von Telekommunikationsunternehmen.
-
Eingriffe auf DNS-Ebene : Anträge auf Blockierung von Desinformationsquellen während Wahlperioden geben Anlass zu erheblichen Bedenken hinsichtlich der Meinungsfreiheit.
Szenariobasierte Planung hilft Compliance-Teams, sich auf solche Situationen vorzubereiten. Beispielsweise:
-
Ein Mobilfunkanbieter, der eine KI-gestützte Chatbot-Plattform betreibt, die politische Inhalte generiert.
-
Ein Internetdienstanbieter, der während einer Wahl Regierungsanfragen zur Sperrung des DNS-Servers erhält
-
Ein grenzüberschreitender Cloud-Kommunikationsdienst, der widersprüchliche Abschaltbefehle von verschiedenen nationalen Behörden erhält.
Jedes Szenario erfordert vorab festgelegte Entscheidungsrahmen, Eskalationswege und Dokumentationspraktiken.
Sich proaktiv an der Festlegung von Standards beteiligen
Telekommunikationsanbieter haben die Möglichkeit, durch ihre Teilnahme an folgenden Aktivitäten technisch realistische Praktiken der Inhaltsmoderation zu gestalten:
-
ETSI : Europäische Standards für rechtmäßige Überwachung, Sicherheit und neue Technologien zur Inhaltserkennung
-
3GPP : Mobilfunknetzstandards, die zunehmend Vertrauens- und Sicherheitsaspekte berücksichtigen
-
GSMA-Initiativen : Branchenkoordination zur Betrugsprävention, KI-Technologien und vertrauenswürdige Kommunikation
-
Nationale und regionale Foren : Stellungnahmen zu Konsultationen und Beteiligung an der Regelwerksentwicklung
Betreiber, die proaktiv agieren, können die Standards so beeinflussen, dass Ansätze gefunden werden, die regulatorische Ziele mit technischer Machbarkeit und Nutzerrechten in Einklang bringen.
Vorbereitung auf 2025-2026
Die vollständige Warnung zur digitalen Politik in allen wichtigen Rechtsordnungen deutet auf eine Verschärfung der Anforderungen bis 2026 hin. Die schrittweise Anwendung des AI Act, die Fertigstellung des Kodex des britischen Online Safety Act und die Weiterentwicklung der Durchsetzung des DSA werden kumulative Compliance-Anforderungen mit sich bringen.
Telekommunikationsanbieter, die jetzt modulare, länderspezifische Compliance-Rahmenwerke entwickeln, sind besser gerüstet, sich an die sich wandelnden Anforderungen anzupassen. Diejenigen, die Inhaltsmoderation als isolierte Compliance-Maßnahme und nicht als integrierte Governance-Funktion behandeln, werden mit dem Umfang und der Komplexität der zukünftigen Verpflichtungen zu kämpfen haben.
Die Ansatzpunkte für die digitale Politikwarnung sind klar: Klassifizieren Sie Ihre Dienste, erfassen Sie Ihre Verpflichtungen, bauen Sie eine funktionsübergreifende Governance auf und beteiligen Sie sich an den Standardisierungsprozessen, die die technisch realistische Umsetzung dieser ambitionierten regulatorischen Rahmenbedingungen prägen werden.