Festliche Angebote: Sparen Sie bis zu 50 % bei On-Demand-Schulungen . Erfahren Sie hier mehr.

Haftung von Vermittlern: Regeln, Risiken und Reformen im digitalen Zeitalter

  • , Von Paul Waite
  • 27 min Lesezeit

Wer trägt die rechtliche Verantwortung, wenn ein Nutzer diffamierende Inhalte auf Facebook veröffentlicht, gefälschte Waren auf Amazon verkauft oder illegales Material auf YouTube teilt? Diese Frage steht im Mittelpunkt der Intermediärhaftung – dem Rechtsrahmen, der festlegt, wann Internet-Intermediäre wie ISPs, Hosting-Anbieter und Online-Plattformen für Inhalte haftbar gemacht werden können, die von ihren Nutzern und nicht von ihnen selbst erstellt wurden.

Nie zuvor stand so viel auf dem Spiel. Seit Mitte der 2000er-Jahre haben soziale Medien die Art und Weise, wie Milliarden von Menschen kommunizieren, Informationen konsumieren und Handel treiben, grundlegend verändert. Plattformen wie Facebook, YouTube, TikTok und Amazon Marketplace sind zu dominanten Kräften der digitalen Wirtschaft geworden und verarbeiten sekündlich enorme Mengen an nutzergenerierten Inhalten. Entsprechend haben sich die regulatorischen Maßnahmen verschärft: Weltweit haben Regierungen seit etwa 2018 neue Haftungsregeln für Intermediäre eingeführt, um dem Ausmaß der Online-Schäden entgegenzuwirken, die diese Dienste ermöglichen oder verstärken können.

Die zentrale Herausforderung in diesem Bereich erscheint trügerisch einfach, ist aber in der Praxis komplex: Wie können wir die Meinungsfreiheit schützen und den offenen Zugang zum Internet gewährleisten, während wir gleichzeitig reale Gefahren bekämpfen? Diese Gefahren reichen von Hassrede und terroristischer Propaganda über kinderpornografisches Material, Verleumdung und den Verkauf gefälschter oder gefährlicher Produkte bis hin zu schwerwiegenden Datenschutzverletzungen wie der unbefugten Weitergabe intimer Bilder. Ein falsches Gleichgewicht in die eine oder andere Richtung hat schwerwiegende Folgen: Bei zu hoher Haftung zensieren Plattformen legale Äußerungen übermäßig, bei zu geringer Haftung verbreiten sich schädliche Inhalte ungehindert.

Dieser Artikel untersucht die wichtigsten Rechtsmodelle zur Haftung von Intermediären, analysiert bedeutende regionale Rahmenbedingungen wie den EU Digital Services Act, das indische IT-Gesetz, lateinamerikanische Ansätze und den US-amerikanischen Paragraphen 230 und beleuchtet aktuelle politische Debatten zur zukünftigen Inhaltsregulierung. Konkrete Beispiele, wichtige Daten und wegweisende Gerichtsentscheidungen veranschaulichen die praktische Anwendung dieser abstrakten Rechtsprinzipien.

Kernbegriffe: Was gilt als „Vermittler“ und was ist „Haftung“?

Um die Haftung von Vermittlern zu verstehen, muss zunächst geklärt werden, wer als Vermittler gilt und welche rechtlichen Verantwortlichkeiten damit verbunden sind. Vereinfacht ausgedrückt ist ein Vermittler jede Dienstleistung, die die Kommunikation oder Transaktionen zwischen anderen Parteien ermöglicht, ohne selbst die primäre Quelle der Inhalte oder Waren zu sein. Innerhalb dieser breiten Kategorie erfüllen verschiedene Arten von Vermittlern jedoch sehr unterschiedliche Funktionen – und werden dementsprechend auch von den jeweiligen Regulierungsrahmen unterschiedlich behandelt.

Die einfachste Kategorie sind reine Datenvermittler, die Daten lediglich von einem Punkt zum anderen weiterleiten, ohne sie zu speichern oder zu verändern. Klassische Beispiele hierfür sind Internetanbieter wie die Deutsche Telekom in Deutschland oder AT&T in den USA, die die Infrastruktur für den Internetzugang bereitstellen. Caching-Dienste spielen eine etwas komplexere Rolle, indem sie Inhalte temporär speichern, um die Übertragungsgeschwindigkeit zu verbessern – das Content Delivery Network von Cloudflare ist ein bekanntes Beispiel. Hosting-Anbieter wie AWS, Google Cloud und traditionelle Webhosting-Unternehmen speichern Inhalte auf ihren Servern im Auftrag der Nutzer und stellen diese so anderen zur Verfügung.

Die Kategorie, die derzeit die größte regulatorische Aufmerksamkeit auf sich zieht, sind Online-Plattformen, die Inhalte Dritter nicht nur hosten, sondern aktiv organisieren und verbreiten. Facebook, X (ehemals Twitter), YouTube, TikTok, Amazon Marketplace und südostasiatische E-Commerce-Giganten wie Shopee fallen alle in diese Kategorie. Diese Plattformen leisten weit mehr als nur die passive Speicherung von Inhalten – sie kuratieren, empfehlen und verstärken diese mithilfe von Algorithmen und schaffen so eine komplexere Beziehung zu den von Nutzern veröffentlichten Inhalten.

Die Haftungsrisiken für Vermittler sind vielfältig. Zivilrechtliche Haftung entsteht typischerweise in Fällen von Verleumdung oder Verletzung geistigen Eigentums, in denen Geschädigte Schadensersatz fordern. Strafrechtliche Haftung kann bei besonders schweren Verstößen vorliegen, beispielsweise wenn ein Anbieter wissentlich kinderpornografisches Material nicht entfernt. Die administrative Haftung hat im Rahmen moderner Regulierungsrahmen zunehmend an Bedeutung gewonnen. Behörden wie die Europäische Kommission sind befugt, gemäß dem Gesetz über digitale Dienste erhebliche Bußgelder für systemische Mängel zu verhängen.

Ein entscheidender Unterschied zieht sich durch all diese Kategorien: die primäre Haftung für das eigene Handeln und die sekundäre bzw. intermediäre Haftung für die Handlungen der Nutzer. Plattformanbieter sind selten die ursprüngliche Quelle problematischer Inhalte – sie haften aufgrund ihrer Verbindung zu diesen Inhalten. Zu den rechtlichen Auslösern für solche Inhalte gehören typischerweise tatsächliches Wissen (der Anbieter weiß eindeutig, dass illegale Inhalte existieren), mutmaßliches Wissen (der Anbieter hätte es vernünftigerweise wissen müssen), redaktionelle Kontrolle (der Anbieter übt maßgeblichen Einfluss darauf aus, was erscheint) und die Kontrolle darüber, wie Inhalte präsentiert oder monetarisiert werden. Verschiedene Rechtsordnungen gewichten diese Faktoren unterschiedlich, wodurch ein Flickenteppich an Regelungen entsteht, mit dem sich Dienstanbieter heute auseinandersetzen müssen.

Zugang zum Internet und Meinungsfreiheit

Der Schutz von Internet-Intermediären vor übermäßiger Haftung dient nicht nur der Wahrung von Unternehmensinteressen, sondern im Kern der Sicherung der Voraussetzungen für freie Meinungsäußerung und universellen Internetzugang. Würden Intermediäre für alle von ihren Nutzern veröffentlichten Inhalte uneingeschränkt haften, wäre die rationale Reaktion eine aggressive Vorprüfung und Entfernung potenziell problematischer Inhalte, wobei rechtmäßige, aber provokante Äußerungen als Kollateralschaden in Kauf genommen würden.

Diese Erkenntnis führte zur Entwicklung früher Haftungsbefreiungsrahmen. Die EU-Richtlinie über den elektronischen Geschäftsverkehr aus dem Jahr 2000 schuf einen Haftungsschutz für Vermittler, die als passive Mittler fungieren oder umgehend auf Meldungen über illegale Inhalte reagieren. Die Vereinigten Staaten gingen mit Abschnitt 230 des Communications Decency Act von 1996 noch einen Schritt weiter und gewährt Plattformen, die Inhalte Dritter hosten, weitreichende Immunität. Beide Rahmenwerke erkannten an, dass die Verpflichtung von Vermittlern zur Vorabprüfung aller Inhalte technisch nicht praktikabel und rechtlich abschreckend wäre. Der Bericht des UN-Sonderberichterstatters für Meinungsfreiheit aus dem Jahr 2011 lobte solche Ansätze ausdrücklich, da sie das Risiko übermäßiger Zensur mindern und gleichzeitig gezielte Maßnahmen gegen eindeutig illegales Material ermöglichen.

Sind Haftungsregeln zu weit gefasst oder zu streng, reichen die Folgen über individuelle Inhaltsentscheidungen hinaus. Netzwerkabschaltungen sind in einigen Ländern eine immer häufigere Reaktion geworden. Behörden ordnen vollständige Plattformsperren oder die Sperrung des mobilen Internets an, um die Verbreitung schädlicher Inhalte einzudämmen. Zwischen 2019 und 2022 verhängten Länder wie Indien und Myanmar erhebliche Internetbeschränkungen, die teilweise mit der Bekämpfung schädlicher Inhalte begründet wurden und verheerende Auswirkungen auf die legitime Kommunikation hatten. Selbst wenn es nicht zu vollständigen Abschaltungen kommt, greifen Plattformen, die in bestimmten Ländern einem hohen rechtlichen Risiko ausgesetzt sind, möglicherweise auf Geoblocking von Inhalten oder ganzen Diensten zurück, anstatt sich der Haftung auszusetzen. Dies führt faktisch zu einer Fragmentierung des globalen Internets.

Aus dem internationalen Soft Law haben sich bewährte Verfahren entwickelt, die als Leitfaden für dieses Gleichgewicht dienen. Die Berichte des UN-Sonderberichterstatters aus den Jahren 2011 und 2018 betonten, dass Vermittler keiner generellen Verpflichtung unterliegen sollten, alle Inhalte proaktiv zu überwachen. Eine Haftung sollte in der Regel erst dann eintreten, wenn Gerichtsbeschlüsse oder andere rechtsstaatliche Verfahren die Rechtswidrigkeit bestimmter Inhalte feststellen. Transparenz hinsichtlich der Maßnahmen gegen Inhalte und robuste Beschwerdemechanismen für Nutzer, deren Inhalte entfernt wurden, sind unerlässliche Schutzmechanismen. Diese Prinzipien sind zwar nicht rechtsverbindlich, haben aber die Gestaltung von Rahmenwerken wie dem Digital Services Act beeinflusst und dienen als Maßstab für die Bewertung nationaler Ansätze.

Globale Rechtsprechung und Rechtsmodelle der Haftung von Intermediären

Gerichte und Gesetzgeber weltweit haben deutlich unterschiedliche Ansätze zur Haftung von Vermittlern entwickelt, die von verschuldensunabhängiger Haftung bis hin zu nahezu vollständiger Immunität reichen. Das Verständnis dieses Spektrums ist unerlässlich, um zu begreifen, warum Plattformen sich in verschiedenen Rechtsordnungen unterschiedlich verhalten und warum Inhalte, die in einem Land weiterhin zugänglich sind, in einem anderen Land schnell entfernt werden können.

Im Bereich der Gefährdungshaftung würden einige Vorschläge Plattformen verpflichten, Upload-Filter oder andere proaktive Maßnahmen einzusetzen, um illegale Inhalte zu erkennen und zu blockieren, bevor sie überhaupt erscheinen. Dieser Ansatz behandelt Vermittler quasi wie Herausgeber und macht sie für alles verantwortlich, was ihre Systeme durchläuft. In der Praxis führt dies dazu, dass Plattformen zu aggressiven automatisierten Filtern getrieben werden, was unweigerlich zu Fehlalarmen führt, die auch legale Inhalte beeinträchtigen. Weiter im Kontinuum der Haftungsmodelle haften Vermittler, wenn sie fahrlässig auf Probleme reagieren – beispielsweise, wenn ein Hosting-Anbieter die Bearbeitung einer berechtigten Beschwerde unangemessen verzögert. Die wissensbasierte Haftung, das Modell, das sowohl der EU-Richtlinie über den elektronischen Geschäftsverkehr als auch dem DSA zugrunde liegt, greift erst, wenn der Vermittler tatsächlich Kenntnis von illegalen Inhalten erlangt, typischerweise durch eine Meldung eines Nutzers oder einer Behörde, und nicht unverzüglich handelt.

Das gerichtlich geregelte Modell legt noch größeren Wert auf ein faires Verfahren und verlangt gerichtliche Anordnungen, bevor Vermittler tätig werden müssen. Brasiliens „Marco Civil da Internet“, 2014 als Gesetz Nr. 12.965 in Kraft getreten, veranschaulicht diesen Ansatz für viele Inhaltskategorien. Es schreibt gerichtliche Anordnungen anstelle bloßer privater Mitteilungen vor, um die Haftung von Plattformen für die meisten Inhalte – mit Ausnahme nicht einvernehmlicher intimer Bilder – auszulösen. Am anderen Ende des Spektrums bietet das weitreichende Immunitätsmodell, wie es beispielsweise in den USA gemäß Abschnitt 230 des US-amerikanischen Internetgesetzes (Internal Revenue Code) verankert ist, umfassenden Schutz für Plattformen, die Inhalte Dritter hosten. Die Haftung greift hier nur in eng begrenzten gesetzlichen Ausnahmefällen, etwa in Bereichen wie Bundesstrafrecht, geistigem Eigentum und bestimmten Datenschutzverletzungen.

Wegweisende Gerichtsentscheidungen haben die praktische Anwendung dieser Modelle maßgeblich geprägt. In Argentinien befasste sich der Oberste Gerichtshof mit der Haftung von Suchmaschinen für die Verlinkung zu diffamierenden Inhalten und legte fest, ab wann allein die Indexierung eine Haftung begründet. Das Urteil des Obersten Gerichtshofs Indiens im Fall Shreya Singhal gegen die Union von Indien aus dem Jahr 2015 schränkte den Anwendungsbereich der Haftung von Vermittlern nach dem IT-Gesetz deutlich ein, indem es klarstellte, dass tatsächliche Kenntnis eine gerichtliche Anordnung oder behördliche Benachrichtigung erfordert, nicht bloß Nutzerbeschwerden. Das Urteil des Europäischen Gerichtshofs aus dem Jahr 2014 im Fall Google Spanien gegen AEPD etablierte das „Recht auf Vergessenwerden“ in den Suchergebnissen und verpflichtete Suchmaschinen, bestimmte personenbezogene Daten auf Anfrage zu entfernen – ein Urteil mit weitreichenden Konsequenzen für die Abwägung zwischen Informationszugang und Datenschutz. Jede dieser Entscheidungen veranschaulicht, wie Gerichte die von Gesetzgebern geschaffenen gesetzlichen Rahmenbedingungen interpretieren und weiterentwickeln.

Regionale Momentaufnahmen: Europa, Indien, Lateinamerika, Südostasien

Der Umgang der Europäischen Union mit der Haftung von Online-Plattformen hat sich in den letzten zwei Jahrzehnten deutlich weiterentwickelt. Die E-Commerce-Richtlinie legte im Jahr 2000 grundlegende Safe-Harbor-Prinzipien fest, doch eine Reihe von Urteilen des Gerichtshofs der Europäischen Union präzisierte und erweiterte die Verantwortung der Plattformen schrittweise. Im Fall L’Oréal gegen eBay entschied der Gerichtshof 2011, dass eBay zwar Schutz genießt, aber verpflichtet sein kann, Maßnahmen zur Verhinderung künftiger Verstöße zu ergreifen, sobald es über konkrete Verstöße informiert wird. Das Urteil im Fall Google Spanien von 2014 schuf neue Pflichten für Suchmaschinen in Bezug auf personenbezogene Daten. Diese Urteile ebneten den Weg für die umfassende Reform des Gesetzes über digitale Dienste (Digital Services Act, DSA), das im November 2022 in Kraft trat und ab dem 17. Februar 2024 EU-weit uneingeschränkt gilt. Das DSA bewahrt die zentralen Safe-Harbor-Prinzipien und führt gleichzeitig erhebliche neue Transparenz- und Sorgfaltspflichten ein, insbesondere für die größten Plattformen.

Indiens Haftungsregelung für Online-Vermittler verbindet gesetzliche Bestimmungen mit einflussreicher Rechtsprechung. Paragraph 79 des Informationstechnologiegesetzes (IT-Gesetz) gewährt Vermittlern bedingte Immunität, deren Umfang jedoch durch Gerichtsentscheidungen geprägt wurde. Das Urteil des Obersten Gerichtshofs im Fall Shreya Singhal aus dem Jahr 2015 hob den unklaren Paragraphen 66A auf, der anstößige Online-Inhalte unter Strafe stellte, und stellte klar, dass die Haftung von Vermittlern nach Paragraph 79 tatsächliche Kenntnis durch spezifische Mechanismen – vorwiegend Gerichtsbeschlüsse oder behördliche Bekanntmachungen – voraussetzt und nicht allein auf Nutzerbeschwerden beruht. Die IT-Regeln von 2021 führten zusätzliche Verpflichtungen ein, darunter beschleunigte Fristen für die Entfernung von Inhalten, die Pflicht zur Ermittlung der Urheber bestimmter Nachrichten und die Bestellung von Beschwerdebeauftragten. Diese Regeln sind jedoch weiterhin Gegenstand von Rechtsstreitigkeiten hinsichtlich ihrer Vereinbarkeit mit den Grundrechten.

Die Ansätze in Lateinamerika variieren, betonen aber häufig die Beteiligung der Justiz an Entscheidungen über Inhalte. Argentiniens Gerichte haben sich eingehend mit der Haftung von Suchmaschinen befasst. Der Oberste Gerichtshof stellte fest, dass Suchmaschinen grundsätzlich nicht für Inhalte Dritter haften, jedoch in bestimmten Fällen, in denen sie Kenntnis davon hatten und nicht handelten, zur Verantwortung gezogen werden können. Brasiliens „Marco Civil da Internet“ schreibt für die meisten Inhaltsentfernungen Gerichtsbeschlüsse vor. Dies spiegelt die bewusste Entscheidung wider, Richter und nicht private Plattformen mit der Beurteilung rechtswidriger Äußerungen zu beauftragen – obwohl für nicht einvernehmlich verbreitete intime Bilder und bestimmte andere besonders schädliche Kategorien beschleunigte Verfahren existieren.

Südostasien bietet ein fragmentierteres Bild. Einige Länder verfolgen aggressive Ansätze zur Rechenschaftspflicht von Plattformen, was Bedenken hinsichtlich der Auswirkungen auf die Meinungsfreiheit aufwirft. 2023 drohte die malaysische Kommunikationsbehörde MCMC Meta mit Maßnahmen wegen angeblich schädlicher Inhalte. Dies verdeutlicht, wie staatlicher Druck auf Vermittler die legitime Meinungsäußerung beeinträchtigen kann. Ähnliche Entwicklungen finden sich in der gesamten Region, wobei Plattformen und Nutzer unterschiedlich gut geschützt sind. Diese regionalen Unterschiede tragen zu einem globalen Spektrum an Regulierungsansätzen bei, wobei Gesetzgeber bei der Gestaltung oder Reform ihrer eigenen Rahmenbedingungen zunehmend auf vergleichende Erfahrungen zurückgreifen.

Haftung von Intermediären in der EU: von der E-Commerce-Richtlinie zum Digital Services Act (DSA)

Der Weg der Europäischen Union von der E-Commerce-Richtlinie zum Digital Services Act stellt eine der bedeutendsten Entwicklungen im Haftungsrecht für Internet-Intermediäre weltweit dar. Als die E-Commerce-Richtlinie im Juni 2000 verabschiedet wurde, steckte das kommerzielle Internet noch in den Kinderschuhen – Facebook sollte erst vier Jahre später gegründet werden, YouTube fünf, und die Smartphone-Revolution lag noch fast ein Jahrzehnt in der Zukunft. Die Richtlinie schuf einen praktikablen Rahmen für ihre Zeit und schuf einen Schutzraum für reine Übertragungs-, Zwischenspeicherungs- und Hosting-Dienste, der über zwei Jahrzehnte weitgehend unverändert blieb.

Ende der 2010er-Jahre wurde deutlich, dass der Rahmen von 2000 für die entstandene Plattformökonomie unzureichend war. Social-Media-Giganten verarbeiteten täglich Milliarden von Beiträgen, Online-Marktplätze verbanden Millionen von Verkäufern mit Konsumenten über Ländergrenzen hinweg, und das Ausmaß sowohl nützlicher als auch schädlicher Inhalte hatte die Erwartungen der ursprünglichen Gesetzgeber weit übertroffen. Die Europäische Kommission legte im Dezember 2020 den Digital Services Act vor und leitete damit einen intensiven Gesetzgebungsprozess ein, der die Plattformregulierung für das kommende Jahrzehnt grundlegend verändern sollte.

Die Verabschiedung der DSA durch die EU-Institutionen verlief für Brüsseler Verhältnisse relativ schnell. Im April 2022 wurde eine politische Einigung erzielt, das Europäische Parlament verabschiedete die Verordnung am 5. Juli 2022, und der Rat schloss das Gesetzgebungsverfahren noch im selben Jahr ab. Die Verordnung trat im November 2022 in Kraft. Sehr große Online-Plattformen und Suchmaschinen mit mehr als 45 Millionen monatlich aktiven Nutzern in der EU mussten die Verordnung ab Ende 2023 einhalten. Die vollständige Verordnung galt ab dem 17. Februar 2024 für alle erfassten Dienste.

Entscheidend ist, dass der DSA das durch die E-Commerce-Richtlinie etablierte Safe-Harbor-Modell nicht aufgibt. Vielmehr bewahrt er die grundlegenden Haftungsschutzmechanismen und ergänzt sie um gestaffelte Pflichten, die mit der Größe, Reichweite und dem potenziellen gesellschaftlichen Einfluss eines Dienstes zunehmen. Für Plattformen bedeutet dies, dass die Grundvereinbarung bestehen bleibt: Wer nach Kenntnisnahme rechtswidriger Inhalte verantwortungsvoll handelt, behält seine Haftungsbefreiung. „Verantwortungsvolles Handeln“ umfasst nun jedoch deutlich detailliertere Verfahrens- und Transparenzanforderungen als im Rahmen des Abkommens von 2000.

Wichtige Haftungs- und Safe-Harbor-Bestimmungen der DSA

Das DSA behält die aus der E-Commerce-Richtlinie bekannte dreistufige Schutzstruktur bei und gewährleistet so wichtige Kontinuität für Dienstanbieter. Reine Vermittlungsdienste – solche, die lediglich Informationen weiterleiten oder Zugang zu einem Kommunikationsnetz ermöglichen – genießen gemäß Artikel 4 Immunität für Inhalte, die sie weder initiieren, deren Empfänger sie auswählen noch die sie verändern. Caching-Dienste, die Informationen temporär und automatisch speichern, um die Weiterleitung zu optimieren, sind gemäß Artikel 5 geschützt, sofern sie die Bedingungen hinsichtlich Zugriff und Inhaltsgenauigkeit erfüllen. Hosting-Anbieter, einschließlich der Plattformen, die für die Online-Kommunikation zentral geworden sind, sind gemäß Artikel 6 geschützt, wenn sie keine Kenntnis von rechtswidrigen Inhalten haben oder nach Kenntniserlangung unverzüglich Maßnahmen ergreifen, um den Zugriff auf solche Inhalte zu entfernen oder zu sperren.

Das DSA präzisiert den Wissensstandard, der die Verantwortung von Hosting-Anbietern auslöst. Artikel 6 legt fest, dass das allgemeine Wissen um illegale Aktivitäten oder Inhalte auf einer Plattform allein keine Kenntnis konkreter Sachverhalte darstellt, die ein Eingreifen erfordern. Dies verhindert das Argument, Plattformen verlören ihren Schutz, nur weil allgemein bekannt ist, dass auf größeren Diensten illegale Inhalte existieren. Ergänzend dazu bestätigt Artikel 8, dass Intermediäre weder generell verpflichtet sind, die von ihnen übermittelten oder gespeicherten Inhalte zu überwachen, noch aktiv nach Hinweisen auf illegale Aktivitäten zu suchen – ein entscheidender Schutz vor Überwachungsauflagen, die die Natur von Online-Diensten grundlegend verändern würden.

Die Verordnung führt eine Art „Good Samaritan“-Klausel ein, die ein langjähriges Problem im Haftungsrecht für Plattformen aufgreift. Plattformen befürchteten in der Vergangenheit, dass freiwillige Bemühungen zur Erkennung und Entfernung illegaler Inhalte als redaktionelle Eingriffe ausgelegt werden und somit ihren Haftungsschutz untergraben könnten. Die DSA (Disclosure and Barring Service) stellt klar, dass Bemühungen in gutem Glauben zur Identifizierung, Untersuchung und Entfernung illegaler Inhalte nicht automatisch zum Verlust des Haftungsschutzes führen. Dies fördert eine verantwortungsvolle Inhaltsmoderation, ohne Plattformen für ihre Bemühungen um saubere Dienste zu bestrafen.

Das DSA befasst sich auch speziell mit Online-Marktplätzen und erkennt an, dass diese Plattformen eine komplexe Stellung zwischen reiner Bereitstellung von Hosting-Diensten und direkter kommerzieller Beteiligung einnehmen. Wenn Plattformen wie Amazon Marketplace oder AliExpress als Händler auftreten, Schlüsselelemente der Transaktion wie Preisgestaltung oder Lieferung kontrollieren oder Verbrauchern anderweitig den Eindruck vermitteln, sie würden mit der Plattform selbst und nicht mit einem Drittanbieter handeln, können sie den Vorteil der beschränkten Haftung verlieren und eher wie Händler behandelt werden. Diese Bestimmung trägt den Bedenken der Verbraucher hinsichtlich gefälschter und unsicherer Produkte Rechnung, die über Marktplatzplattformen in den europäischen Handel gelangen.

Neue Verpflichtungen für Plattformen, VLOPs und VLOSEs

Neben der Wahrung sicherer Rahmenbedingungen schafft der DSA beispiellose Verpflichtungen für Online-Plattformen, deren Anforderungen je nach Größe und potenzieller Wirkung des Dienstes steigen. Alle Plattformen müssen benutzerfreundliche Mechanismen zur Meldung illegaler Inhalte implementieren, um Nutzern das Melden solcher Inhalte zu erleichtern. Bei der Entfernung von Inhalten oder der Einschränkung von Konten müssen Plattformen ihre Entscheidungen klar und verständlich begründen. Regelmäßige Transparenzberichte müssen die Aktivitäten zur Inhaltsmoderation detailliert darlegen, einschließlich des Einsatzes automatisierter Tools, des Beschwerdeaufkommens und der Ergebnisse der Entscheidungen.

Für sehr große Online-Plattformen und Suchmaschinen – solche, die von der Europäischen Kommission als solche mit mindestens 45 Millionen monatlich aktiven Nutzern in der EU eingestuft werden – sind die Verpflichtungen deutlich anspruchsvoller. Die Kommission benannte die erste Tranche dieser Plattformen und Suchmaschinen im Jahr 2023, darunter Dienste wie Facebook, YouTube, TikTok, Amazon, Google Search und Bing. Diese Dienste müssen umfassende systemische Risikoanalysen durchführen, in denen sie untersuchen, wie sich ihr Design, ihre Algorithmen und ihre Moderationspraktiken auf Bereiche wie Desinformation, Grundrechte, die Integrität von Wahlen, geschlechtsspezifische Gewalt und den Schutz von Minderjährigen auswirken können.

Risikobewertungen müssen zu angemessenen und verhältnismäßigen Abhilfemaßnahmen führen. Diese können Änderungen an Empfehlungsalgorithmen, Werbesystemen, Benutzeroberflächen oder Nutzungsbedingungen umfassen. VLOPs und VLOSEs müssen sich jährlichen unabhängigen Prüfungen unterziehen, die ihre Einhaltung der Vorschriften bestätigen, und die Prüfberichte veröffentlichen. Sie müssen außerdem für Transparenz hinsichtlich ihrer Empfehlungssysteme – der Algorithmen, die bestimmen, welche Inhalte Nutzern angezeigt werden – sorgen und geprüften Forschern und Aufsichtsbehörden, die systemische Probleme untersuchen, Zugang zu relevanten Daten gewähren.

Die Durchsetzung dieser Verpflichtungen obliegt den nationalen Koordinatoren für digitale Dienste in den einzelnen Mitgliedstaaten, wobei die Europäische Kommission die Aufsicht über sehr plattformübergreifende Dienste (VLOPs) und sehr plattformübergreifende Dienste (VLOSEs) direkt ausübt. Es geht um viel: Plattformen können bei schwerwiegenden Verstößen mit Geldbußen von bis zu sechs Prozent ihres weltweiten Jahresumsatzes belegt werden, und bei fortgesetzter Nichteinhaltung sind regelmäßige Strafzahlungen möglich. Die Verordnung schafft außerdem Nutzerrechte, darunter das Recht, Schadensersatz für durch Plattformverstöße verursachte Schäden zu fordern – ein wichtiger Mechanismus zur Rechenschaftspflicht, der über die regulatorische Durchsetzung hinausgeht. Große Technologieunternehmen begannen im Laufe der Jahre 2022 und 2023, ihre Compliance-Programme anzupassen, indem sie neue Transparenzzentren einrichteten, Nutzungsbedingungen aktualisierten und Kontrollmechanismen für Empfehlungssysteme implementierten, um die Fristen der Digital Service Agreements (DSA) einzuhalten.

Verbreitung intimer Bilder und anderer schädlicher Inhalte ohne Einwilligung der Betroffenen

Nicht alle Online-Schadensfälle sind gleich, und regulatorische Rahmenbedingungen erkennen zunehmend an, dass bestimmte Inhaltskategorien eine Sonderbehandlung erfordern. Die nicht einvernehmliche Verbreitung intimer Bilder – gemeinhin als NCII oder „Racheporno“ bekannt – ist ein Beispiel für Inhalte, die Gerichte und Gesetzgeber aufgrund des schwerwiegenden und oft irreversiblen Schadens, den sie den Opfern zufügen, als dringlich und behandlungsbedürftig einstufen. Privatsphäre, Würde, psychisches Wohlbefinden und körperliche Sicherheit können beeinträchtigt sein, wenn intime Bilder ohne Einwilligung geteilt werden, oft als Waffe der Belästigung, Nötigung oder Vergeltung.

Gerichte verschiedener Rechtsordnungen haben beschleunigte Verfahren zur Bekämpfung von nicht-kommerziellem Material entwickelt, da die üblichen Fristen für Meldung und Entfernung solcher Inhalte oft nicht ausreichen. In Nordamerika, Europa und Asien ordnen Richter regelmäßig an, dass Suchmaschinen und Hosting-Dienste solche Inhalte innerhalb von Stunden oder Tagen nach Eingang von Beschwerden entfernen oder den Zugriff darauf sperren. Diese Anordnungen gehen häufig vollständigen Gerichtsverhandlungen voraus und spiegeln die richterliche Einschätzung wider, dass der Schaden durch Verzögerungen die Verfahrenskosten für die Bearbeitung unvollständiger Informationen überwiegt. Eine ähnliche Dringlichkeit kennzeichnet die Reaktionen auf Material mit sexuellem Kindesmissbrauch, direkte Gewaltdrohungen und eindeutige Aufrufe zu unmittelbar bevorstehender Gewalt.

Diese Sonderbehandlung führt unweigerlich zu Spannungen mit dem umfassenderen Haftungsrahmen für Intermediäre. Betroffene fordern verständlicherweise ein schnelles und umfassendes Vorgehen, einschließlich der Entfernung der Inhalte von allen Plattformen, auf denen sie sich verbreitet haben könnten, sowie der Streichung aus den Suchergebnissen. Zu weit gefasste oder vage formulierte Anordnungen können Plattformen jedoch zu übermäßigen Löschungen verleiten und dadurch potenziell Nachrichtenberichte, künstlerische Ausdrucksformen oder Inhalte beeinträchtigen, die dem gemeldeten Material zwar oberflächlich ähneln, aber nicht damit identisch sind. Die Herausforderung besteht darin, wirksame Lösungen zu entwickeln, die nicht zu Instrumenten der Zensur oder der Schikanierung von Kritikern werden.

Moderne Systeme zur Bekämpfung von nicht-kommerziellen Inhalten (NCII) nutzen verschiedene Mechanismen, die Geschwindigkeit und angemessene Sicherheitsvorkehrungen in Einklang bringen. Melde- und Entfernungssysteme bieten oft Prioritätskanäle für Meldungen intimer Bilder mit beschleunigten Prüfverfahren und spezialisiertem Personal. Vertrauenswürdige Meldeprogramme ermöglichen es verifizierten Organisationen mit Expertise im Bereich bildbasierter Missbrauchsfälle, Meldungen zu eskalieren und so ein schnelleres Eingreifen zu erreichen. Protokolle für Strafverfolgungsbehörden ermöglichen die Koordination mit der Polizei in Fällen strafbarer Handlungen. Besonders wichtig ist, dass große Plattformen Hashing-Technologien eingeführt haben, die digitale Fingerabdrücke bekannter NCII erstellen und so die automatisierte Erkennung und Verhinderung erneuter Uploads ermöglichen – die Implementierung muss jedoch Datenschutzstandards beachten und Fehlalarme vermeiden.

Bei NCII-Material, kinderpornografischem Material und ähnlich schwerwiegenden Schäden akzeptieren viele Interessenvertreter und politische Entscheidungsträger engere Schutzbestimmungen und kürzere vorgeschriebene Reaktionszeiten, als dies bei allgemeinen Beschwerden über anstößige oder lediglich geschmacklose Inhalte angemessen wäre. Doch selbst in diesen Ausnahmefällen gilt: Die bewährte Praxis sieht weiterhin die gerichtliche Überprüfung strittiger Anordnungen, transparente Protokolle über die getroffenen Maßnahmen und wirksame Rechtsmittel für Personen vor, deren Inhalte zu Unrecht entfernt wurden.

Haftung von Medienvermittlern und Inhaltsregulierung: Aktuelle politische Trends und Debatten

Die Haftung von Internet-Intermediären hat sich von einem relativ technischen Bereich des Internetrechts in den Mittelpunkt globaler Debatten über digitale Governance gerückt. Diese Entwicklung beschleunigte sich um das Jahr 2018, angetrieben durch aufsehenerregende Skandale um die Verbreitung von Desinformation durch Plattformen, Beweise für ausländische Einmischung in Wahlen, Bedenken hinsichtlich Online-Belästigung und deren Auswirkungen auf den öffentlichen Diskurs sowie wachsende Besorgnis über die Machtkonzentration in den Händen weniger Technologieunternehmen. Regierungen, die die Plattformen weitgehend sich selbst überlassen hatten, begannen daraufhin, durchsetzungsstärkere Regulierungsstrategien zu verfolgen.

Aktuelle Reformen verfolgen mehrere miteinander verknüpfte politische Ziele. Sie zielen darauf ab, die Verantwortung von Plattformen für illegale Inhalte und systemische Risiken, die ihre Dienste verursachen oder verschärfen können, zu erhöhen. Gleichzeitig sollen Raum für rechtmäßige Meinungsäußerung und kontinuierliche Innovation bei digitalen Diensten erhalten bleiben. Darüber hinaus soll sichergestellt werden, dass Entscheidungen über Inhalte, die Nutzer betreffen, transparent, rechtsstaatlichen Verfahren und wirksamen Rechtsbehelfen unterliegen. Die Balance zwischen diesen Zielen hat sich als schwierig erwiesen, da verschiedene Rechtssysteme auf der Grundlage ihrer Rechtstraditionen, politischen Gegebenheiten und der Einschätzung der dringlichsten Schäden unterschiedliche Kompromisse eingehen.

Die regulatorische Landschaft ist deutlich komplexer geworden. Der EU-Digitaldienstgesetz (DSG) stellt den bisher umfassendsten Versuch dar, doch es gibt weitere Instrumente wie den Digital Markets Act (DMCA), der den Wettbewerb zwischen Plattformen regelt, den Data Governance Act (DGA), die Cybersicherheitsanforderungen von NIS2 und den in Entwicklung befindlichen KI-Gesetzentwurf. Das Vereinigte Königreich hat mit dem Online Safety Act, dem Nachfolger des im Mai 2022 eingebrachten Entwurfs für ein Online Safety Bill, einen Rahmen für Sorgfaltspflichten geschaffen. Ofcom entwickelt detaillierte Verhaltenskodizes. In den Vereinigten Staaten wird Abschnitt 230 des Gesetzes zur Online-Sicherheit (SEC) weiterhin vom Kongress geprüft. Beide Parteien haben Vorschläge zur Änderung des Schutzes eingebracht, doch noch hat keine Reform die nötige Mehrheit für eine Verabschiedung erreicht. Zu den regionalen Initiativen gehören die ASEAN-Leitlinien für die Governance digitaler Plattformen und Empfehlungen von Organisationen wie der Global Network Initiative (GNI), die einen die Rechte der Nutzer respektierenden Ansatz für die Rechenschaftspflicht von Plattformen betonen.

Ein bemerkenswerter Trend in diesen Rahmenwerken ist die Verlagerung von rein reaktiven, inhaltsbezogenen Entscheidungen hin zu einer systemischen Steuerung. Während sich frühere Haftungsregeln für Intermediäre primär darauf konzentrierten, ob eine Plattform angemessen auf einzelne Löschungsanträge reagierte, fordern neuere Ansätze wie der DSA Risikobewertungen, algorithmische Transparenz, Zugang für Forschende und unabhängige Prüfungen, die untersuchen, wie sich Plattformdesignentscheidungen auf die Gesellschaft im großen Maßstab auswirken. Dies ersetzt nicht das traditionelle Safe-Harbor-System – ein zügiges Vorgehen gegen illegale Inhalte bleibt zentral –, sondern ergänzt es um eine Steuerungsebene, die die Ursachen des Schadens und nicht nur dessen Symptome angeht.

Regulatorischer „Werkzeugkasten“: Anwendungsbereich, Wissen und Gestaltung von Benachrichtigungs- und Handlungsverfahren

Politikverantwortliche, die Haftungsregelungen für Online-Plattformen entwerfen, verfügen über zahlreiche anpassbare Parameter – eine Art regulatorischer Werkzeugkasten, der je nach Konfiguration der Elemente sehr unterschiedliche Ergebnisse hervorbringen kann. Das Verständnis dieser Gestaltungsmöglichkeiten trägt dazu bei, zu erklären, warum Plattformen in verschiedenen Rechtsordnungen so unterschiedlichen Verpflichtungen unterliegen und warum Debatten über scheinbar technische Rechtsvorschriften weitreichende Folgen für die Meinungsfreiheit im Internet haben können.

Der Geltungsbereich bestimmt, welche Dienste unter einen Regulierungsrahmen fallen. Einige Regelungen umfassen nur traditionelle Hosting- und Zugangsanbieter, während andere Suchmaschinen, Social-Media-Plattformen, Messengerdienste, App-Stores und Online-Marktplätze einschließen. Der DSA beispielsweise gilt für eine Vielzahl von Diensten der Informationsgesellschaft, legt seine strengsten Verpflichtungen aber nur sehr großen Plattformen auf. Die Festlegung des Geltungsbereichs bestimmt auch, ob die Kuratierung, das Ranking oder die algorithmische Empfehlung von Inhalten den Haftungsstatus eines Anbieters verändert. Nach US-amerikanischem Paragraph 230 genießen Plattformen in der Regel Immunität, selbst wenn sie aktiv Äußerungen Dritter kuratieren oder empfehlen. Im Gegensatz dazu kann eine Plattform, die sich zu tief in Transaktionen integriert, nach dem DSA ihren Schutz als Hosting-Anbieter verlieren und als direkter Teilnehmer behandelt werden.

Der Wissensstandard definiert, wann eine Plattform zum Handeln verpflichtet ist. Einige Systeme werten jede Nutzermeldung als tatsächliche Kenntnisnahme, was Missbrauch durch böswillige Beschwerdeführer ermöglichen kann, die legitime Inhalte unterdrücken wollen. Andere Systeme verlangen formelle Gerichtsbeschlüsse oder behördliche Benachrichtigungen, was zwar einen besseren Rechtsschutz bietet, aber die Reaktion auf tatsächliche Schäden verzögern kann. Der EU-Ansatz unterscheidet zwischen dem allgemeinen Bewusstsein über das Vorliegen illegaler Aktivitäten – was die Safe-Harbor-Regelung nicht außer Kraft setzt – und der tatsächlichen Kenntnis konkreter illegaler Inhalte, die ein Eingreifen erfordern.

Melde- und Aktionssysteme legen die Verfahrensanforderungen für Beschwerden und Reaktionen fest. Zu den wichtigsten Variablen gehören die in Meldungen erforderlichen Informationen, Reaktionsfristen (einige Systeme verlangen bei schwerwiegenden Inhalten eine Reaktion innerhalb von 24 oder 36 Stunden), Gegendarstellungsverfahren, die es betroffenen Nutzern ermöglichen, Löschungen anzufechten, sowie Beschwerdemechanismen für Nutzer, die mit Entscheidungen der Plattform unzufrieden sind. Gut konzipierte Systeme beinhalten Schutzmechanismen gegen Missbrauch, wie beispielsweise Sanktionen für offensichtlich unbegründete Meldungen, die eingereicht werden, um Kritiker zu schikanieren oder den Wettbewerb zu unterdrücken.

Die Folgen schlecht abgestimmter Designentscheidungen können gravierend sein. Unklare Kriterien für illegale Inhalte, gepaart mit kurzen Reaktionsfristen und einem hohen Haftungsrisiko, führen erwartungsgemäß zu übermäßigen Löschungen, da Plattformen lieber auf Nummer sicher gehen. Umgekehrt können übermäßige Verfahrensanforderungen, bevor Maßnahmen ergriffen werden können, tatsächliche Opfer ohne wirksame Rechtsmittel zurücklassen. Die Herausforderung besteht darin, Rahmenbedingungen zu schaffen, die eine schnelle Reaktion zur Beseitigung illegaler Inhalte ermöglichen und gleichzeitig Raum für grenzwertige, umstrittene oder letztlich rechtmäßige Meinungsäußerungen lassen.

Zukünftige Ausrichtung: Innovation, Rechte und deren Durchsetzung im Gleichgewicht halten

Die in den letzten Jahren etablierten Haftungsrahmen für Intermediäre werden angesichts der fortschreitenden technologischen Entwicklung erheblichen Belastungen ausgesetzt sein. Neue Technologien schaffen neuartige Herausforderungen, denen die bestehenden Regelungen nur unzureichend oder gar nicht gerecht werden. Regulierungsbehörden müssen daher abwägen, ob die Notwendigkeit einer Aktualisierung der Rechtsrahmen erforderlich ist oder ob die Gefahr besteht, nützliche Innovationen zu ersticken oder eine mit den Menschenrechten unvereinbare Überwachungsinfrastruktur zu schaffen.

Generative künstliche Intelligenz (KI), die um 2022 mit Systemen wie ChatGPT und Bildgeneratoren zum Mainstream wurde, wirft besonders schwierige Fragen auf. Wenn KI-Systeme Inhalte erzeugen, die diffamierend, urheberrechtsverletzend oder illegal sind, stößt die traditionelle Haftungsanalyse bei Intermediären an ihre Grenzen, wenn es darum geht, die verantwortliche Partei zu identifizieren. Haftet der KI-Entwickler, die Plattform, die den KI-Dienst hostet, der Nutzer, der die Ausgabe veranlasst hat, oder eine Kombination aus all dem? Bestehende Rahmenbedingungen gehen im Allgemeinen von einem menschlichen Urheber der Inhalte aus – eine Annahme, die durch generative KI infrage gestellt wird. Regulierungsbehörden beginnen, sich mit diesen Fragen auseinanderzusetzen – der EU-KI-Gesetzentwurf enthält Bestimmungen, die für generative Systeme relevant sind –, doch kohärente Lösungsansätze müssen noch entwickelt werden.

Verschlüsselte Messengerdienste stellen eine besondere Herausforderung dar. Starke Verschlüsselung schützt die Privatsphäre, sichert die Kommunikation vor Kriminellen und autoritären Regierungen und ermöglicht Journalisten und Aktivisten ein sicheres Arbeiten. Doch dieselben Eigenschaften, die legitime Nutzer schützen, verschleiern auch illegale Aktivitäten. Vorschläge für clientseitiges Scannen – die Überprüfung von Inhalten auf Nutzergeräten vor der Verschlüsselung – sind äußerst umstritten. Kritiker argumentieren, dass sie die Sicherheitsgarantien der Verschlüsselung grundlegend untergraben und eine Infrastruktur schaffen, die anfällig für staatlichen Missbrauch ist. Regulierungsansätze zu finden, die den tatsächlichen Bedürfnissen der Strafverfolgung gerecht werden, ohne die Privatsphäre zu beeinträchtigen, bleibt ein ungelöstes Problem.

Dezentrale und föderierte Dienste bringen eine weitere Ebene der Komplexität mit sich. Plattformen wie Mastodon operieren über Netzwerke unabhängig voneinander verwalteter Server, ohne einen zentralen Betreiber, der für Inhalte verantwortlich gemacht werden könnte. Die traditionelle Haftung von Vermittlern setzt einen identifizierbaren Vermittler voraus, dem die Verpflichtungen obliegen; föderierte Architekturen verteilen diese Rolle auf viele Parteien, die potenziell in unterschiedlichen Rechtsordnungen mit unterschiedlichen rechtlichen Anforderungen agieren. Ob bestehende Regulierungsrahmen diese Dienste effektiv abdecken können oder ob neue Ansätze erforderlich sind, bleibt eine offene Frage.

Trotz dieser Herausforderungen lassen sich bestimmte Best-Practice-Richtlinien klar erkennen. Safe-Harbor-Rahmenwerke haben sich als unerlässlich für ein funktionierendes Internet erwiesen und sollten beibehalten und weiterentwickelt, anstatt aufgegeben zu werden. Transparenz, Rechenschaftspflicht und die Stärkung der Nutzerrechte – einschließlich wirksamer Beschwerderechte und der Begründung von Inhaltsentscheidungen – dienen sowohl der Meinungsfreiheit als auch der Legitimität von Plattformen. Investitionen in unabhängigen Forschungszugang und systematische Folgenabschätzungen bieten nachhaltigere Ansätze als rein reaktive Löschverfahren. Die Haftung von Intermediären wird auf absehbare Zeit ein zentrales Element der digitalen Governance bleiben, und kohärente, die Rechte achtende Rahmenwerke sind unerlässlich für den Erhalt eines gesunden, offenen Internets, das den vielfältigen Nutzern weltweit gerecht wird.


Anmeldung

Haben Sie Ihr Passwort vergessen?

Sie haben noch kein Konto?
Konto erstellen