Nuevo: Ruta de aprendizaje sobre la gobernanza del daño digital Más información aquí.

Responsabilidad de los intermediarios: normas, riesgos y reformas en la era digital

  • , por Paul Waite
  • 34 Tiempo mínimo de lectura

Cuando un usuario publica contenido difamatorio en Facebook, vende productos falsificados en Amazon o comparte material ilegal en YouTube, ¿quién asume la responsabilidad legal? Esta pregunta es fundamental para la responsabilidad de los intermediarios, el marco legal que determina cuándo los intermediarios de internet, como los proveedores de servicios de internet (ISP), los proveedores de alojamiento web y las plataformas en línea, pueden ser considerados responsables del contenido creado por sus usuarios y no por ellos mismos.

Nunca ha habido tanto en juego. Desde mediados de la década de 2000, las redes sociales han transformado la forma en que miles de millones de personas se comunican, consumen información y realizan transacciones comerciales. Plataformas como Facebook, YouTube, TikTok y Amazon Marketplace se han convertido en fuerzas dominantes en la economía digital, procesando volúmenes asombrosos de contenido generado por los usuarios cada segundo. La respuesta regulatoria se ha intensificado en consecuencia, con gobiernos de todo el mundo introduciendo nuevas normas de responsabilidad de intermediarios desde aproximadamente 2018 para abordar la magnitud de los daños en línea que estos servicios pueden facilitar o amplificar.

La tensión central en este campo es engañosamente simple, pero compleja en la práctica: ¿cómo protegemos la libertad de expresión y mantenemos el acceso abierto a internet, a la vez que abordamos los daños reales? Estos daños abarcan desde el discurso de odio y la propaganda terrorista hasta material de abuso sexual infantil, la difamación, la venta de productos falsificados o peligrosos, y graves violaciones de la privacidad, como la difusión no consentida de imágenes íntimas. Equilibrar incorrectamente ambos aspectos conlleva graves consecuencias: si se alcanza una responsabilidad excesiva, las plataformas censuran excesivamente la expresión legal, y si se produce una escasez de contenido dañino, este prolifera sin control.

Este artículo examina los principales modelos jurídicos que rigen la responsabilidad de los intermediarios, examina los principales marcos regionales, como la Ley de Servicios Digitales de la UE, el régimen de la Ley de Tecnologías de la Información de la India, los enfoques latinoamericanos y la Sección 230 de Estados Unidos, y explora los debates políticos actuales que configuran el futuro de la regulación de contenidos. A lo largo del artículo, ejemplos concretos, fechas específicas y sentencias judiciales históricas ilustrarán cómo estos principios jurídicos abstractos funcionan en la práctica.

Conceptos básicos: ¿qué se considera “intermediario” y qué es “responsabilidad”?

Para comprender la responsabilidad de los intermediarios es necesario aclarar primero quiénes se consideran intermediarios y qué tipos de responsabilidad legal podrían asumir. En resumen, un intermediario es cualquier servicio que facilita la comunicación o las transacciones entre otras partes sin ser la fuente principal del contenido o los bienes involucrados. Sin embargo, dentro de esta amplia categoría, los distintos tipos de intermediarios desempeñan funciones muy diferentes, por lo que los marcos regulatorios suelen tratarlos de forma distinta.

La categoría más básica es la de proveedor de "mero conducto", que simplemente transmite datos de un punto a otro sin almacenarlos ni modificarlos. Ejemplos clásicos incluyen proveedores de acceso a ISP como Deutsche Telekom en Alemania o AT&T en Estados Unidos, que proporcionan la infraestructura para que los usuarios se conecten a internet. Los servicios de almacenamiento en caché desempeñan un papel un poco más complejo, almacenando contenido temporalmente para mejorar la velocidad de entrega; la red de entrega de contenido de Cloudflare es un ejemplo destacado. Proveedores de alojamiento como AWS, Google Cloud y empresas de alojamiento web tradicionales almacenan contenido en sus servidores según las instrucciones de los usuarios, haciéndolo accesible a otros.

La categoría que genera mayor atención regulatoria hoy en día son las plataformas en línea que no solo alojan, sino que también organizan y difunden activamente contenido de terceros. Facebook, X (anteriormente Twitter), YouTube, TikTok, Amazon Marketplace y gigantes del comercio electrónico del sudeste asiático como Shopee se incluyen en esta categoría. Estas plataformas hacen mucho más que almacenar contenido pasivamente: lo seleccionan, lo recomiendan y lo amplifican mediante algoritmos, creando una relación más compleja con el material que publican los usuarios.

Los tipos de responsabilidad que pueden afrontar los intermediarios son igualmente variados. La responsabilidad civil suele surgir en casos de difamación o propiedad intelectual, donde las partes perjudicadas reclaman una indemnización por daños y perjuicios. La responsabilidad penal puede aplicarse por delitos especialmente graves, como cuando un proveedor, a sabiendas, no retira material de abuso sexual infantil. La responsabilidad administrativa ha cobrado cada vez mayor importancia en los marcos regulatorios modernos, y autoridades como la Comisión Europea están facultadas para imponer multas significativas por fallos sistémicos en virtud de la Ley de Servicios Digitales.

Una distinción crucial atraviesa todas estas categorías: la diferencia entre la responsabilidad primaria por la propia conducta y la responsabilidad secundaria o intermedia por las acciones de los usuarios. Los proveedores de plataformas rara vez son la fuente original de contenido problemático; se vuelven responsables debido a su relación con dicho contenido. Los detonantes legales para dicho contenido suelen incluir el conocimiento real (el proveedor sabe con certeza que existe contenido ilegal), el conocimiento implícito (el proveedor debería haberlo sabido razonablemente), el control editorial (el proveedor ejerce una discreción significativa sobre lo que se publica) y la autoridad sobre cómo se presenta o monetiza el contenido. Las distintas jurisdicciones ponderan estos factores de forma diferente, lo que crea la diversidad de enfoques que los proveedores de servicios deben abordar hoy en día.

Acceso a Internet y libertad de expresión

Proteger a los intermediarios de internet de una responsabilidad excesiva no se trata solo de proteger los intereses corporativos, sino fundamentalmente de preservar las condiciones para la libre expresión y el acceso universal a internet. Si los intermediarios asumieran una responsabilidad objetiva por todo lo que publican sus usuarios, la respuesta racional sería una revisión previa rigurosa y la eliminación de cualquier contenido potencialmente problemático, convirtiendo el discurso legal pero provocador en un daño colateral.

Esta perspectiva impulsó la creación de los primeros marcos de exención de responsabilidad. La Directiva de Comercio Electrónico de la Unión Europea, adoptada en el año 2000, estableció protecciones de puerto seguro para los intermediarios que actúan como conductos pasivos o responden con prontitud a las notificaciones sobre contenido ilegal. Estados Unidos fue aún más allá con la Sección 230 de la Ley de Decencia en las Comunicaciones, promulgada en 1996, que otorga amplia inmunidad a las plataformas que alojan contenido de terceros. Ambos marcos reconocieron que exigir a los intermediarios que preseleccionen todo el contenido sería técnicamente impráctico y legalmente intimidante. El informe de 2011 del Relator Especial de la ONU para la Libertad de Expresión elogió específicamente estos enfoques por mitigar el riesgo de censura excesiva, al tiempo que permitía la adopción de medidas específicas contra material claramente ilegal.

Cuando las normas de responsabilidad son excesivamente amplias o punitivas, las consecuencias se extienden más allá de las decisiones individuales sobre el contenido. Los cierres de la red se han convertido en una respuesta cada vez más común en algunas jurisdicciones, donde las autoridades ordenan bloqueos completos de plataformas o suspensiones de internet móvil para controlar la difusión de contenido considerado perjudicial. Entre 2019 y 2022, países como India y Myanmar impusieron importantes restricciones de internet, justificadas en parte por el control de contenido perjudicial, con efectos devastadores para la comunicación legítima. Incluso sin llegar a cierres completos, las plataformas que enfrentan graves riesgos legales en determinadas jurisdicciones pueden bloquear geográficamente contenido o servicios completos en lugar de exponerse a responsabilidades, fragmentando así la internet global.

Los principios de buenas prácticas han surgido del derecho indicativo internacional para guiar este equilibrio. Los informes del Relator Especial de la ONU de 2011 y 2018 enfatizaron que los intermediarios no deberían tener la obligación general de monitorear todo el contenido de forma proactiva. La responsabilidad generalmente solo debería imputarse después de que las órdenes judiciales u otros mecanismos de debido proceso establezcan que un contenido específico es ilegal. La transparencia en las acciones relacionadas con el contenido y los mecanismos de apelación sólidos para los usuarios cuyo contenido es eliminado son salvaguardias esenciales. Estos principios, si bien no son jurídicamente vinculantes, han influido en el diseño de marcos como la Ley de Servicios Digitales y sirven como puntos de referencia para evaluar los enfoques nacionales.

Jurisprudencia global y modelos jurídicos de responsabilidad de intermediarios

Tribunales y legislaturas de todo el mundo han desarrollado enfoques muy diferentes sobre la responsabilidad de los intermediarios, que abarcan un espectro que va desde la responsabilidad objetiva en un extremo hasta la inmunidad casi total en el otro. Comprender este espectro es esencial para comprender por qué las plataformas se comportan de forma diferente en distintas jurisdicciones y por qué el contenido que sigue siendo accesible en un país puede ser eliminado rápidamente en otro.

En cuanto a la responsabilidad objetiva, algunas propuestas exigirían a las plataformas implementar filtros de subida u otras medidas proactivas para detectar y bloquear contenido ilegal incluso antes de que aparezca. Este enfoque trata a los intermediarios prácticamente como editores, responsables de todo lo que pasa por sus sistemas. El efecto práctico es impulsar a las plataformas hacia un filtrado automatizado agresivo, con los inevitables falsos positivos que afectan al contenido legal. Siguiendo este proceso, la responsabilidad basada en la culpa responsabiliza a los intermediarios cuando han sido negligentes al responder a los problemas; por ejemplo, cuando un proveedor de alojamiento demora injustificadamente la respuesta a una queja válida. La responsabilidad basada en el conocimiento, el modelo subyacente tanto a la Directiva de Comercio Electrónico de la UE como a la DSA, genera responsabilidad solo después de que el intermediario tenga conocimiento real del contenido ilegal, normalmente a través de una notificación de un usuario o autoridad, y no actúe con prontitud.

El modelo judicial prioriza aún más el debido proceso, exigiendo órdenes judiciales antes de que los intermediarios actúen. El Marco Civil da Internet de Brasil, promulgado como Ley n.º 12.965 en 2014, ejemplifica este enfoque para numerosas categorías de contenido, exigiendo órdenes judiciales, en lugar de simples notificaciones privadas, para que las plataformas incurran en responsabilidad por la mayoría del material, salvo imágenes íntimas no consensuadas. En el otro extremo del espectro, el modelo de inmunidad amplia, ejemplificado por la Sección 230 de EE. UU., ofrece una amplia protección a las plataformas que alojan contenido de terceros, y la responsabilidad solo se aplica en excepciones legales limitadas para áreas como el derecho penal federal, la propiedad intelectual y ciertas violaciones de la privacidad.

Decisiones judiciales históricas han moldeado el funcionamiento práctico de estos modelos. En Argentina, la Corte Suprema abordó la responsabilidad de los motores de búsqueda por enlazar a contenido difamatorio, estableciendo parámetros que determinan cuándo la mera indexación genera responsabilidad. La decisión de la Corte Suprema de la India en el caso Shreya Singhal contra la Unión de la India en 2015 redujo significativamente el alcance de la responsabilidad de los intermediarios en virtud de la Ley de Tecnología de la Información (IT Act) al aclarar que el conocimiento real requiere una orden judicial o una notificación gubernamental, no simplemente quejas de los usuarios. La decisión del Tribunal de Justicia de la Unión Europea de 2014 en el caso Google España contra la AEPD estableció el "derecho al olvido" en los resultados de búsqueda, exigiendo a los motores de búsqueda que eliminen cierta información personal si se les solicita, una sentencia con profundas implicaciones para la forma en que los intermediarios equilibran el acceso a la información con la privacidad individual. Cada una de estas decisiones ilustra cómo los tribunales interpretan y perfeccionan los marcos legales creados por los legisladores.

Instantáneas regionales: Europa, India, América Latina, Sudeste Asiático

El enfoque de la Unión Europea sobre la responsabilidad de los intermediarios ha evolucionado significativamente a lo largo de dos décadas. La Directiva sobre el Comercio Electrónico estableció los principios fundamentales de puerto seguro en el año 2000, pero una serie de sentencias del Tribunal de Justicia fueron aclarando y, en ocasiones, ampliando progresivamente las responsabilidades de las plataformas. En el caso L'Oréal contra eBay de 2011, el Tribunal sostuvo que, si bien eBay disfrutaba de la protección del alojamiento, podía estar obligada a adoptar medidas para prevenir futuras infracciones una vez notificadas infracciones específicas. La sentencia de 2014 en el caso Google España creó nuevas obligaciones para los motores de búsqueda en materia de datos personales. Estas sentencias sentaron las bases para la reforma integral que representa la Ley de Servicios Digitales, que entró en vigor en noviembre de 2022 y se convirtió en plenamente aplicable en toda la UE a partir del 17 de febrero de 2024. La Ley de Servicios Digitales (DSA) preserva los principios fundamentales de puerto seguro, a la vez que incorpora nuevas e importantes obligaciones de transparencia y diligencia debida, especialmente para las plataformas más grandes.

El régimen de responsabilidad de intermediarios de la India combina disposiciones legales con una influyente interpretación judicial. El artículo 79 de la Ley de Tecnologías de la Información otorga inmunidad condicional a los intermediarios, pero el alcance de dicha protección ha sido determinado por decisiones judiciales. La sentencia Shreya Singhal de 2015 del Tribunal Supremo anuló el vago artículo 66A, que penalizaba el contenido ofensivo en línea, y aclaró que la responsabilidad de los intermediarios en virtud del artículo 79 requiere conocimiento efectivo a través de mecanismos específicos —principalmente órdenes judiciales o notificaciones gubernamentales—, en lugar de meras quejas de los usuarios. Las Normas de TI de 2021 introdujeron obligaciones adicionales, como plazos de retirada acelerados, requisitos para identificar a los primeros autores de ciertos mensajes y el nombramiento de responsables de quejas, aunque estas normas han enfrentado continuos desafíos legales en cuanto a su compatibilidad con los derechos fundamentales.

Los enfoques en Latinoamérica varían, pero a menudo enfatizan la intervención judicial en las decisiones sobre contenido. Los tribunales argentinos han abordado ampliamente la responsabilidad de los motores de búsqueda, y la Corte Suprema estableció que, en general, estos no son responsables del contenido de terceros, pero pueden asumir responsabilidad en circunstancias específicas que impliquen conocimiento real e inacción. El Marco Civil da Internet de Brasil exige órdenes judiciales para la mayoría de las eliminaciones de contenido, lo que refleja una decisión deliberada de colocar a los jueces, en lugar de a las plataformas privadas, en la posición de determinar qué discurso es ilegal, aunque existen procedimientos acelerados para imágenes íntimas no consensuadas y otras categorías de alto riesgo.

El Sudeste Asiático presenta un panorama más fragmentado, con algunas jurisdicciones que implementan enfoques agresivos para la rendición de cuentas de las plataformas, lo que genera preocupación por el impacto en la libertad de expresión. En 2023, el regulador de comunicaciones de Malasia, MCMC, amenazó con tomar medidas contra Meta por lo que las autoridades calificaron de contenido dañino, lo que ilustra cómo la presión gubernamental sobre los intermediarios puede generar efectos intimidatorios sobre la expresión legítima. Dinámicas similares se han observado en toda la región, con distintos grados de protección procesal para las plataformas y los usuarios. Estas diferencias regionales contribuyen a la aparición de un conjunto global de herramientas de enfoques regulatorios, en el que los legisladores recurren cada vez más a la experiencia comparada para diseñar o reformar sus propios marcos.

Responsabilidad de los intermediarios en la UE: de la Directiva sobre comercio electrónico a la Ley de Servicios Digitales (DSA)

La evolución de la Unión Europea desde la Directiva de Comercio Electrónico hasta la Ley de Servicios Digitales representa una de las evoluciones más significativas en el derecho de responsabilidad de los intermediarios a nivel mundial. Cuando se adoptó la Directiva de Comercio Electrónico en junio de 2000, el internet comercial era aún relativamente joven: Facebook no se fundaría hasta cuatro años después, YouTube hasta cinco, y la revolución de los teléfonos inteligentes estaba a casi una década de distancia. La Directiva estableció un marco viable para su época, creando puertos seguros para los servicios de transmisión, almacenamiento en caché y alojamiento de datos que se mantendrían prácticamente sin cambios durante dos décadas.

A finales de la década de 2010, se hizo evidente que el marco del año 2000 era insuficiente para la economía de plataformas emergente. Los gigantes de las redes sociales procesaban miles de millones de publicaciones a diario, los mercados en línea conectaban a millones de vendedores con consumidores a través de las fronteras, y la escala de contenido, tanto beneficioso como perjudicial, se había disparado más allá de lo previsto por los legisladores originales. La Comisión Europea propuso la Ley de Servicios Digitales en diciembre de 2020, iniciando un intenso proceso legislativo que reestructuraría la regulación de las plataformas para la próxima década.

El proceso de tramitación de la DSA en las instituciones de la UE fue relativamente rápido, según los estándares de Bruselas. Se alcanzó un acuerdo político en abril de 2022, el Parlamento Europeo adoptó formalmente el reglamento el 5 de julio de 2022 y el Consejo completó el proceso legislativo ese mismo año. El reglamento entró en vigor en noviembre de 2022, y las plataformas en línea de gran tamaño (MUPL) y los motores de búsqueda en línea de gran tamaño (MUML) —aquellos con más de 45 millones de usuarios activos mensuales en la UE— se enfrentaron a obligaciones de cumplimiento a partir de finales de 2023. El reglamento completo entró en vigor para todos los servicios cubiertos a partir del 17 de febrero de 2024.

Fundamentalmente, la DSA no abandona el modelo de puerto seguro establecido por la Directiva de Comercio Electrónico. Más bien, preserva las protecciones básicas de responsabilidad, a la vez que añade obligaciones escalonadas que aumentan según el tamaño, el alcance y el potencial de impacto social del servicio. Para las plataformas, esto significa que el acuerdo básico se mantiene: actuar responsablemente al ser notificados de contenido ilícito y conservar la exención de responsabilidad. Sin embargo, "actuar responsablemente" ahora abarca un conjunto de requisitos de procedimiento y transparencia mucho más detallados que los que existían en el marco del año 2000.

Disposiciones clave sobre responsabilidad y puerto seguro de la DSA

La DSA mantiene la estructura de puerto seguro de tres niveles, propia de la Directiva sobre Comercio Electrónico, lo que proporciona una importante continuidad a los proveedores de servicios. Los servicios de simple canalización —aquellos que simplemente transmiten información o proporcionan acceso a una red de comunicación— conservan la inmunidad en virtud del Artículo 4 para el contenido que no inician, ni seleccionan al receptor, ni modifican. Los servicios de almacenamiento en caché, que almacenan información temporal y automáticamente para optimizar la transmisión posterior, gozan de protección en virtud del Artículo 5, siempre que cumplan las condiciones de acceso y precisión del contenido. Los proveedores de alojamiento, incluidas las plataformas que se han convertido en un elemento central de la comunicación en línea, están protegidos por el Artículo 6 cuando desconocen la existencia de contenido ilícito o actúan con prontitud para eliminar o inhabilitar el acceso a dicho contenido al tener conocimiento de ello.

La DSA aclara de forma importante el estándar de conocimiento real que desencadena la responsabilidad del proveedor de alojamiento. El Artículo 6 especifica que el conocimiento general de la existencia de actividad o contenido ilegal en una plataforma no constituye, por sí solo, un conocimiento real de elementos específicos que requieren acción. Esto evita el argumento de que las plataformas pierden la protección de puerto seguro simplemente porque todos saben que existe contenido ilegal en algún lugar de cualquier servicio importante. Complementariamente, el Artículo 8 confirma que los intermediarios no tienen la obligación general de supervisar el contenido que transmiten o almacenan, ni el deber de buscar activamente hechos o circunstancias que indiquen actividad ilegal, una protección crucial contra los mandatos de vigilancia que transformarían la naturaleza de los servicios en línea.

El reglamento introduce lo que podría denominarse una cláusula del buen samaritano, que aborda una preocupación de larga data en la legislación sobre responsabilidad de intermediarios. Históricamente, las plataformas se han preocupado de que los esfuerzos voluntarios para detectar y eliminar contenido ilegal pudieran considerarse como intervención editorial, lo que podría socavar su protección de puerto seguro. La DSA aborda este problema aclarando que los esfuerzos de buena fe para identificar, investigar y eliminar contenido ilegal no implican automáticamente la pérdida de la protección de responsabilidad. Esto fomenta la moderación responsable del contenido sin penalizar a las plataformas por esforzarse al máximo para mantener sus servicios limpios.

La DSA también aborda específicamente los mercados en línea, reconociendo que estas plataformas ocupan una posición compleja entre el mero alojamiento y la participación comercial directa. Cuando plataformas como Amazon Marketplace o AliExpress se presentan como el comerciante, controlan elementos clave de la transacción, como el precio o la entrega, o dan a los consumidores promedio la impresión de que están tratando con la plataforma en lugar de con un vendedor externo, pueden perder el beneficio de la responsabilidad limitada y recibir un trato más similar al de los propios vendedores. Esta disposición responde a la preocupación en materia de protección del consumidor por la llegada de productos falsificados e inseguros a los consumidores europeos a través de plataformas de mercado.

Nuevas obligaciones para plataformas, VLOP y VLOSE

Además de preservar las salvaguardias, la DSA crea un conjunto sin precedentes de obligaciones afirmativas para las plataformas en línea, cuyos requisitos se incrementan según el tamaño del servicio y su posible impacto. Todas las plataformas deben implementar mecanismos intuitivos para denunciar contenido ilegal, facilitando a los usuarios la denuncia del contenido ilegal que encuentren. Cuando las plataformas eliminan contenido o restringen cuentas, deben proporcionar explicaciones claras de los motivos de sus decisiones. Los informes periódicos de transparencia deben detallar las actividades de moderación de contenido, incluyendo el uso de herramientas automatizadas, el volumen de quejas y los resultados de las decisiones.

Para las Plataformas y los Motores de Búsqueda en Línea de Gran Tamaño (VLOPs) —aquellos designados por la Comisión Europea con al menos 45 millones de usuarios activos mensuales en la UE—, las obligaciones se vuelven considerablemente más exigentes. La Comisión designó el primer tramo de VLOPs y VLOSes en 2023, incluyendo servicios como Facebook, YouTube, TikTok, Amazon, Google Search y Bing. Estos servicios deben realizar evaluaciones exhaustivas de riesgos sistémicos que examinen cómo su diseño, algoritmos y prácticas de moderación pueden afectar a cuestiones como la desinformación, los derechos fundamentales, la integridad electoral, la violencia de género y la protección de menores.

Las evaluaciones de riesgos deben dar lugar a medidas de mitigación razonables y proporcionadas, que podrían incluir cambios en los algoritmos de recomendación, los sistemas de publicidad, el diseño de la interfaz o las condiciones de servicio. Los VLOP y VLOSE deben someterse a auditorías anuales independientes que verifiquen su cumplimiento y publicar los informes de auditoría. También deben proporcionar una transparencia significativa sobre sus sistemas de recomendación (los algoritmos que determinan el contenido que ven los usuarios) y otorgar acceso a datos relevantes a investigadores y organismos reguladores que investiguen problemas sistémicos.

El cumplimiento de estas obligaciones recae en los Coordinadores Nacionales de Servicios Digitales de cada Estado miembro, mientras que la Comisión Europea ejerce la supervisión directa sobre los VLOP y los VLOSE. Hay mucho en juego: las plataformas pueden enfrentarse a multas de hasta el seis por ciento de su facturación anual global por infracciones graves, con sanciones periódicas por incumplimiento continuado. El reglamento también crea derechos para los usuarios, incluyendo la posibilidad de reclamar indemnizaciones por los daños causados ​​por las infracciones de las plataformas, un importante mecanismo de rendición de cuentas que va más allá de la aplicación de la normativa. Las principales empresas tecnológicas comenzaron a adaptar sus programas de cumplimiento a lo largo de 2022 y 2023, poniendo en marcha nuevos centros de transparencia, actualizando las condiciones de servicio e implementando controles para que los sistemas de recomendación cumplan con los plazos de la DSA.

Difusión no consentida de imágenes íntimas y otros contenidos altamente nocivos

No todos los daños en línea son iguales, y los marcos regulatorios reconocen cada vez más que ciertas categorías de contenido requieren un tratamiento excepcional. La difusión no consentida de imágenes íntimas —comúnmente conocida como NCII o "porno de venganza"— ejemplifica contenido que, según tribunales y legisladores, requiere reparaciones rápidas y efectivas debido al daño grave y, a menudo, irreversible que causa a las víctimas. La privacidad, la dignidad, el bienestar psicológico y la seguridad física pueden verse comprometidos cuando se comparten imágenes íntimas sin consentimiento, a menudo como arma de acoso, coerción o represalia.

Los tribunales de diversas jurisdicciones han desarrollado procedimientos acelerados para abordar la NCII precisamente porque los plazos tradicionales de notificación y retirada pueden resultar insuficientes. En Norteamérica, Europa y Asia, los jueces suelen ordenar a los motores de búsqueda y servicios de alojamiento que eliminen o inhabiliten el acceso a dicho contenido en cuestión de horas o días tras recibir las denuncias. Estas órdenes suelen preceder a las audiencias contenciosas completas, lo que refleja la evaluación judicial de que el perjuicio causado por la demora supera los costes procesales de actuar con información incompleta. Una urgencia similar caracteriza las respuestas al material de abuso sexual infantil, las amenazas violentas directas y la clara incitación a la violencia inminente.

Este trato excepcional genera inevitables tensiones con el marco general de responsabilidad de intermediarios. Es comprensible que las víctimas exijan medidas rápidas e integrales, incluyendo la eliminación de todas las plataformas donde el contenido pueda haberse difundido y la eliminación de los resultados de búsqueda. Sin embargo, órdenes demasiado amplias o imprecisas pueden impulsar a las plataformas a una eliminación excesiva, lo que podría afectar la información de interés periodístico, la expresión artística o el contenido que superficialmente se asemeja al material denunciado, pero que no lo es en realidad. El reto reside en elaborar soluciones eficaces que no se conviertan en herramientas de censura o acoso a los críticos.

Los marcos modernos abordan el abuso de imágenes (NCII) mediante diversos mecanismos que equilibran la velocidad con las medidas de seguridad adecuadas. Los sistemas de notificación y retirada suelen incluir canales prioritarios para denuncias de imágenes íntimas, con procesos de revisión acelerados y personal especializado. Los programas de alertadores de confianza permiten a las organizaciones verificadas con experiencia en abuso de imágenes escalar las denuncias para una acción más rápida. Los protocolos de las fuerzas del orden facilitan la coordinación con la policía en casos de conducta delictiva. Quizás lo más significativo es que las principales plataformas han adoptado tecnologías de hash que crean huellas digitales de NCII conocidas, lo que permite la detección automatizada y la prevención de la resubida de contenido. Si bien la implementación debe respetar las normas de protección de datos y evitar falsos positivos.

En el caso de la NCII, el material de abuso sexual infantil y daños igualmente graves, muchos defensores y legisladores aceptan salvaguardias más limitadas y plazos de respuesta obligatorios más breves de lo que sería apropiado para quejas generales sobre contenido ofensivo o simplemente desagradable. Sin embargo, incluso en estas categorías excepcionales, las mejores prácticas mantienen los requisitos de supervisión judicial de las órdenes contenciosas, registros de transparencia que documenten las medidas adoptadas y recursos efectivos para las personas cuyo contenido se elimina indebidamente.

Responsabilidad de intermediarios y regulación de contenidos: tendencias políticas y debates recientes

La responsabilidad de los intermediarios ha pasado de ser un tema relativamente técnico del derecho de internet al centro de los debates globales sobre gobernanza digital. Este cambio se aceleró alrededor de 2018, impulsado por escándalos de gran repercusión mediática relacionados con la amplificación de la desinformación por parte de las plataformas, la evidencia de interferencia extranjera en las elecciones, la preocupación por el acoso en línea y sus efectos en el discurso público, y la creciente inquietud por la concentración de poder en un pequeño número de empresas tecnológicas. Los gobiernos que habían dejado en gran medida que las plataformas se autorregularan comenzaron a implementar estrategias regulatorias más asertivas.

Las reformas contemporáneas persiguen varios objetivos políticos interrelacionados. Buscan aumentar la responsabilidad de las plataformas por el contenido ilegal y los riesgos sistémicos que sus servicios puedan crear o exacerbar. Buscan preservar el espacio para la expresión legal y la innovación continua en los servicios digitales. Además, buscan garantizar que las decisiones sobre el contenido que afectan a los usuarios estén sujetas a la transparencia, el debido proceso y recursos efectivos. Equilibrar estos objetivos ha resultado difícil, ya que las distintas jurisdicciones han alcanzado diferentes compromisos en función de sus tradiciones jurídicas, circunstancias políticas y evaluaciones de los daños más apremiantes.

El panorama regulatorio se ha vuelto notablemente complejo. La Ley de Servicios Digitales de la UE representa el esfuerzo más exhaustivo hasta la fecha, pero se complementa con instrumentos relacionados, como la Ley de Mercados Digitales, que aborda la competencia entre plataformas, la Ley de Gobernanza de Datos, los requisitos de ciberseguridad de la NIS2 y la emergente Ley de Inteligencia Artificial. El Reino Unido promulgó su Ley de Seguridad en Línea, sucesora del Proyecto de Ley de Seguridad en Línea presentado en mayo de 2022, que establece un marco de responsabilidad social, con Ofcom desarrollando códigos de práctica detallados. En Estados Unidos, la Sección 230 se enfrenta al escrutinio continuo del Congreso, con propuestas de ambos partidos para modificar sus protecciones, aunque ninguna reforma ha logrado aún el consenso suficiente para su aprobación. Las iniciativas regionales incluyen el borrador de las Directrices de la ASEAN sobre la Gobernanza de las Plataformas Digitales y recomendaciones de organizaciones como la Iniciativa de Red Global, que enfatizan enfoques respetuosos con los derechos para la rendición de cuentas de las plataformas.

Una tendencia notable en estos marcos es la transición de decisiones puramente reactivas, enfocadas en cada contenido, a una gobernanza sistémica. Mientras que las anteriores normas de responsabilidad de los intermediarios se centraban principalmente en si una plataforma respondía adecuadamente a las solicitudes individuales de retirada, enfoques más recientes, como la DSA, exigen evaluaciones de riesgos, transparencia algorítmica, acceso de investigadores y auditorías independientes que examinan cómo las decisiones de diseño de la plataforma afectan a la sociedad a gran escala. Esto no reemplaza el marco tradicional de puerto seguro —la acción rápida contra el contenido ilegal sigue siendo fundamental—, sino que añade un nivel de gobernanza que aborda las causas del daño, en lugar de solo sus síntomas.

“Caja de herramientas” regulatoria: alcance, conocimiento y diseño de notificación y acción

Los responsables políticos que diseñan regímenes de responsabilidad de intermediarios disponen de numerosos parámetros ajustables, una especie de conjunto de herramientas regulatorias que pueden producir resultados muy diferentes según la configuración de los elementos. Comprender estas decisiones de diseño ayuda a explicar por qué las plataformas enfrentan obligaciones tan diferentes en distintas jurisdicciones y por qué los debates sobre disposiciones legales aparentemente técnicas pueden tener importantes implicaciones para la libertad de expresión en línea.

El alcance determina qué servicios se incluyen en un marco regulatorio. Algunos regímenes cubren únicamente a los proveedores tradicionales de alojamiento y acceso, mientras que otros se extienden a motores de búsqueda, plataformas de redes sociales, servicios de mensajería, tiendas de aplicaciones y mercados en línea. La DSA, por ejemplo, se aplica a una amplia gama de servicios de la sociedad de la información, pero impone sus obligaciones más exigentes solo a plataformas muy grandes. Las decisiones sobre el alcance también determinan si la selección, clasificación o recomendación algorítmica de contenido modifica la situación de responsabilidad de un proveedor. Según la Sección 230 de EE. UU., las plataformas generalmente conservan inmunidad incluso cuando seleccionan o recomiendan activamente la expresión de terceros. Por el contrario, bajo la DSA, una plataforma que se integra demasiado en las transacciones puede perder su defensa de alojamiento y ser tratada como participante directo.

El estándar de conocimiento define qué desencadena la obligación de una plataforma de actuar. Algunos regímenes aceptan cualquier notificación a un usuario como generadora de conocimiento real, lo que podría facilitar el abuso por parte de denunciantes de mala fe que buscan suprimir contenido legítimo. Otros exigen órdenes judiciales formales o notificaciones gubernamentales, lo que ofrece mayor protección del debido proceso, pero podría ralentizar la respuesta ante daños reales. El enfoque de la UE distingue entre el conocimiento general de la existencia de una actividad ilegal —que no invalida la salvaguardia— y el conocimiento real de contenido ilegal específico que requiere acción.

Los sistemas de notificación y acción determinan los requisitos procesales para las quejas y respuestas. Las variables clave incluyen la información requerida en las notificaciones, los plazos de respuesta (algunos marcos exigen una acción en un plazo de 24 o 36 horas para contenido grave), los procedimientos de contranotificación que permiten a los usuarios afectados impugnar las eliminaciones y los mecanismos de reclamación para los usuarios insatisfechos con las decisiones de la plataforma. Los sistemas bien diseñados incluyen salvaguardas contra el uso indebido, como sanciones por notificaciones manifiestamente infundadas presentadas para acosar a los críticos o suprimir la competencia.

Las consecuencias de decisiones de diseño mal calibradas pueden ser graves. La vaguedad de los estándares sobre qué constituye contenido ilegal, junto con plazos de respuesta cortos y una importante exposición a responsabilidades, conduce previsiblemente a una eliminación excesiva, ya que las plataformas tienden a ser precavidas. Por el contrario, los requisitos procesales excesivos antes de tomar cualquier medida pueden dejar a las víctimas reales sin recursos efectivos. El reto reside en diseñar marcos que permitan una respuesta rápida ante la ilegalidad manifiesta, preservando al mismo tiempo el espacio para la expresión dudosa, controvertida o, en última instancia, legal.

Direcciones futuras: equilibrar la innovación, los derechos y la aplicación de la ley

Los marcos de responsabilidad de los intermediarios establecidos en los últimos años se enfrentarán a importantes desafíos a medida que la tecnología siga evolucionando. Las tecnologías emergentes plantean nuevos desafíos que las normas existentes abordan de forma imperfecta o nula, y los reguladores deben sopesar la necesidad de actualizar los marcos jurídicos frente a los riesgos de frenar la innovación beneficiosa o de crear una infraestructura de vigilancia incompatible con los derechos humanos.

La inteligencia artificial generativa, que se popularizó alrededor de 2022 con sistemas como ChatGPT y generadores de imágenes, plantea preguntas particularmente complejas. Cuando los sistemas de IA sintetizan contenido difamatorio, que infringe derechos de autor o constituye material ilegal, el análisis tradicional de responsabilidad de los intermediarios tiene dificultades para identificar a la parte responsable. ¿Es responsable el desarrollador de IA, la plataforma que aloja el servicio de IA, el usuario que generó el resultado o alguna combinación de ambos? Los marcos existentes generalmente asumen que el creador del contenido es humano, una suposición que la IA generativa altera. Los reguladores están empezando a abordar estas cuestiones (la Ley de IA de la UE incluye disposiciones relevantes para los sistemas generativos), pero aún se están desarrollando enfoques coherentes.

Los servicios de mensajería cifrada presentan un desafío diferente. Un cifrado robusto protege la privacidad, asegura las comunicaciones contra delincuentes y gobiernos autoritarios, y permite a periodistas y activistas trabajar con seguridad. Sin embargo, las mismas propiedades que protegen a los usuarios legítimos también impiden la detección de actividades ilegales. Las propuestas de análisis del lado del cliente (examinar el contenido en los dispositivos del usuario antes del cifrado) han resultado muy controvertidas, y los críticos argumentan que socavan fundamentalmente las garantías de seguridad del cifrado y crean una infraestructura susceptible al abuso gubernamental. Encontrar enfoques regulatorios que aborden las necesidades reales de las fuerzas del orden sin comprometer la privacidad sigue siendo un problema sin resolver.

Los servicios descentralizados y federados añaden una capa adicional de complejidad. Plataformas como Mastodon operan en redes de servidores administrados de forma independiente, sin un único operador central responsable del contenido. La responsabilidad tradicional de los intermediarios presupone un intermediario identificable con obligaciones; las arquitecturas federadas distribuyen esa función entre múltiples partes, cada una potencialmente en diferentes jurisdicciones con distintos requisitos legales. Si los marcos regulatorios existentes pueden abordar eficazmente estos servicios o si se necesitan nuevos enfoques, sigue siendo una incógnita.

A pesar de estos desafíos, ciertas buenas prácticas parecen claras. Los marcos de puerto seguro han demostrado ser esenciales para el funcionamiento de internet y deben mantenerse y perfeccionarse, en lugar de abandonarse. La transparencia, la rendición de cuentas y el empoderamiento del usuario —incluyendo derechos de apelación significativos y la explicación de las decisiones sobre el contenido— favorecen tanto los intereses de la libertad de expresión como la legitimidad de las plataformas. La inversión en acceso a investigaciones independientes y en evaluaciones sistemáticas de impacto ofrece enfoques más sostenibles que los regímenes de retirada puramente reactivos. La responsabilidad de los intermediarios seguirá siendo un elemento central de la gobernanza digital en el futuro previsible, y unos marcos coherentes y respetuosos con los derechos son esenciales para mantener una internet sana y abierta que sirva a la diversidad de usuarios del mundo.


Ingresa en

¿Ha olvidado su contraseña?

¿Aún no tienes una cuenta?
Crear una cuenta