Nuevo: Ruta de aprendizaje sobre la gobernanza del daño digital Más información aquí.

Cómo los reguladores equilibran la libertad de expresión y la seguridad en línea

  • , por Paul Waite
  • 18 Tiempo mínimo de lectura

Los gobiernos del Reino Unido, la UE, EE. UU. y otros países están reescribiendo rápidamente las reglas del mundo digital para combatir el discurso de odio, la desinformación y la seguridad infantil, sin socavar la libertad de expresión que sustenta el debate democrático. Entre 2021 y 2024, leyes históricas como la Ley de Seguridad Digital del Reino Unido y la Ley de Servicios Digitales de la UE han transferido fundamentalmente el poder y la responsabilidad a las plataformas de redes sociales, los servicios de búsqueda y otros servicios en línea. Las tensiones son reales e inmediatas: desde la rápida eliminación de contenido extremista tras el atentado de Christchurch en 2019, pasando por los acalorados debates sobre la desinformación sobre la COVID-19 entre 2020 y 2022, hasta las continuas batallas contra las campañas de propaganda de la guerra de Ucrania posteriores a 2022. Este artículo examina cómo los reguladores intentan equilibrar derechos y riesgos mediante herramientas legales específicas, modelos de aplicación y mecanismos de supervisión, y lo que esto significa para los usuarios, las plataformas y el futuro de la comunicación digital.

Fundamentos jurídicos globales: cómo se protege y limita la libertad de expresión en línea

Las diferentes tradiciones constitucionales determinan hasta qué punto los reguladores pueden influir en la regulación de la libertad de expresión en línea. En Estados Unidos, la Primera Enmienda crea sólidas protecciones contra la censura gubernamental, mientras que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 exime a las plataformas digitales de la mayor parte de la responsabilidad por el contenido de los usuarios. Esta combinación dificulta que los legisladores estadounidenses impongan las amplias obligaciones de moderación de contenido que se observan en otros lugares. Los importantes debates de 2016 a 2024 —incluyendo las prohibiciones de cuentas de Trump, las controversias sobre la desinformación sobre la COVID-19 y casos impactantes como el de Missouri contra Biden, donde los críticos alegaron presiones gubernamentales sobre las empresas tecnológicas— ilustran la profunda desconfianza del panorama jurídico estadounidense respecto a la participación del Estado en las decisiones sobre el contenido en línea.

El modelo europeo funciona de forma diferente. El artículo 10 del Convenio Europeo de Derechos Humanos (CEDH) protege la libertad de expresión, pero permite explícitamente las restricciones que son «necesarias en una sociedad democrática», por ejemplo, para proteger la reputación ajena, la seguridad nacional o la seguridad pública. Este marco otorga a los reguladores europeos mayor margen para imponer obligaciones legales a las plataformas, siempre que dichas medidas sean proporcionadas y persigan fines legítimos.

Las normas internacionales de derechos humanos también orientan cada vez más las expectativas. Los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos (2011) y los informes posteriores del ACNUDH de 2018 a 2023 sobre el discurso de odio en línea han impulsado la idea de que las empresas tecnológicas tienen la responsabilidad de respetar los derechos fundamentales, incluso cuando las leyes nacionales no los mencionan. Estos principios ahora orientan cómo los reguladores diseñan sus marcos legales y cómo las plataformas justifican sus prácticas de moderación de contenido ante una audiencia global.

Marcos regulatorios clave: desde la Ley de Seguridad en Línea del Reino Unido hasta la Ley de Seguridad Digital de la UE

Entre 2022 y 2024 se aprobaron las primeras leyes integrales de regulación de sistemas para la libertad de expresión en línea, especialmente en el Reino Unido y la UE. Estas leyes representan un nuevo enfoque legislativo: en lugar de centrarse en contenidos ilegales individuales, los reguladores ahora exigen a las plataformas que creen sistemas proporcionados que aborden los riesgos a gran escala.

Ley de seguridad en línea del Reino Unido de 2023

Aprobada en octubre de 2023, con una implementación gradual liderada por Ofcom mediante consultas que se extenderán hasta 2024-2025, la Ley de Seguridad en Línea se aplica a los servicios de usuario a usuario y a los motores de búsqueda. Las obligaciones más estrictas recaen sobre los servicios de "Categoría 1", aquellos con la mayor base de usuarios en el Reino Unido y las características de mayor riesgo.

Los requisitos clave incluyen:

  • Realización de evaluaciones de riesgos de contenidos ilegales y dañinos

  • Implementar sistemas de moderación de contenido para eliminar rápidamente contenido ilegal

  • Protecciones especiales para niños en línea, incluida la verificación de edad y la protección de los menores contra discursos dañinos.

  • Obligaciones de proteger a los usuarios de contenidos que puedan causar un daño significativo

Fundamentalmente, la Ley busca explícitamente equilibrar la seguridad con la libertad de expresión. Impone a los servicios la obligación de respetar los derechos de los usuarios a la libertad de expresión y la privacidad, protege el contenido de importancia democrática y salvaguarda el contenido de los medios de comunicación reconocidos. El objetivo son medidas proporcionadas y específicas, no una censura generalizada.

La Ley de Servicios Digitales de la UE

La Ley de Servicios Digitales entró en vigor para las Plataformas en Línea de Gran Tamaño (VLOP) y los Motores de Búsqueda en Línea de Gran Tamaño (VLOSE) el 25 de agosto de 2023, y se aplicará plenamente en toda la UE a partir del 17 de febrero de 2024. Introduce obligaciones de diligencia debida que van mucho más allá de las normas europeas anteriores:

Requisito

Objetivo

Evaluaciones de riesgos anuales

Identificar riesgos sistémicos derivados del diseño y el contenido de la plataforma

Planes de mitigación

Abordar los riesgos identificados de forma proporcional

Auditorías independientes

Verificar el cumplimiento de los deberes legales

Acceso a los datos de los investigadores

Permitir el estudio independiente de los daños de las plataformas

Informes de transparencia

Responsabilidad pública sobre la moderación de contenidos

La DSA exige a las plataformas que eliminen rápidamente el contenido ilegal (como la incitación a la violencia según las leyes nacionales) una vez notificado, a la vez que exige transparencia y derechos de apelación para los usuarios cuyo contenido sea eliminado. Las plataformas deben explicar sus sistemas de recomendación algorítmica y aplicar las condiciones de servicio de forma coherente.

Enfoques comparativos

Los modelos europeos anteriores se centraron más en la retirada. La NetzDG alemana (2017) exigía la retirada rápida de contenido manifiestamente ilícito, mientras que la Ley Avia francesa fue parcialmente anulada por el Consejo Constitucional en 2020 por amenazar la libertad de expresión. La Ley de Seguridad en Línea australiana de 2021 introdujo "expectativas básicas de seguridad en línea" y requisitos de retirada rápida, en particular para el contenido que involucra a menores.

Estos enfoques variados reflejan una experimentación continua sobre cómo proteger mejor a las personas de contenidos dañinos y al mismo tiempo proteger la libertad de expresión en línea.

¿Quién es responsable? Plataformas, usuarios y nuevos modelos de cumplimiento

Los reguladores están pasando de un derecho penal centrado exclusivamente en el usuario a obligaciones sistémicas que responsabilizan a las empresas privadas por el diseño y la operación de sus servicios. Este cambio hacia la "responsabilidad compartida" cambia quién asume la responsabilidad de mantener la seguridad en los espacios en línea.

Deberes y sanciones de la plataforma

Según la Ley de Seguridad en Línea del Reino Unido, los servicios se enfrentan a multas de hasta el 10 % de sus ingresos anuales globales por incumplimiento grave. Ofcom puede emitir avisos informativos, exigir cambios en los sistemas y, en casos extremos, solicitar órdenes judiciales para bloquear el acceso a servicios que incumplan la normativa en el Reino Unido.

El régimen de cumplimiento de la UE es igualmente sólido. La Comisión Europea puede multar a las VLOP y VLOSE hasta el 6 % de su facturación mundial y exigir cambios rápidos en los sistemas cuando las evaluaciones de riesgos revelen problemas. Estas no son facultades teóricas: la DSA se diseñó para implementarse plenamente y con fuerza.

Responsabilidad individual del usuario

El derecho penal sigue aplicándose a quienes publican contenido ilegal. En el Reino Unido, la Ley de Comunicaciones de 2003 (artículo 127) y la Ley de Comunicaciones Maliciosas de 1988 tipifican como delito ciertas formas de incitación al odio y acoso en línea. Se están llevando a cabo reformas para garantizar que estas disposiciones se adapten a la era digital.

En todos los Estados miembros de la UE, las disposiciones penales contra la incitación a la violencia o al odio, derivadas de la Decisión Marco de la UE de 2008, se utilizan para perseguir casos atroces en línea. El umbral penal para el procesamiento sigue siendo alto, pero los usuarios pueden sufrir graves perjuicios por cargos de actividad delictiva.

Aumentar la aplicación de la ley sin penalizar excesivamente

Los reguladores están explorando nuevas herramientas para ampliar la aplicación de la ley, respetando al mismo tiempo las preocupaciones sobre la privacidad y evitando la criminalización de infracciones menores:

  • Multas administrativas y sistemas de notificación y sanción para los abusadores reincidentes

  • Políticas de la plataforma de "tres strikes" vinculadas a la verificación de identidad, diseñadas dentro de las normas de protección de datos como el RGPD

  • Requisitos para que las plataformas informen sobre determinadas categorías de daños graves a las fuerzas del orden

Entre los ejemplos institucionales se incluyen Ofcom, el regulador central del Reino Unido, y los Coordinadores Nacionales de Servicios Digitales de cada Estado miembro de la UE, que colaboran con la Comisión Europea en el marco de la Ley de Servicios Digitales (DSA). Estos otros reguladores se coordinan transfronterizamente para garantizar la aplicación uniforme de las normas a las plataformas globales.

Salvaguardar la libertad de expresión: medidas de protección contra la eliminación excesiva

Los reguladores ahora incorporan explícitamente salvaguardas a la libertad de expresión en las leyes de seguridad, en respuesta a temores fundados de censura excesiva y abuso político. El riesgo no es hipotético: la moderación de contenido a escala global inevitablemente atrapa opiniones legítimas y contenido legal en sus redes.

Protecciones de la Ley de Seguridad en Línea del Reino Unido

La OSA exige que los servicios tengan en cuenta los derechos de los usuarios a la libertad de expresión y la privacidad, fundamentando estos deberes en la Ley de Derechos Humanos de 1998 y el artículo 10 del CEDH. Las protecciones específicas incluyen:

  • Salvaguardias para contenidos de importancia democrática

  • Protecciones para el contenido de editores de noticias reconocidos

  • Requisitos para una moderación proporcionada y específica en lugar de un filtrado demasiado amplio

  • Transparencia sobre cómo se toman las decisiones de moderación

Estas disposiciones tienen como objetivo garantizar que las plataformas no sacrifiquen el discurso público en aras de la seguridad.

Derechos de usuario de DSA

La Ley de Servicios Digitales adopta un enfoque diferente pero complementario:

  • Se debe informar a los usuarios por qué se elimina el contenido o se restringen las cuentas.

  • Deben estar disponibles mecanismos de apelación accesibles

  • Los términos y condiciones deben aplicarse de manera consistente y sin discriminación.

  • Las plataformas deben explicar cómo los sistemas algorítmicos recomiendan contenido

Estas reglas abordan las preocupaciones planteadas sobre sesgo político oculto en la moderación de contenido y brindan a los usuarios recursos cuando creen que se ha suprimido injustamente un discurso legítimo.

La eliminación excesiva en la práctica

Los riesgos de una moderación excesiva están bien documentados. Entre 2017 y 2022, los filtros automatizados contra el extremismo de YouTube y Facebook eliminaron por error documentación sobre derechos humanos y pruebas de crímenes de guerra en Siria, contenido de enorme importancia histórica y legal. Durante los debates sobre la COVID-19 (2020-2022), el debate científico legítimo y el discurso político se vieron en ocasiones atrapados en la represión de la desinformación, incluyendo contenido de investigadores acreditados que cuestionaban la evidencia emergente.

Los tribunales desempeñan un papel crucial en la comprobación de las extralimitaciones. El Tribunal Europeo de Derechos Humanos, en el caso Delfi AS c. Estonia (2015), equilibró la responsabilidad de las plataformas con el derecho de expresión de los usuarios. Los tribunales nacionales de Alemania, Francia y el Reino Unido siguen examinando si las nuevas facultades cumplen los requisitos de proporcionalidad que exige el derecho de los derechos humanos. Las mejores prácticas exigen que los reguladores comprendan el contexto e incorporen mecanismos de revisión.

Tecnología de vanguardia: moderación de IA, cifrado y plataformas descentralizadas

Los reguladores no sólo están redactando legislación primaria, sino que también se enfrentan a las realidades técnicas de las herramientas de IA, el cifrado y las nuevas arquitecturas de red que no encajan perfectamente en los marcos regulatorios tradicionales.

Moderación de contenido impulsada por IA

Plataformas como Facebook, X (anteriormente Twitter), YouTube y TikTok implementan IA a gran escala para escanear miles de millones de publicaciones, imágenes y videos. Esta automatización es esencial (ningún personal humano podría revisar el contenido de los usuarios a este volumen), pero plantea importantes desafíos éticos:

Riesgo

Ejemplo

falsos positivos

Noticias legítimas señaladas como violencia

Sesgo lingüístico

El contenido que no está en inglés se modera con menos precisión

Ceguera cultural

Sátira y contexto perdidos en sistemas automatizados

Falta de transparencia

Los usuarios no pueden entender por qué se eliminó el contenido.

La Ley de Servicios de Inteligencia Artificial (DSA) de la UE y la futura Ley de IA (acuerdo político alcanzado en diciembre de 2023, con aplicación gradual prevista a partir de 2025) exigen transparencia y supervisión humana para los sistemas de IA de alto riesgo. Las plataformas deben explicar cómo funciona la moderación automatizada y proporcionar revisión humana para los cambios significativos que afecten a los usuarios.

El debate sobre el cifrado

El cifrado de extremo a extremo, utilizado por WhatsApp, Signal y otros, protege la privacidad de los datos, pero plantea serias dificultades para detectar contenido ilegal, como material de abuso sexual infantil. La Ley de Poderes de Investigación del Reino Unido de 2016 y los debates sobre la actualización de estos poderes para el período 2023-2024 generaron controversia.

La Ley de Seguridad en Línea incluyó disposiciones que suscitaron preocupación entre los proveedores sobre posibles "puertas traseras" que podrían socavar el cifrado. A finales de 2023, el gobierno del Reino Unido indicó que no impondría un debilitamiento proactivo del cifrado, reservándose la facultad de solicitar acceso en casos específicos y legalmente autorizados. Este delicado acuerdo refleja la tensión entre las preocupaciones por la privacidad y la necesidad de proteger a las personas, en particular a los niños, de daños graves.

Plataformas descentralizadas y federadas

El auge de Mastodon, Bluesky, Matrix y el ecosistema más amplio de ActivityPub después de 2022 refleja la búsqueda de alternativas al control centralizado por parte de los usuarios. Estas plataformas presentan desafíos regulatorios:

  • No existe una única entidad corporativa a la que exigir responsabilidades

  • Normas de moderación fragmentadas en distintas instancias

  • Aplicación más estricta de las normas nacionales a través de las fronteras

Los reguladores están explorando las obligaciones que recaen sobre los "proveedores de servicios" o "administradores" de grandes instancias, respetando al mismo tiempo el carácter comunitario de estas comunidades. El enfoque se está desplazando hacia normas que favorezcan la interoperabilidad, en lugar de centrarse únicamente en empresas tecnológicas individuales.

El camino por delante: hacia un equilibrio sostenible entre derechos y seguridad

A partir de 2024, el debate se centrará en cómo calibrar y corregir estos nuevos regímenes, en lugar de regular las plataformas en línea. Los marcos legislativos de seguridad en línea vigentes solo tendrán éxito si evolucionan con base en la evidencia y rinden cuentas a los públicos a los que sirven.

El equilibrio efectivo dependerá de varios factores:

  • Datos transparentes sobre eliminaciones, apelaciones y tasas de error de las plataformas

  • Participación de la sociedad civil en las consultas de Ofcom y la UE, incluidas las minorías objeto de discursos de odio en línea, periodistas y defensores de los niños.

  • Revisión en curso para determinar si las normas logran sus objetivos sin obstaculizar la libertad de expresión en línea.

Próximos hitos

Las fechas clave a tener en cuenta incluyen:

  • Los códigos de prácticas de varias etapas de Ofcom para la Ley de Seguridad en Línea del Reino Unido se implementarán durante 2024-2025 antes de su aplicación total.

  • Primer ciclo completo anual de evaluación de riesgos y auditoría de la DSA de la UE para VLOP/VLOSE de 2024 a 2025

  • Reglas de respuesta a crisis que se ponen a prueba después de eventos como elecciones o conflictos

  • Se revisa en la etapa de informe si se necesitan cambios significativos en el marco regulatorio

Líneas de falla restantes

Quedan varias preguntas difíciles sin resolver:

  • Cómo manejar contenido “legal pero atroz”: expresiones dañinas que no cruzan el umbral penal pero causan daños reales

  • Gobernanza a largo plazo para la moderación de la IA, incluidas auditorías independientes y cooperación transfronteriza

  • Proteger a los niños en línea sin erosionar la privacidad ni bloquear el acceso a recursos educativos legítimos

  • Garantizar que las protecciones de la libertad de expresión en línea se extiendan a las comunidades marginadas cuyas opiniones pueden ser impopulares

El equilibrio entre derechos y seguridad se renegociará continuamente a medida que la tecnología y la política evolucionen. Los reguladores, las empresas de redes sociales y los usuarios comparten la responsabilidad de mantener las plataformas digitales abiertas y seguras. Ningún marco regulatorio será perfecto: el objetivo es construir sistemas que aprendan, se adapten y rindan cuentas ante la importancia democrática de la libertad de expresión, a la vez que toman en serio los daños reales que pueden causar los espacios en línea sin regulación.

Lograr este equilibrio es fundamental. El mundo digital es ahora inseparable de la vida cívica, las oportunidades económicas y la identidad personal. Los marcos legales que se están configurando hoy determinarán si internet sigue siendo un espacio para la expresión legítima, la creatividad y la conexión, o si se fragmenta por la censura excesiva y la desconfianza. Mantenerse informado, participar en consultas y exigir responsabilidades tanto a las plataformas como a los organismos reguladores es la forma en que los ciudadanos pueden contribuir a forjar este futuro.

Deja un comentario

Deja un comentario


Ingresa en

¿Ha olvidado su contraseña?

¿Aún no tienes una cuenta?
Crear una cuenta