Nuevo: Ruta de aprendizaje sobre la gobernanza del daño digital Más información aquí.

Política de telecomunicaciones y moderación de contenidos: cómo afrontar el riesgo digital

  • , por Paul Waite
  • 28 Tiempo mínimo de lectura

Resumen ejecutivo: política de telecomunicaciones, moderación de contenidos y aumento del riesgo digital

La convergencia de las políticas de telecomunicaciones y la moderación de contenidos se aceleró drásticamente alrededor de 2018, cuando los reguladores de todo el mundo empezaron a reconocer que las normas tradicionales, centradas en los operadores, eran insuficientes para los servicios que los operadores de telecomunicaciones prestan cada vez más. La Ley de Servicios Digitales (DSA) de la Unión Europea, adoptada en 2022 y plenamente aplicable desde febrero de 2024, impone ahora obligaciones de transparencia, evaluación de riesgos sistémicos y retirada de contenidos a una amplia gama de servicios intermediarios. La Ley de Seguridad en Línea de 2023 del Reino Unido extiende obligaciones similares a los servicios de mensajería, juegos y usuario a usuario que los operadores móviles agrupan o alojan. En América Latina, el Proyecto de Ley 2630/2020 de Brasil propone reformas estructurales que posicionan a CGI.br como intermediario regulatorio, lo que implica directamente a las plataformas respaldadas por telecomunicaciones y a los acuerdos de tarifa cero.

Lo que distingue a este momento es la superposición entre los servicios OTT y la infraestructura de telecomunicaciones tradicional. Un operador móvil que opera una aplicación de mensajería, aloja un mercado en la nube o distribuye IPTV ahora enfrenta obligaciones que antes estaban reservadas a las plataformas de redes sociales. Estas incluyen obligaciones relacionadas con la eliminación de contenido ilegal, la mitigación de contenido dañino en línea, la protección de la seguridad infantil y la transparencia algorítmica. Los desafíos regulatorios ya no se limitan a la transmisión, sino que se centran en el control de acceso, la curación y los riesgos sistémicos derivados de la escala.

Este artículo aborda tres temas fundamentales. En primer lugar, examina la transición de la conectividad pura a regímenes de responsabilidad basados ​​en plataformas, donde las telecomunicaciones deben clasificar sus servicios y asignar obligaciones en consecuencia. En segundo lugar, explora el auge de las estructuras de gobernanza híbridas y los intermediarios regulatorios que transforman el funcionamiento real del cumplimiento normativo. En tercer lugar, proporciona un marco práctico para desarrollar programas de moderación de contenido y gestión de riesgos escalables en todas las jurisdicciones. El análisis está dirigido a los equipos internos de derecho, políticas y gestión de riesgos de proveedores de servicios de telecomunicaciones y digitales que operan en la UE, el Reino Unido, EE. UU. y mercados emergentes clave.

De las normas de transporte de telecomunicaciones a los regímenes de responsabilidad de tipo plataforma

El concepto de "transporte común" orientó la regulación de las telecomunicaciones durante más de un siglo. Bajo marcos como la Ley de Comunicaciones de EE. UU. de 1934 y los sucesivos paquetes de telecomunicaciones de la UE, los operadores de red tenían obligaciones en materia de interceptación legal, calidad del servicio y acceso no discriminatorio, pero no responsabilidad por el contenido que circulaba por sus canales. La lógica era sencilla: los operadores transmitían, no gestionaban.

Esta lógica comenzó a erosionarse a medida que los operadores de telecomunicaciones se expandieron hacia el alojamiento, la mensajería, los servicios en la nube y las redes de distribución de contenido. La Ley de Servicios Digitales (DSA), Reglamento (UE) 2022/2065, constituye el reconocimiento regulatorio más claro de este cambio. En vigor desde noviembre de 2022 y plenamente aplicable desde el 17 de febrero de 2024, la DSA va más allá de las obligaciones de transmisión para regular los servicios de alojamiento, los proveedores de almacenamiento en caché, las plataformas en línea, las plataformas en línea de muy gran tamaño (VLOP) y los motores de búsqueda en línea de muy gran tamaño (VLOSE). El reglamento reconoce que muchos proveedores de servicios de internet ahora realizan funciones indistinguibles de las de las plataformas tradicionales.

La DSA preserva la protección de la "mera vía" para los servicios de transmisión genuinos, heredada del Artículo 4 de la Directiva de Comercio Electrónico, ahora derogada. Sin embargo, incorpora nuevos requisitos para servicios que van más allá del mero transporte. Los proveedores de alojamiento deben implementar mecanismos de notificación y acción. Las plataformas en línea se enfrentan a obligaciones de transparencia en torno a los sistemas algorítmicos y las prácticas de moderación de contenido. Las plataformas VLOP y VLOSE, definidas como plataformas que alcanzan 45 millones de usuarios activos mensuales en la UE, deben realizar evaluaciones de riesgos anuales, someterse a auditorías independientes y proporcionar acceso a los datos a investigadores y organismos reguladores.

La consecuencia práctica para los operadores de telecomunicaciones es significativa. Las guías de cumplimiento normativo deben distinguir entre los servicios que se limitan a la transmisión de datos y aquellos que se consideran alojamiento, mercados en línea o plataformas. Un solucionador de DNS gestionado por una empresa de telecomunicaciones puede estar sujeto a normas diferentes a las de una tienda de aplicaciones o un servicio de alojamiento en la nube gestionados por una empresa de telecomunicaciones. Asignar cada producto a su categoría regulatoria es ahora una labor fundamental de cumplimiento.

Comparación de las obligaciones tradicionales en materia de telecomunicaciones con las obligaciones modernas en materia de contenido

Tipo de obligación

Funciones tradicionales de telecomunicaciones

Funciones modernas relacionadas con el contenido

Base legal

Leyes de Comunicaciones, EECC, normas de neutralidad de la red

DSA, Ley de Seguridad en Línea, leyes de plataformas nacionales

Enfoque principal

Interceptación legal, calidad del servicio, gestión del espectro

Eliminación de contenido ilegal, mitigación de contenido dañino, transparencia

Protección del usuario

Acceso a servicios de emergencia y privacidad de datos según las normas de telecomunicaciones

Sistemas de notificación y acción, mecanismos de apelación, seguridad infantil

Informes

Métricas de calidad, uso del espectro

Informes de transparencia sobre moderación de contenidos y auditorías algorítmicas

Aplicación

Reguladores nacionales de telecomunicaciones

Coordinadores de Servicios Digitales, Ofcom, cooperación transfronteriza

Regímenes globales clave que configuran la moderación del contenido de telecomunicaciones

El cambiante panorama regulatorio para la moderación de contenido de telecomunicaciones varía considerablemente según la jurisdicción. A continuación, se presenta un resumen estructurado de los principales regímenes que los equipos internos deben abordar, con leyes, fechas y reguladores específicos identificados para cada uno.

unión Europea

El enfoque de la UE combina la Ley de Servicios Digitales con la Ley de Mercados Digitales (DMA) y el vigente Código Europeo de Comunicaciones Electrónicas (CEEC). La DSA aplica obligaciones por niveles: todos los servicios intermediarios deben cumplir las normas básicas de transparencia; los servicios de alojamiento web incorporan obligaciones de notificación y acción; las plataformas en línea se enfrentan a requisitos adicionales en materia de trazabilidad de los operadores; y las plataformas en línea y los motores de búsqueda de gran tamaño activan obligaciones de riesgo sistémico.

El umbral para la designación VLOP/VLOSE es de 45 millones de usuarios activos mensuales en la UE. Una vez designadas, las plataformas deben realizar evaluaciones de riesgos anuales que abarquen la difusión de contenido ilegal, los efectos negativos sobre los derechos fundamentales y los riesgos para los procesos electorales. La Comisión Europea solicitó información a las plataformas designadas durante el período 2023-2024, y los Coordinadores Nacionales de Servicios Digitales ahora aplican las obligaciones en todos los Estados miembros. El Comité Europeo de Protección de Datos proporciona orientación sobre la interacción entre la moderación de contenido y los requisitos generales del reglamento de protección de datos.

La DMA, por su parte, aborda las preocupaciones sobre competencia de los "guardianes" designados, con implicaciones para las tiendas de aplicaciones o los servicios de mensajería propiedad de telecomunicaciones que alcanzan los umbrales de control. La interacción entre ambas leyes implica que los operadores de telecomunicaciones podrían enfrentarse simultáneamente a obligaciones de gobernanza de plataformas y de mercados digitales.

Reino Unido

La Ley de Seguridad en Línea de 2023 crea un marco integral para los servicios entre usuarios y los motores de búsqueda, con Ofcom como organismo regulador. La Ley se aplica a los servicios que permiten compartir contenido generado por el usuario, incluyendo servicios de mensajería, plataformas de juegos en línea y funciones sociales integradas en productos de telecomunicaciones.

Ofcom inició consultas sobre códigos de prácticas durante el período 2023-2025, que abarcan obligaciones en materia de contenido ilegal, seguridad infantil e informes de transparencia. Las obligaciones de la Ley para proteger a la infancia son especialmente amplias, exigiendo a las plataformas que apliquen medidas de control de edad e impidan el acceso a contenido perjudicial. Los operadores de telecomunicaciones que ofrezcan paquetes de aplicaciones de mensajería o productos para familias deben adaptar sus servicios a estos requisitos.

Los debates sobre el cifrado en 2023 siguen siendo temas de actualidad. La Ley otorga a Ofcom la facultad de exigir a las empresas tecnológicas que identifiquen y eliminen material de abuso sexual infantil, lo que plantea interrogantes sobre el cifrado de extremo a extremo en los servicios de comunicación de marca del operador.

Estados Unidos

Estados Unidos mantiene un enfoque distintivo, centrado en la Sección 230 de la Ley de Decencia en las Comunicaciones, que exime a las plataformas de responsabilidad por el contenido generado por los usuarios, al tiempo que permite la moderación voluntaria del contenido. Esta protección sigue siendo fundamental, pero se enfrenta a una creciente presión por parte de las legislaturas y los tribunales estatales.

La HB20 de Texas y la SB7072 de Florida intentaron restringir la discreción de las plataformas en la moderación de contenido, aunque los tribunales federales han emitido fallos contradictorios sobre su constitucionalidad. La Ley del Código de Diseño Apropiado para la Edad de California impone requisitos de seguridad infantil que afectan a los servicios de telecomunicaciones que llegan a menores. La FCC continúa con la supervisión tradicional de las telecomunicaciones, pero se ha mantenido prácticamente al margen de las disputas sobre moderación de contenido.

Para los operadores de telecomunicaciones con operaciones en Estados Unidos, la realidad práctica es un mosaico: inmunidad federal bajo la Sección 230, mandatos de verificación de contenido y edad a nivel estatal, y litigios en curso que pueden remodelar el panorama para 2025-2026.

Brasil

El Proyecto de Ley 2630/2020 de Brasil (el "Proyecto de Ley de Noticias Falsas") propone reformas significativas a la gobernanza de las plataformas, incluyendo un rol central para el CGI.br (Comité Gestor de Internet de Brasil) como intermediario regulatorio. El proyecto aborda la moderación de contenido, la transparencia y la rendición de cuentas de las plataformas digitales que operan en Brasil.

Los operadores de telecomunicaciones se ven implicados mediante acuerdos de tarifa cero que influyen en el contenido al que los usuarios pueden acceder sin coste de datos. Cuando los operadores ofrecen acceso preferencial a ciertas plataformas, se convierten en parte de la cadena de distribución de contenido que el Proyecto de Ley 2630/2020 pretende regular.

India

Las Normas de Tecnologías de la Información (Directrices para Intermediarios y Código de Ética de Medios Digitales) de la India de 2021 imponen importantes obligaciones de cumplimiento a los intermediarios, incluyendo requisitos de trazabilidad para los servicios de mensajería y plazos de retirada de contenido. Los operadores móviles que prestan servicios de mensajería o alojamiento de contenido deben cumplir estas normas.

Las Normas exigen que los intermediarios importantes de las redes sociales designen responsables de cumplimiento, permitan la identificación de los primeros autores de ciertos mensajes y eliminen el contenido ilícito dentro de plazos específicos. Estas obligaciones de protección de datos se entrelazan con cuestiones más amplias sobre las transferencias transfronterizas de datos y el cifrado.

Australia

La Ley de Seguridad en Línea de Australia de 2021 y los códigos de la industria registrados ante el Comisionado de Seguridad Electrónica crean un marco donde los sectores de la industria y las tecnologías de la información desarrollan códigos de corregulación que abordan el contenido en línea. Los operadores móviles y los proveedores de servicios de internet (ISP) se ven implicados cuando prestan servicios que alojan o distribuyen contenido dañino.

El Comisionado de Seguridad Electrónica tiene la facultad de emitir avisos de retirada de contenido y exigir el cumplimiento de los códigos registrados. Los operadores de telecomunicaciones deben comprender qué códigos aplican a sus servicios y garantizar mecanismos adecuados de detección y respuesta.

Los operadores de telecomunicaciones como guardianes de contenidos: puntos de contacto prácticos de moderación

Las redes de telecomunicaciones desempeñan cada vez más funciones de vanguardia y de valor añadido que, de facto, generan responsabilidades de moderación de contenido. Comprender dónde surgen estos puntos de contacto es esencial para los equipos de cumplimiento.

Bloqueo de DNS y a nivel de red

Los bloqueos de sitios web ordenados por tribunales siguen siendo un punto de encuentro fundamental entre las operaciones de telecomunicaciones y la moderación de contenido. Los operadores implementan el bloqueo de DNS para:

  • Control de la piratería : los titulares de derechos de autor obtienen órdenes judiciales que exigen a los proveedores de servicios de internet bloquear el acceso a sitios infractores

  • Restricciones al juego : los reguladores nacionales exigen el bloqueo de plataformas de juego sin licencia

  • Seguridad nacional : El gobierno ordena restringir el acceso a contenido designado como terrorista o extremista

  • Seguridad en línea : Bloqueo de sitios que albergan material de abuso sexual infantil según mandatos legales

Cada orden de bloqueo exige a los operadores equilibrar el cumplimiento con los riesgos de un bloqueo excesivo. La jurisprudencia de la UE y la India ha abordado cuestiones de proporcionalidad, exigiendo que las medidas de bloqueo no restrinjan inadvertidamente el acceso a contenido legal.

Tarifa cero y gestión del tráfico

Los acuerdos de cero tarifas —donde cierto contenido no se contabiliza para los límites de datos— generan decisiones sobre la visibilidad del contenido. Cuando un operador aplica una tarifa cero a un servicio de streaming en lugar de a otro, influye en los patrones de consumo de los usuarios. Las normas de neutralidad de la red en la UE restringen estos acuerdos, pero su aplicación varía a nivel mundial.

Estas decisiones se entrelazan con la moderación de contenido, ya que afectan a qué plataformas captan la atención de los usuarios. Una plataforma de redes sociales con tarifa cero puede convertirse en la principal fuente de información para usuarios con planes de datos limitados, lo que amplifica cualquier fallo de moderación de contenido en dicha plataforma.

Productos seguros para niños y de “tuberías limpias”

Los operadores han ofrecido productos de control parental y filtrado de contenido desde aproximadamente 2015. Estos servicios ahora se combinan con:

  • Requisitos del Código de Diseño Apropiado para la Edad del Reino Unido para los servicios a los que probablemente accedan los niños

  • Requisitos de transparencia de la DSA que obligan a revelar cómo funcionan los sistemas de filtrado de contenido

  • Mandatos nacionales de garantía de edad que exigen verificación antes de acceder a ciertas categorías de contenido

Los operadores deben asegurarse de que sus productos de filtrado se alineen con estos marcos y, al mismo tiempo, eviten el bloqueo excesivo que restringe la expresión legítima.

Mensajería y comunicaciones cifradas

Los operadores de telecomunicaciones utilizan cada vez más aplicaciones de mensajería propietarias o se asocian con plataformas de mensajería. La tensión entre el cifrado de extremo a extremo y las obligaciones de escaneo de contenido es aguda:

  • Los debates sobre la Ley de Seguridad en Línea del Reino Unido en torno al escaneo del lado del cliente

  • Propuestas de la UE para detectar material de abuso sexual infantil en comunicaciones cifradas

  • Requisitos de seguridad nacional para el acceso legal

Los operadores deben afrontar estas demandas conflictivas y al mismo tiempo mantener la confianza de los usuarios en los servicios de comunicación seguros.

Tiendas de aplicaciones, streaming y servicios en la nube

Cuando los operadores de telecomunicaciones gestionan tiendas de aplicaciones, servicios de IPTV o mercados en la nube, pueden ser considerados plataformas o mercados en línea según la DSA. Esto desencadena:

  • Obligaciones de transparencia algorítmica para los sistemas de recomendación

  • Requisitos de resolución extrajudicial de disputas

  • Obligaciones de trazabilidad para los usuarios empresariales

  • Medidas de protección del consumidor para las transacciones en el mercado

Cada línea de productos requiere una clasificación según las definiciones regulatorias para determinar las obligaciones aplicables.

Intermediarios regulatorios y gobernanza híbrida en la moderación de contenidos

La moderación de contenido, tanto en Europa como a nivel mundial, opera cada vez más mediante estructuras de gobernanza híbridas que involucran intermediarios regulatorios ubicados entre los reguladores estatales y las entidades reguladas. Comprender estos acuerdos es esencial para los equipos de cumplimiento normativo de las telecomunicaciones.

El modelo de intermediación regulatoria

Estudios recientes sobre gobernanza digital describen un «triángulo de intermediación regulatoria» en el que entidades distintas a los reguladores directos desempeñan funciones estructuradas en materia de cumplimiento y aplicación. La DSA formaliza esto mediante organismos certificados de resolución extrajudicial de disputas (ODS) en virtud del Artículo 21, lo que permite a los usuarios impugnar las decisiones de moderación de contenido mediante mecanismos independientes.

Los Coordinadores Nacionales de Servicios Digitales actúan como nodos principales de cumplimiento, mientras que la Comisión Europea mantiene la autoridad directa sobre los VLOP y los VLOSE. Esto crea un sistema estratificado donde los operadores de telecomunicaciones pueden ser examinados simultáneamente por múltiples actores institucionales.

Órganos de resolución de litigios extrajudiciales de la UE

La DSA exige que las plataformas cooperen con organismos ODS certificados que ofrecen soluciones alternativas para disputas de moderación de contenido. Appeals Centre Europe, certificado en Irlanda, es uno de estos organismos con los que las plataformas, incluidos los servicios operados por telecomunicaciones, deben colaborar cuando los usuarios impugnan decisiones de moderación.

Las consideraciones de diseño clave para los equipos de cumplimiento de telecomunicaciones incluyen:

  • Independencia y financiación : garantizar la colaboración con organismos verdaderamente independientes

  • Reconocimiento transfronterizo : comprender qué decisiones de ODS se aplican en todas las jurisdicciones

  • Riesgos de coherencia : gestión de resultados potencialmente conflictivos de diferentes organismos nacionales

El modelo CGI.br de Brasil

El Proyecto de Ley 2630/2020 propone posicionar a CGI.br como un intermediario regulador multisectorial con autoridad sobre los estándares de moderación de contenido y los requisitos de transparencia. Para los operadores de telecomunicaciones con operaciones en Brasil, esto representa un modelo de gobernanza diferenciado que combina la coordinación técnica y de políticas.

Códigos de la industria y foros de múltiples partes interesadas

Más allá de los intermediarios regulatorios formales, los operadores de telecomunicaciones interactúan con:

  • Códigos de la industria australiana registrados ante el Comisionado de Seguridad Electrónica, desarrollados por asociaciones de la industria

  • Comités de Ética Digital de la India según las Normas de TI de 2021

  • Asociaciones regionales de telecomunicaciones en África y Asia desarrollan prácticas compartidas de moderación de contenido

  • Iniciativas de la GSMA sobre seguridad infantil, prevención de estafas y comunicaciones confiables

Ejemplos de gobernanza híbrida en la práctica

Varios modelos ilustran cómo las entidades no estatales dan forma a la moderación de contenidos:

  • Junta de Supervisión de Meta : un organismo independiente que toma decisiones vinculantes sobre casos de contenido específicos e influye en la gobernanza de la plataforma más allá de los mandatos regulatorios.

  • Códigos de conducta de la UE : Acuerdos de corregulación sobre el discurso de odio ilegal, en los que las plataformas se comprometen a revisar la mayor parte del contenido marcado en un plazo de 24 horas.

  • Códigos del sector de las telecomunicaciones : Acuerdos de la industria sobre filtros de seguridad infantil, mitigación de llamadas fraudulentas e identificación de contenido generado por IA

Para los responsables del cumplimiento normativo en telecomunicaciones, estos acuerdos híbridos exigen una interacción que trasciende las relaciones regulatorias tradicionales. La participación en el desarrollo de códigos, la cooperación con los organismos ODS y la alineación de las iniciativas del sector se convierten en actividades relevantes para el cumplimiento normativo.

Diseño de marcos de moderación de contenido y riesgo de nivel de telecomunicaciones

Los operadores de telecomunicaciones aplican disciplinas consolidadas de gestión de riesgos a los desafíos de moderación de contenido. La planificación de la resiliencia de la red, los marcos de interceptación legal y la coordinación de los servicios de emergencia sientan las bases para abordar el contenido ilegal, la desinformación, las estafas y la seguridad infantil a gran escala.

Un marco práctico: gobernanza, procesos, herramientas

Para crear marcos eficaces de moderación de contenido y gestión de riesgos se requiere un enfoque estructurado en tres niveles:

Capa 1: Gobernanza

  • Propiedad a nivel ejecutivo de la política de moderación de contenido, con clara rendición de cuentas

  • Coordinación interfuncional entre los equipos de asuntos regulatorios, legales, de seguridad y de productos

  • Actualizaciones periódicas de políticas que reflejan nuevas leyes, orientación regulatoria y evolución de amenazas.

  • Informes a nivel de directorio sobre riesgos sistémicos y estado de cumplimiento

Capa 2: Procesos

  • Mapeo de clasificación de servicios de cada producto en relación con la DSA, la Ley de Seguridad en Línea y las definiciones de leyes nacionales

  • Flujos de trabajo de notificación y acción con plazos documentados para responder a informes de contenido ilegal

  • Mecanismos de apelación de los usuarios compatibles con los organismos del ODS y las expectativas regulatorias

  • Manuales de respuesta a incidentes para una acción coordinada ante aumentos repentinos de contenido dañino

  • Comprobaciones de conocimiento del cliente empresarial para revendedores y socios comerciales

Capa 3: Controles técnicos y operativos

  • Sistemas de detección automatizada de categorías de contenido prohibido, con revisión humana para casos excepcionales

  • Detección de estafas y fraudes integrada con iniciativas nacionales contra el fraude en telecomunicaciones

  • Mecanismos de garantía de edad alineados con los requisitos de seguridad infantil

  • Sistemas de informes de transparencia que generan divulgaciones que cumplen con la DSA

  • Infraestructura de acceso a datos para solicitudes de reguladores e investigadores

Conciliar la neutralidad de la red y las restricciones de contenido

Los operadores de telecomunicaciones se enfrentan a una tensión inherente entre las normas de neutralidad de la red que prohíben la discriminación en el tráfico y los mandatos judiciales o regulatorios que exigen restricciones de contenido. Entre los enfoques prácticos se incluyen:

  • Documentación clara de la base jurídica : garantizar que cada acción de bloqueo corresponda a una orden jurídica o mandato regulatorio específico

  • Evaluaciones de proporcionalidad : evaluación de los riesgos de bloqueo excesivo antes de implementar restricciones amplias

  • Informes de transparencia : divulgación del volumen y las categorías de restricciones de contenido en los documentos reglamentarios

  • Vías de apelación : proporcionar mecanismos para que las partes afectadas impugnen bloqueos incorrectos

La jurisprudencia de la UE y de la India ofrece orientación sobre los estándares de proporcionalidad, y los tribunales examinan cada vez más las órdenes de bloqueo que restringen el acceso más allá del contenido ilegal específico.

Coherencia transfronteriza

Los operadores globales de telecomunicaciones necesitan marcos internos unificados que se adapten a la variación jurisdiccional. Entre los enfoques eficaces se incluyen:

  • Taxonomía de contenido unificada : un sistema de clasificación interna para contenido “ilegal vs. dañino pero legal”, con asignaciones específicas para cada jurisdicción.

  • Manual de respuesta a incidentes globales : procesos centrales que se aplican en todo el mundo, con módulos regionales que abordan los requisitos locales

  • Cumplimiento de estándares más estrictos : Desarrollar según el estándar aplicable más alto siempre que sea posible, reduciendo la complejidad derivada de las variaciones específicas de cada jurisdicción.

  • Complementos regionales : procedimientos específicos para la NetzDG de Alemania, las leyes contra el odio de Francia, los códigos de la Ley de seguridad en línea de Australia y otros requisitos nacionales

Este enfoque modular permite una gobernanza consistente al tiempo que se adapta a las realidades de las operaciones multijurisdiccionales.

Direcciones futuras: IA, cifrado y contenido sensible a la democracia

El panorama de la moderación de contenidos continúa evolucionando rápidamente, con tres desarrollos que exigen especial atención por parte de los equipos de políticas de telecomunicaciones: los sistemas de inteligencia artificial y los medios sintéticos, los conflictos de políticas de cifrado y las medidas de protección de la democracia.

IA generativa y medios sintéticos

La aparición de contenido generado por IA (deepfakes, voz sintética y generación de texto con IA) transforma el panorama del contenido dañino. Las redes de telecomunicaciones transmiten este contenido; algunos operadores alojan plataformas de chatbots con IA o integran IA generativa en sus servicios de atención al cliente.

La Ley de IA de la UE, que alcanzó un acuerdo político a finales de 2023 y cuya aplicación se extenderá por fases entre 2025 y 2026, establece requisitos para los desarrolladores e implementadores de IA. Los sistemas de IA de alto riesgo se enfrentan a evaluaciones de conformidad, obligaciones de transparencia y requisitos de supervisión humana. La Oficina Europea de IA coordina la aplicación de la normativa de IA en todo el marco regulatorio.

Las regulaciones de IA generativa de China, bajo la Administración del Ciberespacio (2023), adoptan un enfoque diferente, exigiendo una revisión previa al despliegue de los servicios ofrecidos al público. Los operadores de telecomunicaciones con servicios transfronterizos deben adaptarse a estos marcos divergentes.

Los medios sintéticos plantean desafíos específicos para la moderación de contenido. Detectar contenido generado por IA a gran escala sigue siendo técnicamente difícil, y el volumen de dicho contenido en los servicios de telecomunicaciones seguirá creciendo. La Ley de IA y las nuevas normas del sector abordan los requisitos de divulgación, pero la detección y el etiquetado siguen siendo proyectos en desarrollo.

Tensiones entre el cifrado y la seguridad infantil

Los debates sobre el escaneo de comunicaciones cifradas en busca de material de abuso sexual infantil se intensificaron a lo largo de 2023-2024. La Ley de Seguridad en Línea del Reino Unido otorga a Ofcom facultades que, en teoría, podrían exigir tecnologías de detección en servicios cifrados, aunque su implementación sigue siendo controvertida.

Propuestas paralelas de la UE (el Reglamento CSA) exigirían a los proveedores detectar, informar y eliminar dicho material, lo que podría afectar a los servicios de mensajería con cifrado de extremo a extremo. Los operadores de telecomunicaciones que gestionan plataformas de mensajería se enfrentan a la posibilidad de obligaciones contradictorias entre la protección del usuario mediante el cifrado y la protección de la infancia mediante el escaneo de contenido.

Organismos normativos como el ETSI y el 3GPP están abordando estas cuestiones y explorando enfoques técnicos que podrían conciliar los objetivos de privacidad y seguridad. Los operadores de telecomunicaciones pueden contribuir a la definición de estos estándares mediante su participación activa.

Integridad electoral y contenido político

El Kit de Herramientas Electorales de la DSA y los grupos de trabajo nacionales contra la desinformación imponen obligaciones específicas durante los períodos electorales. Las VLOPs enfrentan mayores responsabilidades en materia de transparencia en la publicidad política, monitoreo de la desinformación y respuesta rápida a los daños relacionados con las elecciones.

Los operadores de telecomunicaciones pueden encontrarse con estos requisitos a través de:

  • Redes publicitarias : Las plataformas publicitarias propiedad de telecomunicaciones podrían enfrentar reglas de divulgación de publicidad política

  • Canales de mensajería : Desinformación viral que se propaga a través de servicios de mensajería de marcas de telecomunicaciones

  • Intervenciones a nivel de DNS : solicitudes para bloquear fuentes de desinformación durante períodos electorales, lo que genera importantes preocupaciones sobre la libertad de expresión.

La planificación basada en escenarios ayuda a los equipos de cumplimiento a prepararse para estas situaciones. Considere lo siguiente:

  • Un operador móvil que aloja una plataforma de chatbot impulsada por IA que genera contenido político

  • Un ISP que recibe solicitudes gubernamentales de bloqueos a nivel de DNS durante una elección

  • Un servicio de comunicación en la nube transfronterizo recibe órdenes de retirada contradictorias de diferentes autoridades nacionales

Cada escenario requiere marcos de decisión preestablecidos, rutas de escalamiento y prácticas de documentación.

Participar proactivamente en el establecimiento de normas

Los operadores de telecomunicaciones tienen oportunidades de dar forma a prácticas de moderación de contenido técnicamente realistas a través de la participación en:

  • ETSI : Estándares europeos para interceptación legal, seguridad y tecnologías emergentes de detección de contenido

  • 3GPP : Los estándares de redes móviles abordan cada vez más consideraciones de confianza y seguridad

  • Iniciativas de la GSMA : coordinación de la industria en materia de prevención de estafas, tecnologías de IA y comunicaciones confiables

  • Foros nacionales y regionales : respuestas a consultas y participación en el desarrollo de códigos

Los operadores que participan de manera proactiva pueden influir en los estándares para adoptar enfoques que equilibren los objetivos regulatorios con la viabilidad técnica y los derechos de los usuarios.

Preparándose para 2025-2026

La alerta de política digital completa en las principales jurisdicciones sugiere intensificar los requisitos hasta 2026. La aplicación gradual de la Ley de IA, la finalización del código de la Ley de Seguridad en Línea del Reino Unido y la maduración de la aplicación de la DSA crearán demandas de cumplimiento acumulativas.

Los operadores de telecomunicaciones que ahora desarrollen marcos de cumplimiento modulares y adaptados a las jurisdicciones estarán mejor preparados para adaptarse a medida que evolucionen los requisitos. Quienes consideren la moderación de contenido como un ejercicio de cumplimiento aislado, en lugar de una función de gobernanza integrada, tendrán dificultades para afrontar la escala y la complejidad de las futuras obligaciones.

Los puntos de entrada de la alerta de política digital son claros: clasificar sus servicios, mapear sus obligaciones, construir una gobernanza multifuncional y participar en los procesos de establecimiento de normas que darán forma a la implementación técnicamente realista de estos ambiciosos marcos regulatorios.

Deja un comentario

Deja un comentario


Ingresa en

¿Ha olvidado su contraseña?

¿Aún no tienes una cuenta?
Crear una cuenta