Legislación sobre daños en línea
- , por Paul Waite
- 30 Tiempo mínimo de lectura
Gobiernos de todo el mundo se apresuran a abordar el lado oscuro de la era digital. Leyes como la Ley de Seguridad Infantil en Internet (KOSA) en Estados Unidos y la Ley de Daños en Línea (Proyecto de Ley C-63) en Canadá representan una nueva generación de regulación destinada a reducir el contenido dañino y el diseño peligroso de las plataformas en línea. Este artículo analiza estas importantes iniciativas, explica sus disposiciones principales y examina los intensos debates sobre la libertad de expresión, la privacidad y la responsabilidad de las plataformas que las rodean.
Introducción a la legislación sobre daños en línea
El impulso para regular los daños en línea ha alcanzado un punto crítico. Los legisladores de Estados Unidos, Canadá, el Reino Unido y otros países se enfrentan a la evidencia de que las plataformas de redes sociales pueden amplificar el discurso de odio, el extremismo violento, el contenido íntimo no consensuado y los materiales que promueven la autolesión, todo ello mientras utilizan funciones de diseño adictivas que mantienen a los usuarios, especialmente a los niños, navegando durante horas.
La urgencia se basa en datos concretos. Investigaciones realizadas desde principios de la década de 2010 han documentado vínculos preocupantes entre el uso intensivo de las redes sociales entre los jóvenes y el aumento de las tasas de ansiedad, depresión, acoso escolar y trastornos alimentarios. En 2021, la denunciante de Facebook, Frances Haugen, filtró documentos internos de la empresa que mostraban que los propios investigadores de Instagram habían descubierto que la plataforma afectaba negativamente a la salud mental y el bienestar de las adolescentes. Estas revelaciones impulsaron la acción legislativa, incluida la introducción de la Ley de Seguridad de la Información (KOSA) el 16 de febrero de 2022 por los senadores Richard Blumenthal (demócrata por Connecticut) y Marsha Blackburn (republicana por Tennessee). Mientras tanto, el proyecto de ley canadiense C-63 recibió su primera lectura durante el 44.º Legislativo a principios de 2024.
En este artículo se comparan estas importantes iniciativas (KOSA en Estados Unidos, la Ley de Daños en Línea de Canadá y la Ley de Seguridad en Línea de 2023 del Reino Unido), se explican sus principales disposiciones y se exploran los debates actuales sobre cómo proteger a los usuarios sin obstaculizar la expresión legal ni permitir el exceso de intervención del gobierno.
¿Qué es la legislación sobre “daños en línea”?
La legislación sobre daños en línea se refiere a leyes diseñadas para reducir los efectos negativos de las plataformas digitales en los usuarios, en particular los menores. En la práctica, estas leyes se centran en dos grandes categorías de daños:
-
Contenido ilegal : material de abuso sexual infantil, propaganda de odio, incitación al extremismo violento, imágenes íntimas no consensuadas y otros actos claramente prohibidos por la ley penal.
-
Contenido legal pero dañino : material que puede no ser estrictamente ilegal pero que contribuye a causar daños graves, como contenido que promueve el suicidio, trastornos alimentarios, trastornos por consumo de sustancias o acoso e intimidación.
Más allá del contenido, estas leyes también abordan el diseño de las plataformas. Funciones como el desplazamiento infinito, la reproducción automática de vídeos, los sistemas de recomendación algorítmica y las notificaciones push constantes se reconocen cada vez más como herramientas que explotan las vulnerabilidades psicológicas, especialmente en los usuarios jóvenes.
La legislación sobre daños en línea generalmente funciona así:
|
Herramienta de política |
Descripción |
|---|---|
|
Deber de cuidado |
Requiere que las plataformas evalúen y mitiguen los riesgos previsibles para los usuarios |
|
Informe obligatorio |
Obliga a las plataformas y proveedores de servicios de Internet a denunciar la pornografía infantil en Internet y preservar los datos |
|
Obligaciones de eliminación de contenido |
Establece plazos para eliminar el contenido ilegal una vez identificado |
|
Privacidad y herramientas parentales |
Exige configuraciones predeterminadas de alta privacidad para menores y controles parentales |
|
Organismos reguladores |
Crea o faculta a agencias (como Ofcom del Reino Unido o la propuesta Comisión de Seguridad Digital de Canadá) para hacer cumplir el cumplimiento. |
Estos marcos suelen modificar las leyes existentes. En Canadá, el Proyecto de Ley C-63 propuso cambios al Código Penal, la Ley Canadiense de Derechos Humanos y la ley de 2011 que regula la denuncia obligatoria de pornografía infantil en internet. En el Reino Unido, la Ley de Seguridad en Línea de 2023 faculta a Ofcom para imponer obligaciones a los servicios entre usuarios y a los motores de búsqueda.
La distinción entre contenido ilegal y contenido "lícito pero perjudicial" es central en los debates sobre la libertad de expresión. Los gobiernos deben decidir qué se incluye en cada categoría, y a los críticos les preocupa que las definiciones imprecisas presionen a las plataformas a eliminar excesivamente el discurso legítimo.
La Ley de Seguridad Infantil en Internet (KOSA) en Estados Unidos
La Ley de Seguridad Infantil en Internet es un proyecto de ley federal presentado en 2022 para abordar los daños en línea que afectan a niños y adolescentes en las grandes plataformas de redes sociales. Sus patrocinadores bipartidistas —los senadores Marsha Blackburn (republicana por Kentucky) y Richard Blumenthal (demócrata por Connecticut)— la presentaron como una respuesta a la creciente evidencia de que las plataformas perjudicaban la salud mental de los jóvenes usuarios.
Trayectoria legislativa
La trayectoria de KOSA en el Congreso ilustra tanto el impulso detrás de la legislación sobre seguridad infantil en línea como las complejidades políticas involucradas:
-
Febrero de 2022 : Presentación inicial tras el testimonio de Frances Haugen y la filtración de documentos.
-
Mayo de 2024 : Intento de vincular KOSA a la legislación de reautorización de la FAA
-
Julio de 2024 : Combinada con la COPPA 2.0 y la Ley de Transparencia de la Burbuja de Filtros en la Ley de Seguridad y Privacidad Infantil en Línea (KOSPA, S.2073), que fue aprobada por el Senado con una abrumadora mayoría de 91 a 3.
-
Diciembre de 2025 : el representante Gus Bilirakis presentó la Ley de Seguridad Digital e Internet para Niños (KIDS), que incorpora la KOSA con mandatos adicionales de verificación de edad.
-
Marzo de 2026 : Avance del Subcomité de Energía y Comercio de la Cámara de Representantes
A pesar del apoyo bipartidista de más de 60 senadores, la KOSA ha enfrentado continuos debates en la Cámara de Representantes. La votación de un comité de la Cámara sobre un paquete de medidas de seguridad infantil resultó en una división de 28 a 24, lo que refleja el continuo desacuerdo sobre el alcance y los posibles impactos del proyecto de ley. Los republicanos y los demócratas del comité han discrepado sobre disposiciones específicas, aunque ambos partidos coinciden en que es necesario tomar medidas para proteger a los niños en línea.
El proyecto de ley se centra en el diseño de la plataforma y los sistemas de recomendación, en lugar de censurar directamente contenido individual. Se centra en algoritmos, configuraciones predeterminadas, funciones de reproducción automática y funciones de desplazamiento infinito: las opciones arquitectónicas que mantienen a los usuarios enganchados, pero que pueden amplificar el contenido dañino.
Obligaciones y protecciones fundamentales bajo la KOSA
La KOSA impondría varias obligaciones importantes a las plataformas reguladas, como las redes sociales, los juegos en línea, la realidad virtual, la mensajería y los servicios de streaming de vídeo. Los proveedores de correo electrónico, los proveedores de servicios de internet (ISP) y las instituciones educativas están exentos.
Requisitos de diseño de seguridad por defecto:
-
Desactivar funciones adictivas como el desplazamiento infinito, la reproducción automática y las notificaciones push para usuarios menores de 17 años
-
Habilitar la exclusión voluntaria de recomendaciones algorítmicas personalizadas
-
Restrinja el uso compartido de geolocalización, los mensajes con desconocidos y las funciones en vivo sin el consentimiento de los padres o la confirmación de edad.
-
Establecer valores predeterminados de privacidad sólidos para usuarios menores de edad
Herramientas y supervisión para padres:
-
Paneles que permiten a los padres monitorear el tiempo que pasan en las plataformas
-
Acceso a la configuración de la cuenta y controles de privacidad
-
Vías claras para denunciar daños como el acoso, el acoso escolar, la explotación sexual o la promoción del abuso de sustancias
Los daños específicos que aborda el proyecto de ley son:
|
Categoría |
Ejemplos |
|---|---|
|
Salud mental |
Promoción del suicidio, autolesiones y trastornos alimentarios |
|
Seguridad física |
Explotación sexual, acoso, contacto depredador |
|
productos ilegales |
Anuncios con restricción de edad (tabaco, juegos de azar), contenido sobre abuso de sustancias |
|
Amplificación algorítmica |
Sistemas que identifican contenido dañino y lo envían a usuarios vulnerables |
Deber de cuidado y rendición de cuentas:
Las plataformas deben ejercer un cuidado razonable para evitar daños a menores derivados de sus servicios. Esto incluye realizar evaluaciones de riesgos e implementar estrategias de mitigación. El proyecto de ley fomenta la rendición de cuentas mediante:
-
Auditorías independientes para verificar las afirmaciones de seguridad de la plataforma
-
Acceso de los investigadores a los conjuntos de datos para la evaluación de impacto
-
Requisitos de transparencia que permitan a los reguladores y al público evaluar si las plataformas cumplen con sus obligaciones
Estructura de ejecución:
Las enmiendas de febrero de 2024 modificaron las prioridades de aplicación. La Comisión Federal de Comercio supervisaría las definiciones de contenido nocivo y el deber de cuidado, mientras que los fiscales generales estatales se encargarían de la aplicación de las salvaguardias, la divulgación y los requisitos de transparencia para menores.
Apoyo, críticas y debates en curso en torno a KOSA
Soporte para KOSA:
La ley KOSA ha recibido el apoyo de cientos de organizaciones dedicadas a la seguridad infantil, la salud mental y la responsabilidad tecnológica. El presidente Biden priorizó la legislación en su discurso sobre el Estado de la Unión de 2023, argumentando que finalmente obligaría a las grandes empresas tecnológicas a priorizar la seguridad infantil por encima de las métricas de interacción.
Los partidarios argumentan que:
-
Las plataformas han fracasado sistemáticamente en su capacidad de autorregularse
-
Las crisis de salud mental juvenil exigen medidas legislativas
-
Los requisitos centrados en el diseño evitan la censura directa al tiempo que abordan las causas fundamentales
-
El respaldo bipartidista (votación del Senado de 91 a 3) demuestra un amplio consenso político.
Críticas de los grupos de libertades civiles:
Organizaciones como Free Speech Coalition y Public Knowledge han expresado su preocupación por las posibles consecuencias no deseadas que puede tener el proyecto de ley:
-
Definiciones vagas de daño : los críticos argumentan que términos como "daño" podrían presionar a las plataformas a eliminar en exceso contenido sobre temas LGBTQ+, educación sobre salud sexual o discursos políticos controvertidos, incluso sin mandatos explícitos de eliminación.
-
Aplicación de la ley por parte de los fiscales generales estatales : permitir que los fiscales generales estatales apliquen la ley genera temores de que funcionarios con motivaciones políticas puedan atacar contenido al que se oponen personalmente.
-
Preocupaciones sobre la verificación de edad : Aunque el texto de KOSA evita exigir una verificación general de la edad, a los opositores les preocupa que las plataformas implementen sistemas de verificación invasivos para cumplir con el deber de cuidado.
Lo que KOSA no hace:
Es importante tener en cuenta lo que excluye el proyecto de ley:
-
No crea un derecho de acción privado que permita a las personas demandar por contenido específico.
-
No exige directamente la eliminación de contenido.
-
No requiere que las plataformas monitoreen las funciones de mensajería privada
Los críticos reconocen estas limitaciones, pero argumentan que la presión indirecta (a través de mandatos de diseño y amenazas de cumplimiento) aún podría dejar a los niños en situaciones en las que las plataformas eliminan contenido legal para evitar responsabilidades, lo que potencialmente dejaría a los padres en una situación peor que la que tendrían con intervenciones específicas.
La revisión de mayo de 2023 abordó algunas inquietudes al enumerar explícitamente los daños contemplados (promoción del suicidio, trastornos alimentarios, abuso de sustancias) en lugar de basarse en definiciones abiertas. Sin embargo, persiste el debate sobre si el proyecto de ley logra el equilibrio adecuado entre protección y libertad de expresión.
Ley de Daños en Línea de Canadá (Proyecto de Ley C-63) y Medidas Conexas
El enfoque de Canadá respecto de la legislación sobre daños en línea culminó con el Proyecto de Ley C-63, la Ley de Daños en Línea, presentada en el 44.º Parlamento en febrero de 2024. Este marco integral proponía promulgar una nueva ley sobre daños en línea, al tiempo que modificaba el Código Penal, la Ley Canadiense de Derechos Humanos y la ley de 2011 sobre la denuncia obligatoria de pornografía infantil en Internet.
El proyecto de ley representó un ambicioso intento de abordar los daños en línea mediante un marco regulatorio unificado. Proponía establecer una Comisión de Seguridad Digital con múltiples oficinas encargadas de la supervisión del cumplimiento normativo, las normas de seguridad, las evaluaciones de riesgos sistémicos, las quejas y la transparencia.
Contexto legislativo:
El proyecto de ley C-63 se basó en esfuerzos anteriores:
-
Proyecto de ley C-36 (2021) : Se centra en el discurso de odio en línea y multas de hasta 50.000 dólares.
-
Proyecto de ley C-9 (Ley de lucha contra el odio) : incorporó algunas disposiciones sobre el odio en línea de proyectos de ley anteriores.
-
Ley de denuncia obligatoria de 2011 : Denuncia obligatoria de pornografía infantil en Internet por parte de los proveedores de servicios de Internet
A pesar del apoyo de los liberales gobernantes y algunos defensores de la seguridad, la Ley de Daños en Línea provocó un intenso debate nacional sobre la libertad de expresión, la vigilancia y el alcance del poder del gobierno sobre los espacios digitales.
Disposiciones clave y arquitectura regulatoria del Proyecto de Ley C-63
Tipos de contenido dañino atacados:
|
Categoría de contenido |
Descripción |
|---|---|
|
propaganda de odio |
Contenido que promueve el odio contra grupos identificables |
|
Extremismo violento |
Material que incita al extremismo violento o al terrorismo |
|
Material de abuso sexual infantil |
Imágenes y contenidos que representan explotación infantil |
|
Contenido íntimo comunicado sin consentimiento |
Pornografía de venganza e imágenes íntimas no consensuadas |
|
Acoso y hostigamiento |
Abuso selectivo, especialmente de menores |
|
Contenido sobre autolesiones y suicidio |
Material que incita a la autolesión o al suicidio |
Funciones de la plataforma:
El proyecto de ley requeriría que las plataformas:
-
Realizar evaluaciones de riesgos de contenido dañino
-
Implementar políticas razonables para reducir el daño
-
Implementar características de diseño apropiadas para la edad
-
Prevenir o restringir el acceso a ciertas categorías de contenido dañino, especialmente para niños en línea
-
Permitir a los usuarios denunciar daños a través de mecanismos accesibles
Arquitectura regulatoria:
La Comisión de Seguridad Digital propuesta serviría como el principal regulador de Canadá en materia de seguridad en línea, con varias funciones clave:
-
Oficina de Seguridad Digital : Monitoreo del cumplimiento de la plataforma
-
Oficina de Normas : Establecimiento de normas de seguridad aplicables
-
Oficina de Riesgo Sistémico : Realización de evaluaciones más amplias de los impactos de las plataformas
-
Oficina de Quejas : Gestión de quejas de usuarios sobre fallos de la plataforma
-
Oficina de Transparencia : Supervisar los requisitos de información y divulgación pública
Enmiendas consecuentes y relacionadas:
El proyecto de ley C-63 propuso cambios importantes a las leyes existentes:
-
Modificaciones del Código Penal : Definiciones más precisas de “odio”, delitos de incitación al odio actualizados y sentencias ajustadas (incluida la posible cadena perpetua en casos extremos).
-
Enmiendas a la Ley Canadiense de Derechos Humanos : Se habilitaron las denuncias de odio en línea a través de los recursos humanos de la Comisión Canadiense de Derechos Humanos.
-
Actualizaciones de informes obligatorios : Se mantuvo y fortaleció la ley de 2011 que exige a los proveedores de servicios de Internet notificar a las autoridades sobre pornografía infantil y conservar los datos durante 21 días.
El proyecto de ley también tenía por objeto facilitar la coordinación interprovincial en materia de aplicación de la ley y establecer normas claras para la comunicación internacional en línea que involucra a usuarios canadienses.
Apoyo, reacción y estatus de la Ley de Daños en Línea
Apoyo al proyecto de ley C-63:
Frances Haugen, cuyas revelaciones en Facebook impulsaron el debate global sobre los daños en línea, apoyó el enfoque canadiense. Algunos juristas argumentaron que el proyecto de ley lograba el equilibrio necesario entre la libertad de expresión y la protección contra daños graves, señalando que se centraba en los riesgos sistémicos más que en la expresión individual.
Los partidarios destacaron:
-
El riesgo significativo que supone la amplificación de contenidos nocivos por parte de plataformas no reguladas
-
La necesidad de un regulador específico con poderes de ejecución reales
-
Protecciones para los niños que van más allá de los compromisos voluntarios de la industria
-
Alineación con las tendencias internacionales (Ley de Servicios Digitales de la UE, Ley de Seguridad en Línea del Reino Unido)
Críticas y reacciones:
El proyecto de ley C-63 enfrentó una feroz oposición por parte de grupos de libertades civiles y figuras públicas prominentes:
-
Asociación Canadiense de Libertades Civiles : Advierten sobre poderes excesivamente amplios que podrían permitir el procesamiento por delitos de pensamiento.
-
Margaret Atwood : La célebre autora criticó las disposiciones que consideraba una amenaza a la libertad de expresión.
-
Críticos conservadores : Argumentaron que el proyecto de ley otorgaba al gobierno poderes excesivos de vigilancia y censura.
Las preocupaciones específicas incluyeron:
|
Asunto |
Inquietud |
|---|---|
|
Sanciones severas |
Posible cadena perpetua por delitos extremos relacionados con el odio |
|
Medidas preventivas |
Disposiciones que permiten el arresto domiciliario antes de cometer cualquier delito |
|
Impacto en el discurso de las minorías |
Temores de que se puedan enfriar los debates sobre sexualidad, identidad o temas controvertidos. |
|
Expansión terrestre prohibida |
Preocupaciones sobre cómo las definiciones de “terreno prohibido” podrían afectar el debate legítimo |
Estado:
Los retrasos políticos, las críticas constantes y los debates sobre la conveniencia de dividir el marco en proyectos de ley partidistas separados para la protección de la infancia y la incitación al odio finalmente paralizaron la legislación. El proyecto de ley C-63 quedó en el orden del día en enero de 2025 sin aprobación, incorporándose al primer periodo de sesiones del nuevo Parlamento sin convertirse en ley.
El fracaso no ha puesto fin a los esfuerzos de Canadá. Se esperan nuevas iniciativas con objetivos más concretos, incluyendo proyectos de ley independientes que aborden:
-
Protección infantil y seguridad infantil en línea
-
Discurso de odio y extremismo
-
Regulación específica de la IA
-
Transacciones financieras relacionadas con la explotación en línea
La Ley de Seguridad en Línea del Reino Unido de 2023 como punto de referencia global
La Ley de Seguridad en Línea del Reino Unido de 2023 se erige como uno de los regímenes de daños en línea más influyentes y completos del mundo y proporciona un modelo que los legisladores canadienses y estadounidenses han estudiado de cerca.
Alcance y cobertura:
La Ley se aplica a:
-
Servicios de usuario a usuario (proveedores de servicios de redes sociales, foros, aplicaciones de mensajería)
-
Motores de búsqueda
-
Tiendas de aplicaciones y proveedores de servicios regulados que alojan contenido generado por el usuario
Requisitos clave:
|
Requisito |
Descripción |
|---|---|
|
Evaluaciones de riesgos |
Las plataformas deben evaluar los riesgos de contenidos ilegales y dañinos |
|
Moderación de contenido |
Sistemas para identificar y eliminar rápidamente contenidos ilegales |
|
Protecciones para la infancia |
Deberes específicos respecto del contenido sobre autolesiones, suicidio y trastornos alimentarios |
|
Informes de transparencia |
Informes públicos periódicos sobre las medidas de seguridad y los resultados |
|
Códigos de diseño |
Estándares para controles parentales y configuraciones de seguridad predeterminadas |
Cumplimiento normativo:
Ofcom, el regulador de comunicaciones del Reino Unido, hace cumplir la Ley de Seguridad en Línea con poderes para:
-
Investigar el cumplimiento de la plataforma
-
Emitir códigos de prácticas
-
Imponer multas sustanciales por infracciones
-
Exigir cambios en el diseño de la plataforma y los sistemas de moderación
Limitaciones y críticas:
Aunque a menudo se cita como modelo, la Ley del Reino Unido ha enfrentado críticas:
-
Riesgos de eliminación excesiva : las plataformas pueden eliminar contenido legal para evitar el escrutinio regulatorio
-
Carga para las plataformas más pequeñas : los costos de cumplimiento pueden perjudicar a los servicios más pequeños
-
Preocupaciones sobre la privacidad : debates sobre si la ley podría llevar al escaneo de mensajes privados (aunque el monitoreo proactivo de la mensajería privada no es obligatorio)
El enfoque del Reino Unido pone énfasis en la gestión del riesgo sistémico por sobre el control del contenido individual, un principio que ha influido en las disposiciones centradas en el diseño de la KOSA y en leyes similares en otros lugares.
Temas clave de política: seguridad, privacidad y libertad de expresión
La legislación sobre daños en línea debe abordar tensiones fundamentales entre valores contrapuestos. Comprender estas compensaciones es esencial para evaluar cualquier marco regulatorio.
La tensión central
Todo proyecto de ley sobre daños en línea busca proteger a los usuarios —especialmente a los niños y a los grupos marginados— de daños graves, evitando al mismo tiempo la creación de un aparato de censura. Es más fácil decirlo que hacerlo.
Enfoques centrados en el diseño:
Leyes como KOSA y el proyecto de ley C-63 intentan centrarse en el diseño de la plataforma y los riesgos sistémicos en lugar del control directo del gobierno sobre publicaciones individuales:
-
Algoritmos de segmentación y sistemas de recomendación
-
Obligación de establecer configuraciones de privacidad predeterminadas
-
Requerir herramientas para padres y funciones apropiadas para la edad
-
Imponer obligaciones para evaluar y mitigar riesgos
Este enfoque evita que los funcionarios gubernamentales tengan la facultad de exigir la eliminación de contenido específico. Sin embargo, los críticos argumentan que aún genera presión indirecta para eliminar contenido legal. Las plataformas que se enfrentan a posibles medidas coercitivas podrían pecar de cautelosas y eliminar contenido que podría ser perjudicial en lugar de asumir responsabilidades.
Compensaciones en materia de privacidad
Las tecnologías de garantía de edad presentan un desafío importante:
|
Acercarse |
Beneficio |
Riesgo |
|---|---|---|
|
Verificación de edad |
Permite protecciones específicas para menores |
Requiere la recopilación de datos personales y socava el anonimato |
|
Estimación de la edad |
Menos invasivo que la verificación |
Puede ser inexacto, aún así recopila datos biométricos |
|
Controles parentales |
Respeta la autonomía familiar |
Depende de la participación de los padres, pero puede dejar a los niños sin protección. |
Los legisladores han evitado deliberadamente exigir el monitoreo proactivo de la mensajería privada o las interacciones de los chatbots de IA en la mayoría de las propuestas, reconociendo que dicha vigilancia alteraría fundamentalmente la naturaleza de la comunicación privada en línea.
Comunicaciones públicas vs. privadas
Una distinción clave en estas leyes es entre:
-
Feeds de redes sociales públicas : sujetos a moderación de contenido, supervisión algorítmica y requisitos de transparencia
-
Interacciones con la función de mensajería privada : generalmente excluidas o con cobertura limitada
-
Chatbots de IA y servicios uno a uno : a menudo fuera del alcance de las leyes diseñadas para las plataformas de redes sociales tradicionales.
El marco canadiense sobre daños en línea y regímenes similares excluyen o limitan deliberadamente la cobertura de la mensajería privada, reconociendo tanto las preocupaciones sobre la privacidad como los desafíos prácticos de regular las comunicaciones efímeras, uno a uno.
Otros usuarios y responsabilidad de la plataforma
Estas leyes también abordan cómo las plataformas manejan las interacciones entre otros usuarios:
-
Mecanismos de denuncia de acoso, intimidación y comportamiento depredador
-
Requisitos para responder a las quejas de los usuarios dentro de los plazos especificados
-
Obligaciones de proporcionar transparencia sobre las decisiones de ejecución
-
Acceso de los investigadores a los datos que permiten la evaluación externa de los impactos de la plataforma
Futuras orientaciones para la regulación de los daños en línea
El panorama regulatorio está evolucionando rápidamente. Varias tendencias clave definirán la legislación sobre daños en línea en los próximos años.
Estados Unidos: Refinando KOSA
Las negociaciones continuas sobre KOSA se centran en:
-
El lenguaje del deber de cuidado : aclarar qué constituye un cuidado razonable sin crear estándares imposibles
-
Alcance de los servicios cubiertos : determinar qué plataformas son lo suficientemente grandes como para justificar su regulación
-
Salvaguardias de los derechos civiles : garantizar que la aplicación de la ley no afecte desproporcionadamente a los jóvenes LGBTQ+, la información sobre salud sexual o la libertad de expresión de las minorías.
-
Alternativas de verificación de edad : Encontrar enfoques que protejan a los menores sin requerir la recopilación invasiva de datos
La abrumadora mayoría de la aprobación de la versión del Senado sugiere que es posible llegar a un acuerdo, pero los debates en la Cámara y las prioridades en competencia (incluida la regulación de la IA) pueden retrasar la acción final.
Canadá: Pivotar hacia enfoques granulares
El fracaso del Proyecto de Ley C-63 no ha puesto fin al compromiso de Canadá con la regulación de los daños en línea. Al contrario, ha impulsado un cambio hacia una legislación más específica:
-
Proyectos de ley separados sobre protección infantil : enfocados específicamente en proteger a los niños de la explotación y el contenido depredador.
-
Legislación independiente sobre discursos de odio : Basándose en elementos de la Ley de Lucha contra el Odio
-
Regulación específica de la IA : cómo abordar los daños de la IA generativa, los modelos de lenguaje extensos y los chatbots
-
Medidas de rendición de cuentas de la plataforma : exigir a las empresas que tomen medidas razonables para identificar contenido dañino y responder adecuadamente
Los comentarios iniciales en los debates parlamentarios hacen cada vez más referencia a la necesidad de enfoques que puedan sobrevivir tanto a la oposición política como al escrutinio constitucional.
El desafío de la IA generativa
Muchas leyes vigentes sobre daños en línea se redactaron teniendo en cuenta las redes sociales. Es posible que no se ajusten a:
-
Interacciones de chatbots de IA uno a uno
-
Contenido efímero o altamente personalizado
-
Sistemas de IA generativos que crean contenido dañino a pedido
-
Aplicaciones de inteligencia artificial que no se ajustan al modelo de “plataforma que aloja contenido de usuario”
Los legisladores están empezando a afrontar estos desafíos, pero los marcos regulatorios van a la zaga del desarrollo tecnológico. El objetivo principal de muchos proyectos de ley sigue siendo abordar las redes sociales tradicionales, lo que deja importantes lagunas en su cobertura.
Tendencias internacionales
La coordinación global está aumentando a través de:
-
Debates del G7 : Principios compartidos sobre la rendición de cuentas de las plataformas
-
Influencias de la Ley de Servicios Digitales de la UE : Creación de presión para estándares interoperables
-
Disposiciones de acceso para investigadores : Facilitación de la evaluación transfronteriza de los impactos de las plataformas
-
Requisitos de transparencia : Avanzando hacia marcos de información comunes
Estos avances sugieren la posibilidad de adoptar enfoques internacionales más armonizados, aunque las diferencias nacionales en las tradiciones de libre expresión y los sistemas políticos seguirán generando variaciones.
El camino a seguir
La legislación sobre daños en línea seguirá evolucionando a medida que surjan nuevas tecnologías y daños. Los proyectos de ley analizados en este artículo (KOSA, la Ley de Daños en Línea de Canadá y la Ley de Seguridad en Línea del Reino Unido) representan los primeros intentos de abordar desafíos que cada vez serán más complejos.
Cualquier marco duradero deberá:
-
Equilibrar la seguridad con la innovación
-
Proteger los derechos fundamentales al tiempo que se abordan los daños reales
-
Adaptarse a las tecnologías emergentes
-
Permitir una rendición de cuentas significativa sin crear regímenes de censura
-
Exigir a las plataformas que tengan un cuidado razonable sin dictar decisiones específicas sobre el contenido
Para padres, educadores, defensores y legisladores, comprender estos marcos ahora es esencial. Los debates sobre cómo exigir a las empresas que aborden los daños en línea, preservando al mismo tiempo la internet abierta, moldearán la vida digital de las generaciones venideras.
Ya sea que usted sea un padre preocupado que intenta proteger a sus hijos, un operador de plataforma que busca comprender las obligaciones de cumplimiento o un ciudadano que participa en una deliberación democrática, mantenerse informado sobre la legislación sobre daños en línea ya no es opcional: es esencial.
- Compartir en:
- Deel
- Tweet
- Póngale un alfiler.
- Messenger
- Correo electrónico