Moderación de contenido en redes sociales
- , por Paul Waite
- 37 Tiempo mínimo de lectura
En 2024, la moderación de contenido en redes sociales ha evolucionado mucho más allá del simple acto de eliminar publicaciones. En Facebook, Instagram, TikTok, X (antes Twitter), YouTube y Reddit, las plataformas ahora monitorean, evalúan, clasifican, etiquetan, desmonetizan, restringen y eliminan el contenido generado por los usuarios para hacer cumplir los estándares de la comunidad. Miles de millones de publicaciones fluyen a través de estos sistemas diariamente, donde sistemas automatizados detectan posibles infracciones para su revisión humana o acción directa, creando una compleja red de decisiones que define lo que miles de millones de personas ven en línea.
Nunca ha habido tanto en juego. El aumento de contenido generado por IA desde 2023 ha intensificado los desafíos de moderación, ya que los deepfakes y los medios sintéticos evaden los métodos de detección tradicionales. Las elecciones mundiales en más de 60 países durante 2024-2025 han amplificado los riesgos de desinformación, basándose en el legado de las campañas de desinformación relacionadas con la COVID-19, que obligaron a las plataformas a eliminar millones de publicaciones infractoras mientras luchaban contra la propagación viral a través de grupos privados y publicaciones compartidas. Este artículo examina cómo las plataformas de redes sociales, los organismos reguladores y la sociedad civil intentan equilibrar la libertad de expresión, la seguridad del usuario y el cumplimiento legal en este panorama en rápida evolución.
Lo que aprenderás:
-
Cómo los algoritmos de recomendación y los sistemas basados en la interacción configuran la visibilidad del contenido antes de que se produzca la moderación explícita
-
Los incentivos comerciales que crean tensión entre la seguridad del usuario y los ingresos de la plataforma
-
Modelos de moderación básicos desde la premoderación hasta la detección impulsada por IA y la aplicación dirigida por la comunidad
-
Marcos jurídicos, incluida la Ley de Decencia en las Comunicaciones y la Ley de Servicios Digitales de la UE
-
El papel de las organizaciones de la sociedad civil en la gobernanza de las plataformas
-
Los principales desafíos incluyen la desinformación, la protección de los menores y el sesgo sistémico.
-
Opciones de gobernanza emergentes y el futuro de la moderación de contenidos
Cómo las plataformas de redes sociales difunden y clasifican el contenido
La moderación de contenido es inseparable de los algoritmos de recomendación. Antes de cualquier aplicación explícita, la curación algorítmica determina qué aparece en los feeds de los usuarios, moderando eficazmente mediante la visibilidad. Plataformas como TikTok utilizan gráficos de intereses derivados de las interacciones de los usuarios para impulsar sus páginas "Para ti", mientras que YouTube combina gráficos sociales de suscriptores con datos de comportamiento para clasificar los vídeos. X emplea una mecánica similar, con cronogramas algorítmicos que priorizan las respuestas y las publicaciones compartidas que provocan reacciones fuertes.
Estos sistemas amplifican el contenido basándose en señales como el tiempo de visualización, el tiempo de permanencia, los clics, los comentarios, las veces que se comparte y las opiniones negativas, como los botones de "no me interesa". El problema radica en que el material con carga emocional (vídeos que incitan a la indignación, afirmaciones que infunden miedo, clips muy divertidos) suele generar entre dos y cinco veces más interacción que las publicaciones neutrales, según análisis internos de la plataforma filtrados en los últimos años. Esto crea una tendencia estructural a amplificar la desinformación y el discurso polarizador antes de que los sistemas de moderación puedan intervenir.
Consideremos un ejemplo concreto: durante las elecciones estadounidenses de 2024, las afirmaciones falsas sobre fraude electoral se propagaron rápidamente a través de YouTube Shorts, alcanzando millones de visualizaciones en cuestión de horas antes de que las intervenciones de baja clasificación redujeran su alcance hasta en un 80 %. Para entonces, ya se había producido un daño significativo al discurso público. De igual manera, un video viral de baile de 2024, reutilizado con audio deepfake que incitaba a la violencia, evadió los filtros iniciales en TikTok debido a sus fuertes señales de diversión, pero posteriormente fue desmonetizado en YouTube después de que los usuarios denunciaran el contenido dañino.
La publicación cruzada y el alojamiento múltiple agravan estos desafíos. Cuando el mismo clip aparece en TikTok, Instagram Reels y YouTube Shorts, se requieren señales de moderación coordinadas, compartidas a través de bases de datos del sector como el Foro Global de Internet para la Lucha contra el Terrorismo (GIFCT), para la comparación de hashes de contenido extremista. Cada plataforma tiene diferentes reglas, capacidades de detección y tiempos de respuesta, lo que significa que el contenido dañino puede migrar de una plataforma a otra a medida que se implementan las medidas de control.
Modelos de negocio e incentivos detrás de las decisiones de moderación
La mayoría de las principales plataformas, como Meta (Facebook, Instagram), Alphabet (YouTube), Snap y Pinterest, obtienen más del 95 % de sus ingresos de la publicidad dirigida. Este modelo de negocio fundamental genera una tensión constante entre maximizar la interacción del usuario y limitar el contenido dañino o sensacionalista publicado en línea.
La economía publicitaria se basa en modelos de coste por clic (CPC), que cobran a los anunciantes entre 0,50 y 5 dólares por acción del usuario, y tasas de coste por mil (CPM) que oscilan entre 5 y 20 dólares por cada mil impresiones. Un mayor tiempo en el sitio web y datos más detallados mejoran la segmentación publicitaria, lo que significa que las plataformas tienen recursos financieros directamente vinculados a mantener a los usuarios navegando. Las publicaciones controvertidas pueden generar una alta interacción, pero también presentan riesgos para la seguridad de la marca que pueden provocar boicots por parte de los anunciantes.
Las presiones de las partes interesadas dan forma a las políticas de moderación:
Los usuarios exigen espacios seguros libres de acoso y contenido perturbador. Esta presión ha impulsado una inversión sustancial: según se informa, Meta invirtió 20 000 millones de dólares en seguridad solo en 2023. Sin embargo, se producen frecuentes cambios en las políticas a medida que las plataformas intentan satisfacer las expectativas contrapuestas de los usuarios, desde quienes priorizan la libertad de expresión hasta quienes exigen una aplicación más estricta de la normativa contra el contenido objetable.
Los anunciantes quieren que sus marcas se asocien con experiencias positivas, no con discursos de odio ni desinformación. La campaña de 2024 "Stop Hate for Profit" presionó a Meta por el discurso de odio sin moderación, lo que demuestra cómo la preocupación por la seguridad de la marca se traduce en presión financiera directa. YouTube desmonetizó canales tras las elecciones de 2020 por afirmaciones dudosas sobre la retención de los fondos publicitarios de Google, lo que demuestra cómo las preocupaciones de los anunciantes influyen en las políticas de moderación.
Los reguladores imponen costes de cumplimiento, con multas de la DSA de la UE que alcanzan hasta el 6 % de los ingresos globales por fallos de plataformas en línea muy grandes. Esta presión regulatoria incentiva la moderación proactiva, pero también puede provocar una eliminación excesiva de contenido, ya que las plataformas intentan evitar sanciones.
Grupos de defensa como la Liga Antidifamación critican la aplicación inconsistente de las normas, lo que obliga a las plataformas a una moderación excesiva y reactiva durante períodos delicados como las temporadas electorales. Estas organizaciones concientizan sobre las fallas de las plataformas y movilizan la presión pública para cambios en las políticas.
Modelos básicos y tipos de moderación de contenido
La moderación de contenido funciona como un ecosistema de prácticas, no como una herramienta única. Las empresas de redes sociales implementan múltiples enfoques según el contexto, el tipo de contenido y la arquitectura de la plataforma. Comprender estos diferentes modelos ayuda a comprender por qué los resultados de la moderación varían tanto entre plataformas en línea.
La premoderación implica revisar el contenido antes de su publicación. Este enfoque predomina en entornos de alto control, como las apps para niños o las comunidades altamente seleccionadas de Reddit y Discord. Cada publicación espera su aprobación, lo que garantiza una tolerancia cero ante infracciones, pero retrasa significativamente la interacción en tiempo real. La premoderación funciona bien en comunidades pequeñas con estándares claros, pero resulta poco práctica a gran escala.
La posmoderación prevalece en Facebook, Instagram, X y YouTube. El contenido se publica al instante y luego se revisa mediante indicadores de IA o informes de usuarios. Solo Meta gestiona aproximadamente 5 mil millones de publicaciones diarias, aunque solo entre el 1 % y el 5 % de los informes resultan en eliminaciones debido a limitaciones de recursos. Este enfoque prioriza la velocidad y la experiencia del usuario, pero implica que el contenido dañino puede circular antes de ser detectado.
La moderación reactiva se basa en la denuncia y el reporte de usuarios. Sigue siendo crucial para casos específicos que los sistemas automatizados pasan por alto, pero que son propensos a abusos. TikTok procesa millones de reportes semanalmente, pero actúa menos del 10% en medio de una oleada de acoso, donde los sistemas de reporte se utilizan como arma contra usuarios específicos.
La moderación automatizada y basada en IA emplea filtros de palabras clave, hash de imágenes (como PhotoDNA de Microsoft para CSAM), clasificadores de aprendizaje automático para la detección de violencia y herramientas basadas en LLM posteriores a 2023 para el análisis contextual del discurso de odio. Estos sistemas automatizados alcanzan una precisión del 85-95 % en contenido explícito, pero presentan dificultades con el sarcasmo, el contexto y los matices culturales.
La moderación distribuida fortalece a las comunidades en subreddits de Reddit, servidores de Discord y redes federadas como Mastodon. Los administradores voluntarios aplican las normas locales mediante votos positivos y negativos, y las normas comunitarias específicas de cada espacio. Esto reduce los costos centrales, pero introduce variabilidad: durante las elecciones de 2024, los moderadores de r/politics banearon 20 000 cuentas por desinformación, según las normas de su comunidad.
Muchas plataformas de redes sociales combinan estos enfoques. YouTube, por ejemplo, utiliza IA para el 95 % de los análisis iniciales de contenido, moderadores de contenido humanos para las apelaciones y notas comunitarias para la verificación colectiva de las afirmaciones.
Moderadores humanos: roles y condiciones de trabajo
Tras los sistemas algorítmicos, los moderadores humanos realizan la exigente tarea de revisar contenido que las máquinas no pueden evaluar con fiabilidad. A menudo contratados a través de proveedores externos en centros de bajo coste como Filipinas (que gestiona aproximadamente el 40 % del volumen de Meta), India, Irlanda y EE. UU., estos moderadores de contenido trabajan turnos de 8 a 12 horas revisando entre 25 y 50 elementos por hora.
El contenido que revisan abarca discursos de odio, imágenes de autolesión, material de abuso sexual infantil (MASI), propaganda terrorista y violencia gráfica. Las tareas consisten en analizar el contenido gráfico: distinguir el MASI del arte, evaluar si las imágenes violentas tienen fines informativos o exaltan el daño, y determinar si el lenguaje amenazante constituye un peligro creíble.
El impacto psicológico es grave. Informes públicos y demandas judiciales entre 2018 y 2023 documentaron tasas de trastorno de estrés postraumático del 25 % al 30 % entre los moderadores, además de ansiedad, abuso de sustancias y, en casos trágicos, suicidios. The Guardian y otros medios de comunicación han publicado relatos detallados de moderadores que describen pesadillas, hipervigilancia e incapacidad para mantener relaciones tras meses de exposición al peor contenido de la humanidad.
Plataformas como Accenture y Teleperformance ofrecen servicios de asesoramiento, y los programas de bienestar de Meta para 2024 ofrecen 20 sesiones de terapia al año. Los críticos señalan la inconsistencia del acceso y las cuotas, que presionan para tomar decisiones rápidas, sacrificando la revisión exhaustiva en beneficio de la velocidad. En 2023, aproximadamente 100 moderadores irlandeses se sindicalizaron por el agotamiento provocado por la avalancha de contenido electoral, lo que pone de relieve las tensiones persistentes entre el apoyo a la salud mental y las exigencias de productividad.
Las altas tasas de rotación, del 50 al 70 % anual, reflejan la dificultad de mantener esta labor, lo que genera costos de capacitación continua y pérdida de conocimiento institucional. El costo humano de mantener las fuentes limpias para miles de millones de usuarios de internet sigue siendo un desafío ético persistente para la moderación de redes sociales.
Automatización e IA con moderación
Los modelos de aprendizaje automático ahora gestionan la mayor parte de la revisión inicial de contenido a gran escala. Las redes neuronales convolucionales alcanzan una precisión del 95 % en la detección de desnudos, mientras que los sistemas de comparación de hash bloquean el 99 % de los vídeos conocidos de ISIS a través de la base de datos GIFCT. Estas herramientas automatizadas escanean petabytes de contenido a diario, lo que permite un bloqueo casi instantáneo en todas las plataformas.
Las bases de datos hash como PhotoDNA funcionan creando huellas digitales únicas de contenido ilegal conocido. Cuando las nuevas publicaciones coinciden con estas huellas, se bloquean antes de que se publiquen. Este enfoque resulta muy eficaz para el material de abuso sexual infantil y de reclutamiento de terroristas donde existen bases de datos de contenido conocido. El intercambio de hash entre plataformas permite que el contenido bloqueado en una plataforma se bloquee en todas partes casi al instante.
Los LLM multimodales de Meta para 2024 analizan simultáneamente el contexto de texto, imagen y video, lo que, según se informa, reduce los falsos positivos en un 20 % en comparación con los niveles de 2023. Estos sistemas pueden considerar el contexto circundante: por ejemplo, si el texto que acompaña a una imagen sugiere noticias o celebra la violencia.
Sin embargo, persisten limitaciones significativas. La IA tiene dificultades con:
-
Matices del lenguaje : sarcasmo, ironía y referencias culturales que invierten el significado aparente.
-
Insultos recuperados : Términos utilizados dentro de comunidades marginadas que serían ofensivos en otros contextos.
-
Discurso político : Cómo distinguir la crítica legítima del acoso o la incitación
-
Usos específicos del contexto : Un cántico de protesta como “Kill the Bill” que activa la detección de amenazas
Un fallo real ilustra estos desafíos: la IA de TikTok marcó un deepfake satírico de un político como desinformación real en 2023, eliminando contenido de interés periodístico a pesar de su evidente intención satírica. Mientras tanto, los mismos sistemas pasaron por alto el discurso de odio en dialectos árabes debido a sesgos en los datos de entrenamiento, lo que provocó escaladas de revisión humana híbrida que procesan 10 millones de marcas diarias con aproximadamente un 70 % de precisión de IA.
La eliminación excesiva de publicaciones LGBTQ+ por parte de Instagram en 2024, con tasas de error que se dispararon un 15%, demostró cómo los sistemas de IA pueden afectar desproporcionadamente a las comunidades al usar un lenguaje que, fuera de contexto, parece denunciable. Estas limitaciones hacen que la moderación totalmente automatizada siga siendo poco práctica para tomar decisiones de contenido con matices.
Marcos legales y regulatorios para la moderación de contenido
La mayoría de las empresas de redes sociales operan a nivel mundial y enfrentan obligaciones y riesgos de responsabilidad específicos de cada jurisdicción. Esto genera una multiplicidad de requisitos legales que condicionan las prácticas de moderación en diferentes mercados, lo que a veces conlleva una aplicación inconsistente y, en otras ocasiones, impulsa cambios en las políticas de toda la plataforma.
Estados Unidos: La Sección 230 y los debates en curso
La Sección 230 de la Ley de Decencia en las Comunicaciones sienta las bases para la moderación de contenido en Estados Unidos. Ofrece dos protecciones fundamentales: inmunidad para el contenido de terceros publicado por los usuarios y protección de "buen samaritano" para las iniciativas de moderación voluntaria. Este marco ha protegido a las plataformas de más de 100.000 demandas anuales, permitiéndoles alojar miles de millones de publicaciones de usuarios sin asumir la responsabilidad del editor por cada una de ellas.
La ley distingue entre los "servicios informáticos interactivos" y las editoriales, lo que significa que las plataformas no son legalmente responsables del contenido publicado por otros, como lo son los periódicos de sus artículos. Esta inmunidad existe junto con la protección de las medidas de moderación: las plataformas pueden eliminar contenido sin ser responsables del contenido restante.
Sin embargo, los debates y propuestas legislativas en curso en EE. UU. buscan limitar la Sección 230. La KOSA (Ley de Seguridad Infantil en Internet) y propuestas similares buscan restringir la inmunidad por daños a menores y recomendaciones algorítmicas. Más de 50 leyes estatales abordan actualmente diversos aspectos del contenido en línea, lo que genera complejidad para el cumplimiento normativo. Casos como Gonzalez v. Google (2023) cuestionaron si los algoritmos de recomendación deberían modificar el análisis de responsabilidad, aunque la Corte Suprema finalmente se negó a pronunciarse sobre esa cuestión específica.
Los críticos argumentan que las nuevas reglas de responsabilidad podrían ser una carga para las pequeñas plataformas que no pueden afrontar los costos de moderación anuales de 5 a 10 mil millones de dólares que pueden soportar empresas como Meta, lo que podría consolidar las ventajas de las empresas existentes.
Unión Europea: Ley de Servicios Digitales
La Ley de Servicios Digitales de la UE, vigente desde 2024, impone obligaciones sustanciales a las plataformas en línea de gran tamaño. Las plataformas con más de 45 millones de usuarios en la UE deben:
-
Realizar evaluaciones de riesgos sistémicos para detectar daños que incluyan desinformación y contenido ilegal.
-
Publicar informes de transparencia que detallen las acciones de moderación
-
Implementar sistemas de notificación y acción que permitan a los usuarios marcar contenido ilegal
-
Proporcionar explicaciones significativas para las eliminaciones de contenido
-
Permitir apelaciones de usuarios con resolución oportuna
La aplicación de la ley es enérgica: TikTok se enfrentó a una multa de 345 millones de euros en 2024 por violaciones de datos infantiles. El informe de transparencia de Meta del cuarto trimestre de 2025 detalló 1200 millones de eliminaciones de contenido, lo que proporcionó una visibilidad sin precedentes de la escala de moderación.
Otros marcos notables
La NetzDG alemana exige la retirada de mensajes de odio claramente ilegales en 24 horas, con multas de hasta 50 millones de euros. Los estudios sugieren que esto ha provocado aproximadamente un 30% de censura colateral: contenido legítimo eliminado para evitar responsabilidades.
La ley Avia de Francia apunta al odio en línea, aunque los desafíos constitucionales han modificado su alcance.
La Ley de Seguridad en Línea del Reino Unido (en vigor desde 2025) impone requisitos de “deber de cuidado” con la supervisión de Ofcom, lo que potencialmente hace que las plataformas sean responsables de los daños incluso causados por contenido legal si no implementan sistemas de seguridad.
La AB 587 de California exige la divulgación de las políticas y prácticas de moderación, centrándose en la transparencia de la plataforma en lugar de en requisitos de contenido específicos.
Estos marcos impulsan colectivamente a las plataformas a adoptar medidas de seguridad proactivas, pero corren el riesgo de inhibir la expresión legítima mediante la eliminación excesiva motivada por preocupaciones de responsabilidad.
Responsabilidad de la plataforma, difamación y debates entre editores y plataformas
La distinción conceptual entre ser un "editor" (medios de comunicación tradicionales) y un "servicio informático interactivo" (plataformas) se somete cada vez más a un escrutinio riguroso. Los editores ejercen un criterio editorial sobre el contenido que distribuyen; históricamente, las plataformas se limitaban a alojar contenido de terceros sin aval.
La amplificación algorítmica complica esta dicotomía. Cuando las plataformas recomiendan contenido a los usuarios, ¿ejercen un criterio editorial comparable al de las decisiones de portada de un periódico? La demanda de Dominion Voting de 2024 contra X por amplificar afirmaciones electorales falsas puso de relieve cómo la promoción pagada y la amplificación algorítmica pueden desdibujar los límites entre el alojamiento pasivo y la distribución activa.
Las decisiones judiciales siguen sin resolverse, y la literatura académica cuestiona cada vez más si los sistemas de recomendación deberían dar lugar a un análisis de responsabilidad diferente. Los académicos argumentan que los motores de búsqueda y las redes sociales hacen más que mostrar contenido pasivamente: seleccionan activamente experiencias basadas en predicciones sobre la interacción del usuario.
Los cambios en las normas de responsabilidad podrían tener importantes repercusiones para las plataformas alternativas y los nuevos participantes. Los servicios más pequeños carecen de los recursos financieros necesarios para una infraestructura de moderación a escala meta, lo que significa que una mayor exposición a la responsabilidad podría reducir la competencia y la innovación en el sector de las plataformas digitales.
Actores no estatales y de la sociedad civil en la moderación de contenidos
La gobernanza de las plataformas se extiende más allá de los estados y las empresas tecnológicas, a un espacio multisectorial que incluye ONG, periodistas, investigadores, anunciantes y comunidades de usuarios. Este ecosistema de actores define normas, supervisa el comportamiento y desarrolla modelos de gobernanza alternativos al margen de los canales regulatorios formales.
Los actores de la sociedad civil incluyen ONG de derechos humanos, grupos de derechos digitales, verificadores de datos independientes, laboratorios académicos y colectivos de base. Sus contribuciones abarcan desde la participación directa en procesos de moderación hasta el desarrollo de conocimientos especializados, campañas de incidencia política e iniciativas normativas que influyen tanto en las políticas de las plataformas como en los marcos regulatorios.
Organizaciones como Access Now, el Foro de Gobernanza de Internet y la Red Internacional de Verificación de Datos de Poynter (que verifica más de 10 000 afirmaciones mensualmente) representan diferentes nodos de este ecosistema. Su labor define las normas vigentes en materia de transparencia, rendición de cuentas y derechos de los usuarios en la moderación de contenido.
Contribuciones directas e indirectas a la moderación
Los usuarios de redes sociales participan en actividades de moderación directa que van más allá de simplemente ver contenido. Reportar contenido, silenciar o bloquear cuentas, suscribirse a canales de verificación de datos de la comunidad y participar en proyectos de etiquetado colaborativos, como las notas comunitarias de X, influyen en lo que circula y su prominencia.
Los denunciantes de confianza, bajo marcos como la Ley de Seguridad Digital de la UE, reciben una revisión prioritaria de sus informes, con una tasa de respuesta de aproximadamente el 90 % en comparación con los informes de usuarios generales. Estas organizaciones —a menudo ONG especializadas en categorías específicas de daños— se comprometen a la precisión y la capacidad de respuesta a cambio de una tramitación rápida. Los procesos de selección siguen siendo opacos, lo que plantea dudas sobre la rendición de cuentas y la posibilidad de que sean captados por intereses particulares.
Los sistemas de denuncia se enfrentan a riesgos de abuso. Durante las elecciones de 2024 en India, las denuncias alineadas con la oposición se dispararon un 300 %, ya que las campañas políticas utilizaron mecanismos de denuncia contra los oponentes. Solo una parte de las denuncias resultan en medidas coercitivas, y las campañas de acoso a gran escala pueden saturar los sistemas de revisión.
Las plataformas descentralizadas demuestran modelos de moderación alternativos. Los más de 10 000 administradores voluntarios de Mastodon moderan a 2 millones de usuarios mediante la federación, y cada servidor establece reglas locales. Durante las elecciones estadounidenses de 2024, algunos servidores bloquearon por completo a los migrantes de QAnon, una decisión de moderación a nivel comunitario imposible en plataformas centralizadas. Los subreddits de Reddit también dependen de equipos de moderadores voluntarios que aplicaron las normas de emergencia durante las oleadas de desinformación de la COVID-19, lo que demuestra una moderación distribuida a gran escala.
Experiencia, investigación y aportes de políticas
Juristas, investigadores de seguridad y tecnólogos de la sociedad civil aportan conocimiento especializado a las prácticas de moderación. Asesoran sobre las definiciones de discurso de odio que distinguen el discurso protegido de la incitación, desarrollan marcos de evaluación de riesgos para evaluar los sistemas de las plataformas y crean metodologías de auditoría algorítmica que revelan impactos dispares.
Esta experiencia fluye a través de múltiples canales: códigos que definen categorías de daño, estudios de medición que evalúan los efectos de degradación y descenso de rango, investigación empírica sobre la difusión de desinformación y la eficacia de las intervenciones. Un estudio del MIT de 2025 sobre el sesgo en Reddit reveló una eliminación excesiva del 15% del discurso progresista, lo que ilustra cómo la investigación académica puede revelar problemas sistémicos invisibles para las propias plataformas.
La preocupación por la captura regulatoria complica este ecosistema. Aproximadamente el 60% de la investigación relacionada con plataformas recibe algún tipo de financiación, ya sea mediante subvenciones directas, acuerdos de acceso a datos o contratación de investigadores. Cuando los expertos dependen de los recursos de la plataforma, su independencia se enfrenta a presiones estructurales, incluso en ausencia de intentos explícitos de influencia.
Iniciativas colaborativas como informes de transparencia, auditorías independientes y colaboraciones académicas buscan evaluar empíricamente los resultados de la moderación. Los Principios de Santa Clara sobre transparencia y apelaciones, adoptados por más de 50 grupos desde 2018, surgieron de la colaboración de la sociedad civil para establecer expectativas básicas para la rendición de cuentas de las plataformas.
Defensa, roles de vigilancia y establecimiento de normas
Las campañas de incidencia política traducen la preocupación pública en presión sobre las plataformas. Los boicots de anunciantes (#DeleteFacebook 2024), las cartas públicas de organizaciones de la sociedad civil y las campañas con hashtags han impulsado cambios en las políticas sobre discursos de odio, anuncios políticos y acoso. Estas campañas aprovechan la vulnerabilidad del modelo de negocio —la sensibilidad de los anunciantes a la seguridad de la marca— para lograr objetivos políticos que los procesos regulatorios podrían no alcanzar.
Los grupos de la sociedad civil han desarrollado marcos normativos que abordan la transparencia, el debido proceso y la proporcionalidad en las decisiones de moderación. Estos principios influyen directamente en las políticas de las plataformas (las ampliaciones de las apelaciones de Meta para 2025 se basaron en las aportaciones de la sociedad civil) y configuran las agendas regulatorias (los requisitos de la DSA se asemejan a muchos estándares desarrollados por ONG).
Las organizaciones de vigilancia documentan las fallas que las plataformas prefieren ocultar. Los informes han revelado una aplicación insuficiente de la normativa en idiomas minoritarios (el contenido en suajili recibe una moderación cinco veces menor que el del inglés), un trato desigual a los actores políticos y una aplicación inconsistente de las normas en las distintas regiones. Esta función de documentación proporciona una base empírica tanto para las campañas de promoción como para las intervenciones regulatorias.
Las asimetrías de poder persisten a pesar de la influencia de la sociedad civil. Las plataformas conservan la máxima autoridad en la toma de decisiones, el acceso a datos y recursos que eclipsan incluso a las ONG con mayor financiación. La participación de la sociedad civil en la gobernanza sigue dependiendo de la cooperación entre plataformas, en lugar de estar garantizada por derecho, lo que limita el impacto estructural incluso cuando las campañas individuales tienen éxito.
Principales desafíos y compensaciones en la moderación de las redes sociales
Ningún sistema de moderación puede maximizar simultáneamente la libertad de expresión, la seguridad, la privacidad y la equidad. Las compensaciones son inevitables, y los puntos de equilibrio se debaten políticamente, no se determinan técnicamente. Comprender estas tensiones ayuda a explicar por qué las políticas de moderación siguen siendo siempre controvertidas, independientemente de las decisiones específicas.
La escala supera la capacidad humana. Solo TikTok procesa 500 millones de publicaciones diarias en más de 100 idiomas. Con este volumen, se hace necesaria una automatización del 99 %, pero las máquinas carecen del criterio contextual que ofrecen los humanos. Los procesos de moderación que funcionaban para comunidades más pequeñas no pueden escalar a miles de millones de usuarios de redes sociales.
El contexto elude la detección automática. La sátira de The Onion ha sido eliminada por ser contenido amenazante. Los clips de noticias que informan sobre violencia se clasifican como promoción del daño. La desnudez artística se somete a los mismos filtros que la pornografía explícita. Los grupos marginados que reclaman insultos activan la detección de discurso de odio diseñada para protegerlos. Cada intervención correcta genera falsos positivos que afectan la expresión legítima.
El sesgo sistémico afecta a diferentes poblaciones de forma desigual. Informes de 2024 documentaron tasas de eliminación un 40 % mayores para contenido en lenguas africanas que para el inglés, lo que refleja sesgos en los datos de entrenamiento que perjudican a los usuarios no occidentales. Las políticas de moderación desarrolladas en Silicon Valley pueden codificar supuestos culturales que no se traducen adecuadamente entre los usuarios de internet de todo el mundo.
La velocidad y el debido proceso son inherentemente conflictivos. El abuso sexual infantil requiere un bloqueo en segundos para minimizar el daño. Sin embargo, las apelaciones de los usuarios tardan días o semanas, y solo aproximadamente el 20% de las apelaciones de Meta tienen éxito en medio de explicaciones opacas. La eliminación rápida protege a los usuarios de daños, pero niega la equidad procesal a quienes son marcados incorrectamente.
La intervención gubernamental corre el riesgo de ser capturada. La presión regulatoria puede mejorar la coherencia, pero también facilita la censura estatal disfrazada de cumplimiento de la plataforma. Las mismas herramientas legales que exigen la eliminación del discurso de odio pueden obligar a la eliminación del discurso político que los gobiernos desaprueban.
Desinformación, desinformación y salud pública
Las campañas de desinformación y desinformación explotan las características de la plataforma diseñadas para maximizar la interacción. Los algoritmos de recomendación amplifican el contenido con repercusión emocional, independientemente de su precisión. Los grupos privados y los canales de mensajería permiten la propagación viral con mínima supervisión. El intercambio entre plataformas permite que el contenido prohibido en un servicio se propague en otros.
La desinformación sanitaria sobre la COVID-19 (2020-2022) demostró esta dinámica a gran escala. Las afirmaciones falsas sobre la ivermectina, los peligros de las vacunas y el origen del virus alcanzaron los 100 millones de visualizaciones antes de que las etiquetas y las reducciones de rango redujeran su difusión en aproximadamente un 50 %, según estudios publicados por las plataformas. Las afirmaciones falsas relacionadas con las elecciones en EE. UU., Brasil, India y otros países siguieron patrones similares, con redes conspirativas migrando a Telegram y otras plataformas alternativas tras la prohibición de las principales redes sociales.
Las intervenciones de la plataforma incluyen:
|
Intervención |
Descripción |
Eficacia |
|---|---|---|
|
Etiquetas |
Pantalla de advertencia que indica reclamaciones en disputa |
Reducción moderada de las acciones |
|
Asociaciones de verificación de datos |
Verificadores de hechos externos revisan afirmaciones virales |
Más de 90 organizaciones participan a nivel mundial |
|
Distribución reducida |
Reducción algorítmica de la clasificación del contenido marcado |
Reducción del alcance del 50-80% |
|
Suspensión de cuenta |
Eliminación de cuentas de infractores reincidentes |
Traslada a los usuarios a plataformas alternativas |
Las investigaciones sugieren que las falsedades con carga emocional se propagan más rápido que las correcciones objetivas, lo que complica las estrategias de moderación centradas en el contradiscurso en lugar de la eliminación. La preferencia algorítmica por el contenido que genera interacción favorece estructuralmente las afirmaciones sensacionalistas sobre la precisión meticulosa.
La preocupación por la extralimitación acompaña a cada intervención. Las colaboraciones para la verificación de datos se enfrentan a acusaciones de sesgo cuando verifican afirmaciones que afectan al discurso político. Los bloqueos judiciales de contenido de plataformas en Brasil en 2024 pusieron de relieve cómo los marcos "antidesinformación" pueden contribuir a la intervención gubernamental contra la oposición política legítima. La aplicación selectiva de la ley sigue siendo posible incluso con sistemas de buena fe, y la información personal identificable sobre quién denuncia el contenido plantea problemas de privacidad.
Protección de menores y usuarios vulnerables
Los daños específicos a menores exigen enfoques de moderación específicos. El contenido de autolesión, las comunidades de trastornos alimentarios, el material de explotación sexual, el acoso y los bucles de recomendación altamente adictivos han documentado efectos negativos en los usuarios jóvenes. Las investigaciones vinculan el uso de Instagram con problemas de imagen corporal entre las adolescentes, mientras que el algoritmo de TikTok, que maximiza la interacción, puede atrapar a usuarios vulnerables en espirales de contenido dañino.
Las respuestas de la plataforma incluyen:
-
Códigos de diseño apropiados para la edad que requieren configuraciones de privacidad predeterminadas para usuarios más jóvenes
-
Restricciones publicitarias que limitan la publicidad dirigida a menores en función de datos personales
-
Restricciones de contenido que reducen la exposición a dicho contenido que promueve la autolesión o los trastornos alimentarios.
-
Límites de tiempo que permiten a los usuarios establecer límites de uso con controles parentales
El Código de Diseño Apropiado para la Edad del Reino Unido fue pionero en la exigencia de requisitos regulatorios para la seguridad desde el diseño, influyendo en marcos similares en otros lugares. Sin embargo, persisten los desafíos de implementación: la verificación de edad solo alcanza una precisión aproximada del 70%, y usuarios decididos pueden eludir las restricciones. La aplicación multiplataforma sigue siendo deficiente cuando el contenido prohibido en las principales plataformas de redes sociales migra a servicios con menos usuarios y una moderación menos estricta.
Los reguladores y los grupos de defensa presionan para que se establezcan obligaciones de deber de cuidado más estrictas, responsabilizando a las plataformas de forma proactiva ante los daños previsibles, en lugar de simplemente reaccionar ante el contenido denunciado. Esto representa un cambio significativo respecto del modelo de inmunidad de las plataformas de la Sección 230 hacia responsabilidades de seguridad afirmativas.
Respetar las capacidades evolutivas de los jóvenes añade complejidad. Los adolescentes tienen intereses legítimos en la privacidad, la autonomía y el acceso a la información, que las restricciones paternalistas pueden socavar. Equilibrar la protección contra daños genuinos y permitir a los usuarios la autonomía sobre sus propias experiencias requiere matices que las políticas de contenido general tienen dificultades para ofrecer.
Direcciones futuras y opciones de gobernanza
Los debates sobre la moderación de contenido están pasando de las decisiones individuales de eliminación a la gobernanza a nivel de sistema. En lugar de preguntarse "¿debería mantenerse esta publicación?", los legisladores se preguntan cada vez más "¿qué estructuras de transparencia, rendición de cuentas y ventaja competitiva deberían regir las plataformas en general?".
Las obligaciones de transparencia reforzadas representan una dirección. Las propuestas exigen métricas públicas detalladas sobre eliminaciones, degradaciones, apelaciones y tasas de error, desglosadas por país, idioma y tipo de contenido. Estos datos permitirían a usuarios, investigadores y reguladores evaluar el rendimiento de la plataforma empíricamente, en lugar de depender de los informes de la propia plataforma. Las métricas exigidas por la DSA ya revelan información previamente oculta: los informes de Meta para 2025 detallaron tasas de eliminación proactiva de spam del 95 %, lo que proporciona datos de referencia para evaluar la aplicación de la ley.
Los organismos de supervisión independientes ofrecen otro modelo de gobernanza. La Junta de Supervisión de Meta revisa aproximadamente 500 casos al año y emite decisiones vinculantes sobre disputas de contenido de alto perfil. Las propuestas para ampliar este modelo incluyen consejos asistidos por IA que gestionen un mayor volumen de casos y oficinas de defensores del pueblo que aborden riesgos sistémicos en lugar de decisiones individuales. Estas estructuras buscan reducir la autoridad unilateral de las plataformas sobre decisiones de libertad de expresión que afectan a miles de millones de personas.
Las propuestas de interoperabilidad y portabilidad de datos abordan la dinámica competitiva. Los requisitos de la DMA de la UE que permiten la portabilidad de los grafos sociales podrían reducir el efecto de bloqueo que mantiene a los usuarios en las plataformas a pesar de su insatisfacción con las políticas de moderación. Si los usuarios pudieran trasladar sus redes de amigos a plataformas alternativas, la presión competitiva podría mejorar la calidad de la moderación.
Las plataformas descentralizadas y federadas experimentan con una gobernanza configurable por el usuario. La federación de Mastodon permite a los usuarios elegir servidores con políticas de moderación que se ajusten a sus preferencias. Los jurados comunitarios de Bluesky, evaluados durante la cobertura electoral de 2025, demostraron decisiones de moderación colaborativas. Reddit permite feeds personalizados que muestran contenido basado en la selección de la comunidad, en lugar de la optimización algorítmica.
La evolución técnica continúa junto con los debates sobre gobernanza. Se proyecta que los modelos de IA multimodal que combinan análisis de texto, imagen y video alcanzarán una precisión contextual del 98 % para 2027, lo que podría reducir tanto los falsos positivos como los falsos negativos. Sin embargo, los avances de la inteligencia artificial plantean sus propias preocupaciones sobre la opacidad, el sesgo y la concentración de poder en los sistemas que configuran el discurso público.
Conclusiones clave
-
La moderación de contenido en las redes sociales abarca mucho más que las eliminaciones: incluye clasificar, etiquetar, desmonetizar y restringir contenido en las principales plataformas que manejan miles de millones de publicaciones diarias.
-
Los algoritmos de recomendación y la optimización de la interacción crean tensiones estructurales con los objetivos de moderación y, a menudo, amplifican el contenido dañino antes de que se implemente la ley.
-
Los modelos de negocio que dependen de los ingresos publicitarios crean presiones competitivas por parte de los usuarios, los anunciantes, los reguladores y la sociedad civil.
-
Los ecosistemas de moderación combinan premoderación, posmoderación, señalización reactiva, detección automatizada y enfoques liderados por la comunidad.
-
Los moderadores humanos enfrentan graves impactos psicológicos por revisar contenido gráfico y no reciben el apoyo adecuado a pesar de los programas de bienestar de la plataforma.
-
Los marcos legales como la Sección 230 y la Ley de Servicios Digitales configuran las obligaciones de las plataformas de manera diferente en las distintas jurisdicciones.
-
La sociedad civil contribuye mediante la participación directa, el desarrollo de conocimientos, campañas de promoción e iniciativas de establecimiento de normas.
-
Los equilibrios fundamentales entre escala, contexto, velocidad y debido proceso garantizan una controversia continua independientemente de las políticas específicas
-
La gobernanza del futuro se centra cada vez más en la rendición de cuentas sistémica, la transparencia, la interoperabilidad y el empoderamiento del usuario en lugar de en las decisiones individuales sobre el contenido.
Conclusión
La moderación de contenido se encuentra en la intersección de la tecnología, el derecho, los negocios y los valores humanos. Los sistemas que rigen lo que miles de millones de personas ven en las redes sociales moldean el discurso político, la salud pública, las oportunidades económicas y el bienestar individual. Comprender cómo funcionan estos sistemas —desde la clasificación algorítmica hasta la revisión humana y los marcos regulatorios— proporciona un contexto esencial para participar en los debates sobre su futuro.
No existe una solución perfecta. Toda decisión de moderación implica concesiones entre valores contrapuestos, y estas concesiones reflejan decisiones políticas más que necesidades técnicas. Lo que podemos exigir es transparencia en la toma de decisiones, rendición de cuentas cuando los sistemas fallan y oportunidades significativas para que los usuarios afectados impugnen las decisiones que los perjudican.
A medida que las capacidades de la IA avanzan y los marcos regulatorios maduran, la moderación de contenido seguirá siendo un desafío político, empresarial y ético central. La era digital exige una participación continua de usuarios, investigadores, defensores y legisladores dispuestos a abordar la complejidad en lugar de refugiarse en simples eslóganes sobre libertad de expresión o seguridad. Hay mucho en juego —para el discurso público, para los usuarios vulnerables y para la gobernanza democrática— como para cualquier otra cosa.
- Compartir en:
- Deel
- Tweet
- Póngale un alfiler.
- Messenger
- Correo electrónico