
- La moderación de contenidos es el proceso por el cual las plataformas de redes sociales controlan qué contenidos son admitidos en sus espacios. En términos generales, el proceso integra tres etapas: definición de normas, detección de infracciones y toma de acciones.
- La moderación de contenidos en línea constituye desde hace bastante un tema de discusión relevante para el ejercicio de la libertad de expresión. La llegada de sistemas automatizados de detección de contenidos “perjudiciales o dañinos” supone amenazas adicionales por el volúmen de información que ahora puede ser censurada, los parámetros elegidos de forma privada para bloquear contenido, la presencia de sesgos, entre otros.
- La Sección 230 de la Ley en la Decencia en las Comunicaciones en Estados Unidos es un instrumento jurídico esencial para entender las obligaciones y las posibilidades de las redes sociales en cuanto a los contenidos producidos por sus usuarios alrededor del mundo.
- Los periodistas se enfrentan a riesgos especiales cuando se trata de las redes sociales. Aunque estas plataformas no suelen tener normas especiales para atender estos riesgos, las normas generales que han contemplado pueden ser útiles en estos casos.
- Las plataformas saben que en sus procesos de moderación se cometen errores. Por esto han establecido mecanismos de apelación para que sus usuarios soliciten la revisión de sus decisiones.
Introducción
Innegablemente, las redes sociales han potenciado la libertad de expresión alrededor del mundo. Sin embargo, su adopción también ha generado retos legales y sociales que se mantienen vigentes actualmente. ¿Cuáles deben ser las normas aplicables a entornos que por naturaleza no tienen fronteras? ¿Cómo controlan las plataformas los contenidos problemáticos que sus usuarios generan? ¿Tienen las redes sociales la obligación de controlar tales contenidos? En este módulo se abordarán estas y otras cuestiones relacionadas con las redes sociales y la libertad de expresión.
I. Moderación de contenidos
¿Qué es la moderación de contenidos en redes sociales?
Moderación de contenidos es el proceso de supervisar y evaluar el contenido generado por usuarios en plataformas en línea, como redes sociales, foros, sitios de noticias o aplicaciones de mensajería.
La moderación de contenidos que realizan las plataformas de redes sociales, en términos generales, el proceso integra tres etapas:
- Definición y publicación de normas: las plataformas definen reglas para gobernar sus espacios. Estas reglas pueden ir desde la prohibición de publicar contenidos que muestren desnudos hasta la prohibición de vender órganos usando estos espacios. Como explican Ángel Díaz y Laura Hecht-Felella, “aunque las formulaciones específicas difieren de una plataforma a otra, estas pautas suelen ser más similares que diferentes. En la práctica, las eliminaciones en casos de alto perfil en una plataforma tienden a ser reflejadas por otras plataformas importantes, independientemente de las diferencias en el lenguaje específico de sus respectivas normas”[1].
Las reglas no están grabadas en piedra. Por el contrario, ellas cambian constantemente. En sus inicios, plataformas como Facebook y YouTube tenían conjuntos de reglas muy sencillos que luego fueron evolucionando mientras las mismas plataformas evolucionaron. Por ejemplo, en 2006, las reglas de YouTube cabían en una página[2]:

Hoy en día, las normas de YouTube tienen un sitio dedicado con decenas de subpáginas y cientos de reglas[3]. Las reglas pueden ser bastante detalladas, mucho más de lo que suelen ser las leyes nacionales. Por ejemplo, la política sobre lenguaje que incita al odio de Meta prohíbe ciertos comentarios contra personas en función de las “características protegidas” de raza, etnia, nacionalidad, discapacidad, religión, casta, orientación sexual, sexo, identidad de género y enfermedad grave. Esta política prevé casos tan específicos como el siguiente: Facebook prohíbe los insultos “excepto determinados insultos basados en género en el contexto de una ruptura amorosa, que se definen como (…) frases o términos ofensivos con la intención de insultar, incluidos, entre otros: ‘cabrón’, ‘hijo de perra’”.
- Detección de posibles infracciones: a continuación, las plataformas despliegan sistemas de detección de posibles infracciones, los cuales combinan tanto herramientas automatizadas como moderación humana. Estos sistemas automatizados utilizan algoritmos e inteligencia artificial para identificar contenido que pueda violar las normas. Por ejemplo, pueden detectar imágenes o texto que contengan violencia gráfica o contenido sexualmente explícito. Sin embargo, debido a la complejidad y la naturaleza subjetiva del contenido, la moderación también requiere intervención humana. Los moderadores humanos revisan y evalúan el contenido identificado por los sistemas automatizados o reportado por los usuarios, considerando factores como el contexto cultural que los sistemas automatizados no siempre pueden considerar.
De acuerdo con Meta, sus sistemas automatizados detectan más del 90% del contenido sobre el que toman acciones para la mayoría de sus políticas[4]. Esta empresa publica un informe de transparencia en el que indica qué porcentaje de los casos de infracciones fueron detectados proactivamente por la plataforma y cuántos a través del reporte de usuarios[5].


- Toma de acciones: finalmente, las plataformas pueden eliminar los contenidos que consideran infractores y tomar otro tipo de acciones. Por ejemplo, en términos generales, Meta toma tres tipos de medidas: eliminar (contenidos o cuentas), reducir (la distribución de contenido, ”incluso cuando no se contempla del todo en la norma de eliminación en virtud de nuestras políticas”) e informar (agregando advertencias o información adicional para dar contexto a los usuarios)[7].
II. Moderación de contenidos automatizada
La moderación de contenidos es el proceso de supervisar y evaluar el contenido generado por usuarios en plataformas en línea, como redes sociales, foros, sitios de noticias o aplicaciones de mensajería. En términos generales, el proceso integra: (i) la creación de normas que determinan qué clase de contenidos no están permitidos, (ii) el despliegue de sistemas para detectar posibles infracciones y (iii) la imposición de restricciones a los contenidos y sanciones a los usuarios. Este proceso suele llevarse a cabo con una combinación de moderación manual realizada por humanos y, sobre todo, algoritmos de moderación automatizada.
La moderación de contenidos puede seguir distintos modelos[8]:
- Premoderación: bajo este modelo, para que un usuario pueda publicar sus contenidos en redes sociales o plataformas en línea, la misma tiene que pasar primero por la revisión manual de un moderador. La revisión determinará si el contenido es apropiado para ser publicado o si debe ser rechazado.
- Posmoderación: bajo este modelo, el usuario sube la información que desee y esta se publica instantáneamente, sin necesidad de que pase primero por un filtro o el visto bueno de un moderador.
- Moderación reactiva: bajo este modelo, los contenidos subidos por usuarios a las plataformas digitales son publicados sin restricciones y la moderación ocurre solamente como respuesta a quejas, denuncias o peticiones presentadas por los usuarios. Es decir, los contenidos perjudiciales permanecen en línea mientras no sean denunciados.
- Moderación distribuída: bajo este modelo, la decisión sobre qué contenidos pueden mantenerse y cuáles necesitan ser removidos recae completamente en la comunidad, a través de un mecanismo de votación o el apoyo a una iniciativa de remoción o bloqueo específica.
Por lo general, las plataformas más populares combinan estos enfoques: pasan por filtros cada contenido que se publica para tratar de identificar las violaciones más graves de sus políticas (como, por ejemplo, los contenidos de explotación sexual infantil), pero también dejan abierta la posibilidad a las denuncias de la comunidad.
La moderación automatizada de contenidos suele presentarse como la mejor alternativa en estos casos, puesto que permite una moderación instantánea y disponible en todo momento. Este tipo de moderación permite la remoción de contenidos perjudiciales al tiempo que no se obstaculiza la experiencia del usuario con tiempos de espera demasiado largos. Adicionalmente, remueve parte de la carga psicológica a la que miles de moderadores humanos se exponen a diario, al tener que revisar contenidos violentos[9].
a. Moderación de contenidos e Inteligencia Artificial
Se deben distinguir dos escenarios:
Moderación de contenidos generados con IA Contenido generado con Inteligencia Artificial puede crear o contribuir a generar un daño y afectación de derechos digitales. Por ejemplo, los deepfakes de pornografía. [10] | IA como herramienta para la moderación de contenido a gran escala Leer más sobre cómo funciona: How Automated Content Moderation Works (Even When It Doesn’t) URL: https://themarkup.org/automated-censorship/2024/03/01/how-automated-content-moderation-works-even-when-it-doesnt-work |
Difamación y responsabilidad por el uso de la IA
Algunos desarrolladores de IA han argumentado en procesos legales que se trata de una herramienta, por lo que no serían responsables del contenido generado, sino el usuario.
En Estados Unidos se estudia un caso en contra de OpenAI que está siendo demandado por difamación después de que ChatGPT resumiera un caso judicial y supuestamente dijera erróneamente que Mark Walters cometió fraude. EL principal argumento de defensa es que se trata de una herramienta que no publica, aunque si tiene algunas fallas (alucinaciones) del algoritmo, quien publica es un tercero quien debe ser responsable al conocer sobre las limitaciones de la herramienta y no tomar las precauciones correspondientes. Para saber más, https://aibusiness.com/responsible-ai/is-there-freedom-of-speech-for-ai-chatgpt-is-sued-for-libel
Este precedente resulta relevante en un contexto en el que los periodistas exploran como integrar nuevas herramientas en su labor investigativa.
Algunos desarrolladores de IA han argumentado en procesos legales que se trata de una herramienta, por lo que no serían responsables del contenido generado, sino el usuario.
En Estados Unidos se estudia un caso en contra de OpenAI que está siendo demandado por difamación después de que ChatGPT resumiera un caso judicial y supuestamente dijera erróneamente que Mark Walters cometió fraude. EL principal argumento de defensa es que se trata de una herramienta que no publica, aunque si tiene algunas fallas (alucinaciones) del algoritmo, quien publica es un tercero quien debe ser responsable al conocer sobre las limitaciones de la herramienta y no tomar las precauciones correspondientes. Para saber más, https://aibusiness.com/responsible-ai/is-there-freedom-of-speech-for-ai-chatgpt-is-sued-for-libel
Este precedente resulta relevante en un contexto en el que los periodistas exploran como integrar nuevas herramientas en su labor investigativa.
b. Moderación de contenidos y contenidos periodísticos
Los periodistas también pueden enfrentarse a los errores de la moderación de contenidos. Las reglas de las plataformas suponen que, en ocasiones, publicaciones dedicadas a informar al público sobre algún incidente sean removidas de manera injusta.
Por ejemplo, en agosto de 2019, un periodista de Suecia publicó una fotografía de stock representando a una niña en estado de angustia y la acompañó con la descripción de un incidente de violencia sexual dirigido a dos niñas. La publicación daba detalles sobre las víctimas y los eventos, además de criticar la manera negligente en la cual el sistema judicial había tratado el incidente. Meta eliminó la publicación al considerar que infringía sus políticas relativas a explotación sexual infantil, abuso y desnudez. Sin embargo, la empresa posteriormente restituyó la publicación al notar que en realidad buscaba informar[11]. Otro caso similar ocurrió en 2022, cuando un periódico en idioma urdu basado en la India informó en Facebook que los talibanes reabrirían escuelas para mujeres y niñas en marzo. Meta eliminó la publicación porque, bajo sus sistemas de moderación de contenidos, erróneamente identificó que el contenido elogiaba a la organización, violando sus políticas sobre grupos terroristas. Después de una apelación, Meta restableció la publicación y removió las restricciones aplicadas a la página al encontrar que se escribía desde un tono neutral que no hacía apología al terrorismo[12].
c. Principios de la sociedad civil sobre moderación de contenidos
Desde la sociedad civil global se han propuesto dos grupos importantes de principios en relación con los contenidos en plataformas y la responsabilidad de las empresas. Por una parte, están los Principios de Manila sobre Responsabilidad de Intermediarios, publicados en 2015. Estos seis principios son un marco de referencia para los tomadores de decisiones en relación con la legislación y políticas públicas relacionadas con intermediarios de internet por el contenido que producen sus usuarios[13]. En términos generales, los principios establecen lo siguiente:
- No debe requerirse la restricción de contenidos sin una orden emitida por una autoridad judicial.
- Las solicitudes de restricción de contenidos deben ser claras, inequívocas y respetar el debido proceso
- Las leyes, órdenes y prácticas de restricción de contenidos deben cumplir con los tests de necesidad y proporcionalidad.
- Las leyes, políticas y prácticas de restricción de contenido deben respetar el debido proceso.
- La transparencia y la rendición de cuentas deben ser incluidas dentro de la normativa, políticas y prácticas sobre restricción de contenido
Posteriormente, en 2018, organizaciones de la sociedad civil publicaron los Principios de Santa Clara, los que se centran en la transparencia, los procesos y la rendición de cuentas en la moderación de contenidos[14]. Por ejemplo, los principios establecen que las empresas deben publicar información sobre la cantidad de contenidos y cuentas eliminadas por país o región, con información sobre las políticas violadas. Además, las plataformas deben dar suficiente información a los usuarios sobre las sanciones aplicadas en contra de sus contenidos o cuentas y darles la oportunidad de apelar sus decisiones.
III. Los problemas de la moderación de contenidos
Las redes sociales cumplen un papel clave facilitando la conexión entre personas alrededor del mundo e impulsando la libertad de expresión. Sin embargo, sus procesos de moderación son imperfectos. Como explican Díaz y Hecht-Felella:
…las normas privadas que rigen el acceso a este servicio pueden resultar en experiencias divergentes entre diferentes poblaciones. Aunque las empresas de redes sociales adornan sus políticas de moderación de contenido con el lenguaje de los derechos humanos, sus acciones están principalmente impulsadas por las prioridades comerciales, la amenaza de regulación gubernamental y la presión externa de la opinión pública y los medios de comunicación convencionales[15].
En efecto, existen numerosas preocupaciones relacionadas con la moderación automatizada[16]. Algunas de estas ellas pueden categorizarse así:
- Precisión y fiabilidad: la precisión de una herramienta de moderación depende en gran medida de la tarea para la que se entrenó. Existen herramientas dirigidas a detectar todo tipo de contenidos, como infracciones a derechos de autor o contenidos que contengan explotación sexual infantil. No obstante, estos sistemas pueden tener problemas a la hora de detectar variaciones sutiles en el lenguaje[17].
En 2017, Facebook desató controversia al bloquear una fotografía de una estatua de Neptuno en Italia, considerándola “sexualmente explícita”[18]. |
- Sesgos: la existencia de sesgos puede exacerbar la discriminación contra los grupos marginados. Por ejemplo, las herramientas de procesamiento de lenguaje natural que son menos precisas con textos que no están en inglés pueden perjudicar a las personas que no hablen otros idiomas, especialmente en el caso de idiomas subrepresentados en línea. Los sesgos culturales de los investigadores también pueden influir en los conjuntos de datos de entrenamiento, impactando lo que se considera discurso de odio o lo que se prioriza en los datos.
En marzo de 2024, Instagram censuró una imagen publicada por Men Having Babies, una organización sin fines de lucro que apoya a los hombres homosexuales que desean ser padres, que muestra a dos esposos acariciando amorosamente a su hijo, calificándola de contenido “sensible” y “gráfico”[20]. |
- Entendimiento contextual del discurso: las herramientas de moderación automática fallan muchas veces a la hora de extraer conocimientos contextuales de situaciones donde la intencionalidad no es clara. Por ejemplo, una IA puede marcar una fotografía de una mujer amamantando como desnudez cuando se trata de una expresión permitida en muchas plataformas.
En mayo de 2021, Facebook eliminó un video compartido por un medio de comunicación regional colombiano en el que mostraba a manifestantes expresando su descontento con la reforma tributaria propuesta por el Gobierno del entonces presidente Iván Duque. La plataforma eliminó el contenido porque los manifestantes se dirigían al presidente diciéndole “deja de hacerte el marica en la TV”. Por incluir la palabra “marica”, Facebook consideró que la publicación iba en contra de sus políticas sobre incitación al odio. Por eso, el término se encontraba en la lista de insultos prohibidos por Facebook.Sin embargo, el Consejo asesor de contenidos de Meta (un organismo independiente que supervisa y revisa las decisiones de moderación de contenidos tomadas por Facebook e Ínstagram) decidió revertir la decisión considerando que en Colombia esta expresión puede tener otras connotaciones, como en efecto la tenía en el video. En el contexto de este país, la expresión “hacerse el marica” equivale a “hacerse el de la vista gorda”. Es decir, ignorar algo deliberadamente, especialmente cuando se tiene la responsabilidad de reconocerlo[21].
- Falsos positivos y falsos negativos de la moderación de contenidos: El sesgo y entrenamiento de la automatización puede generar resultados incorrectos de la moderación, afectando con ello derechos. Existen numerosos casos donde publicaciones que no representan riesgos a la población son removidas injustamente y también casos donde aquellas que sí pueden resultar perjudiciales permanecen en línea por demasiado tiempo.
Por ejemplo, en noviembre de 2022, un usuario de Facebook en Perú publicó una declaración metafórica donde sugería que “colgarían” al entonces presidente Pedro Castillo de manera similar a como ocurrió con Benito Mussolini, en un contexto donde se acusaba al mandatario de corrupción y una suspensión o destitución era posible. A pesar de la eliminación inicial de la publicación por Meta, basada en políticas contra la violencia e incitación, la empresa finalmente restituyó el contenido, interpretando que no incitaba a la violencia sino que se refería a la destitución política de Castillo[1].
Por otro lado, el 3 de enero de 2023, un video publicado en Facebook incitaba a asediar el Congreso de Brasil, mostrando un discurso de un general en apoyo a Jair Bolsonaro y llamados a ocupar las sedes de los tres poderes del Estado. A pesar de múltiples reportes por violencia e incitación, inicialmente Meta no eliminó el contenido. Tras los violentos disturbios del 8 de enero, donde seguidores de Bolsonaro atacaron instituciones gubernamentales, Meta reconoció la publicación como infractora y eliminó el video y otros materiales similares el 20 de enero[2].
IV. La moderación y curación de contenidos bajo el sistema interamericano
a. El test tripartido y estándares regionales
La protección del derecho a la libertad de expresión tanto online como offline debe ser amplia, por la naturaleza de derecho fundamental y por su rol intrínseco con el sistema democrático y la participación pública. En este sentido, la Comisión Interamericana ha sostenido que “en los términos consagrados por el artículo 13 de la Convención Americana protege de igual manera tanto a los medios de comunicación tradicionales como a la expresión difundida a través de Internet”.[24] Este derecho comprende la libertad de buscar, recibir y difundir informaciones e ideas de toda índole, y de cualquier modo, así́ como que este no puede estar sujeto a censura previa, prohibiendo la restricción de este por medios indirectos.[25]
La Relatoría Especial para la Libertad de Expresión, en su informe de 2024, Inclusión Digital Y Gobernanza De Contenidos En Internet, recomendó a los Estados “Adoptar las disposiciones de derecho interno necesarias para que, conforme a sus condiciones de operación, las plataformas digitales apliquen el test tripartito y rindan garantías procesales en sus prácticas de moderación de contenidos; instituyan mecanismos de evaluación de riesgo, debida diligencia y procedimientos para evacuar quejas relacionadas con la circulación de contenidos no protegidos por el derecho a la libertad de expresión; y apliquen diligentemente y de buena fe dichos procesos”.[26]
Adicionalmente, la Relatoría hace una advertencia de que la moderación de contenidos en Latino América debe atender a los estándares regionales, que son más estrictos en la protección a la libertad de expresión, lo que implica un desafío particular:
“197. Frente a lo anterior, un punto relevante que ha advertido la Corte Interamericana es que la interpretación de un derecho amparado por la Convención Americana, si resulta ser más restrictiva en otro marco legal internacional, no justifica la adopción de esos criterios más restrictivos en el contexto de la Convención Asimismo, si bien el enfoque de la Unión Europea se resalta por ser uno de derechos, se debe tener en cuenta que el marco jurídico interamericano difiere del aplicable en el contexto de los tratados fundacionales de la Unión Europea y del Convenio Europeo de Derechos Humanos en el sentido de que “las garantías de la libertad de expresión contenidas en la Convención Americana fueron diseñadas para ser las más generosas y para reducir al mínimum las restricciones a la libre circulación de las ideas”. Esta no es una consideración discursiva, pues mientras el artículo 10 del Convenio Europeo permite “formalidades, condiciones, restricciones” que han sido interpretadas a favor de la imposición de censura previa bajo un escrutinio estricto, el artículo 13.2 de la Convención Americana establece explícitamente que el ejercicio de la libertad de expresión “no puede estar sujeto a previa censura sino a responsabilidades ulteriores”. Asimismo, la CADH contempla en su artículo 13.3 la protección explícita contra las restricciones indirectas a la libertad de expresión, y ni el Convenio Europeo ni el Pacto Internacional sobre Derechos Civiles y Políticos poseen disposiciones equiparables. La RELE también ha señalado distinciones entre las provisiones de la CADH y de otros tratados internacionales sobre derechos humanos respecto de los discursos no protegidos, como las expresiones de odio, concluyendo que su aplicación en el SIDH es más estricta.” (subrayado propio)
b. Sistemas de filtrado de contenido y libertad de expresión
De manera más puntual, en relación con los sistemas de filtrado de contenidos –como forma de limitación de facto de circulación de información– impuestos por gobiernos o proveedores de servicios comerciales se ha alertado que cuando esto no son controlados por el usuario final constituyen una forma de censura previa y no representan una restricción justificada a la libertad de expresión.[27]
Sobre este asunto, vale la pena destacar que, en aras de ponderar posibles abusos de la libertad de expresión conotros derechos humanos, las plataformas han adoptado distintas estrategias, en las cuales a través del procedimiento de moderación se busca sortear los riesgos de censura previa y proporcionar un mecanismo de protección de derechos potencialmente vulnerados.
Una de ellas, originada en la tesis de ausencia general de responsabilidad de los intermediarios, se refiere a ‘noticeand take down mechanism’ que brinda a los titulares de derechos una oportunidad recurrir directamente a un intermediario de Internet para remediar una infracción que creen han estado sujetos.[28] Otra de ellas, se refiere al mecanismo ‘notice and notice”, derivado de posturas de responsabilidad limitada de las plataformas, consistente en que el intermediario recibe una queja, que luego debe notificar al generador del contenido potencialmenteproblemático, que sirve de advertencia. El generador del contenido tiene la oportunidad de corregir su comportamiento,lo que detiene el procedimiento, o defenderlo dentro de un plazo previsto, lo que puede dar lugar a ulterioressanciones[29]. Existe otro mecanismo, denominado el ‘notice and stay down’ que sugiere que el intermediario recibe una notificación sobre el carácter ilegal o infractor del contenido alojado, y posteriormente se le exige no solo eliminarla información, sino también tomar medidas adicionales para garantizar que no sea posteriormente vuelto a publicar, ya sea por el mismo usuario o por otros usuarios.[30]
Sin embargo, cada una de estas estrategias conllevan un riesgo propio para el ejercicio de libertad de expresión, ya que tienen un efecto directo sobre el derecho a la libertad de expresión ya que pueden conducir a eliminación decontenidos de Internet (o alternativamente una reducción de su visibilidad), que deben ser sopesadas en cada jurisdicción, de acuerdo con su marco jurídico y normas complementarias existentes[31].
En este escenario, la Relatoría Especial sobre la Promoción y Protección del Derecho a la Libertad de Opinión y de Expresión de la Organización de las Naciones Unidas, en 2010, advirtió que el riesgo de responsabilidad por parte delos intermediarios genera un efecto inhibidor para la libertad de expresión. Esto, dado que los intermediarios optaríanpor un comportamiento conservador y “se decanten por la seguridad censurando en exceso el contenido potencialmente ilegal” y, además, que “los intermediarios, en tanto que entidades privadas, no están en las mejorescondiciones para determinar si un determinado contenido es ilegal, porque para ello hace falta sopesar con cuidado los intereses divergentes y examinar las defensas.” [32]
También destacó que dichas estrategias de moderación de contenido tienen limitaciones propias. Por ejemplo, expuso consideraciones sobre el sistema de notificación y retirada, pues “es una opción para impedir que losintermediarios adopten comportamientos ilícitos o los fomenten en el marco de sus servicios, puede ser objeto de abusos por parte de agentes estatales y privados” e insistió que las limitaciones posteriores nunca deben delegarse en una entidad privada. [33]
De modo semejante, en 2017, la Relatoría también alertó que se hubo un aumento de Estados estableciendo obligaciones de monitorear y eliminar rápidamente el contenido generado por los usuarios, con marcos punitivos que socavan la libertad de expresión en sociedades democráticas. Particularmente, refirió que estas regulaciones “implican la delegación de competencias regulatorias y funciones a actores privados que carecen de herramientas básicas de rendición de cuentas. La demanda de rapidez y eliminaciones automáticas corren el riesgo de consolidarsecomo nuevas formas de restricción previa que amenazan la creatividad en el contexto del derecho de autor. Destacó que cuestiones complejas de hecho y de derecho deberían generalmente ser adjudicados por instituciones públicas,no por actores privados cuyos procesos actuales pueden ser incompatibles con las normas del debido proceso y cuyos motivos son principalmente económicos.[34]
De lo expuesto, resulta evidente que la moderación de contenidos conlleva una dificultad para que no terminelesionando intereses fundamentales como el de la libertad de expresión. Es por ello por lo que los intermediarios handesarrollado en algunos casos soluciones tecnológicas, por ejemplo, para dar respuesta a las obligaciones de protección a los derechos de autor. Sin embargo, estas todavía no garantizan la protección básica a la libertad de expresión en los términos descritos.
Uno de los riesgos de la moderación automatizada consiste en la dificultad técnica de incluir múltiples factores que deben ser tenidos en cuenta conforme a los estándares legales para una potencial limitación de una expresión.
Al respecto, la Red en Defensa de los Derechos Digitales (R3D) explica algunas dificultades para realizar la moderación de contenido a gran escala.[35] Así, esta “posee el dilema de que las expresiones en general se emitenen un contexto determinado que incorpora cuestiones que deben valorarse, tales como la intencionalidad y las circunstancias históricas, culturales y sociales del caso concreto, por lo que muchas veces los contenidos pueden ser suprimidos o moderados de manera incorrecta por los sistemas dada la incapacidad que tienen para tomar en cuenta ese contexto”.[36] Esta falla implica, per se, que el sistema daría de baja contenido por defecto en mayor proporción alo requerido. Adicionalmente, se debe tener en cuenta el impacto que puede tener la concentración de la moderación de contenido por parte de estos actores privados, debido a su posición en el mercado y desbalance de poder respecto de los usuarios.[37]
En relación con otros aspectos técnicos, la organización Karisma, que destaca los riesgos que plantea la detección automatizada de infracciones de derechos de autor para la libertad de expresión: i) otorga un poder ‘real y eficiente’ e ‘ injusto’ de controlar, regular e influir en la circulación digital de contenidos, ii) proliferación de notificaciones ilegítimas(sobre contenido de dominio público, de propiedad de la parte notificada, aplicación estricta de la ley de derechos de autor genera situaciones injustas; y, iii) deficiencias en el proceso de notificación y apelación. Estas fallas del sistema,según el estudio, generan un daño individual (bajada de contenido para el autor) y también uno colectivo (efectoinhibidor) porque socavan la capacidad y la motivación de los creadores para crear y mantener una audiencia para su contenido.[38]
c. Obligaciones de las plataformas sobre la moderación de contenidos, conforme al derecho internacional de los derechos humanos
Los Estados son los principales titulares de las obligaciones en materia de derechos humanos, en particular adoptarlegislación que sea coherente con sus compromisos en la materia, como aquellos originados y derivados de los artículos 19 y 20 del Pacto Internacional de Derechos Políticos y Civiles y del articulo 13 de la Convención Americana sobre Derechos Humanos, referentes a la libertad de expresión.
En este contexto, se ha reconocido que la dependencia del nuevo régimen de herramientas automáticas de reconocimiento y filtrado entraña un riesgo de “bloqueo excesivo”. Las medidas adoptadas por los proveedores deservicios deben ser “estrictamente específicas” para permitir una protección efectiva de los derechos de autor pero sin afectar a los usuarios que utilizan las plataformas legalmente.
Ahora bien, teniendo en cuenta la multiplicidad de actores de las interacciones en línea y sus distintos roles, la UNESCO realizó un estudio sobre la necesidad y las condiciones de procesos regulatorios de los sistemas demoderación y curación de contenidos, para sean coherentes con las garantías de derechos humanos como la libertad de expresión.
Allí destacó que las plataformas y proveedores de servicio también deben adoptar medidas para que sus servicios respeten los derechos humanos.[39] Esto se ve reflejado en la adopción de medidas como:
- “poder demostrar ante el sistema regulatorio el cumplimiento de sus términos de servicio y la efectividad de las medidas que llevan a cabo para detectar, identificar o eliminar contenidos”.
- “notificar a los usuarios cuando su contenido es eliminado o sujeto a moderación de contenido y elmotivo detrás de ello. Esto permitiría a los usuarios comprender por qué se tomó esa acción en su contenido, el método utilizado (algorítmico o después de una revisión humana) y bajo qué reglas de plataforma se tomó la acción. […]“
- contar con procesos que permitan a los usuarios apelar dichas decisiones (…). Esta disposición puede variar según el tamaño de la empresa y el grado en que existan procedimientos de reparación efectivos para que los usuarios apelen las acciones.”23
- proveer un mecanismo eficaz de reparación de usuarios en la plataforma que les permita (y a los no usuarios, si se ven afectados por un contenido específico) oportunidades significativas para plantear sus inquietudes y obtener una reparación cuando corresponda. Esto debe incluir un canal de denuncia claro,fácilmente accesible y comprensible para los usuarios. Las quejas a los usuarios deben ser notificados sobre el resultado de su apelación; Este mecanismo de apelación debe seguir los principios descritos en los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos para mecanismos de queja efectivos (legitimidad, accesibilidad, previsibilidad, equidad, transparencia, compatibilidad de derechos y aprendizaje continuo).24
- “Las plataformas digitales deben notificar a los usuarios y explicar los procesos de apelación cuando su contenido se elimina o se etiqueta expresamente, se restringe en términos de comentarios o de compartir o asociación publicitaria,dados límites especiales en términos de amplificación o recomendación (a diferencia de “orgánico/algorítmico”, amplificación y recomendación), y por qué. Esto permitiría a los usuarios comprender las razones por las que se tomaron medidas sobre su contenido, el método utilizado (algorítmico o después de una revisión humana) y bajo qué reglas de plataforma se tomaron las medidas. Además, deben contar con procesos que permitan a los usuarios apelar dicha decisión y tener una reparación adecuada.”
Para conocer más sobre la moderación a escala: https://www.alsur.lat/sites/default/files/2022-05/moderacion_contenidos_alsur.pdf
Caso de Litigio sobre el mecanismo de “notificación y retirada”
En junio de 2020, el Congreso de la Unión aprobó diversas reformas a la Ley Federal del Derecho de Autor derivadas de la implementación del Tratado entre México, Estados Unidos y Canadá, mismas que entraron en vigor el 1 de julio de 2020. Las reformas avalaron el establecimiento del mecanismo de “notificación y retirada”, el cual incentiva a proveedores de servicios en línea (redes sociales y motores de búsqueda, por mencionar algunos) a eliminar toda publicación o bloquear el acceso a determinado contenido cuando cualquier persona alegue una supuesta violación a sus derechos de autor, antes de que una autoridad judicial competente así lo determine.
En respuesta, el 19 de agosto de 2020 Campaña Global por la Libertad de Expresión A19 (en adelante, ARTICLE 19) promovió la demanda de amparo indirecto con registro 710/2020, reclamando la aprobación, promulgación, refrendo y publicación del Decreto por el que se reforman y adicionan diversas disposiciones de la Ley Federal del Derecho de Autor, en específico los artículos 114 Quater, 114 Quinquies, 114 Septies, 114 Octies, 232 Bis, 232 Ter y 232 Quinquies, normas que reclama como autoaplicativas.
En su demanda de amparo, ARTICLE 19 detalla cómo existe una incompatibilidad de las reformas con los derechos humanos, ya que su existencia y vigencia derivan en la restricción e inhabilitación de acceso a información de interés público y de discursos especialmente protegidos por la libertad de expresión; la transgresión del debido proceso de quienes crean o comparten el contenido supuestamente infractor; y la imposición de obligaciones y roles a proveedores de servicios en línea que terminan por convertirlos en entes censores y que suplen la obligación estatal de determinar el alcance legal de la protección al derecho del autor.
El recurso de revisión fue remitido a la Suprema Corte de Justicia de la Nación cuya Primera Sala lo radicó como AR 556/2022. Una vez listado el asunto, se hizo público el proyecto de resolución que en lo esencial otorga el amparo y protección de la justicia federal en lo que toca al mecanismo de “notificación y retirada” y sobresee respecto a los candados digitales y el monitoreo activo. La sentencia se perfila como un referente a nivel internacional al defender la libertad de expresión de la censura digital que se ha configurado a través de estos mecanismos agresivos.
V. Procesos de apelación en las plataformas
Los sistemas de moderación de contenidos buscan crear un ambiente seguro para los usuarios de las plataformas. No obstante, como se ha señalado, estos sistemas en ocasiones fallan a la hora de detectar violaciones y pueden remover material que no viole las políticas o dejar en línea otros que sí las infrinjan. Para estos casos, las plataformas de redes sociales dominantes han establecido mecanismos de apelación a través de los cuales los usuarios pueden impugnar decisiones como la eliminación de publicaciones o cuentas. De esta forma, una pieza de contenido removida con anterioridad podría ser restablecida o un usuario suspendido podría volver a usar la plataforma con normalidad.
En términos generales, los procesos de apelación consisten en el envío de una apelación por el usuario con poco espacio para presentar argumentos o explicar el contexto, una reconsideración por la plataforma que suele ser rápida y la notificación final al usuario. Los detalles específicos varían entre las distintas plataformas. Sin embargo, para efectos ilustrativos, a continuación se presentan los procesos de moderación y apelación de YouTube y Meta, ya que ambos cuentan con particularidades interesantes.
YouTube: tres strikes y apelaciones
YouTube remueve los contenidos que infringen sus Normas de la Comunidad, que incluyen reglas contra el spam, contenidos violentos, contenidos de odio, entre otros. Cuando YouTube considera que las políticas se han infringido envía al correo una notificación al usuario. Si se trata de la primera vez el usuario recibe una “advertencia”.

Un ejemplo de una notificación de YouTube por la supuesta infracción de sus política sobre organizaciones criminales y violentas.
*Los detalles del caso se ocultan.
Sin embargo, luego de la primera infracción, cada infracción futura será considerada como una “falta” o “strike”. Con cada strike se pueden imponer sanciones, cada vez más severas, como el bloqueo temporal del canal desde el que se publicaron los videos. Luego de tres strikes, YouTube bloquea la cuenta permanentemente.
Los usuarios pueden apelar la decisión de YouTube ante cualquiera de las faltas para evitar las sanciones[40]. En estos casos, las inconformidades se tramiten en YouTube Studio el panel de control de los usuarios para sus canales en YouTube. El proceso de apelación puede resultar en la restauración del contenido eliminado, la instauración de una restricción de edad o la remoción definitiva y la conservación del strike.

Espacio de apelación dentro de YouTube Studio. YouTube concede 800 caracteres para dejar un comentario con argumentos o contexto adicional[41].
Meta: el Oversight Board
Meta también elimina contenidos de Facebook e Instagram cuando considera que estos violan sus Normas Comunitarias. En estos casos, las plataformas envían una notificación a sus usuarios cuando consideran que algún contenido publicado infringe las políticas. Los usuarios que consideren que sus contenidos han sido removidos de manera injusta pueden usar el botón “Expresa tu desacuerdo” para apelar su contenido[42]. Facebook e Instagram generan un número de identificación para el trámite de la apelación. Además, ambas plataformas cuentan con un espacio donde los usuarios pueden consultar el estado de la apelación.
Si luego de estudiar la apelación, Meta sigue considerando que el contenido es infractor, el usuario tiene una opción adicional: enviar su caso al Oversight Board o Consejo Asesor de contenidos de Meta. Este es uno de los desarrollos más novedosos de los sistemas de moderación de las plataformas y es único en su clase.
Como se señaló en un módulo anterior, el Oversight Board es una especie de tribunal de última instancia que toma decisiones finales en casos debatidos de moderación de contenido en Facebook e Instagram. Su creación se dió en un contexto de profundos debates sobre el manejo de información falsa, engañosa, discriminatoria o dañina en redes sociales y constituye un intento de Meta por sentar precedentes en sus decisiones de moderación de contenidos, mejorar el proceso, aumentar la transparencia y brindar rendición de cuentas por parte de una aplicación externa e independiente de la compañía.
No todos los casos que se envían al Oversight Board son revisados en esta “última instancia”. Este proceso requiere el número de identificación de la apelación originalmente dado por Meta. Sin embargo, el trámite se realiza directamente en la página del Oversight Board. El usuario que apela tiene la oportunidad de presentar una breve argumentación de por qué su caso debería ser seleccionado. Desde el inicio de sus operaciones en 2020, este consejo ha seleccionado y resuelto alrededor de 92 casos[43].
Estos mecanismos excluyen la posibilidad de restaurar publicaciones que representen riesgos de seguridad extremos (como aquellas relacionadas con la explotación infantil) y se extienden también a las publicaciones que sean solo denunciadas, aún si no son removidas, o las publicaciones visibles de otros usuarios que se consideren riesgosas[44].
Censura de medio de comunicación colombiano en Facebook
En mayo de 2021, Facebook eliminó un video compartido por un medio de comunicación regional colombiano en el que mostraba a manifestantes expresando su descontento con la reforma tributaria propuesta por el Gobierno del entonces presidente Iván Duque. La plataforma eliminó el contenido porque los manifestantes se dirigían al presidente diciéndole “deja de hacerte el marica en la TV”. Por incluir la palabra “marica”, Facebook consideró que la publicación iba en contra de sus políticas sobre incitación al odio. Por eso, el término se encontraba en la lista de insultos prohibidos por Facebook.
Sin embargo, el Consejo asesor de contenidos de Meta (un organismo independiente que supervisa y revisa las decisiones de moderación de contenidos tomadas por Facebook e Instagram) decidió revertir la decisión considerando que en Colombia esta expresión puede tener otras connotaciones, como en efecto la tenía en el video. En el contexto de este país, la expresión “hacerse el marica” equivale a “hacerse el de la vista gorda”. Es decir, ignorar algo deliberadamente, especialmente cuando se tiene la responsabilidad de reconocerlo[45].
Las apelaciones en casos de acusaciones de infracciones a los derechos de autor
En este punto, vale la pena referirse a los procesos de apelación ante las plataformas por supuestas infracciones a los derechos de autor. En estos casos se sigue un proceso especial señalado por la Ley de Derechos de Autor del Milenio Digital de Estados Unidos (Digital Millennium Copyright Act o “DMCA”). La DMCA es una legislación que establece un marco legal para la protección de los derechos de autor en el entorno digital. Uno de los elementos clave de la DMCA es el proceso de “notificación y retirada” (o “notice and takedown”), que permite a los titulares de derechos de autor notificar a los intermediarios de internet que alberguen contenido publicado por usuarios, como las redes sociales, de presuntas infracciones a sus derechos[46].
Para los casos en los que se hagan señalamientos de supuestas infracciones, la DMCA también contempla un mecanismo de defensa para los usuarios que consideran que su contenido no infringe los derechos de autor o que cuentan con una licencia válida para utilizar dicho material. Este proceso se conoce como “contranotificación” (“counter-notice”). Cuando una plataforma de redes sociales retira contenido en respuesta a una notificación de infracción de derechos de autor, debe proporcionar al usuario afectado una copia de esta notificación y retirar el contenido presuntamente infractor. En este punto, el usuario tiene la opción de presentar una contranotificación.
La contranotificación debe incluir cierta información, como la identificación del contenido retirado, una declaración de que el usuario cree de buena fe que el contenido fue retirado por error o por una identificación errónea del material y la voluntad de someterse a la jurisdicción del tribunal federal del distrito donde reside el usuario o donde se encuentra la sede legal de la red social.
Una vez la plataforma recibe la contranotificación debe reenviarla al titular de los derechos de autor que presentó la notificación original de infracción. Si el titular de los derechos de autor no inicia acciones legales, el proveedor de redes sociales debe restaurar el contenido retirado[47].
Es importante señalar que el proceso de notificación y retirada establecido por la DMCA ha sido objeto de críticas debido a su impacto en la libertad de expresión por varias razones[48]:
- Falta de equilibrio entre los derechos de autor y la libertad de expresión: el proceso favorece en exceso a los titulares de derechos de autor en detrimento de la libertad de expresión de los usuarios. Esto se debe a que el simple hecho de recibir una notificación de infracción puede llevar a la retirada de contenido sin una evaluación adecuada de si realmente constituye una violación de los derechos de autor o si está protegido por excepciones legales.
- Facilidad para abusar del sistema: el proceso ha sido utilizado de manera abusiva por parte para censurar la expresión legítima y crítica.
- Efecto disuasorio para los usuarios: las consecuencias legales establecidas en la DMCA crean un efecto disuasorio que puede llevar a que los usuarios no apelen, a pesar de tener el derecho a hacerlo.
Censura de documental ecuatoriano en YouTube
El 9 de octubre de 2013, YouTube retiró el video titulado Acoso a Intag del documentalista ecuatoriano Pocho Álvarez, que expone los problemas de contaminación y hostigamiento sufridos por los pobladores de la comuna de Intag debido a su resistencia a la explotación minera en la zona. Esto ocurrió en respuesta a una reclamación de derechos de autor de la empresa española Ares Rights, la cual argumentó la infracción de derechos sobre imágenes de una alocución presidencial del entonces presidente Rafael Correa. Álvarez argumentó que el informe del mandatario a sus mandantes es público y, por lo tanto, no debería tener obstáculos para publicarlos[49].
Conclusiones
Las plataformas de redes sociales desempeñan un papel fundamental tanto en conectar personas alrededor del mundo como en establecer políticas y procesos para proteger a tales personas y sus expresiones. A través de sus normas comunitarias y procesos de moderación, las plataformas buscan crear un ambiente que a la vez sea seguro y que permita la expresión de sus usuarios. Sin embargo, tales procesos tienen defectos. Los periodistas, en particular, también son víctimas de estos defectos, enfrentándose a riesgos como la censura de sus contenidos y la exposición al acoso.
La censura y el acoso a periodistas en las redes sociales son problemas significativos que ponen en peligro la libertad de expresión y el ejercicio del periodismo independiente. A pesar de los mecanismos de apelación y las políticas destinadas a proteger a los periodistas, aún existen desafíos en la implementación efectiva de estas medidas.
- 1. Brenan Center for Justice (2021). Double Standards in Social Media Content Moderation. Disponible en: https://www.brennancenter.org/sites/default/files/2021-08/Double_Standards_Content_Moderation.pdf.
- 2. YouTube Community Guidelines. Disponible en: https://web.archive.org/web/20061024061946/http://www.youtube.com/t/community_guidelines.
- 3. Lineamientos de la Comunidad de YouTube. Disponible en: https://www.youtube.com/intl/es_us/howyoutubeworks/policies/community-guidelines/.
- 4. Meta (2023). Cómo la tecnología detecta infracciones. Disponible en: https://transparency.fb.com/es-la/enforcement/detecting-violations/technology-detects-violations/.
- 5. Meta (2023). Community Standards Enforcement Report 2023-Q3. Disponible en: https://transparency.fb.com/reports/community-standards-enforcement/.
- 6. Ibíd.
- 7. Meta. Medidas que tomamos. Disponible en: https://transparency.fb.com/es-la/enforcement/taking-action/.
- 8. Sightengine (2024) What are the different types of Content Moderation. Disponible en: https://sightengine.com/knowledge-center/what-are-the-different-types-of-content-moderation
- 9. The Verge (2019). AI won’t relieve the misery of Facebook’s human moderators. Disponible en: https://www.theverge.com/2019/2/27/18242724/facebook-moderation-ai-artificial-intelligence-platforms.
- 10. Para ver más, consultar: https://www.oversightboard.com/wp-content/uploads/2024/09/Oversight-Board-Content-Moderation-in-a-New-Era-for-AI-and-Automation-September-2024.pdf
- 11. Oversight Board (2021) “Swedish journalist reporting sexual violence against minors” Disponible en:https://oversightboard.com/decision/FB-P9PR9RSA/
- 12. Oversight Board (2022) “Mention of the Taliban in news reporting”. Disponible en: https://www.oversightboard.com/decision/FB-U2HHA647
- 13. Disponible en: https://manilaprinciples.org/es.html.
- 14. Disponible en: https://santaclaraprinciples.org/.
- 15. Brenan Center for Justice (2021). Double Standards in Social Media Content Moderation. Disponible en: https://www.brennancenter.org/sites/default/files/2021-08/Double_Standards_Content_Moderation.pdf.
- 16. New America. The Limitations of Automated Tools in Content Moderation. Disponible en: https://www.newamerica.org/oti/reports/everything-moderation-analysis-how-internet-platforms-are-using-artificial-intelligence-moderate-user-generated-content/the-limitations-of-automated-tools-in-content-moderation/
- 17. Ibíd.
- 18. CNN (2017). Facebook prohibió una foto de una estatua de Neptuno por ser "explícitamente sexual". Disponible en: https://cnnespanol.cnn.com/2017/01/04/facebook-prohibio-una-foto-de-una-estatua-de-neptuno-por-ser-explicitamente-sexual/.
- 19. El País (2018). Facebook pide disculpas por censurar la imagen de la Venus de Willendorf por “pornográfica”.Disponible en: https://elpais.com/cultura/2018/02/28/actualidad/1519823564_200839.html.
- 20. LGBTQ Nation. Instagram censors loving photo of gay dads with newborn as “graphic” & “upsetting” content.Disponible en: https://www.lgbtqnation.com/2024/03/instagram-censors-loving-photo-of-gay-dads-with-newborn-as-graphic-upsetting-content/.
- 21. Consejo asesor de contenido (2022). Manifestaciones en Colombia. Disponible en: https://www.oversightboard.com/decision/FB-E5M6QZGA/.
- 22. Oversight Board (2023). Declaración metafórica contra el presidente de Perú [decisión resumida]. Disponible en: https://www.oversightboard.com/decision/FB-2AHD01LX/.
- 23. Oversight Board (2023). Discurso del general brasileño. Disponible en: https://www.oversightboard.com/decision/FB-659EAWI8/.
- 24. CIDH. Demanda ante la Corte Interamericana de Derechos Humanos contra la República de Costa Rica. No. 12.367, Caso l̈ a Nación Mauricio Herrera Ulloa y Fernan Vargas Rohrmoser. 28 de enero de 2002. Párr. 97
- 25. Organización de los Estados Americanos (OEA), Convención Americana sobreDerechos Humanos "Pacto de San José de Costa Rica", 22 Noviembre 1969. Art. 13.1 y 13.3.
- 26. CIDH. , Inclusión Digital Y Gobernanza De Contenidos En Internet. 2024. Para 321.
- 27. Comisión Interamericana de Derechos Humanos. Oficina del Relator Especial para la Libertad de Expresión. Estándares para una Internet libre, abierta e incluyente. 2017. Para 91.
- 28. Kuczerawy, Aleksandra, From ‘Notice and Take Down’ to ‘Notice and Stay Down’: Risks and Safeguards for Freedom of Expression (December 19, 2018). Giancarlo Frosio (ed), The Oxford Handbook of Intermediary Liability Online, 2019, Forthcoming, Available at SSRN: https://ssrn.com/abstract=3305153 P.3
- 29. Kuczerawy, Aleksandra. 2019. P.7
- 30. Kuczerawy, Aleksandra, From ‘Notice and Take Down’ to ‘Notice and Stay Down’: Risks and Safeguards for Freedom of Expression (December 19, 2018). Giancarlo Frosio (ed), The Oxford Handbook of Intermediary Liability Online, 2019, Forthcoming, Available at SSRN: https://ssrn.com/abstract=3305153. P.7
- 31. Kuczerawy, Aleksandra, From ‘Notice and Take Down’ to ‘Notice and Stay Down’: Risks and Safeguards for Freedom of Expression (December 19, 2018). Giancarlo Frosio (ed), The Oxford Handbook of Intermediary Liability Online, 2019, Forthcoming, Available at SSRN: https://ssrn.com/abstract=3305153. P.8
- 32. Organización de las Naciones Unidas. Asamblea General. Consejo de Derechos Humanos. A/HRC/17/27. Disponible en: https://www.refworld.org/cgi- bin/texis/vtx/rwmain/opendocpdf.pdf?reldoc=y&docid=50f3db8d2
- 33. Idem. Para 43.
- 34. Organización de las Naciones Unidas. Asamblea General. Consejo de Derechos Humanos. A/HRC/38/35 Disponible en: https://documents-dds- ny.un.org/doc/UNDOC/GEN/G18/096/72/PDF/G1809672.pdf?OpenElement Para 16 and 17. También véase: https://cetys.lat/wp-content/uploads/2021/04/DocumentosCompilado-1.pdf (p.9)
- 35. La Red en Defensa de los Derechos Digitales es una ONG mexicana que promueve, a través de acciones legales y de divulgación, los derechos en el entorno digital.
- 36. R3D. P.42. Disponible en: https://r3d.mx/wp-content/uploads/moderacion_contenidos_v4A.pdf
- 37. Idem. Pag.52.
- 38. Fundación Karisma. Automatic copyright detection: A tool for inequality. 2022. Available at: https://web.karisma.org.co/automatic-copyright-detection-a-tool-for-inequalit/
- 39. UNESCO. 2023. Directrices para la gobernanza de las plataformas digitales. Salvaguardar la libertad de expresión y el acceso a la información con un enfoque de múltiples partes interesadas.Available at: https://unesdoc.unesco.org/ark:/48223/pf0000387360
- 40. Youtube Help. “Appeal Community Guidelines actions”. Disponible en: https://support.google.com/youtube/answer/185111?hl=en.
- 41. A abril de 2024.
- 42. Facebook Help Center: “Creo que Facebook no debería haber retirado mi publicación”. Disponible en: https://www.facebook.com/help/2090856331203011?helpref=faq_content.
- 43. A abril de 2024. Casos disponibles en: https://www.oversightboard.com/decision/.
- 44. Meta Transparency: “Contenido apelado”. Disponible en: https://transparency.fb.com/es-es/policies/improving/appealed-content-metric/.
- 45. Consejo asesor de contenido (2022). Manifestaciones en Colombia. Disponible en: https://www.oversightboard.com/decision/FB-E5M6QZGA/.
- 46. Digital Millennium Copyright Act (1998). Disponible en: https://www.govinfo.gov/content/pkg/PLAW-105publ304/pdf/PLAW-105publ304.pdf.
- 47. Ibíd.
- 48. Fundación Karisma y Fundación para la Libertad de Prensa (2014). Recomendaciones para la garantía de los derechos humanos en una ley que regule la responsabilidad de intermediarios de internet en Colombia (Ley Lleras). Disponible en: https://web.karisma.org.co/wp-content/uploads/2014/12/recomendaciones__leylleras_dic_11.pdf.
- 49. IFEX (2013). Documentalista denuncia censura a video en Ecuador. Disponible en: https://ifex.org/es/documentalista-denuncia-censura-a-video-en-ecuador/.