Logo de la Asociación por los Derechos Civiles < Volver

Moderación de contenidos: poca transparencia en la censura de cuerpos

Moderación de contenidos: poca transparencia en la censura de cuerpos

Marianela Milanes | 17/08/2021

Uno de los problemas centrales de las plataformas es la gestión de contenidos que llevan adelante con poca transparencia, ocultando de la vista pública los procesos internos de toma de decisiones. Muchas veces, para las personas usuarias conocer con certeza por qué se elimina una publicación, no es posible. Aunque varias empresas reconocen esta dificultad y en pos de su superación vienen dando pasos positivos en torno a la rendición de cuentas, aún son insuficientes. 

Una temática que suele provocar encendidos debates y poner en tela de juicio a la moderación de contenidos y el rol de los intermediarios, es la diversidad corporal en general y la representación de una parte de los cuerpos, los torsos femeninos desnudos, en particular.  

En publicaciones anteriores ADC ha mencionado de qué se trata la moderación de contenidos. Recapitulando, se la puede definir como el proceso de revisión, edición y verificación, de los contenidos creados y compartidos en las redes sociales con el fin de detectar posibles transgresiones a las políticas que las plataformas poseen para determinar qué es admisible.

Las plataformas operadas por intermediarios del sector privado establecen, con frecuencia, normas comunitarias que determinan qué tipo de contenidos están prohibidos, cuáles serán las sanciones y qué mecanismos existen para apelar una decisión tomada, si la persona usuaria cree que esta última es incorrecta.

Generalmente, las normas comunitarias y las políticas de moderación se presentan asociadas a los términos de uso, que deben aceptarse para utilizar las redes sociales. No obstante, tanto unos como otros, son cada vez  más extensos y complejos, dificultando su atenta lectura y la posibilidad de mantenerse al día  con las modificaciones que se van realizando.

Una diferencia principal en la moderación de contenidos entre las plataformas es su modelo de aplicación. Existen diferentes combinaciones de mecanismos de revisión manual y automáticos, basados en sistemas de inteligencia artificial (IA). 

Las determinaciones sobre la idoneidad de los contenidos son decisiones regulatorias que influyen y controlan los tipos de información que ven quienes usan las redes sociales, así como cuando y de qué manera lo hacen. 

Las publicaciones pueden ser eliminadas o suspendidas temporalmente por múltiples razones que van desde la aplicación de decisiones judiciales, solicitudes gubernamentales y de otros actores privados relacionados con el derecho de autor, hasta reportes o denuncias realizadas por otras personas usuarias tanto como por intervención directa de la propia plataforma, por considerar que transgreden las normas comunitarias. En ocasiones estas decisiones pueden tener lugar en forma arbitraria al tratarse de un “error”, en especial cuando se implementan mecanismos de revisión automatizados. 

Las normativas de las plataformas prohíben -mayormente- la exhibición de desnudos reales de personas adultas o actividad sexual, con el fin de garantizar la seguridad y la privacidad, así como proteger la sensibilidad de algunas personas usuarias. Por ello, en algunas plataformas se prohíbe la exposición de imágenes de pezones femeninos al descubierto. Sin embargo, muchas imágenes relacionadas con el amamantamiento, la concientización sobre el cáncer de mamas y la educación menstrual, son eliminadas a pesar de estar comprendidas dentro de las excepciones que ellas mismos disponen.

Con justa razón se podría cuestionar los fundamentos en los que se basan las plataformas para dictar las normas que rigen en sus sitios y poner en debate, por ejemplo, la convención cultural de considerar indecente la exposición al descubierto de los pechos femeninos, tal como lo hace el movimiento global “libera el pezón” (en inglés “free the nipple”). También podríamos discutir sobre la tendencia de las sociedades occidentales a sexualizar la parte superior del cuerpo femenino e incluso preguntarnos, si puede atribuirse el género a un pezón con independencia de la identidad de quien lo porta y exhibe.

Ahora bien, sin polemizar sobre los fundamentos de las reglas en las que las plataformas basan sus decisiones, podemos cuestionar su aplicación a casos concretos, tal como lo ha hecho el Consejo Asesor de contenidos de Facebook. 

El Consejo Asesor creado por Facebook, tiene el objetivo de revisar en forma independiente algunas de las decisiones más importantes y difíciles que la empresa toma en relación a los contenidos. Está conformado por un grupo de expertos/as de todo el mundo que seleccionan cuáles serán las decisiones de la empresa que revisarán a partir de las apelaciones de los usuarios/as y la derivación de casos por parte de la compañía.  Las resoluciones que tome el grupo son vinculantes, pudiendo además efectuar  recomendaciones en torno a las normas corporativas de gestión de contenidos.  

En este contexto, el Consejo Asesor atendió el caso de una persona usuaria de Brasil, que sufrió la baja de un contenido publicado en la plataforma Instagram a través de los sistemas automatizados de la empresa por considerar que infringía las normas comunitarias sobre desnudos adultos y actividad sexual. La publicación contenía ocho fotografías en las que mostraban y describían los diversos síntomas del cáncer de mama, en cinco de ellas aparecían pezones femeninos al descubierto y por esto fue automáticamente eliminada. 

A pesar que la publicación fue restablecida una vez que el Consejo Asesor se pronunció ante el caso, las preocupaciones que dejó son muchas. En las conclusiones principales que acompañan al pronunciamiento, puede leerse que:

“La incorrecta eliminación de esta publicación pone de manifiesto la falta de una supervisión humana adecuada, lo que genera preocupación por posibles vulneraciones de los derechos humanos. La detección de esta publicación y su posterior eliminación fueron totalmente automatizadas. Los sistemas automatizados de Facebook no consiguieron reconocer las palabras «Cáncer de mama» que aparecían en la imagen en portugués, y la publicación se eliminó por error. Dado que las reglas de Facebook tratan de forma distinta los pezones masculinos y los femeninos, usar un sistema automatizado impreciso para el cumplimiento de normas afecta de forma desproporcionada la libertad de expresión de las mujeres. Un sistema de cumplimiento de normas basado exclusivamente en la automatización, sin incluir ningún tipo de supervisión humana, interfiere con la libertad de expresión”. 

Si tenemos en cuenta que durante el primer semestre de este año Facebook eliminó a nivel global 31.8 millones de publicaciones, por considerar que transgredían la norma de desnudez adulta y actividad sexual pero tan sólo una llegó a ser tratada por el Consejo Asesor, las preocupaciones aumentan.  

Sin ir más lejos, la baja arbitraria que recibió en Instagram el cartel promocional de la nueva película “Madres Paralelas” del cineasta español, Pedro Almodóvar, es un ejemplo de ello. En agosto, el afiche artístico que muestra en primera plano un pezón con una gota de leche, fue eliminado en forma automática por los algoritmos de la plataforma, encendiendo nuevamente álgidos debates respecto a la moderación de contenidos. Aunque la rectificación y el pedido de disculpas por parte de las autoridades de la empresa no tardaron en llegar, la polémica respecto a la “censura” sufrida se instaló rápidamente. 

La insuficiente transparencia en torno a los mecanismos de revisión, las amenazas a los derechos humanos que acarrea su implementación a través de sistemas de IA  y la inconsistencia de las normas que conforman la moderación de contenidos, son apenas algunas de las principales inquietudes en torno a la cuestión. 

Las posibles vulneraciones a la libertad de expresión, el derecho a la salud, a la igualdad y no discriminación -entre otros- que pueden afectar en forma desproporcionada a las mujeres y personas LGTBIQ+ a través de la moderación de contenidos, deben ser urgentemente abordados. 

Para que el espacio cívico en línea sea inclusivo, plural y verdaderamente diverso, hemos de repensar la moderación de contenidos poniendo en el centro a los derechos humanos, la igualdad y la dignidad de las personas.