Logo de la Asociación por los Derechos Civiles < Volver

Autor: Marianela Milanes

Violencia política por razones de género en la web: una problemática que no cesa

Marianela Milanes | 14/09/2021

Violencia política por razones de género en la web: una problemática que no cesa

Seis años pasaron desde el 3 de junio en que el movimiento Ni una Menos copó -por primera vez-  las calles de Argentina para reclamar por medidas públicas destinadas a prevenir y erradicar la violencia de género. Aunque mucho se avanzó desde entonces, esta problemática no se detiene. El año pasado la cantidad de denuncias por situaciones de violencia de género psicológica, física, sexual, económica y/o simbólica aumentó un 25 por ciento -con respecto al mismo periodo anterior- durante el confinamiento dispuesto para contener la expansión del Covid-19. Esta cifra expuso que el ámbito doméstico continúa siendo el más peligroso para muchas mujeres, pero no es el único.

La violencia por razones de género se manifiesta en distintos modos y ámbitos de la vida social, afectando a mujeres y niñas tanto como a personas LGTBIQ+. Nuestro país cuenta con un vasto marco normativo dedicado a su abordaje, donde la Ley Nº 26.485 de protección integral para prevenir, sancionar y erradicar la violencia contra las mujeres en los ambitos en que desarrollan sus relaciones interpersonales, tiene un lugar central. A fines de 2019 dicha ley fue modificada con el fin de dar cuenta de un tipo y modalidad de violencia de género en particular, la política. De este modo Argentina se sumó a los esfuerzos regionales por combatir este grave problema, muchas veces invisibilizado.

Varios estudios regionales1 demuestran que a medida que aumenta el liderazgo y la participación de mujeres y personas LGTBIQ+ en la esfera pública y política, las barreras estructurales y la violencia en torno al género aparecen con mayor fuerza. En un país como Argentina, donde aún es necesario disponer de leyes que aseguren la incorporación de las mujeres en el terreno de la política, abordar los desafíos para su permanencia y mayor inclusión se vuelve extremadamente necesario y urgente. Obstaculizar el disfrute de una vida política libre de violencia, la participación en los asuntos públicos y políticos en condición de igualdad con los varones, constituye una grave violación a los derechos humanos de las mujeres y personas LGTBIQ+, que deteriora a la cultura democrática.

En el contexto actual, el uso extendido de internet y las redes sociales continúa cambiando la percepción de la política y nos empuja a considerar -cada vez más- esta problemática desde una perspectiva digital. 

La violencia política por motivos de género en general y cuando se produce a través de internet en especial, es objeto de varias iniciativas a nivel nacional que impulsan organismos como la Defensoría del Público y la Cámara de Diputados de la Nación y organizaciones de la sociedad civil, como el Equipo Latinoamericano de Justicia y Género (ELA). Esta última, con el objetivo de contribuir a la conceptualización de la problemática y aportar evidencia empírica para su análisis, realizó en 2018 un estudio de percepción e incidencia de violencia contra las mujeres en política y un año después publicó una investigación focalizada en las redes sociales, habilitando el debate para la reforma de la Ley Nº 26.485 antes mencionada. Es importante resaltar ciertos resultados alarmantes que ilustran la problemática: 8 de cada 10 legisladoras encuestadas afirmaron haber vivido situaciones de violencia de género a lo largo de sus carreras políticas y en relación al lugar en donde se produjeron esas agresiones, el 71 por ciento de ellas mencionó a internet.

A nivel regional, Al Sur -un consorcio de organizaciones que trabajan en la sociedad civil y en el ámbito académico en América Latina, que busca con su trabajo conjunto fortalecer los derechos humanos en el entorno digital- publicó recientemente un nuevo informe sobre la violencia política de género en internet. Tomando como punto de partida las importantes iniciativas y estudios llevados adelante por organizaciones que se ocupan de derechos humanos en el entorno digital, la publicación tiene por objetivo ampliar esos esfuerzos, aportando una mirada regional a la problemática. Brindando a su vez, recomendaciones al sistema de justicia electoral, a las plataformas de internet, a candidatas, partidos políticos y sociedad civil, para que esta tendencia que atenta contra un sistema político más diverso y plural sea combatida con la debida atención.

Siguiendo entonces el contenido de la publicación de Al Sur, comprender la diversidad de ataques y sus interseccionalidades, es un paso necesario para poder nombrar e identificar el problema para luego documentar, denunciar y buscar alternativas técnicas o jurídicas para su abordaje. La violencia política por razones de género puede tomar variadas formas a través de internet, por nombrar algunas: la desinformación, violaciones a la privacidad, ofensas, amenazas, invasiones y censura, son apenas algunas de las categorías principales que pueden usarse para catalogarla. 

Sin embargo, con independencia de las formas en que la violencia política por razones de género en línea puede tener lugar hoy y en el futuro, dos cuestiones parecen evidentes: este fenómeno puede parecer novedoso pero no es de  nueva especie y tiene consecuencias negativas muy graves. 

En anteriores oportunidades, la ADC ha señalado que la violencia ejercida contra mujeres, niñas y personas LGTBIQ+ a través de medios digitales, no es un fenómeno de nueva especie sino que se manifiesta como un correlato de la violencia de género presente en nuestra sociedad. 

La violencia política por razones de género en línea genera riesgos y afectaciones reales. Se ha comprobado que tras sufrir agresiones por redes sociales, las mujeres suelen reducir, pausar o detener por completo su presencia en ellas. Además de padecer daños psicológicos y emocionales, que con frecuencia llevan a la autocensura y hasta el abandono de sus carreras políticas. 

El espacio cívico es central y necesario para toda sociedad democrática y significa que el Estado tiene el deber de proteger a las personas, mientras respeta y facilita sus libertades fundamentales de asociación, reunión y expresión. El espacio cívico virtual permite a las personas formar asociaciones, reunirse para deliberar sobre cuestiones de interés público y participar en los procesos de toma de decisiones públicas. Las compañías privadas también tienen el deber de respetar los derechos humanos de las personas, actuando con responsabilidad mediante la debida diligencia. 

Promover un espacio cívico amplio,  inclusivo  y seguro en internet es deber estatal y también empresarial. Esta obligación implica asegurar la libertad de expresión de las personas usuarias, garantizar las condiciones favorables para la creación de grupos en línea y permitir el ejercicio del derecho de protesta en Internet, sin discriminación alguna. Representa ante todo, el compromiso por garantizar una vida libre de violencias en el ámbito público y privado, donde las mujeres, niñas y personas LGTBIQ+ puedan acceder y ejercer plenamente sus derechos fundamentales, también en los entornos digitales.

1 Archenti, Nélida y Albaine, Laura (2013) “Los desafíos de la paridad de género. Tensión normativa y violencia política en Bolivia y Ecuador”.
Archenti Nélida y M. Inés Tula (comps.) (2014) “Acoso y violencia política en razón de género. Un estudio sobre América Latina. Nuevas normas, viejas prácticas” en La representación política imperfecta. Logros y desafíos de las mujeres políticas.

More

Moderación de contenidos: poca transparencia en la censura de cuerpos

Marianela Milanes | 17/08/2021

Moderación de contenidos: poca transparencia en la censura de cuerpos

Uno de los problemas centrales de las plataformas es la gestión de contenidos que llevan adelante con poca transparencia, ocultando de la vista pública los procesos internos de toma de decisiones. Muchas veces, para las personas usuarias conocer con certeza por qué se elimina una publicación, no es posible. Aunque varias empresas reconocen esta dificultad y en pos de su superación vienen dando pasos positivos en torno a la rendición de cuentas, aún son insuficientes. 

Una temática que suele provocar encendidos debates y poner en tela de juicio a la moderación de contenidos y el rol de los intermediarios, es la diversidad corporal en general y la representación de una parte de los cuerpos, los torsos femeninos desnudos, en particular.  

En publicaciones anteriores ADC ha mencionado de qué se trata la moderación de contenidos. Recapitulando, se la puede definir como el proceso de revisión, edición y verificación, de los contenidos creados y compartidos en las redes sociales con el fin de detectar posibles transgresiones a las políticas que las plataformas poseen para determinar qué es admisible.

Las plataformas operadas por intermediarios del sector privado establecen, con frecuencia, normas comunitarias que determinan qué tipo de contenidos están prohibidos, cuáles serán las sanciones y qué mecanismos existen para apelar una decisión tomada, si la persona usuaria cree que esta última es incorrecta.

Generalmente, las normas comunitarias y las políticas de moderación se presentan asociadas a los términos de uso, que deben aceptarse para utilizar las redes sociales. No obstante, tanto unos como otros, son cada vez  más extensos y complejos, dificultando su atenta lectura y la posibilidad de mantenerse al día  con las modificaciones que se van realizando.

Una diferencia principal en la moderación de contenidos entre las plataformas es su modelo de aplicación. Existen diferentes combinaciones de mecanismos de revisión manual y automáticos, basados en sistemas de inteligencia artificial (IA). 

Las determinaciones sobre la idoneidad de los contenidos son decisiones regulatorias que influyen y controlan los tipos de información que ven quienes usan las redes sociales, así como cuando y de qué manera lo hacen. 

Las publicaciones pueden ser eliminadas o suspendidas temporalmente por múltiples razones que van desde la aplicación de decisiones judiciales, solicitudes gubernamentales y de otros actores privados relacionados con el derecho de autor, hasta reportes o denuncias realizadas por otras personas usuarias tanto como por intervención directa de la propia plataforma, por considerar que transgreden las normas comunitarias. En ocasiones estas decisiones pueden tener lugar en forma arbitraria al tratarse de un “error”, en especial cuando se implementan mecanismos de revisión automatizados. 

Las normativas de las plataformas prohíben -mayormente- la exhibición de desnudos reales de personas adultas o actividad sexual, con el fin de garantizar la seguridad y la privacidad, así como proteger la sensibilidad de algunas personas usuarias. Por ello, en algunas plataformas se prohíbe la exposición de imágenes de pezones femeninos al descubierto. Sin embargo, muchas imágenes relacionadas con el amamantamiento, la concientización sobre el cáncer de mamas y la educación menstrual, son eliminadas a pesar de estar comprendidas dentro de las excepciones que ellas mismos disponen.

Con justa razón se podría cuestionar los fundamentos en los que se basan las plataformas para dictar las normas que rigen en sus sitios y poner en debate, por ejemplo, la convención cultural de considerar indecente la exposición al descubierto de los pechos femeninos, tal como lo hace el movimiento global “libera el pezón” (en inglés “free the nipple”). También podríamos discutir sobre la tendencia de las sociedades occidentales a sexualizar la parte superior del cuerpo femenino e incluso preguntarnos, si puede atribuirse el género a un pezón con independencia de la identidad de quien lo porta y exhibe.

Ahora bien, sin polemizar sobre los fundamentos de las reglas en las que las plataformas basan sus decisiones, podemos cuestionar su aplicación a casos concretos, tal como lo ha hecho el Consejo Asesor de contenidos de Facebook. 

El Consejo Asesor creado por Facebook, tiene el objetivo de revisar en forma independiente algunas de las decisiones más importantes y difíciles que la empresa toma en relación a los contenidos. Está conformado por un grupo de expertos/as de todo el mundo que seleccionan cuáles serán las decisiones de la empresa que revisarán a partir de las apelaciones de los usuarios/as y la derivación de casos por parte de la compañía.  Las resoluciones que tome el grupo son vinculantes, pudiendo además efectuar  recomendaciones en torno a las normas corporativas de gestión de contenidos.  

En este contexto, el Consejo Asesor atendió el caso de una persona usuaria de Brasil, que sufrió la baja de un contenido publicado en la plataforma Instagram a través de los sistemas automatizados de la empresa por considerar que infringía las normas comunitarias sobre desnudos adultos y actividad sexual. La publicación contenía ocho fotografías en las que mostraban y describían los diversos síntomas del cáncer de mama, en cinco de ellas aparecían pezones femeninos al descubierto y por esto fue automáticamente eliminada. 

A pesar que la publicación fue restablecida una vez que el Consejo Asesor se pronunció ante el caso, las preocupaciones que dejó son muchas. En las conclusiones principales que acompañan al pronunciamiento, puede leerse que:

“La incorrecta eliminación de esta publicación pone de manifiesto la falta de una supervisión humana adecuada, lo que genera preocupación por posibles vulneraciones de los derechos humanos. La detección de esta publicación y su posterior eliminación fueron totalmente automatizadas. Los sistemas automatizados de Facebook no consiguieron reconocer las palabras «Cáncer de mama» que aparecían en la imagen en portugués, y la publicación se eliminó por error. Dado que las reglas de Facebook tratan de forma distinta los pezones masculinos y los femeninos, usar un sistema automatizado impreciso para el cumplimiento de normas afecta de forma desproporcionada la libertad de expresión de las mujeres. Un sistema de cumplimiento de normas basado exclusivamente en la automatización, sin incluir ningún tipo de supervisión humana, interfiere con la libertad de expresión”. 

Si tenemos en cuenta que durante el primer semestre de este año Facebook eliminó a nivel global 31.8 millones de publicaciones, por considerar que transgredían la norma de desnudez adulta y actividad sexual pero tan sólo una llegó a ser tratada por el Consejo Asesor, las preocupaciones aumentan.  

Sin ir más lejos, la baja arbitraria que recibió en Instagram el cartel promocional de la nueva película “Madres Paralelas” del cineasta español, Pedro Almodóvar, es un ejemplo de ello. En agosto, el afiche artístico que muestra en primera plano un pezón con una gota de leche, fue eliminado en forma automática por los algoritmos de la plataforma, encendiendo nuevamente álgidos debates respecto a la moderación de contenidos. Aunque la rectificación y el pedido de disculpas por parte de las autoridades de la empresa no tardaron en llegar, la polémica respecto a la “censura” sufrida se instaló rápidamente. 

La insuficiente transparencia en torno a los mecanismos de revisión, las amenazas a los derechos humanos que acarrea su implementación a través de sistemas de IA  y la inconsistencia de las normas que conforman la moderación de contenidos, son apenas algunas de las principales inquietudes en torno a la cuestión. 

Las posibles vulneraciones a la libertad de expresión, el derecho a la salud, a la igualdad y no discriminación -entre otros- que pueden afectar en forma desproporcionada a las mujeres y personas LGTBIQ+ a través de la moderación de contenidos, deben ser urgentemente abordados. 

Para que el espacio cívico en línea sea inclusivo, plural y verdaderamente diverso, hemos de repensar la moderación de contenidos poniendo en el centro a los derechos humanos, la igualdad y la dignidad de las personas. 

More