
¿Quién es responsable?: IAs en contexto de desinformación
Milena Álvarez | 04/05/2023
A partir del lanzamiento de ChatGPT y el gran impacto que tuvo en internet, muchas empresas proveedoras de inteligencias artificiales salieron al mercado a competir por la atención de los usuarios. Tanto es así que actualmente podemos encontrar una IA para casi todo: desgrabar audios, crear guiones, resolver problemas matemáticos e incluso crear imágenes totalmente realistas. Herramientas como Dall-e, Stable Diffusion o Midjourney son muy útiles pero también pueden ser peligrosas si se usan para generar confusión o desinformar. A partir de la aparición de IAs la forma en la que la información se produce y difunde cambió radicalmente, por lo que es momento de preguntarse: ¿Las empresas conocen los efectos que tendrá la introducción de las IA en la difusión de desinformación? ¿Qué sucede con el derecho al acceso a la información de calidad?
Durante las últimas semanas circularon por redes sociales unas fotos del Papa Francisco que llamaron mucho la atención. En ellas se lo podía ver vistiendo un abrigo Balenciaga pero con un estilo similar a su tradicional sotana. Ante el desconcierto generalizado, usuarios y usuarias trataron de buscar respuestas analizando la imágen y navegando en diferentes portales. Incluso algunas personas aconsejaron “hacer zoom a las manos” porque generalmente las inteligencias artificiales suelen fallar al crear partes del cuerpo más complejas. Pero esas recomendaciones que pudieron ser útiles meses atrás ya no lo son, el salto exponencial en la calidad de las imágenes que generan las inteligencias artificiales en la actualidad es tan grande que pueden ser difíciles de detectar hasta para un ojo experto. Después de unas horas de desconcierto y debate se conoció que las imágenes eran falsas.
Las empresas desarrolladoras de IAs generadoras de imágenes cuentan con normas de uso para limitar los efectos negativos de sus creaciones pero, ¿es suficiente? En el caso de Dall-e, la plataforma prohíbe el uso político de sus productos. Por este motivo es que no genera imágenes en contextos electorales (urnas o boletas) ni tampoco imágenes alusivas a protestas o figuras políticas. El caso contrario es el de Midjourney, que tiene unas políticas mucho más laxas y prohíbe únicamente imágenes de contenido para adultos o gore. Esta diferencia en las normas de uso es problemática al momento de pensar en la responsabilidad de las empresas sobre los productos que crean. ¿Es suficiente poner unas normas de uso genéricas sin considerar todos los usos posibles de una IA? En una época signada por la rapidez en la que se difunde la información, con poco espacio para la doble verificación sería realmente beneficioso contar con reglas claras basadas en un acuerdo básico: la desinformación afecta la calidad del debate democrático y es responsabilidad de todos limitar sus efectos.
Recientemente ocurrió otro hecho que tuvo a Midjourney como protagonista, se trata de la aparición de fotos de Donald Trump siendo arrestado que generaron alarma entre sus partidarios. Actualmente el ex mandatario está atravesando un proceso legal y, fiel a su estilo, escribió en su red social Truth Social que estaba seguro de que su arresto ocurriría pronto. En el mismo posteo convocó a sus lectores a protestar para “recuperar la nación”. A partir de este acontecimiento, un usuario de Twitter le pidió a esta IA que ilustre el suceso y publicó el resultado, que se volvió viral. Algunos perfiles con mayor alcance replicaron las fotos y generaron desconcierto entre quienes querían organizarse para defenderlo y quienes dudaban sobre si el hecho era verdadero o falso.
Tanto las fotos del papa como las de Donald Trump son ejemplos claros de la capacidad que tienen las IAs para generar confusión con tan solo pedirle que represente una situación que resulte apenas verosímil. En ambos casos las imágenes ilustraron hechos que podrían tener lugar en la realidad, lo que complejiza aún más distinguir cuándo un contenido es verídico. En determinados contextos la desinformación toma fuerza y se propaga mucho más rápido y, si sumamos el componente de que todo el mundo tiene a la mano una herramienta para generar imágenes a demanda, los riesgos de la desinformación se multiplican exponencialmente.
Por el momento las medidas implementadas por las empresas son sectorizadas e insuficientes. Midjourney, a partir de la viralización de las imágenes del Papa y de Donald Trump, decidió eliminar la prueba gratuita que permitía a las personas crear hasta 25 imágenes libres. Actualmente para utilizar esta herramienta es necesario pagar una suscripción mensual. Al mismo tiempo, varios CEOs de compañías tecnológicas firmaron una carta en la que pidieron frenar por seis meses los entrenamientos de las IAs más potentes porque no se conocen aún los riesgos e implicancias para la sociedad.
Los sucesos recientes son una señal de alerta pero también indican que es un buen momento para reflexionar sobre el futuro que queremos y entablar un diálogo entre empresas, Estados y sociedad civil de forma que sea posible alinear la actividad privada con el pleno ejercicio de los derechos humanos y pensar en un desarrollo de herramientas que no colisione con el acceso a la información de calidad.
Un futuro en el que internet esté inundado de datos erróneos y sea difícil confiar en las fuentes de información es una posibilidad real. Lo que está en juego son los acuerdos que sostienen el sistema de información y, por este motivo, las respuestas desde las empresas tienen que surgir de un debate consensuado que incluya a toda la ciudadanía y a nuestros representantes.
MoreDesde su despegue en la década de los noventa a la actualidad, la inteligencia artificial (IA) se ha convertido en una herramienta con una significativa presencia en la vida cotidiana, con aplicaciones que van desde la atención médica hasta las inversiones y finanzas. Sin embargo, a medida que la IA se vuelve más sofisticada, también se va haciendo evidente que está distante de ser neutral, reproduciendo o amplificando los prejuicios y sesgos presentes en la sociedad como, por ejemplo, el racismo y la discriminación.
A pesar de los avances en la tecnología de IA, los sistemas automatizados a menudo muestran sesgos raciales alarmantes. Por caso, la herramienta ChatGPT – que desde su nacimiento hace cuatro meses lleva cosechados más de 100 millones de usuarios únicos- se ha comprobado que es capaz de presentar en ocasiones resultados sexistas, raciales o intolerantes. Esto obedece en parte a que los algoritmos de IA son entrenados empleando grandes volúmenes de información histórica, que muchas veces reflejan sesgos y discriminación presentes en la sociedad. Ha habido reportes de usuarios de ChatGTP que señalan casos en los que cuando al bot se le solicitaba que escriba, en función de sexo y raza, un código para evaluar si alguien podría ser un buen científico, el bot sugería solo hombres blancos. “Si se están entrenando modelos con datos que reflejan prejuicios sociales y contenido tóxico, será difícil evitar que ese contenido aprendido se filtre”, reflexionó en una nota de la revista Motherboard, semanas atrás, Yacine Jernite, responsable de Aprendizaje Automático y Sociedad de la comunidad de AI Hugging Face.
Al mismo tiempo, la escasez de diversidad en el desarrollo y entrenamiento de los sistemas de IA también contribuye a los sesgos raciales. Los equipos de desarrollo de tecnología en ocasiones carecen de representación de grupos minoritarios, lo que lleva a la falta de perspectivas y experiencias diversas en la creación de estos sistemas.
Como resultado, los algoritmos pueden exhibir sesgos implícitos que perpetúan la discriminación racial. Por ejemplo, se han registrado casos en el que los usados en la contratación de personal, la evaluación crediticia y la justicia penal han estado bajo la lupa por mostrar sesgos raciales y, colaborar así, a la discriminación sistemática de algunas minorías.
Ante este panorama, con una dinámica impensada, de escenarios próximos aún tampoco contemplados siquiera en las teorías más avanzadas sobre el tema, se convierte en materia urgente el no perder de vista el aspecto del racismo y discriminación en la tecnología artificial. Entre algunas de las recomendaciones sobre la materia, se encuentran:
● Aumentar la diversidad en el desarrollo de IA: es fundamental garantizar y promover que los equipos de desarrolladores y desarrolladoras de IA sean diversos y representativos de la sociedad, incorporando personas de distintos orígenes étnicos y culturales. Esto colaboraría a detectar y abordar sesgos implícitos en la creación de algoritmos, y asegurar que se contemplen múltiples perspectivas en la creación de sistemas de inteligencia artificial.
● Evaluaciones de sesgos: los algoritmos de IA deben ser sometidos a auditorías y pruebas rigurosas para identificar posibles sesgos raciales y discriminatorios. Es decir, revisar y analizar la calidad de los datos de entrenamientos utilizados, así como seguir al detalle la performance de los sistemas en casos reales para identificar y abordar sesgos emergentes.
● Transparencia y responsabilidad: las organizaciones que desarrollan y emplean sistemas de IA tienen que ser transparentes en su funcionamiento e informar cualquier sesgo detectado y las mitigaciones implementadas para abordarlo. Además, deben responsabilizarse de corregir los sesgos en sus sistemas y rendir cuentas por cualquier discriminación ejecutada por la IA.
● Concientización: Es central informar y educar a los desarrolladores de IA, a los profesionales del sector tecnológico y al público en general sobre los eventuales sesgos raciales en la IA y su impacto en la sociedad.
● Regulación y políticas: Es preciso buscar una regulación basada en estándares de derechos humanos.
“No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos. La capacidad de la IA para servir a la población es innegable, pero también lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable. Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a la utilización de la IA por el bien de todos”, señaló en 2021 la por entonces Alta Comisionada Michelle Bachelet.
Es preciso discutir sobre eventuales regulaciones en pos de implementar políticas públicas claras que contemplen especialmente el aspecto del racismo y la discriminación en la IA, determinando, por ejemplo, mecanismos de supervisión y control que garanticen la equidad en el desarrollo y uso de la inteligencia artificial.
En síntesis, la discriminación racial en la IA es una problemática que demanda especial atención, considerando que los sesgos en los sistemas de IA pueden perpetuar la exclusión de ciertos grupos raciales, lo que resulta en mayor desigualdad en diversos ámbitos de la sociedad. Una disparidad que alarma a intelectuales como el escritor e historiador israelí Yuval Noah Harari, quien junto con Tristan Harris y Aza Raskin, con ojo atento a los peligros de la tecnología IA, se preguntaban en un reciente artículo conjunto: “¿Qué significaría para nosotros vivir en un mundo donde gran porcentaje de las historias, melodías, imágenes, leyes, políticas y herramientas fueron moldeadas por una inteligencia no humana, que sabe cómo explotar con eficiencia sobrehumana todas las debilidades, los sesgos y las adicciones de los seres humanos, con quienes además sabe establecer relaciones íntimas? En juegos como el ajedrez, por ejemplo, ningún ser humano puede aspirar a vencer a una computadora. ¿Y si pasara lo mismo en el arte, la política o la religión?”.
¿Querés conocer el trabajo de la Asociación por los Derechos Civiles (ADC) en materia de análisis y debate acerca de la inteligencia artificial? Hacé clic acá y lee las notas sobre el tema en nuestra web.
MoreEn 2018 apareció un video en el que se podía ver a Barack Obama insultando a Donald Trump. Segundos después se mostraba que no había sido el ex presidente estadounidense sino que se trataba del actor Jordan Peele que se hacía pasar por él de manera hiperrealista. Este video publicado en el canal de Youtube de Buzzfeed es conocido como uno de los primeros en usar un deep fake con figuras políticas, con el buscan demostrar que se está dando un cambio en la forma en la que fluye la información y que es necesario estar alertas, ya que no todo lo que se ve en Internet es real.
Los deep fakes son videos creados o modificados mediante un software que, aplicando técnicas de deep learning, permiten crear imágenes falsas de forma realista. Si bien existen otras formas de manipulación de video, tales como la edición que incluye cortes de imagen, distorsión en la velocidad y cambios en el audio, sólo puede llamarse así a aquellos creados mediante softwares.
Los usos que se le dan a los deep fakes son múltiples, algunos más riesgosos que otros. Es posible encontrar contenido que entra en la categoría de entretenimiento y humor, tal es el caso de cuentas en redes sociales como @deepfakesar en la que se publican videos de este tipo sobre celebridades. Otros usos posibles, y menos inocentes, tienen que ver con la propagación de desinformación que pueden acarrear consecuencias políticas y también afectar el pleno ejercicio de derechos de la ciudadanía.
Este tipo de videos afecta la calidad de la información que circula en internet, pero sus efectos perniciosos se extienden mucho más allá. Un entorno en el que no se puede distinguir lo real de lo falso genera una pérdida de confianza en las instituciones y en Argentina se trata de un problema que preocupa a la población. Según la encuesta Edelman Trust Barometer del 2022, un estudio representativo de 28 países que se realiza hace más de 20 años, ante la afirmación “me preocupa que la información falsa o las noticias falsas sean utilizadas como arma” el 76 por ciento de los encuestados a nivel global dice estar de acuerdo. Si miramos solamente las respuestas de Argentina, ese porcentaje asciende a un 81 por ciento.
Los deep fakes además puede usarse para interferir en las campañas electorales y permitir la difusión de ataques personales y discusiones que son secundarias en relación a los temas que deben tratarse en campaña: las políticas que le importan a la ciudadanía. No son desdeñables los efectos a nivel personal que tienen este tipo de campañas de desinformación. Fueron sonados los casos de Nancy Pelosi, presidenta de la Cámara de Representantes de Estados Unidos, y de Patricia Bullrich, ex Ministra de Seguridad de Argentina. Ambas figuras sufrieron intentos de desprestigio de su imagen personal a partir de la difusión de videos alterados en los que parecían estar bajo los efectos del alcohol. Esto llevó a que se hable en los medios sobre su vida personal y no sobre las políticas que estaban impulsando en esos momentos.
Además de los efectos en la imagen pública de funcionarias y funcionarios, los deep fakes pueden generar alteraciones en la opinión pública. Las campañas de desinformación pueden utilizarse para afectar la imágen que la ciudadanía tiene de un partido o gobierno, o para mejorar la opinión que la ciudadanía tiene del mismo. Un caso reciente se dio cuando aparecieron vídeos como publicidad en Youtube en el que presentadores creados mediante un software daban noticias positivas (aunque poco precisas) sobre la economía en Venezuela, para promover una opinión favorable al gobierno.
Todos estos efectos conllevan también un riesgo importante, que es el aumento de la polarización política. Si bien un video puede ser desmentido, este tipo de contenido no se difunde en un contexto aislado. Debido a la lógica algorítmica de las redes sociales, es probable que un deep fake llegue a personas que tienen un esquema de pensamiento afín a ese contenido y, por ende, no cuestionen la veracidad del video. La microsegmentación, por un lado, y el efecto “cámara de eco”, por el otro, posibilitan que el contenido de desinformación circule por internet y se multiplique por cuentas que comparten y difunden, de manera casi invisible para aquellos que no siguen dichas cuentas.
En tiempos de campañas electorales como el que tendremos este año en Argentina, los contenidos engañosos representan un peligro mayor porque puede afectar a la confianza en el proceso electoral, lo que a su vez puede generar cuestionamientos a los resultados electorales. Si los ciudadanos y ciudadanas no confían en que se están haciendo esfuerzos para cuidar la integridad de los resultados electorales se pueden desatar manifestaciones y ataques directos a la democracia.
MoreCon el paso del tiempo, las redes sociales han adquirido un papel fundamental en la difusión de información, en la manera en que percibimos al mundo y a las personas que nos rodean. Sin embargo, también han sido el escenario de prácticas de censura que atentan contra la libertad de expresión y la diversidad.
Uno de los ejemplos más claros es la prohibición de los pezones por parte de la red social Instagram. Es importante aclarar que esta política no es universal y que existen ciertas excepciones en las que se permite su visualización, como por ejemplo la lactancia materna. Así mismo hay que resaltar que no suele cumplirse esta salvedad y el contenido es usualmente restringido.
Aunque esta medida se justifica en nombre de la “decencia” y la “seguridad”, la realidad es que esta política representa una grave violación de los derechos civiles en línea. ¿Es el cuerpo humano algo que debe ser censurado? Y si es así, ¿quién decide qué partes son aceptables y cuáles no?
¿Censura o protección?
Instagram ha sido tema de discusión y debate entre activistas y organizaciones de la sociedad civil por sus controversiales políticas de censura corporal, más específicamente con los pezones femeninos. En la actualidad son considerados como “contenido inapropiado” y su exhibición es restringida o incluso eliminada de la plataforma, no siempre, pero suele suceder. Esta práctica discriminatoria y sexista, atenta contra el derecho a la igualdad y la diversidad en los entornos digitales.
La actriz y activista Scout Willis ha sido una de las figuras más destacadas en la lucha contra la censura de los pezones en la plataforma. En 2014, Willis publicó una fotografía en Instagram en la que aparecía caminando por las calles de New York sin camisa. La imagen fue eliminada, lo que llevó a la influencer a iniciar una campaña para concientizar sobre la discriminación que sufrían las mujeres en los espacios virtuales. En una carta abierta afirmó: “La censura de los pezones es una forma de violencia contra las mujeres, que perpetúa los estereotipos de género y limita la libertad de expresión”.
Sin ir más lejos, en 2019, la fotógrafa chilena Marcela Cerda publicó una serie de fotografías de mujeres amamantando, en el marco de una exposición llamada “Lactancia Libre”. Sin embargo, la plataforma eliminó varias de las imágenes por mostrar pezones femeninos, aunque estos eran utilizados en un contexto de militancia por el acceso a la salud pública y con fines educativos. De una forma directa o indirecta, estos ideales perpetúan la idea de que el cuerpo femenino es “inapropiado” y “vergonzoso”, algo que debe ser ocultado.
Esta clase de política empresarial puede parecer trivial para algunas personas, pero para muchas otras tiene un impacto real y negativo en su vida cotidiana, evidencia la necesidad de que las redes sociales ajusten sus normas a un contexto y realidad de cuerpos diversos que existen en la sociedad.
Educación y transparencia: claves para garantizar los derechos humanos en línea
Es de suma importancia destacar la relevancia de la educación y concientización en torno a la libertad de expresión y los derechos humanos en línea. La persistencia de estereotipos alrededor de la sexualidad y el cuerpo humano es uno de los principales motivos detrás de las políticas de censura discriminatorias que vemos en las redes sociales. Por ello, es fundamental trabajar en la desnaturalización de estos prejuicios, respetar las diferencias culturales, éticas, de género y de orientación sexual, entre otras, y fomentar una cultura de respeto y tolerancia.
Asimismo, es necesario que estas normas sean transparentes y consistentes, buscando mecanismos de apelación para los usuarios que sienten que sus derechos han sido vulnerados.
La lucha por la libertad de expresión es un desafío colectivo y requiere de la colaboración y compromiso de diferentes actores, incluyendo a las empresas, la sociedad civil y los propios consumidores de las plataformas digitales. Solo así podremos construir una sociedad más justa y equitativa en línea y fuera de ella.
¿Por qué nos interesa?
Esto es solo la punta del iceberg en un problema más grande. Es importante seguir impulsando a las empresas a reforzar el compromiso con la protección de los derechos humanos en los entornos digitales. Debemos recordar que la tecnología y las redes sociales han transformado la forma en que nos comunicamos y accedemos a la información, y con ello, han surgido nuevos desafíos que deben ser abordados de manera efectiva.
Velar por los derechos humanos no debe ser un compromiso opcional.
More¿Qué pasa cuando las redes sociales median la conversación entre la política y la ciudadanía?
Uno de los secretos políticos mejor guardados en los últimos años fue el anuncio de la candidatura Alberto Fernández-Cristina Fernández para las elecciones 2019. Así, de un día para el otro y sin información filtrada, la entonces ex presidenta anunciaba por Twitter y YouTube el lanzamiento de la fórmula que sería la gobernante durante los siguientes cuatro años. A pocos meses del arranque de la campaña presidencial 2023 todavía hay pocas definiciones de nombres. Pero nada cancela la posibilidad de que nuevamente surjan anuncios a través de las redes sociales, plataformas que llegaron para dar un sacudón al discurso político y colarse en las conversaciones de la ciudadanía. Pero, ¿qué pasa cuando las redes sociales median la conversación entre la política y la ciudadanía? ¿Se trata de una conversación entre todos o entre unos pocos?
Ya sabemos que para mantenernos informados e informadas los medios de comunicación ocupan un lugar primordial. Sin embargo, hace ya varios años que las redes sociales vienen arrasando y ocupando un lugar central en cómo nos mantenemos al día con las noticias. La necesidad de recurrir a un o una periodista para dar una primicia quedó aplastada por el micrófono que otorgaron las plataformas a los políticos y políticas que tienen miles de personas seguidoras (y detractoras) que siguen y likean de manera diaria. Un aviso, un anuncio, un clic, publicado.
El vínculo entre la política y la ciudadanía se estrechó. Este canal de comunicación directo – aunque no sin intermediarios – buscó democratizar la conversación. Llevar el mensaje de uno a todos. Es indudable que a través de las redes sociales, no solo la política le habla al pueblo, sino que ahora el pueblo le contesta, algo impensado en la prensa tradicional. En este espacio digital es donde se gesta un lugar en el que la ciudadanía participa de conversaciones con sus propios representantes. No nos olvidemos que la democracia y el respeto de los derechos fundamentales legitiman el ejercicio de poder de la ciudadanía. Y el acceso a la información es, sin dudas, un derecho fundamental en cualquier democracia como la nuestra.
A partir de esta conversación directa las personas pueden opinar con sustento e información de primera mano. Pueden llevar adelante su ejercicio democrático de la participación política en el espacio cívico. Aquí es donde el derecho a la información como un ejercicio de derecho colectivo, ya no tanto individual, cobra un carácter público o social. Según la Declaración Universal de Derechos Humanos, todo individuo tiene derecho a la libertad de opinión y expresión, incluyendo el investigar y recibir información y opiniones sin limitación de fronteras.
Visto desde este punto de vista, las redes se presentan como un espacio donde el debate democrático se da casi libremente, teniendo en cuenta que aún persisten problemas debido a la discrecionalidad con la que las plataformas moderan su contenido. Sin embargo es imposible ignorar que aún hoy en día una gran parte de la población no tiene acceso a Internet. Según un estudio de INDEC del 2021, el 64,2% de los hogares urbanos tiene acceso a una computadora y el 90,4% a internet. Esta realidad es muy diferente si se tienen en cuenta a las zonas rurales y a la totalidad del territorio argentino. Un informe del INTA y el ENACOM en 21 provincias demostró que cuatro de cada 10 parajes rurales no tienen acceso a internet y que la gran mayoría de ellos pertenece a la agricultura familiar. Además develó que mientras menos habitantes hay en una zona, menos acceso a la conectividad tiene.
Yendo un poco más allá, otro estudio privado explica que un 80% de la población argentina tiene presencia en internet. Esto significa que un 20%, casi 13 millones de personas, no tiene acceso a la web, por lo que no tiene acceso a la información distribuida por las redes y mucho menos acceso a la participación de discusiones políticas en entornos digitales. Entonces, ¿estamos hablando de una democracia digital para unos pocos o para todos?
Según las Naciones Unidas, el derecho al acceso a Internet “garantiza la conectividad, el acceso a infraestructura y a servicios servicios de las tecnologías de la información y las comunicaciones (TIC) de manera equitativa, económicamente accesible y con una calidad adecuada”. Se entiende a estas tecnologías como elementos clave en la promoción, protección y disfrute de los derechos humanos en Internet, siendo la libertad de expresión y el acceso a la información pilares fundamentales. Sin embargo queda claro que este derecho todavía no alcanza a toda la ciudadanía argentina y que es un factor de desigualdad.
Este 2023 sin dudas va a traer (y ya lo hace) anuncios políticos de distinto tono e importancia. Hoy por hoy no hay político o política argentina que no use las redes sociales como espacio de interacción directa con la ciudadanía. La militancia de la calle, cuadra por cuadra, se convirtió en la militancia digital, clic por clic. La brecha se acortó y el discurso se amplificó. Pero el acceso a Internet sigue siendo un factor de exclusión para muchos. Si los debates políticos se dan en un entorno al que no accede toda la ciudadanía en igualdad de condiciones, entonces las conversaciones se dan entre unas pocas personas.
MoreLa tensión entre decir lo que pensamos y pensar en lo que decimos. Primera parte.
En octubre de 2022 un fallo de la Justicia de Formosa condenó nuevamente la violencia por razones de género en el ámbito digital. A raíz de la denuncia hecha por la coordinadora de Acción Social de la Municipalidad de la ciudad de Formosa, un periodista local tuvo que eliminar de su página de Facebook “Sala de Prensa Formosa” todo contenido y datos referidos a la funcionaria, a la vez que se le prohibió hablar sobre ella en futuras publicaciones. La justicia consideró ofensivos y descalificantes los dichos del periodista, que mostraron un claro ensañamiento “(…) poco tolerable para los tiempos que se transita”. Esta expresión nos permite poner sobre la mesa un aspecto que se repite en toda la sentencia: la voluntad judicial de abordar el caso desde una perspectiva de género.
A lo largo del texto se reiteran conceptos como “violencia de género”, violencia de género digital”, “violencia política contra las mujeres”, “violencia sexual manifiesta” e, incluso, “violencia sexual digital”. No obstante, la elección de los términos resulta, por lo menos, confusa. Siguiendo el Anexo I de Conceptos Básicos del Protocolo de Atención a Víctimas de Violencia de Género del Poder Judicial de Formosa, podemos ver que no existe en la provincia (ni tampoco a nivel nacional) una definición concreta de la violencia de género virtual.
Ante la ausencia de un término específico para describir un ataque como el que sufrió la funcionaria, el fallo habla de “violencia sexual digital” para calificar aquellas publicaciones que hacían referencia a la intimidad de su vida sexual. El error está en recurrir a una categoría que, al menos legalmente, no existe. Aun aceptando la connotación sexual de algunas de las expresiones del periodista, estas no pueden pensarse como ataques de violencia sexual, que en verdad ocurren cuando se afecta la libertad de las mujeres para decidir acerca de su vida íntima. La elección imprecisa de los términos trae consecuencias que no son inofensivas: usar los distintos tipos de violencia de género como sinónimos y crear categorías nuevas (como “violencia sexual digital”) que la ley no incluye puede llevar a abordajes desproporcionados e inconvenientes.
Este caso también muestra una colisión entre dos derechos fundamentales: el derecho a la libertad de expresión y el derecho de las mujeres a vivir una vida sin violencia. En el citado fallo la tensión es resuelta en favor de este último, ya que la Justicia dejó en claro que la libertad de expresión no ampara las descalificaciones dirigidas a la funcionaria y que, por tanto, en esta oportunidad no puede utilizarse como escudo. Recuperando los argumentos que se ensayan en el escrito, “(…) el mentado derecho de expresión ha sobrepasado los límites para lo cual fue creado, por cuanto no se debe tolerar que bajo el manto protector de la libertad de expresión se permita se agreda y descalifique ilimitadamente, infringiéndose el derecho personalísimo de la dignidad”. Sin embargo, la intención judicial de relativizar la libertad de expresión puso en peligro la razón de ser de este derecho: al prohibir al periodista hablar sobre la funcionaria en el futuro, la Justicia vetó la posibilidad de evaluar públicamente su desempeño como empleada pública, perjudicando así un derecho de la ciudadanía.
Finalmente, cabe preguntarse: ¿es conveniente que este tipo de hechos sean abordados con enfoques punitivistas y desmedidos que impliquen un tratamiento aislado y particular de la problemática? En relación a ello, encontramos necesario que se adopte un enfoque integral que incluya medidas preventivas y educacionales que contribuyan a la resolución proporcional de estas tensiones. Puntualmente, se trata de reconocer a la violencia de género como un problema vinculado al ordenamiento actual del sistema social, que continúa reproduciendo niveles preocupantes de desigualdad, discriminación y violencia contra las mujeres en todos los ámbitos. La virtualidad no escapa de ellos y, lo que es peor, habilita nuevas formas en que se manifiestan estos ataques de violencia que escudan dichos discriminatorios y misóginos dentro de los límites de la libertad de expresión.
Las medidas para prevenir y erradicar la violencia digital por razones de género deben ser proporcionales y racionales, en pos de resguardar a la libertad de expresión y generar, al mismo tiempo, conciencia entre quienes lo ejercen, toda vez que sus dichos son más que solo palabras.
MoreLa relación entre derechos humanos e internet es quizá uno de los grandes retos que debemos afrontar como sociedad en búsqueda de libertades y mejores condiciones de vida. Como humanidad bregamos por el reconocimiento y cumplimiento de los derechos humanos en todo el mundo y esto es una tarea permanente. Sin embargo, con el establecimiento del internet, se vuelve cada vez más urgente que se garantice el pleno acceso a la información, pues como indica el adagio: el conocimiento es poder.
En noviembre de 2022 la app Mi Argentina fue elegida como la mejor solución en la categoría “Transformación digital” de Latinoamérica y el Caribe, y recibió el premio a la Excelencia en Gobierno digital 2022 (ExcelGOB) durante la séptima Reunión Ministerial de Gobierno Digital de las Américas, y el decimosexto encuentro de la Red Interamericana de Gobierno Digital (Red GEALC). Este reconocimiento permite conocer y sistematizar lo más innovador que se realiza en la región en materia de gobierno digital, siendo un aliciente para todas las iniciativas basadas en accesibilidad, recepción y responsabilidad de un gobierno frente a una ciudadanía digital que necesita de una interseccionalidad de servicios rápidos y seguros.
¿El gobierno abierto es inclusivo? ¿La brecha digital es un problema menor? Estas y otras preguntas desafían el vertiginoso avance hacia un gobierno 2.0.
No todo lo que brilla es oro
Si bien en América Latina se han implementado plataformas donde se expone información pública de interés ciudadano como canales de comunicación, trámites en línea, rendición de cuentas y un sin fin de opciones destinadas a que la ciudadanía interactúe con su gobierno a través de internet, salta a la vista una problemática bastante esencial: el desfasamiento generacional podría condicionar el derecho de acceso a la información pública, dejando rezagados de estos nuevos entornos de gobierno – y sus beneficios – a quienes apenas manejan un móvil, frente un mundo de posibilidades que se abre para las generaciones nativas digitales.
Según el Center for International Media Assistance (CIMA), el derecho al acceso a la información posibilita el proceso de construcción y consolidación de la democracia, además de abrir el camino para una ciudadanía activa que se apropia de la información y discusión constante de los temas que le interesan. Claramente es un beneficio, no obstante, la brecha digital sigue siendo una realidad ineludible que ahonda la distancia en el acceso, uso y apropiación de las nuevas tecnologías, en parte debido a clivajes socioeconómicos, de género, culturales, pero sobre todo generacional.
Viejos retos, nuevos escenarios
Pensar en soluciones de gobierno abierto a través de propuestas como Mi Argentina, coloca a una ingente cantidad de información y recursos que “optimizan” la gestión pública y sus servicios ciudadanos. Además genera fuertes incentivos en relación con la transparencia y rendición de cuentas, incluso según Open Government Partnership (OGP) el gobierno abierto merma seriamente la corrupción haciendo que los sistemas políticos sean más justos e inclusivos. Esto a claras luces es bastante beneficioso en el mejor de los casos, pero no debemos olvidar que el gobierno abierto no solo implica resultados sino también esfuerzos a nivel interno para el pleno goce de sus ciudadanos en cuanto información de todo tipo, es decir, potenciar habilidades – hoy por hoy – básicas.
El desarrollo de Habilidades Digitales Básicas (HDB) debe considerarse como una meta de política pública comprometida con el derecho de acceso a la información. Las HDB consisten en el conocimiento y buen uso de la información disponible en internet, identificando tanto los beneficios como los riesgos que esto implica. La alfabetización digital abre una ventana de oportunidades no solo respecto al acceso a la información, sino que posibilita la creación de redes, la asociación, la exigencia de derechos y la exposición pública de demandas sociales dentro y fuera de los países.
***
La inclusión digital debe comprenderse bajo tres aristas: como acceso al entorno digital (acceso a internet), como alfabetización digital (competencia en el manejo de información) y como apropiación de tecnologías, lo cual propicia la inclusión, el desarrollo multidimensional del sujeto en sociedad y potencia a la ciudadanía activa desde la perspectiva de derechos que, a posteriori, dan sentido holístico a todas las iniciativas de gobierno abierto. Las soluciones innovadoras y esfuerzos reconocidos en esta esfera de la gestión son ciertamente un avance, pero la brecha digital aún yace como una amenaza latente. Este fenómeno social (a veces aparentemente superado y olvidado) profundiza la carencia de información y propicia la desinformación, dificulta la toma de decisiones y desplaza a quienes no tuvieron el capital cultural o tecnológico para una correcta adaptación.
El derecho al acceso a la información trasladada al ámbito digital, carece de un eslabón clave. No basta con garantizar la disponibilidad de la información pública en portales gubernamentales y la libertad de acceder a esa información en el mejor de los casos, cuando no contamos con mínimas condiciones técnicas disponibles ni con una correcta y adecuada alfabetización digital que prepare al ciudadano para hacer uso pleno de la información disponible que le resulte útil.
MoreLa pandemia evidenció las potencialidades del mundo digital y sus múltiples ventajas para garantizar derechos. En poco tiempo fuimos espectadores y receptores de la vertiginosa digitalización. Es así que actualmente Estado, sector privado y academia consolidaron el uso de aplicaciones, webs y plataformas para comunicar, interactuar con usuarios y ofrecer servicios, y las personas utilizan estos entornos para acceder a la información, participar y ejercer su ciudadanía. ¿Pero las instancias de digitalización son accesibles e incluyen a todas las personas?
Partimos del acuerdo de que el mundo digital es un espacio importante para la participación ciudadana, sin embargo la equidad digital no se alcanza solo con la conexión a internet. Es importante dar un paso más hacia entornos digitales accesibles para derribar las barreras presentes en el mundo digital que vulneran el derecho a acceder a la información, hacer uso de los servicios y a una participación autónoma.
El término accesibilidad digital se refiere a que los entornos digitales deben estar desarrollados y diseñados de forma tal que permitan al mayor número de usuarios y usuarias acceder, en forma autónoma y con cualquier tipo de dispositivo (computadora, celular, tablet, entre otros), a la información y servicios disponibles en entornos digitales.
Un caso de ejemplo
En marzo de 2022, dos años después del comienzo de la pandemia, se realizó en Argentina el primer Censo Digital, una instancia fundamental para la recolección de datos utilizados principalmente para la planificación de políticas públicas. El trámite digital estaba compuesto por un formulario online para que la ciudadanía lo complete y de esa forma agilizar el proceso censal presencial.
Desde su lanzamiento varias organizaciones vinculadas a la defensa de los derechos de las personas con discapacidad (PCD), entre ellas la ADC, reclamaron la falta de criterios de accesibilidad en el formulario online. Algunas de las barreras identificadas fueron, por ejemplo, elementos mal etiquetados que impedían el acceso y navegación a través del teclado o lector de pantalla. También, tiempos límites muy acotados para completar el formulario y opciones poco claras de navegación.
Además de vulnerar la autonomía de las PCD, la falta de accesibilidad digital las obligó a que tengan que compartir la información con terceros infringiendo su derecho a la privacidad y a la protección de datos personales.
Si bien a partir de los reclamos tanto la Agencia Nacional de Discapacidad (ANDIS) como el Instituto Nacional de Estadística y Censos (INDEC) realizaron acciones para mejorar la usabilidad del formulario online, se evidenció que la perspectiva de la accesibilidad digital no estuvo presente en la planificación de una instancia primordial de participación ciudadana y acceso a derechos.
¿Por qué los entornos digitales tienen que incorporar una perspectiva de accesibilidad digital?
La Convención Internacional sobre los Derechos de las Personas con Discapacidad (CDPD) es el primer instrumento en reconocer, proteger y explicar a la accesibilidad digital como un derecho humano. En su artículo 9 sostiene que implica asegurar el acceso de las personas con discapacidad en igualdad de condiciones con las demás, al entorno físico, el transporte, los sistemas y las tecnologías de la información y las comunicaciones, como a otros servicios e instalaciones abiertos al público o de uso público, en zonas urbanas y rurales.
La incorporación de criterios de accesibilidad digital favorece el acceso directo al mundo virtual de todas las personas, sin mediación de terceros, permitiendo una mayor participación social, cívica y cultural. Es por este motivo que se vuelve indispensable que la dimensión de la accesibilidad esté presente desde el comienzo en todo desarrollo digital y que su planificación incorpore la mirada, experiencia y posicionamientos de personas diversas, incluidas aquellas con discapacidad y poco alfabetizados digitalmente. Este pequeño pasó nos acercará un poquito más a una equidad digital.
MoreVivimos en un momento de auge tecnológico: estamos constantemente en conexión. A pesar de los beneficios de la era digital, esto trajo aparejada una crisis en la protección de datos personales y la privacidad de los usuarios y las usuarias. Bajo sus políticas de consentimiento –que la mayoría no lee-, las aplicaciones de uso habitual recolectan y almacenan información incluso cuando no las estamos usando.
La gravedad de esta infracción a la privacidad se ve incrementada cuando se usan estos datos para criminalizar conductas de las personas. Los casos en que las redes sociales y demás aplicaciones tuvieron gran incidencia en la prueba de delitos que se atribuyen a los usuarios y las usuarias se encuentran en aumento. En particular, en Estados Unidos hubo un crecimiento de casos vinculados con la reciente prohibición del aborto. Desde la Asociación por los Derechos Civiles observamos con preocupación esta problemática y nos proponemos visibilizarla.
Nuestra salud como objeto de criminalización
Recientemente fue noticia un caso en Nebraska, Estados Unidos, donde el Estado aseguró que una mujer compró a su hija una píldora para que esta se realizara un aborto. Los hechos fueron denunciados por una amiga de la joven, que la había visto ingerir el comprimido en abril.
El Estado solicitó a Meta (conglomerado estadounidense de tecnología y redes sociales) los chats privados mantenidos entre ambas mujeres a través de Facebook y esa fue la prueba determinante para llevar adelante el arresto de ambas en agosto.
Esta situación empeoró desde que el fallo Roe v. Wade (que instauró al aborto como un derecho constitucional) fue dejado sin efecto en junio, pero no es un fenómeno nuevo. De hecho, un reporte del Washington Post señaló que hubo más de 60 casos donde se investigó y arrestó a individuos por someterse a abortos o por ayudar a otros a practicarlos, y “varios de esos casos han dependido de mensajes de texto, historial de búsqueda y otras formas de evidencia digital”.
Nuestros datos personales son recolectados muchas veces sin que estemos al tanto de ello. Incluyendo las aplicaciones de seguimiento del ciclo menstrual, cuyo uso se popularizó en los últimos años y recolectan información sumamente personal. En diciembre de 2018, la organización Privacy International expuso prácticas dudosas llevadas a cabo por algunas de estas apps, que compartían los datos de las usuarias y los usuarios con Facebook. Esta recolección de información indiscriminada tenía el objeto de lograr un mejor targeting según las preferencias o estados de ánimo de las personas, con fines publicitarios. Sin embargo, esta puede ser solicitada por los tribunales para utilizarla como prueba de conductas consideradas delictivas, como los abortos penalizados en el caso de Estados Unidos. Al mismo tiempo, surge una preocupación por parte de activistas que denunciaron que compañías que almacenan información (llamadas también data brokers) ofrecieron la venta de datos acerca de la ubicación de usuarios que visitaron clínicas de aborto.
Todas estas herramientas utilizadas en conjunto ayudan a que las fuerzas policiales investiguen e imputen a las personas que buscan abortar y a sus respectivas redes de apoyo, lo cual cada día es más usual en Estados Unidos desde mediados de este año.
¿Por qué nos importa?
Esta problemática puede parecer lejana a nuestro país, donde el aborto fue legalizado por el Congreso en 2020. Sin embargo, esta discusión se vuelve cada vez más importante a medida que los Estados avanzan hacia la digitalización de sus sistemas de atención médica y más personas eligen administrar su salud (en especial, la salud reproductiva) a través de medios digitales. Todo esto en un contexto donde, aún con la nueva ley argentina, continúan existiendo resistencias y hostigamientos hacia las personas que desean abortar.
La medida en que las empresas y aplicaciones respetan la privacidad y comparten los datos de los usuarios con terceros, incluido el Estado mismo, es motivo de gran preocupación. Resultan alarmantes los daños que podrían causar la recolección y almacenamiento de datos de los usuarios para la imputación de otros hechos que sí son considerados delitos en nuestro país.
Todo esto hace que sea necesario potenciar el debate sobre estas temáticas y preguntarnos si la solución se encuentra en promover legislaciones actualizadas sobre la privacidad, especialmente en cuanto a la salud reproductiva, para proteger nuestros datos de la explotación por parte de empresas y del Estado.
MoreLa semana pasada, la vicepresidenta Crisitina Fernández de Kirchner sufrió un ataque que pudo haberle costado la vida. El agresor resultó ser una persona cuya actividad en redes sociales exhibía muestras de simpatía a grupos violentos y extremistas. Como consecuencia del lamentable suceso, se puso el foco en el rol de los llamados discursos de odio como generador del tenso clima que se vive en Argentina. Desde diversos sectores se reclamó que el debate político deje de estar dominado por declaraciones violentas y adquiera tonos más mesurados. Sobre este escenario, volvió a instalarse la posibilidad de que el Estado combata los discursos de odio a través de la regulación legislativa. Frente a estos posibles nuevos intentos, es conveniente resaltar algunas de las dificultades que aparecen para la libertad de expresión cuando se enfrenta este problema desde una perspectiva punitiva.
Una característica estructural de una sociedad es el desacuerdo que existe entre las personas sobre todos los temas. La gente discrepa sobre cuestiones banales como cuál es el gusto de helado más rico o cuál es la plaza más linda de una ciudad. Pero también discute sobre asuntos más serios como el rol del Estado en la economía o quién es la persona más capacitada para ocupar la presidencia de un país. La definición de discurso de odio no escapa a esta condición. Así como la gente tiene diferentes visiones acerca de qué es el amor, es muy probable que también la tenga acerca del sentimiento opuesto. Cualquier declaración, comentario o posteo puede ser considerado ofensivo de acuerdo al contexto. Esta circunstancia suele recibir poca atención cada vez que existen intentos regulatorios para combatir los discursos de odio. Y esta ausencia de consideración puede producir efectos no deseados desde un punto de vista democrático.
En primer lugar, por más esfuerzo que se ponga en describir de manera precisa lo que entendemos por discurso de odio en una norma, las palabras elegidas siempre estarán sujetas a interpretación. Por lo tanto, el sector que cuente con el mayor poder en un momento dado será aquel que tendrá la capacidad para influenciar el contenido de esas disposiciones. De este modo, existe el riesgo de que legislaciones de este estilo sean utilizadas por el sector político dominante para restringir las expresiones de otros actores con una visión distinta.
En segundo lugar, si se elige un camino punitivista para combatir los discursos de odio (sea a través de prisión o multas para quien emita o difunda expresiones de ese estilo), dichas medidas deberán ser adoptadas por el Poder Judicial de acuerdo al principio de separación de poderes establecido en nuestra Constitución. Por lo tanto, la última palabra sobre qué es y qué no es discurso de odio estaría en manos de los jueces. Curiosamente, esta situación no sería bien vista por aquellas personas que acusan al propio Poder Judicial de ser uno de los actores que más contribuyen al clima de tensión política que se vive en el país.
Por último, quedaría por analizar el estatus de múltiples obras artísticas que podrían ser calificadas como incitadoras de odio político. Pensemos en “Derrumbando la Casa Rosada”, canción de Alerta Roja, banda pionera del punk argentino. Además de la frase del título, la letra incluye frases como “Trincheras callejeras, barricadas urbanas, caos, sedición, bomba, revolución” en el marco de una queja por lo “lejos que se está llegando con este proceso inflacionario”. La canción es de comienzos de 1983 cuando la última dictadura estaba en retirada pero la persistencia de algunos problemas de nuestra economía nos hace pensar que podría haber sido escrita en varios otros momentos de nuestra vida democrática.
Los llamados discursos de odios están ligados con fenómenos repulsivos como la xenofobia, el racismo, la homofobia y demás formas de discriminación. A su vez, los últimos actos de violencia contra figuras políticas de la región -desde Jair Bolsonaro hasta Cristina Fernández de Kirchner- no reconocen ideologías. Como todo problema, debe ser abordado y solucionado. Pero es necesario una investigación y análisis sobre las causas y los medios más eficaces. Las regulaciones punitivistas suelen tener los inconvenientes señalados ya que más que combatir los discursos de odio, dejan traslucir más bien un odio al discurso.
More