
¿Quién es responsable?: IAs en contexto de desinformación
Milena Álvarez | 04/05/2023
A partir del lanzamiento de ChatGPT y el gran impacto que tuvo en internet, muchas empresas proveedoras de inteligencias artificiales salieron al mercado a competir por la atención de los usuarios. Tanto es así que actualmente podemos encontrar una IA para casi todo: desgrabar audios, crear guiones, resolver problemas matemáticos e incluso crear imágenes totalmente realistas. Herramientas como Dall-e, Stable Diffusion o Midjourney son muy útiles pero también pueden ser peligrosas si se usan para generar confusión o desinformar. A partir de la aparición de IAs la forma en la que la información se produce y difunde cambió radicalmente, por lo que es momento de preguntarse: ¿Las empresas conocen los efectos que tendrá la introducción de las IA en la difusión de desinformación? ¿Qué sucede con el derecho al acceso a la información de calidad?
Durante las últimas semanas circularon por redes sociales unas fotos del Papa Francisco que llamaron mucho la atención. En ellas se lo podía ver vistiendo un abrigo Balenciaga pero con un estilo similar a su tradicional sotana. Ante el desconcierto generalizado, usuarios y usuarias trataron de buscar respuestas analizando la imágen y navegando en diferentes portales. Incluso algunas personas aconsejaron “hacer zoom a las manos” porque generalmente las inteligencias artificiales suelen fallar al crear partes del cuerpo más complejas. Pero esas recomendaciones que pudieron ser útiles meses atrás ya no lo son, el salto exponencial en la calidad de las imágenes que generan las inteligencias artificiales en la actualidad es tan grande que pueden ser difíciles de detectar hasta para un ojo experto. Después de unas horas de desconcierto y debate se conoció que las imágenes eran falsas.
Las empresas desarrolladoras de IAs generadoras de imágenes cuentan con normas de uso para limitar los efectos negativos de sus creaciones pero, ¿es suficiente? En el caso de Dall-e, la plataforma prohíbe el uso político de sus productos. Por este motivo es que no genera imágenes en contextos electorales (urnas o boletas) ni tampoco imágenes alusivas a protestas o figuras políticas. El caso contrario es el de Midjourney, que tiene unas políticas mucho más laxas y prohíbe únicamente imágenes de contenido para adultos o gore. Esta diferencia en las normas de uso es problemática al momento de pensar en la responsabilidad de las empresas sobre los productos que crean. ¿Es suficiente poner unas normas de uso genéricas sin considerar todos los usos posibles de una IA? En una época signada por la rapidez en la que se difunde la información, con poco espacio para la doble verificación sería realmente beneficioso contar con reglas claras basadas en un acuerdo básico: la desinformación afecta la calidad del debate democrático y es responsabilidad de todos limitar sus efectos.
Recientemente ocurrió otro hecho que tuvo a Midjourney como protagonista, se trata de la aparición de fotos de Donald Trump siendo arrestado que generaron alarma entre sus partidarios. Actualmente el ex mandatario está atravesando un proceso legal y, fiel a su estilo, escribió en su red social Truth Social que estaba seguro de que su arresto ocurriría pronto. En el mismo posteo convocó a sus lectores a protestar para “recuperar la nación”. A partir de este acontecimiento, un usuario de Twitter le pidió a esta IA que ilustre el suceso y publicó el resultado, que se volvió viral. Algunos perfiles con mayor alcance replicaron las fotos y generaron desconcierto entre quienes querían organizarse para defenderlo y quienes dudaban sobre si el hecho era verdadero o falso.
Tanto las fotos del papa como las de Donald Trump son ejemplos claros de la capacidad que tienen las IAs para generar confusión con tan solo pedirle que represente una situación que resulte apenas verosímil. En ambos casos las imágenes ilustraron hechos que podrían tener lugar en la realidad, lo que complejiza aún más distinguir cuándo un contenido es verídico. En determinados contextos la desinformación toma fuerza y se propaga mucho más rápido y, si sumamos el componente de que todo el mundo tiene a la mano una herramienta para generar imágenes a demanda, los riesgos de la desinformación se multiplican exponencialmente.
Por el momento las medidas implementadas por las empresas son sectorizadas e insuficientes. Midjourney, a partir de la viralización de las imágenes del Papa y de Donald Trump, decidió eliminar la prueba gratuita que permitía a las personas crear hasta 25 imágenes libres. Actualmente para utilizar esta herramienta es necesario pagar una suscripción mensual. Al mismo tiempo, varios CEOs de compañías tecnológicas firmaron una carta en la que pidieron frenar por seis meses los entrenamientos de las IAs más potentes porque no se conocen aún los riesgos e implicancias para la sociedad.
Los sucesos recientes son una señal de alerta pero también indican que es un buen momento para reflexionar sobre el futuro que queremos y entablar un diálogo entre empresas, Estados y sociedad civil de forma que sea posible alinear la actividad privada con el pleno ejercicio de los derechos humanos y pensar en un desarrollo de herramientas que no colisione con el acceso a la información de calidad.
Un futuro en el que internet esté inundado de datos erróneos y sea difícil confiar en las fuentes de información es una posibilidad real. Lo que está en juego son los acuerdos que sostienen el sistema de información y, por este motivo, las respuestas desde las empresas tienen que surgir de un debate consensuado que incluya a toda la ciudadanía y a nuestros representantes.
MoreEn 2018 apareció un video en el que se podía ver a Barack Obama insultando a Donald Trump. Segundos después se mostraba que no había sido el ex presidente estadounidense sino que se trataba del actor Jordan Peele que se hacía pasar por él de manera hiperrealista. Este video publicado en el canal de Youtube de Buzzfeed es conocido como uno de los primeros en usar un deep fake con figuras políticas, con el buscan demostrar que se está dando un cambio en la forma en la que fluye la información y que es necesario estar alertas, ya que no todo lo que se ve en Internet es real.
Los deep fakes son videos creados o modificados mediante un software que, aplicando técnicas de deep learning, permiten crear imágenes falsas de forma realista. Si bien existen otras formas de manipulación de video, tales como la edición que incluye cortes de imagen, distorsión en la velocidad y cambios en el audio, sólo puede llamarse así a aquellos creados mediante softwares.
Los usos que se le dan a los deep fakes son múltiples, algunos más riesgosos que otros. Es posible encontrar contenido que entra en la categoría de entretenimiento y humor, tal es el caso de cuentas en redes sociales como @deepfakesar en la que se publican videos de este tipo sobre celebridades. Otros usos posibles, y menos inocentes, tienen que ver con la propagación de desinformación que pueden acarrear consecuencias políticas y también afectar el pleno ejercicio de derechos de la ciudadanía.
Este tipo de videos afecta la calidad de la información que circula en internet, pero sus efectos perniciosos se extienden mucho más allá. Un entorno en el que no se puede distinguir lo real de lo falso genera una pérdida de confianza en las instituciones y en Argentina se trata de un problema que preocupa a la población. Según la encuesta Edelman Trust Barometer del 2022, un estudio representativo de 28 países que se realiza hace más de 20 años, ante la afirmación “me preocupa que la información falsa o las noticias falsas sean utilizadas como arma” el 76 por ciento de los encuestados a nivel global dice estar de acuerdo. Si miramos solamente las respuestas de Argentina, ese porcentaje asciende a un 81 por ciento.
Los deep fakes además puede usarse para interferir en las campañas electorales y permitir la difusión de ataques personales y discusiones que son secundarias en relación a los temas que deben tratarse en campaña: las políticas que le importan a la ciudadanía. No son desdeñables los efectos a nivel personal que tienen este tipo de campañas de desinformación. Fueron sonados los casos de Nancy Pelosi, presidenta de la Cámara de Representantes de Estados Unidos, y de Patricia Bullrich, ex Ministra de Seguridad de Argentina. Ambas figuras sufrieron intentos de desprestigio de su imagen personal a partir de la difusión de videos alterados en los que parecían estar bajo los efectos del alcohol. Esto llevó a que se hable en los medios sobre su vida personal y no sobre las políticas que estaban impulsando en esos momentos.
Además de los efectos en la imagen pública de funcionarias y funcionarios, los deep fakes pueden generar alteraciones en la opinión pública. Las campañas de desinformación pueden utilizarse para afectar la imágen que la ciudadanía tiene de un partido o gobierno, o para mejorar la opinión que la ciudadanía tiene del mismo. Un caso reciente se dio cuando aparecieron vídeos como publicidad en Youtube en el que presentadores creados mediante un software daban noticias positivas (aunque poco precisas) sobre la economía en Venezuela, para promover una opinión favorable al gobierno.
Todos estos efectos conllevan también un riesgo importante, que es el aumento de la polarización política. Si bien un video puede ser desmentido, este tipo de contenido no se difunde en un contexto aislado. Debido a la lógica algorítmica de las redes sociales, es probable que un deep fake llegue a personas que tienen un esquema de pensamiento afín a ese contenido y, por ende, no cuestionen la veracidad del video. La microsegmentación, por un lado, y el efecto “cámara de eco”, por el otro, posibilitan que el contenido de desinformación circule por internet y se multiplique por cuentas que comparten y difunden, de manera casi invisible para aquellos que no siguen dichas cuentas.
En tiempos de campañas electorales como el que tendremos este año en Argentina, los contenidos engañosos representan un peligro mayor porque puede afectar a la confianza en el proceso electoral, lo que a su vez puede generar cuestionamientos a los resultados electorales. Si los ciudadanos y ciudadanas no confían en que se están haciendo esfuerzos para cuidar la integridad de los resultados electorales se pueden desatar manifestaciones y ataques directos a la democracia.
More