Logo de la Asociación por los Derechos Civiles < Volver

¿La moderación funciona?: Deep fakes en redes sociales

¿La moderación funciona?: Deep fakes en redes sociales

Milena Álvarez | 21/06/2023

A partir de la aparición de los primeros deep fakes sobre cuestiones políticas, los medios y sectores académicos señalaron el alto potencial que este tipo de contenido tiene para difundir desinformación en internet. Las redes sociales son un lugar en el que las personas entran a distenderse y contactar con otros, pero cada vez más se convierten en una fuente de información confiable. Un 35,8 por ciento indica que las usa para estar al tanto de las noticias y, a su vez, el tiempo de uso aumenta cada año. En Argentina el promedio diario es de 3 horas y 15 minutos (un aumento de 11 minutos en relación con 2022). Por este motivo es que se torna central conocer qué medidas toman las plataformas con respecto a la difusión de deep fakes con fines de desinformación. ¿Es posible denunciar un deep fake? ¿Las plataformas eliminan estos contenidos? ¿Cómo definen si un video es deep fake o no? ¿Qué sucede cuando el uso de un deepfake no está hecho para engañar sino con fines de sátira política?

Las grandes crisis son terreno propicio para la aparición de desinformación, por eso desde el inicio del conflicto bélico entre Rusia y Ucrania se multiplicaron los contenidos engañosos. En marzo del año pasado apareció un video en Facebook y Youtube en el que el presidente ucraniano Volodymyr Zelensky anunciaba su rendición ante Rusia y pedía a los soldados que depusieran las armas. El clip se replicó también en el sitio web del canal de televisión Ucrania 24, lo que masificó su alcance. Pocos minutos después, el mismo Zelensky publicó un video en Facebook denunciando que el contenido era falso, lo que llevó a una respuesta inmediata de la plataforma. Nathaniel Gleicher, jefe de política de seguridad de la empresa, publicó en Twitter un comunicado donde explicaba que el video había sido eliminado por incumplir su política sobre vídeos manipulados con fines engañosos. 

En este caso, el alto perfil público del presidente ucraniano y la rápida respuesta tanto del gobierno como de los medios y plataformas de redes sociales permitieron que el engaño no se difunda, frenando las consecuencias a nivel bélico. A esto se suma el hecho de que el deep fake no era de buena calidad, por lo que fue cuestionado por las usuarias y usuarios rápidamente. 

Como se mencionó anteriormente, Facebook dispone de una política contra la publicación de videos manipulados. Estas medidas tienen diferentes niveles de penalización. Si la publicación infringe las normas comunitarias (sea porque incluyen desnudez, violencia gráfica, supresión de votantes y/o incitación al odio) se elimina. Si no infringe las normas, la publicación es revisada por fact checkers que definen si se trata de contenido engañoso o no. Además, se reduce el alcance de la publicación y se incluye una advertencia sobre la veracidad del mismo.

Otras plataformas cuentan con políticas similares para frenar la difusión de deep fakes. Twitter elimina tweets si considera que hay peligro grave de dañar a personas o comunidades, si no es así puede agregar una etiqueta proporcionando contexto para que las personas tengan más información al definir si lo que están viendo es auténtico o falso. Las pautas de Youtube indican que el contenido engañoso, incluidos los deep fakes, no está permitido en la plataforma. En este caso aclaran que para detectarlos utilizan una combinación de revisores de contenido y aprendizaje automático, de forma tal que puedan eliminarlos rápidamente. En Tik Tok, las políticas indican que al publicar contenido generado con una IA se deben agregar términos que lo expliciten (“sintético”, “falso”, “no real” o “alterado”). El contenido impreciso o engañoso pasa por revisores independientes, es eliminado de la sección “para ti” y se sugiere a las personas usuarias que reconsideren si desean compartirlo. 

El análisis de las políticas vigentes en las plataformas abre algunos interrogantes. No queda claro cómo las plataformas advierten que un contenido es una falsificación creada mediante IA. Tampoco indican si utilizan alguna de ellas para detectarlos o si lo hacen mediante denuncias de las personas usuarias. Por otro lado, en ninguna de estas plataformas hay un mecanismo directo para denunciar que un video es deep fake, por lo que debe hacerse en forma general como contenido poco preciso o engañoso retrasando posiblemente la aplicación de medidas que frenen su viralización. En Facebook y Twitter podemos encontrar una distinción sobre el contenido creado con fines de sátira o parodia ya que indican que estos no serían eliminados. Sin embargo, no mencionan la forma en la que distinguen si el fin es el hacer una crítica o si se publicó con el fin de desinformar. Esta falta de información en las políticas podría llevar a que sean removidos contenidos legítimos, generando un exceso de moderación perjudicial a la libertad de expresión.  

Al mismo tiempo, el modo en el que las plataformas aplican sus políticas es desigual en muchos casos. Actualmente se pueden encontrar deep fakes en Twitter sin una etiqueta que aporte contexto, mientras que también hay casos de imágenes creadas por IA que fueron intervenidas por la plataforma (aclarando que fueron creadas mediante un software). 

La disparidad al momento de implementar normas afecta a la transparencia de los procesos y muestra a las claras los problemas de la autorregulación. En el caso de Zelensky hubo un accionar eficaz que permitió frenar el engaño a tiempo, pero no conocemos si la misma suerte correrá en el caso de difusión de videos falsos sobre figuras menos conocidas.

La multiplicación de contenido engañoso circulando en redes sociales es un problema en el momento actual en el que cada vez más personas acceden a las plataformas para informarse. En estos casos, la moderación de contenidos puede ser una medida útil para frenar el alcance del contenido falso. Sin embargo, es importante que las normas se apliquen por igual a cada post, independientemente si se trata de publicaciones virales o no. Sólo de esta forma la moderación será efectiva para salvaguardar el derecho de acceso a la información de todas las personas por igual.