Tecnología | Deepfakes: principales riesgos y cómo identificarlos visualmente

“Hay una tendencia creciente a decir que algo es un deepfake cuando es real. Eso genera una atmósfera de que no puedes creer lo que ves”, aseguró Sam Gregory, director de la ONG sobre Derechos Humanos, Witness.

Fake news (collage).
"Fake". | Imagen: Pixabay

La desinformación no se limita solamente a los contenidos en formato de texto que se comparten en sitios web y en las redes sociales, también se propaga en forma de materiales multimediales. Imágenes, videos, y contenido audiovisual en general, son difundidos en Internet, entre ellos destaca una nueva técnica conocida como deepfakes.

Este término proviene de las expresiones inglesas deep learning y fake. Hace referencia a fotografías y videos generados de forma computarizada por Inteligencia Artificial, que imita los rostros y la voz de una persona (real o no) de forma tal que parezcan auténticos.

Especialmente en los ámbitos de la política, la ciberseguridad y el control social, los deepfakes representan un gran problema. Pueden ser utilizados para “recrear” las figuras de celebridades y personajes políticos en situaciones en las que nunca participaron, o suplantar determinadas identidades virtuales.

“Los deepfakes representan una amenaza mayor que la desinformación tradicional..."

Se trata de sistemas de aprendizaje automático (redes generativas antagónicas), que se auxilian de la Inteligencia Artificial y grandes bases de datos de imágenes de personas reaccionando a diferentes situaciones. Con estos datos rehacen copias que actúen de manera semejante a las personalidades que imitan.

“Los deepfakes representan una amenaza mayor que la desinformación tradicional porque son más difíciles de detectar. La tecnología permite la producción de videos de noticias aparentemente legítimos que ponen en peligro la reputación de los periodistas y los medios de comunicación (…) (además), pueden obstaculizar la alfabetización digital y la confianza de los ciudadanos en la información proporcionada por la autoridad, según el investigador Francisco José García, de la Universidad Europea de Valencia.

¿Cuáles son los principales impactos negativos que tienen los deepfakes?

La palabra deepfake surgió en el año 2017, cuando un usuario de Reddit publicó videos manipulados de actrices de la industria pornográfica con los rostros de celebridades como Taylor Swift y Gal Gadot. Desde entonces, su efecto negativo ha seguido creciendo, siendo el acoso a mujeres uno de sus peores impactos.

“el 96% de los deepfakes en Internet eran usados para la pornografía”

Un claro caso de calumnia a través del empleo de esta técnica es el de la periodista india Rana Ayyub, quien fue víctima de publicaciones de videos pornográficos falsos con su rostro. El hecho sucedió luego de que Rana hiciera campaña para pedir justicia ante la violación y asesinato de Kathua, una niña de 8 años.

Un estudio del año 2019 indicó que “el 96% de los deepfakes en Internet eran usados para la pornografía” con la intención de introducir caras de distintas personas en escenas que nunca tuvieron lugar, de manera no consentida.

“Sumando las visitas de las cuatro principales webs dedicadas a este tipo de pornografía, cuyos nombres han decidido omitir, los videos alcanzaron los 134 millones de reproducciones. Se trata de pornografía no consentida por las mujeres, la mayoría a su vez actrices famosas, cuyo rostro aparece en el vídeo falso”, como reseña la investigación según elDiario.es.

Pero este no es el único peligro que tienen los deepfakes:

En política, numerosos videos manipulados con esta tecnología han alcanzado altos niveles de viralización, lo que ha servido para desinformar a grandes segmentos poblacionales. Por ejemplo, atribuyendo declaraciones falsas a candidatos presidenciales, o atacando la reputación y dignidad de las figuras públicas.

Numerosos usuarios compartieron recientemente una desinformación en este formato: un video del presidente de Ucrania, Volodimir Zelenski, pidiendo a sus tropas rendirse ante la invasión rusa. Esta desinformación tuvo un alto impacto político y moral, tanto para la opinión pública como para la población ucraniana.

“Fabricar un video tradicional puede ser más efectivo que hacer un deepfake

Pero “los deepfakes no parecen tener un efecto superior” (al menos en política), al del resto de las publicaciones falsas y engañosas, según consideró el investigador en ciencias políticas de la Universidad de Harvard, Soubhik Barari. “Fabricar un video tradicional puede ser más efectivo que hacer un deepfake”, añadió.

La principal preocupación parece ser, por el contrario, las dudas sobre la veracidad de imágenes utilizadas como pruebas de algún posible crimen:

De acuerdo con el sitio de noticias en línea MyNews, “el caso más exagerado se produjo en Lagos, en Nigeria, en octubre del 2020". La policía, acusada de malas prácticas que terminaron con la vida de varias personas, se defendió alegando que los videos presentados como pruebas eran deepfakes.

“Las víctimas tuvieron que demostrar no solo los abusos, sino también la veracidad de las imágenes que les servían de prueba”, aseguró la plataforma.

“Hay una tendencia creciente a decir que algo es un deepfake cuando es real. Eso genera una atmósfera de que no puedes creer lo que ves”, aseguró Sam Gregory, director de la ONG sobre Derechos Humanos, Witness.

¿Cómo identificar visualmente los deepfakes?

Un estudio de la Universidad de Sídney logró determinar, luego de examinar la actividad cerebral de algunos voluntarios, que los deepfakes podían identificarse, a simple vista, en el 54% de los casos. Sin embargo, a la hora de tomar una decisión, de manera consciente, estos solo acertaban el 37 % de las veces.

El hábito de consumir noticias de fuentes confiables, según Barari, es fundamental para diferenciar los deepfakes de materiales auténticos. Una investigación liderada por él, identificó que las personas más capaces de descubrir cuándo se trata de videos manipulados son aquellas que se mantienen informadas con regularidad.

A la hora de detectar incongruencias visuales, Ruth García, técnica del Instituto Nacional de Ciberseguridad de España recomienda “fijarse en el tono de piel” y “si los movimientos de la cara concuerdan con los del cuerpo”.

Además, en ocasiones, en los deepfakes en formato de videos, se produce “un intercambio de caras” que puede detectarse en los bordes, especialmente aquellos que están cerca de las ropas, el pelo y otros aditamentos. Si podemos notarlo es porque efectivamente se trata de una imagen trucada.

Superponer imágenes para obtener una deepfake también puede ocasionar una distorsión en la iluminación del producto final, el cual se verá escaso de coherencia, lo que, en este caso, facilitaría su detección.

La agencia de noticias alemana Deutsche Welle (DW) propone prestar atención a pendientes y joyas con alto nivel de detalle. Porque “es difícil que un algoritmo que puede crear imágenes artificiales pueda hacer coincidir” estos elementos complicados.

Otros elementos a tener en cuenta y analizar visualmente son las gafas (por lo general el lente derecho y el izquierdo tienen ligeras diferencias). También la distorsión de los paisajes de fondo donde ocurren las imágenes, y los dientes, que son dificultosos de generar por los algoritmos, que no suelen definir correctamente sus bordes.

Ynariel
Ynariel

(La Habana, Cuba). Escritor, periodista y actor de teatro. Ex-colaborador del festival de cine "La Muestra Joven". Ambientalista y promotor del veganismo en Cuba.

Encargado de #CubaChequea, sección de verificación de Árbol Invertido. Para enviar opiniones o sugerencias: cubachequea@arbolinvertido.com

Añadir nuevo comentario

Plain text

  • No se permiten etiquetas HTML.
  • Las direcciones de correos electrónicos y páginas web se convierten en enlaces automáticamente.
  • Saltos automáticos de líneas y de párrafos.