Nikon, Sony y Canon, compañías que ocupan el 90% del mercado de cámaras digitales a nivel global, se aliaron para combatir las imágenes falsas generadas con inteligencia artificial (IA). Estas empresas se proponen desarrollar un conjunto de técnicas de autenticación que les permita certificar la veracidad de contenidos visuales.
Asimismo, otras organizaciones de noticias y tecnología se han sumado a la iniciativa, con el fin de identificar cuanto antes los deepfakes que suelen abundar en Internet.
El mecanismo de identificación consiste en una especie de firma digital, la cual será integrada en las imágenes tomadas por las cámaras. Esta firma contendrá información crucial, como la fecha, la ubicación y otros datos relevantes al momento de la captura.
De acuerdo con Nikkei Asia, “Nikon será la primera compañía en añadir firmas digitales en las imágenes capturadas con sus cámaras”. Según este mismo sitio, fotoperiodistas de Associated Press la pusieron a prueba en octubre de 2023 y obtuvieron “resultados satisfactorios”.
Existen otras propuestas que buscan hacerle frente al avance de la IA. Una de ellas, la SynthID de Google, es una herramienta diseñada para identificar imágenes creadas por modelos de IA.
SynthID añade un identificador a los píxeles de una imagen falsa, creando una especie de marca de agua invisible para el ojo humano. Esta marca de agua persiste incluso si la imagen es editada o filtrada, lo que permite rastrear la autenticidad de la imagen a lo largo del tiempo y a través de diferentes manipulaciones."
¿Qué peligro representan las imágenes generadas por inteligencia artificial?
De acuerdo a un estudio realizado por Genevieve Oh, en 2023 se compartieron en línea más de 143 mil nuevos vídeos manipulados por inteligencia artificial. Este número supera la cantidad total de vídeos manipulados compartidos en los dos años anteriores, evidenciando un preocupante aumento en la difusión de contenido generado de manera artificial.
Algunas de las IA más populares conocidas por su capacidad para generar imágenes incluyen OpenAI's DALL·E, NVIDIA's StyleGAN y DeepArt, así como RunwayML y DeepDream, que también han demostrado habilidades en la generación de imágenes.
Las imágenes generadas por IA representan un gran riesgo debido a su capacidad para engañar a los espectadores, alterar la percepción de la realidad y difundir información falsa o engañosa sin que sea fácilmente detectable. Esto plantea desafíos para la autenticidad y la veracidad en el ámbito visual.
Según Infobae, esta tecnología “ha facilitado la producción y la diseminación de este tipo de contenido, incluyendo material de abuso sexual infantil generado por IA”.