Preocupación global por los “Deepfakes”, videos falsos que circulan en la red

Los avances en el campo de la Inteligencia Artificial (IA) han ofrecido innovadoras soluciones en materia de salud, educación, sustentabilidad e ingeniería, y también han hecho sus aportes al mundo del entretenimiento. Logran efectos especiales cada vez más sofisticados y han originado las populares aplicaciones que permiten envejecer o rejuvenecer las fotos, y hasta insertar el rostro de alguien en un videoclip o fragmento de película. 

Sin embargo, el uso de la Inteligencia Artificial para crear videos falsos está despertando preocupaciones de entidades políticas y organismos a nivel global. La posibilidad de difundir discursos y situaciones falsas, logrando gestos y expresiones hiperrealistas no sólo se utiliza con fines humorísticos. Es una herramienta para construir ‘fake news’ de índole pública, con peligrosas consecuencias sociales y políticas.

Problema real y creciente

Esta tecnología se ha utilizado para ejecutar estafas, difamar figuras públicas y fomentar conflictos políticos. Las noticias más recientes sobre el tema señalan que ya es posible alterar mapas satelitales e, incluso, en los últimos días varios funcionarios europeos fueron engañados creyendo estar en una videollamada con un opositor ruso, que no era más que un ‘deepfake’ cuidadosamente elaborado. 

La pandemia aumentó la importancia de las imágenes virtuales a niveles insospechados. Trabajo, clases, reuniones con amigos y hasta sexo, todo se desarrolla de forma virtual a través de redes sociales y hosting. La “presencia” es un requisito cada vez más prescindible en los rituales, y este nuevo ecosistema digital promueve la multiplicación de todo tipo de contenido engañoso.

Preocupación en China y California

La preocupación ya disparó algunas reacciones: China prohibió la difusión de deepfakes sin su correspondiente advertencia y el Estado de California penaliza su utilización con fines políticos en períodos electorales. Facebook y Twitter están invirtiendo en herramientas que detecten rápidamente las imágenes falsas, e incluso la Europol ha manifestado preocupación. En un informe oficial señalan que «los deepfakes son el uso más conocido de la IA como vector de ataque” y se espera que sean cada vez más avanzados. 

Mediante ingeniería inversa se están desarrollando herramientas capaces de detectar los deepfakes. Casi todas se basan en algoritmos que analizan los ojos: en los videos falsos el brillo ocular es irregular o de colores extraños y los parpadeos no tienen una frecuencia natural. Si bien estas herramientas tienen más del 90% de eficacia, es de esperar que la Inteligencia Artificial se vuelva más precisa con el correr del tiempo.

¿Cómo detectarlos?

¿Cómo detectar un deepfake de forma manual? Según Europol hay que fijarse en sombras o iluminación extraña, poca nitidez en los detalles -como el interior de la boca-, desajuste en el tono de piel facial y corporal, discordancia entre el movimiento de los labios y el audio, entre otros.

Video de referencia

Todo indica que los límites entre lo real y lo ‘fake’ se están difuminando. Estas tecnologías seguirán evolucionando y el panorama será cada vez más incierto. Según Sensity, hasta julio de 2019 había menos de 15.000 videos falsos circulando por la web. Un año después, la cifra creció a casi 50.000. 

Será un requisito social educar y concientizar a la población sobre los peligros de esta tecnología. El problema no tiene que ver sólo con las consecuencias sociales y políticas sino también con la duda sistemática que despierta: ¿podemos creer lo que vemos? (I)

Más relacionadas