De entre los videos manipulados para que muestren como verdaderas cosas que son falsas, hay algunos cuyas mentiras son fáciles de detectar. Otros, los que merecen el calificativo de “deepfake”, están falsificados muy sofisticadamente, a menudo usando técnicas de inteligencia artificial, y resulta más difícil detectar las falsedades introducidas en ellos. Sin embargo, no logran pasar el filtro de sistemas, también sofisticados, que funcionan, en algunos aspectos, como los detectores de mentiras que captan cuándo una persona miente. Por desgracia, ahora unos expertos en informática han descubierto que esos detectores de mentiras pueden ser engañados. En esta batalla incesante entre la verdad y la mentira en el universo digital, en la que el control de la opinión pública es solo la punta del iceberg de todo lo malo que puede hacerse, engañar a los espectadores nunca antes había sido tan fácil.

El equipo de Shehzeen Hussain, experta en seguridad informática e inteligencia artificial de la Universidad de California en San Diego, Estados Unidos, ha comprobado que esos detectores de “deepfakes” pueden ser derrotados insertando en cada cuadro de vídeo datos ligeramente manipulados, definibles como «ejemplos contradictorios», que hacen que los sistemas de inteligencia artificial, como los modelos de aprendizaje automático, cometan un error. Además, estos investigadores han demostrado que el ataque por ellos diseñado sigue funcionando casi igual de bien después de comprimir los vídeos contaminados.

«Nuestro trabajo demuestra que los ataques a los detectores de deepfakes podrían ser una amenaza en el mundo real», advierte Hussain.

En los deepfakes, a menudo se modifica el rostro de un sujeto con el fin de crear secuencias convincentemente realistas de hechos que en realidad nunca ocurrieron. Por ello, los detectores típicos de deepfakes se centran en el rostro de las personas que aparecen en los vídeos: primero lo rastrean y luego pasan los datos clave del rostro a una red neural (un tipo de sistema de inteligencia artificial que emula la arquitectura y el funcionamiento del cerebro humano). Entonces la red neural determina si es real o falso. Por ejemplo, el parpadeo de los ojos no se reproduce bien en los deepfakes, por lo que los detectores se centran en los movimientos oculares como una forma de contribuir a hacer esa comprobación. Los detectores de deepfakes más avanzados se basan en modelos de aprendizaje automático para identificar los vídeos falsos.