La tecnología que puede poner el rostro de cualquiera en el cuerpo de actores porno. La tecnología que permite intercambiar rostros en videos está siendo usada par a poner la cara de personas famosas en cuerpos de actores de videos pornográficos.
Entre los fanáticos de internet hay un dicho conocido como la “Regla 34” que reza: “Si algo existe, habrá porno sobre ello. Sin excepción”.
Esto podría aplicarse a una nueva moda en internet que consiste en utilizar la tecnología de reconocimiento facial para poner el rostro de una persona en el cuerpo de otra que protagoniza escenas pornográficas.
La tecnología no es nueva. Hace un par de años el intercambio de caras a través de inteligencia artificial se hizo popular gracias a aplicaciones como Snapchat en la que dos personas acercan sus rostros al móvil y la app los intercambiaba.
La polémica, sin embargo, se generó en diciembre de 2017 cuando se hizo viral un video en el que el rostro de la actriz israelí Gal Gadot aparecía en el cuerpo de una actriz porno.
También se hicieron populares otros videos con los rostros de celebridades como Scarlett Johansson y Taylor Swift.
Más fácil
La práctica en principio solo era posible para personas con conocimientos avanzados de informática.
Se distribuye a través de la red social Reddit y ha sido descargada más de 100,000 veces.
“Esta es una nueva frontera para la pornografía no consensuada y las noticias falsas”, escribe la periodista Emma Grey Ellis, de la revista Wired.
“Para muchas personas vulnerables en internet, especialmente las mujeres, esto se parece mucho al final de los tiempos”.
Debate público
En su artículo, Grey Ellis se refiere a las principales preocupaciones que están surgiendo con esta práctica, entre las que menciona el uso indebido de la imagen de celebridades, la suplantación de identidad y la pornovenganza.
“Necesitamos tener un debate fuerte y público”, dice Alex Champandard, experto en inteligencia artificial citado por el portal Motherboard.
“Es necesario que todos sepan lo fácil que es falsear imágenes y videos, al punto de que dentro de unos meses no seremos capaces de distinguir falsificaciones”, dice Champandard, advirtiendo sobre los riesgos que conlleva el rápido avance de las tecnologías de reconocimiento facial.
Por ahora, algunos sitios ya han comenzado a tomar medidas.
El video del falso Barack Obama creado con inteligencia artificial capaz de hablar como si fuera el original:
Según Leo Kelion, editor de tecnología de la BBC, el portal Reddit aún no ha comentado sobre el asunto y todavía permite el acceso a los videos que Gfycat no ha eliminado.
Las políticas de contenido de Reddit prohíben la “pornografía involuntaria”.
Champandard, además del desarrollo de tecnologías que detecten videos falsos, menciona que las políticas de internet pueden ayudar a regular lo que ocurre cuando surgen este tipo de falsificaciones.
“Necesitamos enfocarnos en transformar la sociedad para que sea capaz de lidiar con esto”.