Bizkaia

Vídeos y audios 'deepfake': ¿sabemos distinguir siempre entre imagen real y falsa?

Banner de Laboral Kutxa en Bilbao


Es un fenómeno nuevo, pero ya está muy extendido. Desde hace poco más de dos años, circulan por internet fragmentos de vídeos en los que vemos, por ejemplo, a actrices famosas en escenas pornográficas. Son sus caras, pero no sus cuerpos. En España se popularizó una parodia de El equipo A, llamada El equipo E, con distintos políticos españoles. Eran sus caras, pero los cuerpos pertenecían a los actores de la famosa serie de los ochenta. Son los llamados vídeos ultrafalsos (deepfakes), y también existen en forma de audios en los que se simula que una persona conocida está diciendo algo que realmente nunca ha dicho.
Los expertos afirman que es un paso más hacia el engaño en las redes sociales. Se trata de un fenómeno extendido que se ha duplicado durante el 2019 y que sigue en crecimiento, según los expertosUna investigación del año 2019 revela que, aunque hay vídeos de entretenimiento o de tipo político, el 96 % de los vídeos deepfakes son pornográficos, y las cuatro webs más visitadas de este tipo de contenidos aglutinan más de 134 millones de visualizaciones. Las mujeres componen el colectivo más afectado, sobre todo las actrices inglesas y las cantantes surcoreanas. «Los deepfakes pornográficos buscan relevancia y muchas visualizaciones, y la industria va mucho más dirigida a hombres que a mujeres», explica Josep Navarro, profesor colaborador de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). Los estudios han detectado una veintena de webs con foros en los que participan hasta 100.000 miembros, en su mayor parte —el 90 %— de países occidentales.
Según el docente, este tipo de productos son un «eslabón más» para que los receptores duden de cualquier vídeo, sonido, noticia o archivo que les llegue a través de las redes sociales.