Gal Gadot y el misterio de su falsa carrera en el cine porno
Pulula por las redes un vídeo X con ella como estrella, pero ¡es un montaje! La actriz ha sido víctima de la mente calenturienta de un programador informático. Y no es la única
Ni Gal Gadot, ni Scarlett Johansson, ni Maisie Williams, ni Taylor Swift han protagonizado ninguna escena de cine para adultos. Pero todas ellas (y muchas más) ya han sido víctimas de un algoritmo diseñado con bastante mala leche, conocido por el nombre de su autor, Deepfake, y que es capaz de suplantar la cara de actrices porno en acción por la de cualquier otra persona que le dé la gana al manipulador. Para perpetrar este tipo de vídeos solo se necesita el programa en cuestión (que está al alcance de cualquiera), un vídeo porno y tener suficientes imágenes del rostro de la nueva protagonista escogida. Las primeras víctimas, las celebrities. Pero teniendo en cuenta que ya existen 24 mil millones de selfies cargados en Google Photos de personas anónimas, ¿quién puede estar a salvo de 'protagonizar' el siguiente vídeo de los fans de deepfake?
¿Cómo ha podido pasar?
El creador del asunto explicó en un subforo de Reddit, la web que permite a sus usuarios compartir enlaces a páginas externas, un algoritmo de aprendizaje automático capaz de 'aprender' cómo funciona una escena de peli para adultos y de intercambiar la cara de los protagonistas por otras. Y de prueba, Deepfake aportó un buen número de vídeos porno falsos en los que había empleado caras de famosas. Entre ellas la de Gal Gadot. Estas primeras pruebas no soportaban un análisis al detalle, pero desde ese momento todos los fans de la idea se han puesto manos a la obra para mejorar los resultados e incluso en los casos menos conseguidos en la pantalla de un móvil o en un gif dan el pego perfectamente.
Lo más intimidante del asunto es que esto lo hizo una única persona con un equipo informático normal, una tarjeta gráfica decente, un puñado de imágenes de Google y Youtube, tiempo libre y mente calenturienta. No hizo falta contratar un estudio de efectos especiales para poner a Taylor Swift y demás actrices a hacer cosas que, seguramente, jamás han hecho y que si las han hecho, no están dispuestas a compartir con el resto de la humanidad. La bomba ya había caído… y ha estallado.
Invasión de porno fake
Con el algoritmo llegaron los fans y los vídeos de este tipo se han multiplicado en las páginas web que ofrecen los contenidos dedicados al público adulto. El problema ha llegado a tener tales dimensiones que la mayor plataforma de vídeos de porno de internet, PornHub, ha prohibido estos vídeos falsos porque considera que al mostrar escenas que, por lógica, no han estado consensuadas por sus protagonistas (tanto las reales como las imaginarias), estas imágenes violan las normas de su web. Por su parte, Reddit, donde nacieron los deepfakes, ha cerrado la comunidad en la que se originó todo y también se ha declarado en su contra por la ausencia de consentimiento de las protagonistas. El sitio también actualizó sus reglas para prohibir fotos e imágenes sexualmente explícitas "que han sido falsificadas".
¿Qué pueden hacer las celebrities agraviadas?
Pues, desgraciadamente, en este momento poca cosa. Si el caso concreto se considera porno por venganza, como afirma que realmente es PornHub, podrían denunciar. Pero el problema al que se enfrentan es que al ser precisamente eso, celebrities, Estados Unidos ofrece pocos recursos para enfrentarse a esta pornografía perversa, porque por la fama de sus protagonistas la meten en el mismo saco que la parodia o la sátira, y, a priori, gozan de la protección de la Primera Enmienda. Por eso, seguramente, ninguna de sus protagonistas ha hablado hasta ahora sobre medidas legales contra este tipo de vídeos. ¿Quién será la primera en atreverse a denunciar?
¿Tienes un dispositivo móvil iOS o Android? Descarga la APP de Vanitatis en tu teléfono o tablet y no te pierdas nuestros consejos de moda, belleza y estilo de vida. Para iOS, pincha aquí, y para Android, aquí.
Ni Gal Gadot, ni Scarlett Johansson, ni Maisie Williams, ni Taylor Swift han protagonizado ninguna escena de cine para adultos. Pero todas ellas (y muchas más) ya han sido víctimas de un algoritmo diseñado con bastante mala leche, conocido por el nombre de su autor, Deepfake, y que es capaz de suplantar la cara de actrices porno en acción por la de cualquier otra persona que le dé la gana al manipulador. Para perpetrar este tipo de vídeos solo se necesita el programa en cuestión (que está al alcance de cualquiera), un vídeo porno y tener suficientes imágenes del rostro de la nueva protagonista escogida. Las primeras víctimas, las celebrities. Pero teniendo en cuenta que ya existen 24 mil millones de selfies cargados en Google Photos de personas anónimas, ¿quién puede estar a salvo de 'protagonizar' el siguiente vídeo de los fans de deepfake?