Taylor Swift se convierte en la víctima más reciente del deepfake. En los últimos días, un sitio web para adultos subió imágenes falsas, generadas por Inteligencia Artificial (IA), de la intérprete de ‘Karma’. El contenido explícito pronto se viralizó en otras redes sociales, como Reddit y X. Si bien varias de las imágenes ya fueron removidas, una fuente cercana a la artista reveló que ésta busca emprender acciones legales en contra de la página web.
“Se está decidiendo si se tomarán acciones legales, pero hay una cosa que está clara: Estas imágenes falsas generadas por IA son abusivas, ofensivas, explotadoras y se realizan sin el consentimiento y/o la autorización de Taylor. La cuenta de Twitter [ahora, X] que las publicó ya no existe. Es impactante que la plataforma de redes sociales incluso les haya permitido subirlas para empezar. Estas imágenes deben eliminarse de todos los lugares donde existan y nadie debe promocionarlas”, reveló el insider a través de una exclusiva para el Daily Mail.
Taylor Swift, “furiosa”
Como era de esperarse, la fuente también reveló que la superestrella se encuentra furiosa por esta situación, al igual que sus fans, quiénes rápidamente hicieron tendencia en X la frase “Protect Taylor Swift”, exigiendo a la plataforma retirar todo el contenido explícito de la cantante.
“El círculo de familiares y amigos de Taylor está furioso, al igual que sus fans, obviamente. Tienen derecho a estarlo, y toda mujer debería tenerlo. Es necesario cerrar la puerta a esto. Es necesario aprobar legislación para evitar esto y promulgar leyes”, finalizó.
No existen regulaciones sobre los deepfakes
Con el auge de la Inteligencia Artificial, la creación de contenido deepfake sólo se ha fortalecido. El caso de Taylor Swift se suma a la lista de millones de personas que han sido víctimas de imágenes alteradas en sitios para adultos, tan sólo en Estados Unidos. De acuerdo con un análisis realizado por la investigadora Genevieve Oh, en 2023, se publicaron más de 143,000 vídeos deepfakes. En Estados Unidos, no existen regulaciones a nivel federal por este tipo de contenido.
No obstante, algunos estados han implementado leyes para tratar de mitigar el problema. Según informa el Instituto Responsable de Inteligencia Artificial, en California está prohibida la producción de deepfakes de índole sexual sin consentimiento, así como la distribución de deepfakes de candidatos políticos dentro de los 60 días posteriores a una elección. Nueva York y Virginia cuenta con multas y penas de cárcel para quienes difundan o publiquen contenido deepfake explícito de un individuo. Texas también penaliza la producción y/o distribución ilegal este tipo de contenidos.