Jennifer DeStefano, una madre de Arizona, relató una experiencia aterradora cuando unos estafadores telefónicos utilizaron tecnología de inteligencia artificial para hacerle creer que su hija adolescente estaba secuestrada.
El canal de noticias local KPHO informó de la historia con DeStafano describiendo un incidente reciente cuando recibió una llamada de un número desconocido. Como su hija estaba de viaje para esquiar en ese momento, respondió a la llamada preocupada por un accidente.
DeStefano explicó: «Descuelgo el teléfono y oigo la voz de mi hija, que dice: ‘¡Mamá!’, y está sollozando. Le pregunté: ‘¿Qué ha pasado? Y ella me contesta: ‘Mamá, la he cagado’, y solloza y llora».
Este hombre se pone al teléfono y es como, ‘Escucha aquí. Tengo a tu hija. Así es como va a pasar. Si llamas a la policía, si llamas a alguien, la voy a llenar de drogas. Voy a hacer lo que quiera con ella y la voy a dejar en México’. Y en ese momento, empecé a temblar. En el fondo ella decía, ‘Ayúdame, mamá. Por favor, ayúdame. Ayúdame’, y berreaba», continuó.
DeStefano se encontraba en ese momento en el estudio de danza de su otra hija, donde otras madres la ayudaron llamando al 911, así como al marido de DeStefano. Tras unos minutos, pudieron confirmar que la hija de DeStefano estaba a salvo. A pesar de ello, DeStefano dijo sentirse conmocionada por la experiencia.
«Era completamente su voz. Era su inflexión. Era su forma de llorar. No dudé ni un segundo de que era ella. Esa es la parte extraña que realmente me llegó al corazón», dijo.
La llamada se produjo en medio de un aumento de las estafas por «spoofing», en las que estafadores afirman haber secuestrado a seres queridos para cobrar rescates utilizando tecnología de clonación de voz. Una usuaria de TikTok llamada Chelsie Gates obtuvo más de 2,5 millones de visitas en un vídeo en el que relataba su propia experiencia en diciembre.
«Estaba literalmente temblando durante todo esto», dijo Gates. «Me imaginaba a mi madre secuestrada a punta de pistola en casa de un paciente».
Una estafa cada vez más común
Durante años, una estafa común ha consistido en recibir una llamada de alguien que se hace pasar por una figura de autoridad, como un agente de policía, pidiéndole urgentemente que pague dinero para ayudar a sacar a un amigo o familiar de un apuro.
Ahora, los reguladores federales advierten de que esa llamada puede provenir de alguien que suena igual que ese amigo o familiar, pero que en realidad es un estafador que utiliza un clon de su voz.
La Comisión Federal de Comercio emitió el pasado mes de marzo una alerta a los consumidores en la que insta a la gente a estar atenta a las llamadas que utilizan clones de voz generados por inteligencia artificial, una de las últimas técnicas utilizadas por los delincuentes con la esperanza de estafar dinero a la gente.
«Todo lo que necesita [el estafador] es un breve clip de audio de la voz de su familiar -que podría obtener de contenidos publicados en Internet- y un programa de clonación de voz», advierte la comisión. «Cuando el estafador le llame, sonará igual que su ser querido».
Si no estás seguro de que sea un amigo o familiar, cuelga y llámalo
La FTC sugiere que si alguien que suena como un amigo o pariente pide dinero -especialmente si quiere que le paguen a través de una transferencia bancaria, criptomoneda o una tarjeta de regalo- cuelgue y llame directamente a la persona para verificar su historia.
Un portavoz de la FTC dijo que la agencia no podía facilitar una estimación del número de denuncias de personas estafadas por ladrones que utilizan tecnología de clonación de voz. Pero lo que parece un argumento sacado de una historia de ciencia ficción apenas es inventado.
En 2019, unos estafadores que se hicieron pasar por el jefe del CEO de una empresa energética con sede en el Reino Unido exigieron 243.000 dólares. Un director de banco de Hong Kong fue engañado por alguien que utilizaba tecnología de clonación de voz para que hiciera transferencias cuantiosas a principios de 2020. Y al menos ocho personas mayores de Canadá perdieron un total de 200.000 dólares a principios de este año en una aparente estafa de clonación de voz.