Los programas que imitan voces convence a las víctimas de que están hablando con alguien cercano lo que puede facilitar la estafa.
Con el uso de inteligencia artificial (IA), se han registrado cada vez más casos de usuarios que reciben llamadas telefónicas de estafadores que se hacen pasar por un familiar o amigo, pidiendo ayuda y dinero para salir de una situación urgente.
Estos estafadores utilizan programas generadores de voz basados en IA para imitar las voces de las personas a las que quieren imitar, lo que convence a las víctimas de que están hablando con alguien cercano y legitima la solicitud de ayuda.
Al respecto, la Comisión Federal de Comercio (FTC) registró la pérdida de hasta 11 millones de dólares durante el año 2022 debido a las estafas telefónicas.
Los programas de IA aprenden a imitar las voces en cuestión de segundos y pueden obtener audios de cualquier vídeo en el que salga hablando la persona a la que se quiere imitar.
La imitación de voces es algo sencillo y barato y hay varias empresas que ofrecen este servicio, incluyendo ElevenLabs, Murf.ai, Play.ht y Respeecher.
Cómo evitar caer en el gancho
Para evitar caer en estas estafas, los usuarios pueden fijarse en algunas señales que indican que la llamada está siendo realizada por un programa generador de voz por inteligencia artificial.
Hay manera de reconocer cuando está frente a una voz artificial indica Marc Rivero, analista en ciberseguridad de Kaspersky, explica que una de estas señales es el lenguaje forzado o "robotizado" de la voz que utiliza el programa.
Otra señal puede ser una pausa entre las respuestas del estafador que imita la voz de un conocido.
Los usuarios también pueden verificar la autenticidad de la llamada pidiendo al estafador que les llame más tarde o pidiendo a la persona que supuestamente llama que les hable de algún detalle personal que solo ellos conocerían.
Es importante que los usuarios sean escépticos ante las solicitudes de ayuda y que no proporcionen información personal o financiera sin verificar su autenticidad.
Más detalles en: Europa Press