Fraude por correo electrónico, deepfakes y tácticas más sofisticadas amenazan nuestra seguridad
La Inteligencia Artificial (IA) ha llegado para transformar nuestra vida digital de manera indiscutible. Si bien las herramientas basadas en IA, como los chatbots y algoritmos de recomendación, mejoran nuestra experiencia en línea, también abren puertas a nuevas amenazas cibernéticas. Estas amenazas, al igual que las tradicionales, tienen como objetivo robar datos sensibles, información bancaria y otros detalles privados, tanto de individuos como de empresas.
En este contexto, los ciberdelincuentes han perfeccionado sus tácticas, como las estafas de phishing, que han crecido significativamente en América Latina. Según el Panorama de Amenazas de Kaspersky, en 2024 los ataques de phishing aumentaron un 140% en la región, con cifras alarmantes en países como Guatemala (280%), Panamá (224%) y Costa Rica (190%).
A través de mensajes falsificados, los criminales engañan a las víctimas para que revelen contraseñas, números de tarjetas bancarias o datos personales. Estas estafas pueden parecer provenientes de bancos, proveedores de servicios, o incluso de contactos conocidos.
Ya no es raro que los ataques de phishing imiten de manera precisa la gramática y el estilo de comunicación de personas específicas, incluso aquellas con las que los delincuentes obtienen información de sus redes sociales. Esto hace que las víctimas sean mucho más susceptibles a caer en el engaño.
El concepto de deepfakes o “ultrafalsificaciones” también ha revolucionado las estafas digitales. Mediante el uso de IA, los ciberdelincuentes pueden crear audios, videos e imágenes manipulados, que replican de forma convincente la voz y el rostro de personas reales.
Se estima que cada cinco minutos se produce un intento de deepfake, y para 2026, hasta el 90% del contenido en línea podría generarse a través de esta tecnología. Esta manipulación no solo pone en riesgo la privacidad, sino también la integridad de las identidades digitales.
Un ejemplo alarmante de cómo los cibercriminales emplean esta tecnología avanzada es el robo de cuentas de mensajería, como Telegram o WhatsApp. A través de audios falsificados, los estafadores envían mensajes a contactos de confianza de la víctima, imitando su voz, para solicitar transferencias de dinero urgentes o información confidencial.
También se han registrado casos en los que los delincuentes realizan videollamadas con la imagen y voz de una persona conocida para pedir favores financieros o detalles sensibles. Estos ataques son cada vez más complejos y difíciles de detectar, lo que aumenta la vulnerabilidad tanto de individuos como de empresas.
Además de la suplantación de identidad de usuarios comunes, los deepfakes también se están utilizando para estafar a través de figuras públicas o celebridades. Los ciberdelincuentes crean anuncios falsos que promueven inversiones en plataformas fraudulentas o engañan a víctimas en estafas románticas. En algunos casos, se han manipulado audios para atacar sistemas bancarios que utilizan autenticación por voz, lo que agrava aún más la amenaza.
La IA también permite una automatización masiva de contenidos fraudulentos, lo que hace más difícil identificar y detener estos ataques. A medida que estas tecnologías avanzan, la defensa contra estos crímenes debe concentrarse en dos áreas fundamentales: el desarrollo de soluciones tecnológicas y la educación en ciberseguridad.
En el ámbito técnico, existen medidas prometedoras para mitigar estos riesgos. Las marcas de agua en el contenido generado por IA, los detectores de deepfakes y las firmas digitales son herramientas que ayudan a verificar la autenticidad de audios, imágenes y videos. Sin embargo, el reto está en mantener estas soluciones al día con los rápidos avances de la IA.
Por otro lado, la educación en ciberseguridad es crucial. A medida que los ciberdelincuentes aprovechan la falta de conciencia sobre los riesgos de la IA, se hace urgente implementar campañas educativas que informen sobre las amenazas digitales y cómo prevenirlas. Los usuarios deben ser conscientes de lo fácil que es manipular contenido a través de IA, lo que hace necesario contar con un enfoque integral que combine la tecnología con una correcta alfabetización digital.
En conclusión, las estafas impulsadas por la inteligencia artificial representan una amenaza creciente, pero no son invencibles. Si tanto individuos como organizaciones adoptan medidas preventivas y se educan sobre las tácticas emergentes, podemos contribuir a crear un entorno digital más seguro y resiliente.