La empresa detiene múltiples operaciones ilícitas usando sus herramientas de inteligencia artificial
Santo Domingo.-Los cibercriminales han comenzado a utilizar el modelo de lenguaje grande GPT de OpenAI para desarrollar software malicioso, a pesar de las restricciones que la empresa ha implementado. Además, estos actores están aprovechando la inteligencia artificial (IA) para generar y diseminar contenido engañoso en diversas plataformas de redes sociales.
Así, OpenAI ha logrado desmantelar más de 20 operaciones maliciosas y redes de engaño que intentaban abusar de sus modelos. En su informe actualizado sobre "Influencia y operaciones cibernéticas", la compañía también ha documentado actividades como la redacción de publicaciones en redes sociales y la depuración de malware.
Con esta investigación, OpenAI busca entender cómo los cibercriminales emplean los modelos avanzados de IA con intenciones dañinas. La meta es anticiparse a estas amenazas y planificar de manera efectiva las acciones a tomar por parte de las autoridades competentes.
Cibercriminales en etapas intermedias de actividad
A medida que se avanza en octubre de 2024, OpenAI ha identificado que los cibercriminales utilizan sus modelos de IA en fases específicas de sus actividades, tras haber conseguido herramientas básicas como cuentas de redes sociales y correos electrónicos. Sin embargo, este uso se da antes de la creación de productos finales, como publicaciones en redes sociales y software malicioso.
A pesar del uso de sus modelos, OpenAI ha señalado que no ha habido un aumento significativo en la capacidad de los cibercriminales para explotar vulnerabilidades reales. En otras palabras, no se ha observado una "creación sustancial de nuevo malware ni en la generación de audiencias virales".
La actividad engañosa que sí se ha detectado en redes sociales ha llegado a audiencias considerables, pero el enfoque de estos engaños ha sido más sobre la utilización de la IA que sobre la tecnología misma.
Casos destacados de abuso de tecnología
Uno de los casos documentados es el de SweetSpect, un grupo de amenazas de origen chino que empleó los modelos de OpenAI para respaldar sus ciberoperaciones ofensivas y ejecutar ataques de phishing dirigidos a los empleados de la empresa.
Este grupo se hizo pasar por un usuario de ChatGPT en busca de soporte técnico, con el objetivo de infectar los equipos de sus víctimas y tomar control de los mismos.
En otro caso, el actor iraní STORM-0817 utilizó los modelos de IA para depurar código y recibir asistencia en el desarrollo de un malware para Android que aún está en fases iniciales, con capacidades de vigilancia básicas. Este grupo también recurrió a ChatGPT para establecer su infraestructura de comando y control.
Finalmente, OpenAI ha afirmado que, a pesar de que más de 2.000 millones de personas están convocadas a participar en elecciones en 50 países este año, no se ha registrado "ningún caso de operaciones de influencia electoral que haya atraído participación viral o construido audiencias sostenidas" mediante el uso de sus modelos de IA.