La empresa tecnológica revela esfuerzos para detener el uso malintencionado de sus modelos de IA en conflictos políticos y bélicos
OpenAI ha reafirmado su compromiso de seguir utilizando el poder de la IA generativa para detectar y mitigar el abuso a gran escala, contribuyendo a la integridad y seguridad en el uso de tecnologías avanzadas. En ese sentido ha anunciado que ha logrado desmantelar cinco operaciones de influencia encubierta que utilizaban modelos de Inteligencia Artificial (IA) para llevar a cabo actividades engañosas en Internet.
Dichas operaciones estaban relacionadas con conflictos políticos actuales, como la invasión rusa de Ucrania y la guerra en Gaza, y eran impulsadas por actores maliciosos de Rusia, Irán, China e Israel.
Bajo la dirección de Sam Altman la empresa ha enfatizado la importancia de cumplir con sus políticas de prevención de abuso y de mejorar la transparencia en torno al contenido generado por IA.
Interrupción de operaciones maliciosas
En los últimos tres meses, OpenAI ha identificado y detenido cinco operaciones de influencia encubierta. Estas actividades, realizadas desde Rusia, Irán, China e Israel, intentaban manipular la opinión pública utilizando modelos de IA de OpenAI.
Pese a estos esfuerzos maliciosos, OpenAI ha indicado que durante mayo, las campañas "no parecen haber aumentado significativamente la participación" ni el alcance de su audiencia.
Las operaciones utilizaban los modelos de IA de OpenAI para generar comentarios y artículos en diversos idiomas, inventar nombres y biografías para redes sociales, depurar código simple, y traducir y corregir textos. Los temas abordados incluían la invasión rusa de Ucrania, el conflicto en Gaza, elecciones en India, y la política en Europa y Estados Unidos, entre otros.
Ejemplos de operaciones interceptadas
Bad Grammar: Identificada como una operación rusa, Bad Grammar operaba principalmente en Telegram, apuntando a usuarios en Ucrania, Moldavia, los Estados bálticos y Estados Unidos. Utilizaban IA para depurar código y ejecutar un bot de Telegram, creando comentarios políticos breves en ruso e inglés.
Doppelganger: También de origen ruso, esta operación generaba comentarios en múltiples idiomas y utilizaba IA para traducir y editar artículos en sitios web vinculados a la operación, transformando estos artículos en publicaciones de Facebook.
Spamouflage: Una red china que utilizaba IA para investigar actividades en redes sociales y generar textos en varios idiomas, publicándolos en plataformas como X y Blogspot. Los ciberdelincuentes también utilizaban IA para depurar código y administrar bases de datos y sitios web.
IUVM: Este grupo iraní generaba y traducía artículos extensos que se publicaban en su sitio web vinculado, utilizando IA para mejorar la productividad y eficacia de sus operaciones.
Zenón Cero: Una operación israelí en la que la empresa comercial STOIC utilizaba IA para generar artículos y comentarios en redes sociales como Instagram, Facebook y X. OpenAI logró interrumpir la actividad de la operación, aunque la empresa STOIC sigue activa.
Tendencias y métodos de defensa
OpenAI ha identificado varias tendencias en el uso malintencionado de IA. Los actores maliciosos generan contenido con menos errores lingüísticos y simulan la participación en redes sociales para crear la apariencia de cuentas reales. Además, utilizan IA para mejorar la productividad, como en la creación de resúmenes de publicaciones.
En términos de defensa, OpenAI ha señalado que sus modelos de IA a menudo se niegan a generar contenido solicitado por actores maliciosos. La empresa dispone de herramientas avanzadas para detectar y analizar estas operaciones de manera más rápida y eficiente.
Además, OpenAI colabora con otros socios de la industria, compartiendo indicadores de amenazas para aumentar el impacto de la interrupción de estas operaciones. Con datos de Europa Press