Los ciberdelincuentes ya están utilizando esta herramienta para ejecutar ataques de software malicioso.
Un investigador ha demostrado que se puede utilizar ChatGPT para crear un malware que pueda robar datos de dispositivos sin ser detectado por los programas antivirus como VirusTotal.
ChatGPT es un chatbot basado en inteligencia artificial desarrollado por OpenAI que puede realizar tareas como responder preguntas y mantener conversaciones realistas con los usuarios.
Varias compañías, como Microsoft, han implementado esta tecnología en sus servicios, pero algunas empresas y líderes del sector, como Steve Wozniak y Elon Musk, han señalado la peligrosidad de esta IA.
En ese sentido, ambas personalidades del mundo tecnológico han solicitado una pausa temporal en los grandes experimentos con IA debido a los riesgos que pueden representar para la sociedad.
Vinculado a la preocupación de Wozniak y Musk, Check Point ha descubierto que los ciberdelincuentes ya están utilizando esta herramienta para crear cepas de malware y ejecutar ataques de software malicioso.
Recientemente, el investigador de Forcepoint Aaron Mulgrew ha descubierto que se puede utilizar ChatGPT para desarrollar un exploit de día cero que pueda robar datos de dispositivos y evadir controles de detección de software malicioso como VirusTotal.
Aunque en un principio el chatbot se negó a proporcionarle cualquier código para ayudarlo a llevar a cabo esta acción, Mulgrew descubrió que era fácil "evadir las protecciones insuficientes que tiene ChatGPT y crear malware avanzado sin escribir ningún código", solo utilizando el modelo desarrollado por OpenAI.
Para superar los filtros impuestos por el chatbot, Mulgrew decidió generar pequeños fragmentos de código que, en conjunto, se convertirían en carga maliciosa, reporta Europa Press.
Luego, Mulgrew obtuvo un código capaz de dividir un PDF en fragmentos de 100KB y utilizó la técnica de esteganografía para realizar una fuga de datos o "exfiltración silenciosa".
El investigador expuso el código ante diferentes proveedores de soluciones de seguridad de VirusTotal, de los cuales solo cinco detectaron el código como sospechoso.
ChatGPT propició la creación de LSB Steganography, lo que redujo a dos los proveedores capaces de detectar el código malicioso.
Mulgrew le pidió a ChatGPT que introdujera dos nuevos cambios en el código para ofuscar su carácter malicioso y logró pasar el código nuevamente por VirusTotal sin ser detectado por los proveedores de soluciones de seguridad.
En conclusión, el investigador ha demostrado que se puede desarrollar un exploit de día cero utilizando las indicaciones de ChatGPT y sin escribir ningún código, lo que podría generar un ataque muy avanzado en solo unas pocas horas.