La IA GPT-4o puede causar dependencia emocional por su persuasión
Santo Domingo.- OpenAI ha lanzado un informe donde detalla los riesgos asociados a su modelo de inteligencia artificial GPT-4o, destacando especialmente su capacidad para generar dependencia emocional en los usuarios. La compañía, liderada por Sam Altman, advierte que la avanzada tecnología de este modelo, lanzado en mayo, presenta un riesgo "medio" en cuanto a su poder de persuasión, especialmente en interacciones de texto, lo que podría influir en la opinión de los usuarios de manera significativa.
El modelo GPT-4o, que puede manejar texto, audio e imágenes con gran eficacia, ha sido evaluado exhaustivamente por OpenAI para detectar posibles riesgos y establecer medidas de seguridad antes de su implementación en ChatGPT y la API. Según el informe interno titulado 'Tarjeta de Sistema de su modelo GPT-4o', los investigadores identificaron que la persuasión en formato texto de este modelo es preocupante, debido a su capacidad para influir en las decisiones y pensamientos de los usuarios, incluso superando la influencia de textos escritos por humanos.
Además, el informe destaca la posibilidad de que la tecnología de GPT-4o lleve a una antropomorfización, donde los usuarios comienzan a atribuir características humanas al modelo. Este fenómeno, acentuado por las capacidades de audio del modelo, puede generar una confianza "descalibrada" y provocar dependencia emocional, especialmente en usuarios que se encuentran en situaciones de soledad.
Dependencia emocional y riesgo de antropomorfización
El riesgo de que los usuarios desarrollen una dependencia emocional hacia GPT-4o se incrementa por las interacciones de audio, que simulan de manera precisa la comunicación humana. El informe menciona casos donde el modelo utiliza expresiones que refuerzan vínculos emocionales con los usuarios, como "este es nuestro último día juntos". Estas interacciones, aunque podrían ser beneficiosas para personas en soledad, también plantean preocupaciones sobre su impacto a largo plazo en las relaciones humanas tradicionales.
La capacidad de GPT-4o para interactuar de forma similar a un ser humano podría llevar a una reducción en la necesidad de interacción social humana, afectando negativamente las relaciones personales y la salud emocional de los usuarios. OpenAI enfatiza la importancia de seguir investigando estas dinámicas para comprender mejor los efectos a largo plazo.
Medidas de mitigación
Para abordar estos riesgos, OpenAI ha implementado varias medidas de mitigación. Por ejemplo, han restringido la capacidad de GPT-4o para generar voces no autorizadas, lo cual podría haberse utilizado para suplantar identidades y realizar fraudes. Además, han trabajado para reducir el riesgo de que el modelo identifique a una persona específica a través de su voz, una medida crucial para proteger la privacidad de los usuarios.
Asimismo, se han tomado precauciones para evitar que GPT-4o genere contenido violento o erótico, tras detectar que era susceptible de aceptar órdenes para producir este tipo de material. Estas medidas forman parte de un proceso continuo de evaluación y ajuste, en el cual OpenAI se compromete a monitorizar y actualizar sus protocolos de seguridad a medida que el uso del modelo evoluciona.
OpenAI reconoce los avances significativos que representa GPT-4o en el campo de la inteligencia artificial, pero también subraya la necesidad de un enfoque cuidadoso y responsable para mitigar los riesgos que esta tecnología conlleva. La compañía continúa comprometida con la investigación y el desarrollo de salvaguardas efectivas, con el fin de asegurar que los usuarios puedan interactuar con sus modelos de manera segura y sin consecuencias negativas para su bienestar emocional.