Expertos en ciberseguridad alertan sobre la pérdida de control de datos personales en asistentes generativos de IA
MADRID, 28 Nov. (Portaltic/EP) – La creciente preocupación por la privacidad en la era digital ha alcanzado un nuevo pico con las advertencias de expertos en ciberseguridad sobre el uso de asistentes de Inteligencia Artificial (IA) generativa como ChatGPT. Estos especialistas alertan que al introducir datos personales en estas plataformas, los usuarios pueden perder el control sobre su información privada, lo que plantea serias implicaciones de privacidad.
Las tecnologías de IA generativa se han integrado profundamente en nuestras vidas diarias, facilitando tareas en entornos personales y profesionales. Herramientas como ChatGPT de OpenAI y Bard de Google se destacan en este ámbito, brindando servicios como búsquedas de información, redacción de textos, traducciones y comparaciones de productos. Sin embargo, la facilidad de uso de estas tecnologías viene con una advertencia crucial sobre la seguridad de los datos personales.
Secure&IT, una compañía líder en ciberseguridad, subraya las consecuencias potenciales de introducir información personal en interacciones con asistentes de IA. Según la firma, estos datos pueden ser registrados y utilizados para entrenar la IA, resultando en una pérdida de control sobre la información personal.
Natalia Patiño, consultora legal TIC en Secure&IT, enfatiza que aunque ChatGPT es una herramienta útil que facilita el trabajo humano, no es infalible y debe utilizarse con precaución. Patiño advierte que las respuestas de ChatGPT están limitadas a su entrenamiento previo y carecen de la capacidad de razonar independientemente.
El aprendizaje por transferencia es clave en el funcionamiento de ChatGPT, según Secure&IT. Esta técnica involucra el uso de grandes conjuntos de datos para entrenar y mejorar continuamente el modelo de aprendizaje. Aunque esto permite que ChatGPT genere respuestas más precisas y humanas, también significa que cualquier dato introducido por los usuarios se incorpora en este proceso.
Patiño aconseja precaución al compartir información con asistentes de IA, evitando datos identificables directa o indirectamente. También destaca que estos chats basados en IA suelen ser "muy opacos", lo que aumenta la importancia de ser conscientes de la información compartida.
Además de los riesgos de privacidad, Secure&IT señala que la calidad de las respuestas de ChatGPT depende del 'prompt' proporcionado por el usuario. A pesar de esto, pueden surgir respuestas incorrectas, incompletas o incluso basadas en 'alucinaciones' – información lógica pero falsa generada por el asistente.
Los sesgos en las respuestas de la IA también son una preocupación. El sesgo de retroalimentación, por ejemplo, puede perpetuar prejuicios y estereotipos existentes. Un ejemplo claro es la discriminación por edad y género en el ámbito laboral, donde la IA puede favorecer candidatos basándose en información previamente sesgada.
En respuesta a estas preocupaciones, la Unión Europea está avanzando hacia la regulación del uso de la IA. Se espera que el nuevo Reglamento sobre la IA de la UE aborde desafíos técnicos, éticos y de aplicación en múltiples sectores, estableciendo un marco jurídico para el uso responsable de la IA.
**Conclusión:** La creciente integración de la IA en nuestra vida cotidiana plantea desafíos significativos en términos de privacidad y seguridad de datos. La advertencia de los expertos sobre la pérdida de control de la información personal en asistentes de IA como ChatGPT resalta la necesidad de un uso cuidadoso y consciente de estas tecnologías, así como de una regulación adecuada para proteger los derechos y la privacidad de los usuarios.