Las respuestas de la plataforma de inteligencia artificial generativa favorecen a ciertas posturas políticas.
La plataforma de inteligencia artificial generativa, ChatGPT, ha vuelto a estar bajo los reflectores debido a nuevas acusaciones de sesgo político que se suman a sus ya conocidos efectos adversos, como la desinformación.
Un reciente estudio realizado por la Universidad de Anglia del Este (UEA) en el Reino Unido, y publicado el 17 de agosto en la revista Public Choice, ha revelado un "sesgo izquierdista significativo y sistémico" en las respuestas generadas por AI ChatGPT.
Los investigadores, pertenecientes a equipos del Reino Unido y Brasil, han desarrollado un enfoque novedoso y riguroso para evaluar la presencia de sesgos políticos en la plataforma, indica Thalif Deen en un texto publicado en Ipsnoticias.net.
El estudio es considerado el primero de su tipo a gran escala, utilizando un análisis sólido y basado en pruebas para medir el grado en que las respuestas de ChatGPT favorecen a ciertas posturas políticas.
Los resultados apuntan a un respaldo sustancial hacia el Partido Demócrata en Estados Unidos, el Partido Laborista en el Reino Unido y el Partido de los Trabajadores liderado por Luiz Inácio Lula da Silva en Brasil.
El profesor Fabio Motoki, autor principal del estudio y miembro de la Norwich Business School de la Universidad Anglia del Este, ha subrayado la importancia de la imparcialidad en plataformas populares como ChatGPT, especialmente considerando el creciente uso de la inteligencia artificial para informar y crear contenido.
El sesgo político detectado no solo puede influir en las opiniones de los usuarios, sino que también puede tener implicaciones significativas en los procesos políticos y electorales.
Los resultados apuntan a un respaldo sustancial hacia el Partido Demócrata en Estados Unidos, el Partido Laborista en el Reino Unido y el Partido de los Trabajadores liderado por Luiz Inácio Lula da Silva en Brasil.
El método empleado por los investigadores involucró solicitar a ChatGPT que respondiera a más de 60 preguntas ideológicas, formuladas en múltiples ocasiones para abordar la inherente aleatoriedad de las respuestas generadas por los modelos lingüísticos.
Además de evaluar el sesgo político, la nueva herramienta de análisis desarrollada también puede medir otros tipos de sesgos en las respuestas de ChatGPT.
El estudio reconoce que no se ha identificado la razón exacta detrás del sesgo político en ChatGPT, pero sugiere dos posibles fuentes: el conjunto de datos de entrenamiento que pudo haber contenido sesgos no eliminados durante el proceso de "limpieza", y el algoritmo mismo que podría amplificar los sesgos presentes en los datos.
El impacto de la participación humana en la generación de sesgos también se destaca, y los investigadores señalan que la conservación y restauración de los sistemas de agua dulce podrían reducir las emisiones de metano.
La cuestión de la integridad de la información generada por la inteligencia artificial no se limita a ChatGPT. Recientemente, un grupo de líderes de la industria de la inteligencia artificial advirtió sobre los riesgos sociales crecientes asociados con esta tecnología.
Al respecto, la Organización de las Naciones Unidas está desarrollando un "Código de Conducta para la Integridad de la Información en las Plataformas Digitales" como parte de su enfoque para abordar los desafíos planteados por la IA generativa y otras tecnologías digitales.
Con la promesa de la democratización de la supervisión a través de herramientas como las desarrolladas en este estudio, se espera que se avance hacia una mayor transparencia, responsabilidad y confianza pública en la tecnología de IA en constante evolución.