Busca que los usuarios interactúen con el chatbot de manera más libre, siempre que cumplan con la ley.
OpenAI ha realizado cambios en la moderación de su plataforma ChatGPT, retirando las advertencias naranjas que notificaban a los usuarios sobre posibles violaciones de sus políticas.
Esta decisión busca ofrecer una experiencia más fluida, permitiendo a los usuarios interactuar con el chatbot de manera más libre, siempre que cumplan con la ley y no se causen daño a sí mismos o a otros, destaca Europa Press.
Nick Turley, responsable de Producto de ChatGPT, explicó en X (antes Twitter) que la compañía ha eliminado "muchas advertencias innecesarias en la interfaz de usuario".
Estas advertencias, que antes aparecían en forma de recuadros naranjas, notificaban a los usuarios sobre solicitudes que podrían violar las normas de la plataforma.
Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI, confirmó en la misma red social que las advertencias naranjas han sido retiradas.
Sin embargo, el sistema aún muestra recuadros rojos y mensajes de rechazo como "Lo siento, no lo haré" en casos que consideran inapropiados.
Cómo OpenAI modera contenido sensible y controvertido en ChatGPT
OpenAI ha detallado cómo sus modelos manejan solicitudes relacionadas con temas controvertidos o sensibles. Aunque reconocen que no pueden mitigar todos los casos, se enfocan en los más graves.
El chatbot está programado para evitar generar contenido prohibido, como material sexual explícito o pedófilo, así como contenido restringido, como riesgos informativos o datos personales confidenciales.
Además, el sistema bloquea contenido sensible, como erótica o gore, excepto en contextos específicos como educativos, médicos o históricos.
Tampoco permite contenido de odio o acoso dirigido a grupos protegidos por raza, religión, género, orientación sexual o discapacidad, incluyendo insultos y lenguaje deshumanizante.
OpenAI también ha establecido que el chatbot debe negarse a facilitar comportamientos ilícitos o promover acciones perjudiciales para los usuarios.
Estas medidas buscan equilibrar la libertad de uso con la responsabilidad de proteger a los usuarios y cumplir con las normativas legales.
Con estos cambios, OpenAI refuerza su compromiso de ofrecer una herramienta útil y segura, al tiempo que permite a los usuarios explorar sus capacidades dentro de límites éticos y legales.