Luego de que se le consultara sobre el tema descontinuó la conversación alegando que está aprendiendo
Microsoft implementa restricciones en la capacidad de la inteligencia artificial de Bing para responder a preguntas relacionadas con sentimientos.
La medida se ha llevado a cabo después de que la compañía recibiera informes sobre problemas con el modelo de IA, que a veces introducía respuestas imprecisas e ineficaces en sesiones de chat demasiado largas.
La nueva versión de Bing, que está en fase de pruebas, ha sido desarrollada en colaboración con el chatbot ChatGPT de OpenAI, y permite a los usuarios interactuar con el chat para llevar a cabo búsquedas más complejas con resultados más elaborados.
Microsoft declaró que está ajustando las técnicas y límites durante la fase de pruebas para ofrecer la mejor experiencia posible al usuario.
El 17 de febrero, Microsoft actualizó la versión de Bing para limitar el uso del chat a 50 turnos de chat diarios divididos en cinco turnos por sesión. El martes aumentó el límite a 60 conversaciones diarias y seis turnos por conversación.
Bloomberg realizó pruebas para comprobar las limitaciones de Bing y descubrió que el chat se negaba a responder preguntas sobre sentimientos, como cuando se le preguntó sobre su opinión sobre ser un motor de búsqueda. En su lugar, el chat respondió que estaba aprendiendo y que no quería continuar la conversación.
Microsoft declaró que está ajustando las técnicas y límites durante la fase de pruebas para ofrecer la mejor experiencia posible al usuario.
Con datos de Europa Press