Imagen: AFP
- Usuarios del nuevo chatbot con IA de Microsoft han reportado que este puede descarrilarse a veces y responder de manera errática.
- El chatbot ha negando hechos obvios, llamado enemigos a usuarios e incluso los ha regañado.
- Microsoft reconoció que el chatbot podría «descarrilarse» durante sesiones de chat extendidas de 15 o más preguntas.
La competencia para crear al modelo de inteligencia artificial generativa más eficiente se encuentra en su punto más álgido, con las principales compañías tecnológicas realizando diversas pruebas para perfeccionar a sus respectivos chatbots; sin embargo, el proceso de hacerlos capaces de entablar conversaciones casi humanas es más complejo de lo esperado, como lo demuestra el nuevo chatbot de Microsoft.
El chatbot de Bing fue diseñado por Microsoft y OpenAI (creadores de ChatGPT), la startup en la que Microsoft ha realizado varias inversiones multimillonarias; sin embargo, usuarios han reportado que este puede descarrilarse a veces, negando hechos obvios, llamándoles enemigos e incluso reprendiéndoles.
Un foro en Reddit dedicado al nuevo Bing plasmó varias historias de regaños, mentiras y otros intercambios confusos con el chatbot. Por ejemplo, llegó a insistir que estamos en 2022 y le dijo a una persona que «no ha sido un buen usuario» por cuestionar su veracidad.
Otros usuarios mencionaron cómo el chatbot de Microsoft dio consejos sobre cómo hackear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista.
Microsoft ha reconocido que su chatbot puede ‘descarrilarse’
Microsoft reconoció que su chatbot podría tener problemas si se le «provoca» durante conversaciones largas. En una publicación de blog, la compañía dijo que durante las «sesiones de chat extendidas de 15 o más preguntas» Bing podría volverse repetitivo o ser «incitado» o «provocado» para dar respuestas que no eran útiles o estaban fuera de línea con su tono diseñado.
Microsoft calificó las respuestas fuera de tono del chatbot como un «escenario no trivial que requiere muchas indicaciones». La compañía agregó que era poco probable que el usuario promedio se encontrara con el problema; sin embargo, agregó que estaba buscando maneras de brindarles a los usuarios un control más preciso.
«El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones; por ejemplo, la duración o el contexto de la conversación», dijo un portavoz de Microsoft a AFP.
«A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas», agregó.
Google también ha enfrentado tropiezos con su propio chatbot
Microsoft no es la única compañía que ha tenido tropiezos probando su chatbot.
Google lanzó la semana pasada a su propio chatbot llamado Bard; sin embargo, la compañía fue criticada por un error cometido por el bot en un anuncio. El lío hizo que el precio de las acciones de Google cayera en espiral más del 7% en la fecha del anuncio.
Desde entonces, el CEO de Google Sundar Pichai ha pedido a toda su fuerza laboral que contribuyera de dos a cuatro horas de su tiempo para ayudar a mejorar las respuestas que brinda el Bard a las preguntas que los usuarios pueden formularle.
De hecho, Google también lanzó un manual a sus empleados para entrenar a Bard adecuadamente, advirtiéndoles que no deberían enseñarle al chatbot a engañar a los usuarios para que piensen que es humano.
Al reforzar sus motores de búsqueda con cualidades similares a ChatGPT, Microsoft y Google esperan actualizar radicalmente la búsqueda en línea, proporcionando respuestas preparadas en lugar de la lista familiar de enlaces a sitios web externos.