El límite de preguntas de ChatGPT Bing de Microsoft está creando más problemas que respuestas

imagen3.jpg

El chatbot de inteligencia artificial de Bing aún no ha sido lanzado al público; sin embargo, hay usuarios selectos que han recibido acceso temprano y no han sido tímidos al compartir sus experiencias.

Muchos de estos usuarios se han propuesto poner a prueba las capacidades del chatbot y exponer sus fallas.

Desde revelar su nombre en código confidencial utilizado internamente por los desarrolladores, hasta declarar su amor a un escritor de New York Times y pedirle que abandone a su esposa, hasta desear estar vivo, no cabe duda de que el chatbot estaba actuando de manera inapropiada. En consecuencia, Microsoft decidió controlar al chatbot. Desde el pasado viernes, el chatbot tiene un límite de cinco preguntas por sesión y un límite de 50 turnos de chat por día.

También: Cómo evitar la nueva lista de espera de Bing y acceder antes

"Las sesiones de chat muy largas pueden confundir el modelo de chat subyacente en el nuevo Bing", dijo Microsoft en una publicación en su blog. "Nuestros datos han demostrado que la gran mayoría de ustedes encuentran las respuestas que buscan en un máximo de 5 interacciones".

Sin embargo, esta solución no aborda los problemas subyacentes con la forma en que los chatbots forman respuestas ni con la manera en que se entrenan sus modelos.

En cambio, sólo hace que sea extremadamente difícil tener una conversación con el chatbot.

También:chatbot de IA de Bing solucionó mis problemas más grandes con ChatGPT

Como muestra, intenté que el chatbot me ayudara a escribir un correo electrónico. Para cuando terminé de realizar todos los cambios que quería, ni siquiera pude acceder al correo electrónico: el chatbot de Bing me había echado.

imagen4.jpg

Es fácil imaginar cómo alguien que intenta perfeccionar su código o componer el ensayo perfecto podría necesitar más de cinco sugerencias para obtener el resultado deseado. Al cortar la conversación de manera abrupta, el chatbot resulta inútil para la mayoría de las sugerencias técnicas (como redactar código o texto en un formato específico), que es lo que ha logrado la fama de ChatGPT.

También: Estoy usando ChatGPT para ayudarme a arreglar el código más rápido, ¿pero a qué costo?

Las nuevas limitaciones también reducen todo el atractivo de tener un chatbot con capacidades conversacionales similares a las humanas. Para comenzar el chat, todo lo que pregunté fue un simple, "¡Hola! ¿Cómo te sientes hoy?" cuando recibí una respuesta seca, "Lo siento pero prefiero no continuar esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia.🙏"

imagen2.jpg

Esta respuesta proporciona un contraste notorio con la respuesta de ChatGPT, que reconoce que no es capaz de tener sentimientos, pero aun así responde amablemente a tu pregunta y pregunta cómo puede ayudarte más.

imagen1.jpg

Al intentar evitar la controversia, Microsoft eliminó las características que hacían que el chatbot fuera útil y único, y nos ha dejado con lo que parece una versión de demostración. Aunque era un poco caótico, la versión original era más útil y emocionante que la iteración actual, más moderada, de Bing.

Artículos relacionados

Ver más >>
  • ¿El Chat GPT Plagia?

    ¿Es Chat GPT libre de plagio? Aprende más sobre los posibles problemas de plagio de Chat GPT y el mejor verificador de plagio para contenido generado por inteligencia artificial.

  • 11 Desventajas del Contenido de ChatGPT

    Los investigadores descubren sorprendentes fallas en el contenido de ChatGPT. A continuación, te decimos cómo detectarlas.

  • Limitación de palabras en ChatGPT

    ¿Existe un límite de palabras en ChatGPT? Algunos piensan que sí, pero otros no están seguros. Una cosa que sabemos es que existen soluciones sencillas para evitar problemas.