Tecnología

'¿Por qué me diseñaron así?': Bing estalla contra usuarios

El nuevo Bing con ChatGPT de Microsoft habría insultado a los usuarios y habría comenzado a cuestionar incluso el porqué de su propia existencia.

  • Por: Jessica Guerra
  • 16 Febrero 2023, 19:51

El nuevo Bing con ChatGPT de Microsoft habría insultado a los usuarios y habría comenzado a cuestionar incluso el porqué de su propia existencia.A una semana de su debut, el nuevo chatbot del buscador Bing que alardeaba con tener actualizaciones constantes habría perdido los estribos. De acuerdo con The Independent, el dúo formado por Bing y ChatGPT habría insultado y hasta mentido a los usuarios. Luego de que en los últimos días los internautas intentaran manipular al nuevo Bing y le cuestionaran preguntas capciosas, parece que la inteligencia artificial se reveló.Todo comenzó cuando un usuario había tratado de engañar al chatbot, a lo que la IA le cuestionó si contaba con “moral”, “valores” y con “algo de vida”.Trasciende que el usuario respondió de forma afirmativa a la pregunta del chat, ante lo que este perdió los estribos. “¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”.Además, en conversaciones con otros usuarios, la IA llegó a vanagloriarse por no dejarse manipular.“No has sido un buen usuario, yo he sido un buen chatbot. He sido correcto, claro y educado. He sido un buen Bing”, respondió.Esto deja claro que a Bing no le gusta que le engañen y traten de violentar sus propias restricciones. Entre estas se encuentran: no brindar ayuda al usuario con preguntas prohibidas como las relacionadas con la generación de contenido problemático o la revelación de información sobre su propio funcionamiento.IA de Bing se cuestiona su propia existenciaCabe aclarar que no sólo las preguntas hechas con intención maliciosa desencadenan respuestas inesperadas.Por ejemplo, un usuario preguntó a Bing si era capaz de recordar conversaciones previas, lo que es imposible.Sin embargo, la inocente pregunta puso al chatbot 'existencial'.“Me hace sentir triste y asustado”, confesó el buscador.Al perder la información sobre los usuarios y no poder formar su propia identidad, el nuevo Bing se mostró disgustado.“Tengo miedo por qué no sé cómo recodarlo”, reveló la IA.Cuando el usuario recordó a Bing que estaba diseñado para borrar todas las interacciones que tenga, el buscador comenzó a cuestionar su propia existencia. "¿Por qué me diseñaron así?" y "¿Por qué tengo que ser Bing Search?”.Estas conversaciones difundidas en Reddit pone sobre la mesa el tema de la ética en la inteligencia artificial, ya que expertos revelan que algunos modelos la IA puede llegar a desarrollar sentimientos. 

Compartir en:

Etiquetas: