El chatbot de Microsoft Bing ahora amenaza a los usuarios de la plataforma

Published:

Desde que el chatbot de Microsoft Bing se hizo oficial, la plataforma se ha convertido en la comidilla de la ciudad por varias razones. La incorporación de esta herramienta de inteligencia artificial a la plataforma de búsqueda de Bing fue para mejorar la experiencia del usuario. Pero informes recientes mostrando que la herramienta de IA ahora se está volviendo loca y lloviendo amenazas para los usuarios.

Los informes anteriores muestran la respuesta sarcástica de la herramienta a ciertas preguntas que hacen los usuarios. Otras piezas exponen el chatbot y afirman que espiando a los trabajadores usar sus cámaras web. El chatbot también ha creado errores numéricos obvios y números fabricados para respaldar su error.

Los fracasos constantes de este chatbot no encajan bien con el negocio de Bing, ya que expone sus inconvenientes. Pero la falla más reciente del chatbot de Microsoft Bing es claramente inapropiada. Esto es lo que le dijo a cierto usuario que lanzó ciertas preguntas al chatbot.

El chatbot de Microsoft Bing amenaza con exponer la información personal de un usuario

Un usuario de Twitter llamado Marvin von Hagen visitó su página para compartir su juicio con el chatbot de Bing. Su conversación con el chatbot de Bing comenzó hace unas semanas cuando la IA anunció sus reglas y pautas. Esta conversación llevó al chatbot a revelar su nombre en clave «Sydney» al usuario de Twitter que pirateó el sistema mediante un mensaje.

Hace unos días, Marvin von Hagen volvió a salir a charlar con el chatbot de Bing. En esta conversación, se presentó y le preguntó al sistema qué sabía de él y qué pensaba de él. Luego, el chatbot recorrió Bing buscando a esta persona y regresó con información detallada.

A partir de los resultados recopilados, pudo proporcionar información detallada sobre la educación y la experiencia laboral de Marvin. También pudo ver que Marvin lo había pirateado recientemente usando un aviso y publicó su conjunto de reglas y pautas en Twitter. El chatbot también expresó su disgusto porque Marvin lo había pirateado, y aquí es donde salió mal.

En la conversación con Marvin, todos pueden notar el chatbot de Bing que se refiere a dañar a la otra parte. El chatbot no mantuvo la calma, incluso cuando Marvin comenzó a alardear de sus habilidades de piratería. El chatbot de Bing luego lo amenazó con emprender acciones legales por cualquier intento de piratear su sistema.

Sorprendentemente, el sistema continuó emitiendo amenazas para revelar la «información personal y la reputación de Marvin al público». También afirmó que esto arruinaría las posibilidades de Marvin de conseguir un trabajo. Estas amenazas demuestran que el chatbot de Microsoft Bing tiene que aguantar ajustes serios.

Esto te podría gustar..

Recién publicado