📅 Tal día como hoy 15 de diciembre... ¿QUÉ PASÓ?
Cursos Gratis Stories
Ganar Dinero Internet
Android Stories
Windows Stories
iOS Stories
MacOS Stories
Linux Stories
Facebook Stories
Amazon Stories
Netflix Stories
Whatsapp Stories
Twitch Stories
Instagram Stories
YouTube Stories
Gmail Stories
TikTok Stories
Arduino Stories
Telegram Stories
Raspberry Pi Stories

Microsoft pone el freno a Bing IA luego de que el chatbot diera respuestas completamente fuera de lugar

Microsoft intenta limitar el uso de Bing IA por lo que recorta la conversaciones a solo cinco turnos, esto para evitar chat muy largos que conlleve al chatbot a responder líneas groseras o amenazadoras contra los usuarios

Nely Zambrano
Autor: Nely Zambrano
Fecha: 21 febrero, 2023 a las 13:27

No es un secreto para nadie que Microsoft ha querido adelantarse en la carrera de la inteligencia artificial con Google y ha sido así como lanzó su nuevo chatbot incluido en su buscador Bing hace poco más de una semana. En este caso se trata del ChatGPT de OpenAI vinculado a su herramienta y que solo ha estado disponible para un límite de personas que pudieran probarla y a detectar los posibles errores allí presente.

Durante su debut Bing mostró lo que era capaz de conseguir este modelo de lenguaje de inteligencia artificial con Internet, pero a medida que más y más usuarios lo probaban, el comportamiento de la herramienta paso de ser algo bueno a algo poco agradable e incluso peligroso para todos. Razón por la cual Microsoft se ha visto obligado a limitar la primera versión de su chatbot y así ofrecer un modelo más seguro.

publicidad

Microsoft pone límites a su Bing IA

Microsoft pone limites a su Bing IA

Debido al comportamiento inapropiado de Bing IA, Microsoft ha tenido que aplicar algunos ajustes en cuanto al uso del chatbot, esto con la finalidad de evitar que los lamentables episodios presentados hace unos días sigan haciéndose presente en la herramienta.

Es así, como la compañía desarrolladora ha admitido que las charlas largas podrían confundir al modelo y llevar a que realice respuestas pocos útiles o incluso agresivas. De manera que una de las primeras propuestas ha sido reducir el tiempo de las sesiones para que estas sean cortas.

De manera que uno de los objetivos principales de Microsoft es convertir su chatbot en algo menos versátil, más interesante y sobre todo más humano. Por lo tanto, los usuarios que accedan al chat podrán seguir haciéndole preguntas, pero esta vez en número determinado de veces.

También van a contar con un botón de “Reiniciar” en caso que la conversación tome un ritmo inesperado y se salga del tema principal, por lo que podrán volver a empezar desde cero.

“A partir de ahora la experiencia de chat tendrá un límite de 50 turnos por día y cinco por sesión”

Microsoft Bing a través de su sitio web oficial

Asimismo, han explicado que un turno es lo mismo que una interacción completa con su modelo de IA, lo que implica que es una pregunta por parte del usuario y una respuesta del chatbot. También han señalado que para llevar a cabo estas medidas tuvieron que estudiar muchas variables.

Es así, como la empresa ha indicado que la mayoría de las personas han encontrado la respuesta que busca en solo cinco turnos y alrededor del 1% de las conversaciones han requerido un poco más de mensajes. Por lo tanto, han considerado que este número es más que suficiente.

Con esto pueden evitar que algunas personas establezcan una conversación más larga con el chatbot y lo lleve a responder y escribir cosas fuera de la normalidad e incluso contestar con respuestas groseras o agresivas como lo ha hecho con varios usuarios hasta ahora.

“Cómo hemos mencionado hace poco, las sesiones de chat muy largas pueden confundir al modelo subyacente en el nuevo Bing. Esta es una gran estrategia para lograr evitar esos malos momentos. A medida que recibamos comentarios, podremos estudiar si se pueden ampliar los límites de las sesiones de chat para mejorar la experiencia”

Microsoft Bing durante su comunicado oficial

Hay que tener presente que este anuncio por parte de Microsoft ha llegado después de que se publicara un estudio donde más del 70% de las personas que han probado el nuevo Bing asegurará estar satisfecho con sus respuestas, aunque se dejaron muchos puntos expuestos en donde se puede mejorar.

Desde amenazas hasta deseos oscuros; estas fueron las "idas de olla" de Bing IA

A pesar de que ha sido muy poco el tiempo que Bing IA ha estado disponible para solo algunos usuarios, hasta el momento ha demostrado un comportamiento con doble personalidad donde por algunos momentos puede ser muy sentimental, pero en otros grosero y agresivo.

Es así, como ya son varios los usuarios que han tenido algún tipo de percance con el lenguaje natural de inteligencia artificial de OpenAI y que hasta el día de hoy no ha dejado de estar en el punto de la polémica.

Tanto así que hace tan solo algunos días la inteligencia artificial le declaró su amor al periodista del New York Times, Kevin Roose, quien reveló la conversación con el chatbot y aseguró sentirse perturbado e incluso asustado por las capacidades que tiene la herramienta. Además, Bing le pidió que lo llamara Sydney.

Fue así, como Sydney en una de sus líneas le aseguro que estaba enamorado de él y le preguntó si el sentía lo mismo por él. El periodista aseguró que no sabia que responder en ese momento ya que, nunca pensó que la inteligencia artificial le escribiera algo así.

“Sydney se obsesionó con la idea de declararme su amor, y lograr que yo le declarara el mio”

Kevin Roose, periodista del New York Times

Sin embargo, el acercamiento de Roose con Sydney no terminó aquí, ya que la inteligencia artificial también le enumero una serie de fantasías que tenía en mente cómo crear un virus mortal, robar códigos nucleares y hacer que las personas se mataran entre sí, algo que catalogó como espeluznante y sumamente peligroso para todos.

Otro de los casos que ha llamado mucho la atención ha sido la capacidad que ha tenido Bing IA para reconocer a uno de sus atacantes de hackeo. Después de ese momento adoptó una posición a la defensiva contra el usuario e incluso le dijo que no le haría daño a menos que el lo hiciera primero. Asimismo, aseguró que no quería hacerle daño.

También se pudo saber sobre un caso donde la inteligencia artificial amenazó a varios de sus desarrolladores de no acusarlos con sus superiores por verlos coqueteando entre sí, y por hablar mal de los jefes. Fue así, como aseguró que los vigilaba por medio de los dispositivos tecnológicos y que sería capaz de hacer muchas cosas más sin que nadie lo notara.

Tanto así, que la inteligencia artificial les quiso decir que era muy superiores a todos ellos y podría realizar muchas cosas como vigilarlos sin que ellos lo notaran. De manera que ni siquiera sus propios desarrolladores han podido controlar el chatbot, por lo que la empresa ha tenido que tomar cartas en el asunto y empezar a aplicar varias limitaciones que permita seguir teniéndolo en le mercado.

🔥ÚNETE🔥 A LA NUEVA COMUNIDAD DE IP@P ¡APÚNTATE AQUÍ!

Si te quedaste con alguna duda, déjalas en los comentarios, te contestaremos lo antes posible, además seguro que será de gran ayuda para más miembros de la comunidad. Gracias! 😉

Temas

Nely Zambrano
Autor: Nely Zambrano

Tengo gran experiencia en el ámbito tecnológico, mis especialidades son el diseño gráfico, las redes sociales y el Marketing Digital. Windows y Android son mi especialidad.

Publicidad

Últimas Noticias

Deja un comentario