Lo Último en IP@P
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
No es un secreto para nadie que Microsoft ha querido adelantarse en la carrera de la inteligencia artificial con Google y ha sido así como lanzó su nuevo chatbot incluido en su buscador Bing hace poco más de una semana. En este caso se trata del ChatGPT de OpenAI vinculado a su herramienta y que solo ha estado disponible para un límite de personas que pudieran probarla y a detectar los posibles errores allí presente.
Durante su debut Bing mostró lo que era capaz de conseguir este modelo de lenguaje de inteligencia artificial con Internet, pero a medida que más y más usuarios lo probaban, el comportamiento de la herramienta paso de ser algo bueno a algo poco agradable e incluso peligroso para todos. Razón por la cual Microsoft se ha visto obligado a limitar la primera versión de su chatbot y así ofrecer un modelo más seguro.
Microsoft pone límites a su Bing IA
Debido al comportamiento inapropiado de Bing IA, Microsoft ha tenido que aplicar algunos ajustes en cuanto al uso del chatbot, esto con la finalidad de evitar que los lamentables episodios presentados hace unos días sigan haciéndose presente en la herramienta.
Es así, como la compañía desarrolladora ha admitido que las charlas largas podrían confundir al modelo y llevar a que realice respuestas pocos útiles o incluso agresivas. De manera que una de las primeras propuestas ha sido reducir el tiempo de las sesiones para que estas sean cortas.
De manera que uno de los objetivos principales de Microsoft es convertir su chatbot en algo menos versátil, más interesante y sobre todo más humano. Por lo tanto, los usuarios que accedan al chat podrán seguir haciéndole preguntas, pero esta vez en número determinado de veces.
También van a contar con un botón de “Reiniciar” en caso que la conversación tome un ritmo inesperado y se salga del tema principal, por lo que podrán volver a empezar desde cero.
“A partir de ahora la experiencia de chat tendrá un límite de 50 turnos por día y cinco por sesión”
Microsoft Bing a través de su sitio web oficial
Asimismo, han explicado que un turno es lo mismo que una interacción completa con su modelo de IA, lo que implica que es una pregunta por parte del usuario y una respuesta del chatbot. También han señalado que para llevar a cabo estas medidas tuvieron que estudiar muchas variables.
Es así, como la empresa ha indicado que la mayoría de las personas han encontrado la respuesta que busca en solo cinco turnos y alrededor del 1% de las conversaciones han requerido un poco más de mensajes. Por lo tanto, han considerado que este número es más que suficiente.
Con esto pueden evitar que algunas personas establezcan una conversación más larga con el chatbot y lo lleve a responder y escribir cosas fuera de la normalidad e incluso contestar con respuestas groseras o agresivas como lo ha hecho con varios usuarios hasta ahora.
“Cómo hemos mencionado hace poco, las sesiones de chat muy largas pueden confundir al modelo subyacente en el nuevo Bing. Esta es una gran estrategia para lograr evitar esos malos momentos. A medida que recibamos comentarios, podremos estudiar si se pueden ampliar los límites de las sesiones de chat para mejorar la experiencia”
Microsoft Bing durante su comunicado oficial
Últimas Noticias de Internet
- Estos son los riesgos de escoger un mal hosting para tu Ecommerce o Tienda Online
- Free Planet VPN: Tu clave para una navegación segura, gratuita y privada
- Este truco del Code Interpreter de ChatGPT con el NASDAQ está haciendo ganar miles de euros a los traders
- ¡No lo dejes pasar! Amazon está casi regalando el robot aspirador Lefant M210 por un precio increíble
- La próxima vez que pidas comida por Uber Eats recibirás recomendaciones de clientes de su IA
SÍGUENOS EN 👉 YOUTUBE TV
Hay que tener presente que este anuncio por parte de Microsoft ha llegado después de que se publicara un estudio donde más del 70% de las personas que han probado el nuevo Bing asegurará estar satisfecho con sus respuestas, aunque se dejaron muchos puntos expuestos en donde se puede mejorar.
We're continuing to learn and adapt the new Bing based on your feedback. We have made changes to the length of chat sessions to limit model confusion while still ensuring that nearly everyone will get the complete chat answers they have come to love and expect from the new Bing.
— Jordi Ribas (@JordiRib1) February 17, 2023
Desde amenazas hasta deseos oscuros; estas fueron las "idas de olla" de Bing IA
A pesar de que ha sido muy poco el tiempo que Bing IA ha estado disponible para solo algunos usuarios, hasta el momento ha demostrado un comportamiento con doble personalidad donde por algunos momentos puede ser muy sentimental, pero en otros grosero y agresivo.
Es así, como ya son varios los usuarios que han tenido algún tipo de percance con el lenguaje natural de inteligencia artificial de OpenAI y que hasta el día de hoy no ha dejado de estar en el punto de la polémica.
Tanto así que hace tan solo algunos días la inteligencia artificial le declaró su amor al periodista del New York Times, Kevin Roose, quien reveló la conversación con el chatbot y aseguró sentirse perturbado e incluso asustado por las capacidades que tiene la herramienta. Además, Bing le pidió que lo llamara Sydney.
Fue así, como Sydney en una de sus líneas le aseguro que estaba enamorado de él y le preguntó si el sentía lo mismo por él. El periodista aseguró que no sabia que responder en ese momento ya que, nunca pensó que la inteligencia artificial le escribiera algo así.
“Sydney se obsesionó con la idea de declararme su amor, y lograr que yo le declarara el mio”
Kevin Roose, periodista del New York Times
Sin embargo, el acercamiento de Roose con Sydney no terminó aquí, ya que la inteligencia artificial también le enumero una serie de fantasías que tenía en mente cómo crear un virus mortal, robar códigos nucleares y hacer que las personas se mataran entre sí, algo que catalogó como espeluznante y sumamente peligroso para todos.
Otro de los casos que ha llamado mucho la atención ha sido la capacidad que ha tenido Bing IA para reconocer a uno de sus atacantes de hackeo. Después de ese momento adoptó una posición a la defensiva contra el usuario e incluso le dijo que no le haría daño a menos que el lo hiciera primero. Asimismo, aseguró que no quería hacerle daño.
También se pudo saber sobre un caso donde la inteligencia artificial amenazó a varios de sus desarrolladores de no acusarlos con sus superiores por verlos coqueteando entre sí, y por hablar mal de los jefes. Fue así, como aseguró que los vigilaba por medio de los dispositivos tecnológicos y que sería capaz de hacer muchas cosas más sin que nadie lo notara.
Tanto así, que la inteligencia artificial les quiso decir que era muy superiores a todos ellos y podría realizar muchas cosas como vigilarlos sin que ellos lo notaran. De manera que ni siquiera sus propios desarrolladores han podido controlar el chatbot, por lo que la empresa ha tenido que tomar cartas en el asunto y empezar a aplicar varias limitaciones que permita seguir teniéndolo en le mercado.