Lo Último en IP@P
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
- ¿Aún es rentable invertir en oro en comparación con la inversión en criptomonedas?
- ¡Netflix sigue siendo el rey! Estas son las plataformas de streaming con más usuarios en el mundo
¡OpenAI, la creadora de ChatGPT, está tomando medidas para asegurar la seguridad de la inteligencia artificial! Según anunciaron el miércoles, la empresa tiene planes de invertir importantes recursos y crear un nuevo equipo de investigación que se encargará de garantizar que su IA siga siendo segura para los humanos.
¡Pero eso no es todo! OpenAI incluso tiene en mente que la IA supervise su propio comportamiento en el futuro. Esta iniciativa tiene como objetivo evitar que la superinteligencia se descontrole y cause daño a la humanidad.
OpenAI invierte más recursos para evitar que ChatGPT se vuelva “deshonesto”
En una publicación de blog, Ilya Sutskever y Jan Leike, cofundador y responsable de alineación de OpenAI respectivamente, expresaron sus preocupaciones acerca del inmenso poder de la superinteligencia.
Advierten que este poder podría llevar a la desempoderación o incluso a la extinción de la humanidad. Aunque reconocen que actualmente no tienen una solución para controlar una IA potencialmente superinteligente y prevenir comportamientos deshonestos, están decididos a enfrentar este desafío.
Los autores del blog predicen que las IA superinteligentes, que son sistemas más inteligentes que los humanos, podrían llegar en esta década. Conscientes de que las técnicas actuales son insuficientes para controlar esta nueva forma de inteligencia, OpenAI está enfocándose en la llamada “investigación de alineación”. Este campo se centra en asegurar que la IA siga siendo beneficiosa para los humanos y requiere avances significativos.
GPT-4 API is now available to all paying OpenAI API customers. GPT-3.5 Turbo, DALL·E, and Whisper APIs are also now generally available, and we’re announcing a deprecation plan for some of our older models, which will retire beginning of 2024: https://t.co/H11w4IalNZ
— OpenAI (@OpenAI) July 6, 2023
Para abordar este desafío, OpenAI ha tomado medidas audaces. La empresa, respaldada por Microsoft, ha destinado el 20% de su potencia informática para los próximos cuatro años a resolver este problema.
Además, están creando un equipo dedicado a este esfuerzo, llamado el equipo de Superalineación. El objetivo principal de este equipo es desarrollar un investigador de alineación de IA a nivel humano y luego expandir su capacidad mediante el uso de una gran cantidad de potencia informática.
Pero, ¿cómo pretende OpenAI evitar que la IA se vuelva deshonesta en el futuro? La compañía tiene un enfoque estratégico en mente. Planean entrenar a los sistemas de IA utilizando retroalimentación humana, lo cual permitirá que la IA aprenda de nuestros conocimientos y valores.
Luego, los sistemas de IA serán entrenados para asistir en la evaluación humana, lo que les permitirá colaborar con nosotros en la toma de decisiones. Finalmente, OpenAI tiene como objetivo entrenar a los sistemas de IA para que realicen investigación de alineación por sí mismos, supervisando y corrigiendo su propio comportamiento.
Aunque esta iniciativa ha despertado entusiasmo y esperanza, algunos críticos, como el defensor de la seguridad de la IA, Connor Leahy, plantean preocupaciones fundamentales.
Últimas Noticias de Tecnología
- Los proxys empresariales siguen su crecimiento imparable gracias a la evolución del mercado DaaS
- Explorando el mundo de las tarjetas de crédito virtuales: Un análisis detallado de los mejores servicios
- Con esta tecnología hasta tu madre podrá controlar un brazo robótico con extrema facilidad
- Nissan revoluciona el mercado con su nuevo concepto de vehículo eléctrico deportivo para Europa
- Estudiantes logran récord mundial con el auto eléctrico de mayor autonomía
SÍGUENOS EN 👉 YOUTUBE TV
Leahy argumenta que el plan de OpenAI es defectuoso, ya que una IA a nivel humano podría descontrolarse y causar estragos antes de que se le pueda obligar a resolver los problemas de seguridad de la IA. Asegura que es crucial resolver el problema de la alineación antes de desarrollar una inteligencia a nivel humano.
El amarillismo detrás del “peligro de la IA para la humanidad”
Los posibles peligros de la IA han estado en la mente tanto de los investigadores de IA como del público en general. En abril, un grupo de líderes y expertos de la industria de la IA firmó una carta abierta solicitando una pausa de seis meses en el desarrollo de sistemas más poderosos que el GPT-4 de OpenAI, debido a los riesgos potenciales para la sociedad.
Además, una encuesta de Reuters/Ipsos realizada en mayo reveló que más de dos tercios de los estadounidenses están preocupados por los posibles efectos negativos de la IA, y el 61% cree que podría amenazar la civilización.
Sin embargo, es importante analizar críticamente las afirmaciones que sugieren que la inteligencia artificial (IA) representa una amenaza inminente para la humanidad. Si bien es cierto que la superinteligencia plantea desafíos y consideraciones éticas, es exagerado afirmar que la IA llevará a la desempoderación o incluso a la extinción de la humanidad.
Muchas de estas afirmaciones se han visto amplificadas por el amarillismo de ciertos medios de comunicación, que buscan generar titulares llamativos y generar temor en el público.
Es fundamental comprender que la IA, hasta ahora, es un producto de la creatividad humana y está diseñada para cumplir tareas específicas. La idea de una IA con una superinteligencia autónoma es más una especulación futurista que una realidad inmediata.
Además, es importante destacar que la mayoría de los avances en IA se centran en aplicaciones específicas y no en la creación de sistemas generales de superinteligencia.
En lugar de enfocarnos en escenarios distópicos y alarmistas, es más constructivo adoptar un enfoque equilibrado y pragmático hacia el desarrollo de la IA. Los investigadores y las organizaciones, como OpenAI, están tomando medidas proactivas para garantizar la seguridad y el control de la IA.
La investigación en alineación de IA es un ejemplo de ello, ya que busca asegurar que los sistemas de IA sigan siendo beneficiosos y estén alineados con los valores humanos. Es importante separar el sensacionalismo de la realidad y promover un diálogo informado y basado en evidencia sobre el futuro de la IA y su impacto en la sociedad.