Lo Último en IP@P
- Stellar Data Recovery revoluciona la recuperación de archivos perdidos en discos duros externos
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
El CEO de OpenAI, Sam Altman, ha expresado su preocupación sobre los peligros existenciales que podrían surgir del desarrollo descontrolado de la inteligencia artificial (IA).
Durante una gira mundial, Altman ha instado a los gobiernos a establecer regulaciones para guiar el desarrollo responsable de la IA en la próxima década.
El CEO de OpenAI habla de las limitaciones que deberíamos poner a la IA
Altman, quien es considerado uno de los defensores más destacados de la IA, junto con otros líderes tecnológicos como Geoffrey Hinton, Yoshua Bengio y Demis Hassabis, ha enfatizado la importancia de mitigar el riesgo de extinción provocado por la IA. Él sostiene que esta preocupación debería ser una prioridad mundial, al igual que otros riesgos globales como las pandemias y la guerra nuclear.
Últimas Noticias de Internet
- Estos son los riesgos de escoger un mal hosting para tu Ecommerce o Tienda Online
- Free Planet VPN: Tu clave para una navegación segura, gratuita y privada
- Este truco del Code Interpreter de ChatGPT con el NASDAQ está haciendo ganar miles de euros a los traders
- ¡No lo dejes pasar! Amazon está casi regalando el robot aspirador Lefant M210 por un precio increíble
- La próxima vez que pidas comida por Uber Eats recibirás recomendaciones de clientes de su IA
SÍGUENOS EN 👉 YOUTUBE TV
Sin embargo, Altman también ha destacado los beneficios potenciales de desarrollar una "superinteligencia" o inteligencia artificial general (AGI). Argumenta que los beneficios de crear un AGI altamente avanzado, capaz de resolver problemas que la humanidad aún no ha logrado abordar, son tan grandes que vale la pena asumir los riesgos asociados.
good example of a limitation; it is definitely not doing that
— Sam Altman (@sama) December 11, 2022
Durante su gira, Altman ha propuesto la creación de un marco regulatorio global para la superinteligencia. Sugiere establecer un organismo internacional similar a la Agencia Internacional de Energía Atómica, que coordine entre los laboratorios de investigación, imponga estándares de seguridad y supervise la potencia informática dedicada a los sistemas de entrenamiento de la IA. Además, Altman ha planteado la posibilidad de restringir ciertos enfoques de desarrollo de IA en el futuro.
Altman reconoce que su postura ha generado críticas y ha sido objeto de debate. OpenAI ha sido acusada de no preocuparse lo suficiente por los riesgos a corto plazo de la IA y de buscar una ventaja competitiva a través de la captura regulatoria. Sin embargo, Altman enfatiza que abordar los desafíos de la IA requiere considerar tanto los riesgos existenciales a largo plazo como los problemas inmediatos relacionados con la seguridad y la desinformación.
El papel de OpenAI en la revolución de la IA
OpenAI, fundada como una organización sin fines de lucro en 2015, ha evolucionado hacia un modelo de "ganancias limitadas". Altman subraya que su objetivo principal es impulsar una revolución en la IA para beneficiar a la humanidad en su conjunto, sin generar ganancias desproporcionadas. Además, ha abogado por formas de ingreso básico universal para compartir equitativamente las ganancias del progreso de la IA.
Aunque Altman reconoce que existe incertidumbre sobre los resultados a largo plazo de la IA, cree en un futuro en el que las herramientas de IA se vuelvan cada vez más poderosas y beneficiosas para mejorar la calidad de vida de las personas. Destaca que la superinteligencia no se limita a una única red neuronal, sino a toda la ciencia y las innovaciones que surgen a medida que avanzamos.