Lo Último en IP@P
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
Según un reciente artículo titulado ‘La superinteligencia no se puede contener: lecciones de la teoría de la computabilidad’, publicado por el Journal of Artificial Intelligence Research, la IA súperinteligente no sería fácil de controlar por la tecnología actual. Los investigadores argumentan que la contención total de la “súper IA” sería imposible por lo limites inherentes de la informática. En otras palabras, controlar la IA estaría más allá de la compresión humana.
La superinteligencia de la Inteligencia Artificial se define como un agente hipotético que cuenta con una inteligencia muy superior a las mentes de los seres humanos, incluso, a aquellas más dotadas y brillantes. Tanto los científicos como los tecnólogos y filósofos, han hecho énfasis en los altos riesgos potencialmente catastróficos que implica una entidad de este tipo.
La IA súperinteligente sería imposible de controlar por nosotros
Entre los últimos objetivos de la IA, el que más llama la atención consiste en lograr que una máquina tenga una inteligencia de tipo general similar a la humana o incluso, mucho mayor. Se trata de una meta ambiciosa que se ha planteado la ciencia y con ello, surge el concepto de la superinteligencia por parte de la Inteligencia Artificial. Lo cual, se torna comparable con otros grandes objetivos científicos, tales como explicar el origen del universo o el origen de la vida.
El afán por construir máquinas inteligentes y altamente dotadas, han conducido a los expertos a inventar modelos o metáforas del cerebro humano, para emular el pensamiento. Esto, por medio de una IA fuerte que sea necesariamente general o multitarea, con el fin de exhibir inteligencia sin experimentar estados mentales. Sin embargo, es una realidad que también ha generado diferentes disyuntivas.
A través de una investigación identificada como ‘La superinteligencia no se puede contener: lecciones de la teoría de la computabilidad’, un grupo de investigadores europeos ha llegado a la conclusión de que no es posible contener una IA de superinteligencia, ya que es imposible de controlar.
El hecho de concebir una “súper IA” es sinónimo de crear un agente superior a las mentes humanas más dotadas, de forma que podría presentar escenarios aterradores y generar daños a las personas, si no se puede controlar.
Más allá de los límites fundamentales inherentes a la informática, también es matemáticamente imposible que los seres humanos calculen los planes de una Inteligencia Artificial superinteligente, por lo que es irreprimible. Lo cual se debe a que una superinteligencia, por defecto, muestra diversas facetas y moviliza cuantiosos recursos para lograr objetivos que no son discernidos por la mente humana, así que no se pueden controlar.
Últimas Noticias de Tecnología
- Los proxys empresariales siguen su crecimiento imparable gracias a la evolución del mercado DaaS
- Explorando el mundo de las tarjetas de crédito virtuales: Un análisis detallado de los mejores servicios
- Con esta tecnología hasta tu madre podrá controlar un brazo robótico con extrema facilidad
- Nissan revoluciona el mercado con su nuevo concepto de vehículo eléctrico deportivo para Europa
- Estudiantes logran récord mundial con el auto eléctrico de mayor autonomía
SÍGUENOS EN 👉 YOUTUBE TV
Por consiguiente, resaltan que, el algoritmo de contención de una IA de tal tipo sería inutilizable. Debido a que, aunque las máquinas tienen la capacidad de completar tareas importantes con completa independencia, los programadores no podrán descubrir ni entender cómo lograron aprender esto. Entonces, como no pueden comprenderlo, muchos menos tendrán la potestad de proponer una solución para gestionarlo de forma correcta.
“La naturaleza de la superinteligencia, como resultado, hace que el algoritmo de contención de este tipo de agentes de IA sea inutilizable”.
Iyad Rahwan, científico informático del Instituto Max-Planck para el Desarrollo Humano en Alemania.
No obstante, los mismos investigadores tampoco descartan la existencia de la “súper IA” del todo. Por ende, han sugerido alternativas para enseñar algo de ética a la Inteligencia Artificial, con el objetivo de regular el potencial de la superinteligencia inducida y evitar que las mismas destrocen el mundo. Entre estas alternativas, la más relevante se basa en implementar una regla para que la IA no cause daño a los humanos a partir de un sistema informático que no sea independiente del todo, pues esto permitiría establecer ciertos límites.
Según expertos, la robótica del desarrollo puede ser la clave para dotar a las máquinas de sentido común y, en particular, aprender la relación entre sus acciones y los efectos que estas generan en el entorno.
¿Entonces una "súper IA" podría generar un escenario como 'Terminator'?
¿Existe la posibilidad de que la inteligencia artificial se salga de control igual que con “Skynet” en la película ‘Terminator’? Para muchos expertos, no hay duda de esto. Guerra global, múltiples problemas para la sociedad y la llegada del fin del mundo, precisamente esto podría ser una realidad con la implantación de la superinteligencia IA, ya que resulta incontrolable.
“Primero las máquinas harán mucho por nosotros sin ser súper inteligentes. Esto debería ser positivo si lo manejamos bien. Unas pocas décadas después, su inteligencia será lo suficientemente grande como para preocuparnos. No entiendo por qué algunas personas no están preocupadas”.
Bill Gates, cofundador de Microsoft y apasionado defensor del progreso tecnológico.
Aunque señalan que la llegada de la superinteligencia artificial es inevitable, muchos expertos temen que esto ocurra, por los sucesos que podrían generarse cuando se desarrolle. A pesar de que muchas predicciones pueden ser interesantes y juegan a favor de los seres humanos, lo cierto es que otras no. Según prevén, en 2050, todos podríamos estar muertos a causa de esto. Por el deseo de innovar, la lenta evolución biológica inherente de los humanos, será superada por la “súper IA”.
“El día en que las guerras se luchen entre máquinas será mucho más fácil que se produzcan, ya que hoy son las pérdidas humanas las que frenan a los países. Esto es terrible porque cada conflicto produce bajas civiles y efectos colaterales. Aunque sean robots, no creo que peleen en medio del desierto”.
Steve Wozniak, cofundador de Apple.
Por su cimiento, la superinteligencia aprendería tan rápido que, sin lugar a dudas, sobrepasaría la capacidad humana de razocinio. Aunque prometen que esto lograría resolver los problemas que enfrenta la humanidad en la actualidad, la realidad es otra: Tendrá todas las herramientas para empeorar estos problemas y generar caos a nivel global. Así que, en resumen, contaría con la capacidad de crear un escenario tan icónico como el de ‘Terminator’.
La mayoría de expertos resaltan que la “súper IA” es inevitable, pero tienen dudas sobre sus beneficios, ya que no precisan si estos podrán superar a su temido potencial o si sea peligrosa del todo, para los seres humanos.
Si bien, comenzar una carrera armamentística con la IA ayudaría a abordar los grandes desafíos de la humanidad, pero es una mala idea y se debe evitar mediante la prohibición de las armas que funcionen más allá del control humano, tal y como señalan los filósofos. Sin embargo, también hay muchos otros puntos de vista que son optimistas.
“Si la inteligencia artificial se convierte en una amenaza existencial, no sería la primera La tecnología ha sido siempre una espada de doble filo, desde que el fuego nos servía para mantenernos calientes y quemar pueblos enteros”.
Raymond Kurzweil, eminente futurista que juega el rol del optimista en este debate.