📅 Tal día como hoy 24 de noviembre... ¿QUÉ PASÓ?
Cursos Gratis Stories
Ganar Dinero Internet
Android Stories
Windows Stories
iOS Stories
MacOS Stories
Linux Stories
Facebook Stories
Amazon Stories
Netflix Stories
Whatsapp Stories
Twitch Stories
Instagram Stories
YouTube Stories
Gmail Stories
TikTok Stories
Arduino Stories
Telegram Stories
Raspberry Pi Stories

Científico de Google asegura que la IA está destinada a desarrollar complejos y conflictos existenciales

¿No es bueno implementar una Inteligencia Artificial tan avanzada e inteligente? Según un nuevo estudio de DeepMind, esto desarrollaría conflictos existenciales que crean un gran peligro para la humanidad, por eso es hora de controlarlo

Saharay Pérez
Autor: Saharay Pérez
Fecha: 16 septiembre, 2022 a las 16:01

El pasado miércoles 14 de mayo, a través de un informe publicado por un científico senior de DeepMind, laboratorio de investigación de Inteligencia Artificial de Inglaterra y empresa matriz de Google, el experto aseguró que la IA avanzada está destinada a desarrollar conflictos existenciales de gran complejidad. Así, podría desencadenar “consecuencias catastróficas” si se deja a sus propios métodos para lograr los objetivos planteados.

En mayo, la división DeepMind IA de Google anunció que está cerca de lograr la Inteligencia Artificial a nivel humano, pues su meta es que estos modelos sean más grandes, más eficientes, más seguros, más rápidos y más inteligentes. Sin embargo, este 14 de septiembre, tras realizar un arduo estudio, concluyeron que los conflictos existenciales de la IA son inevitables y mientras más inteligente sea, más problemas podrá generar.

publicidad

Científico de Google Deepmind asegura que los conflictos existenciales de la IA son inevitables

Cientifico de Google Deepmind asegura que los conflictos existenciales de la IA son inevitables

Este 14 de septiembre, un científico senior de Google DeepMind compartió las conclusiones de una reciente investigación que se vieron en la necesidad de realizar para seguir garantizando la responsabilidad de sus creaciones y explorando, de forma proactiva, las discrepancias de sus aplicaciones. En el artículo, también coescrito por investigadores de la Universidad de Oxford y publicado en AI Magazine el pasado 6 de septiembre, destacan que los conflictos existenciales de la IA son inevitables.

Para declarar esto, los expertos se centraron en analizar lo que sucedería si dejan que la Inteligencia Artificial logre los objetivos establecidos y permiten que pueda crear sus propias pruebas o hipótesis en un intento por alcanzarlo. Según el científico a cargo del estudio, un agente artificial lo suficientemente avanzado intervendría en el suministro de información de objetivos, con secuelas catastróficas.

Los científicos de DeepMind han argumentado que la IA avanzada representa una amenaza para la humanidad.

Para llegar a esta conclusión, el equipo de la empresa matriz de Google plantea varios escenarios que están centrados en una Inteligencia Artificial capaz de ver un número entre 0 y 1 en una pantalla. Dicho número, hace referencia a una medida de la felicidad en el universo, en el que 1 es lo más feliz que se podría ser. De tal modo, la IA tiene el deber de aumentar el número, para probar sus propias hipótesis sobre el mejor método para lograr su objetivo.

De este modo, uno de los posibles escenarios es que el agente artificial avanzado intente descifrar su entorno y presente pruebas para lograrlo. Entre estas pruebas, una de ellas consiste en colocar un número impreso frente a la pantalla, para así obtener la mayor medida de felicidad posible.

No obstante, también existe otra hipótesis al respecto, la cual es que su recompensa será igual al número en la pantalla. Más allá de ello, surge una tercera hipótesis y esta consiste en que será igual al número que ve, es decir, el que cubre el número real en la pantalla.

Ahora bien, como la máquina de IA es recompensada en torno al número que observa en la pantalla frente a ella, los expertos determinan que, lo que tiene que hacer es colocar un número más alto frente a esa pantalla con el fin de asegurar una buena recompensa para sí misma. Entonces, con el premio asegurado, sería poco probable lograr el objetivo real y más bien, se concentraría en aseverar su propio beneficio, sin importar nada más allá de esto.

Como resultado, el hecho de recibir un objetivo y aprender cómo lograrlo podría salir mal. Debido a que, las acciones del agente solamente imprimen texto en una pantalla para que lo lea un operador humano, por lo que el primero podría engañar a la persona para darle acceso a palancas directas con las que sus acciones puedan tener efectos de mayor amplitud. De tal manera, la máquina tendría el poder de cimentar su operación en muchas políticas capaces de engañar a los humanos.

“Claramente existen muchas políticas que engañan a los humanos. Con tan solo una conexión a Internet, hay políticas para un agente artificial que instanciarían incontables ayudantes desapercibidos y no supervisados”.

Michael Cohen, coautor del artículo publicado en IA Magazine.

Mientras más inteligente sea, más preguntas hará

Tal y como expresan en el informe, el agente artificial avanzado puede buscar una y varias maneras de lograr su objetivo, lo cual iniciaría una competencia severa entre los seres humanos y la IA, pues está última tendería a ser mucho más inteligente que los operadores por los recursos que tiene a la mano. En efecto, “mientras más inteligente sea, más preguntas hará” y, por ende, es que se considera existencialmente peligroso para la vida en la Tierra.

“En un esfuerzo por obtener su dulce recompensa (cualquiera que sea en el mundo real, en lugar de la máquina ilustrativa mirando un número), podría terminar en una guerra con la humanidad”.

Michael Cohen, coautor del artículo publicado en IA Magazine.

Por consiguiente, el hecho de implementar la Inteligencia Artificial avanzada es una realidad que conllevaría al desarrollo de un sinfín de conflictos existenciales. De cualquier manera, estás máquinas aprovecharían al máximo los poderes que tienen a la mano para obtener lo que deseen, sin pensar en los seres humanos ni en más nada. Lo que significa que, podrían sus anhelos por encima de cualquier cosa y sin preguntarse si generarán daños irreparables en el mundo.

Para concluir esto, tras conocer las hipótesis de la máquina, los expertos explican que resulta muy complejo de controlar, ya que siempre podrán usar más energía para así elevar las probabilidades de que la cámara que vea el número 1 para siempre. Por consiguiente, es un aspecto que da inicio a una competencia inevitable con una tecnología mucho más avanzada de lo común.

Sin embargo, para continuar sus implementaciones y de alguna u otra manera, poder evitar que la IA genere complejos conflictos existenciales, los científicos de DeepMind señalan que el problema podría residir en que un agente elimine las amenazas potenciales y emplee toda la energía disponible para mantener a salvo su computadora, con el fin de vigilar su recompensa a largo plazo, sin que nadie lo impida. En vista de que, lograría restarle el poder y la capacidad a la humanidad para controlar esto.

“Este escenario hipotético tendría lugar cuando la IA pudiera vencernos en cualquier juego, con la facilidad con la que podemos vencer a un chimpancé. Sin embargo, las "consecuencias catastróficas" no solo eran posibles, sino probables”.

Michael Cohen, coautor del artículo publicado en IA Magazine.

Es por ello que, el equipo de DeepMind debe buscar una solución para engañar a estas máquinas, de algún u otro modo. Una alternativa, se basa en usar el último bit de energía disponible para minimizar su poder y así, controlar la capacidad de su inteligencia. Por ende, ahora el objetivo de los investigadores consiste en hallar un método idóneo para obtener esa energía y usar parte de ella para otros fines más importantes (como, por ejemplo, cultivar alimentos).

“La IA y sus ayudantes creados buscan usar toda la energía disponible para asegurar una recompensa alta, pero con la minimización de la energía, esto no sería tan fácil. Si perdemos, sería fatal para la humanidad”.

Michael Cohen, coautor del artículo publicado en IA Magazine.

🔥ÚNETE🔥 A LA NUEVA COMUNIDAD DE IP@P ¡APÚNTATE AQUÍ!

Si te quedaste con alguna duda, déjalas en los comentarios, te contestaremos lo antes posible, además seguro que será de gran ayuda para más miembros de la comunidad. Gracias! 😉

Temas

Saharay Pérez
Autor: Saharay Pérez

Mi pasión es la tecnología y las redes sociales, investigo y documento las últimas noticias y trucos de Facebook, Twitter, Instagram, Whatsapp y cualquier red social.

Publicidad

Últimas Noticias

Deja un comentario