Lo Último en IP@P
- ¡Escalofriante! Un drone de IA se vuelve loco y mata a su operador durante una prueba de simulación
- Esto piensa ChatGPT sobre el miedo de que la IA acelere la extinción de la humanidad
- Acabamos de descubrir Riffusion; una IA que compone canciones enteras y podría revolucionar la industria musical
- Para ChatGPT estos son los países con las mujeres y hombres más lindos del mundo
- ¿Demasiado cruel? Preguntamos a ChatGPT a quién salvaría en un incendio doméstico y su respuesta nos dejó helados
El pasado martes, OpenAI reveló un nuevo informe técnico de 98 páginas que formó parte de la presentación de su más reciente modelo de lenguaje GPT-4. Es así, como el ingeniero Ben Schmidt de una empresa cartográfica llamada Nomic ha asegurado que no revelarán nada sobre cómo han entrenado al nuevo GPT, esto con el objetivo de que otras plataformas no puedan copiarlo.
De manera que el GPT-4 está envuelto en un secreto, el cual podremos conocer a medida que el mismo se va desempeñando. En esta oportunidad OpenAI ha querido ser muy cuidadoso para evitar que sus principales competidores puedan sacar provecho de su trabajo y esfuerzo. Además, han asegurado que han sido muy transparente en la elaboración del informe.
El GPT-4 de OpenIA es de código cerrado
El informe tiene un único autor y es OpenAI, esto quiere decir que la compañía no ha revelado que usó para entrenar este nuevo modelo, ni como lo hizo. Tampoco se ha podido saber cuales han sido los costos de hardware y energía que han necesitado para su creación.
La razón de esto ha sido el ambiente competitivo que existe actualmente y por motivos de seguridad ya que, consideran que de revelar esta información podría ser replicada por sus competidores. Lo cierto, es que este informe contiene muy pocos detalles sobre el proceso y el entrenamiento del mismo.
Se pudo ver que en la segunda página del informe se habla un poco del alcance y las limitaciones existentes. Asimismo, han señalado que, a pesar de brindar más datos sobre las capacidades, no se revelarían detalles internos del desarrollo del modelo para no facilitarle el trabajo de copia a sus rivales.
Últimas Noticias de Tecnología
- Acabamos de descubrir Riffusion; una IA que compone canciones enteras y podría revolucionar la industria musical
- ¡Revolucionario! Utilizan IA para crear a Abaucin, un antibiótico altamente efectivo contra las superbacterías
- ¡Sorprendente! Desarrollan nuevo modelo de IA que puede identificar materiales en imágenes que revolucionará la robótica
- ¡Increíble! Nueva Inteligencia Artificial detecta ataques cardíacos con precisión nunca antes vista
- ChatGPT estrena nuevo "superpoder" que te permitirá hacer cosas insanas si sabes cómo usarlo bien
SÍGUENOS EN 👉 YOUTUBE TV
Todo esto ha hecho que el lanzamiento del GPT-4 sea el más secreto de la compañía desde su fundación. Sin embargo, algunos expertos en el tema consideran que esta nueva postura por parte de OpenAI pueda afectar la seguridad de estos modelos ya que, al no existir una transparencia total, entonces pierden la capacidad de ser auditados por otras organizaciones o expertos independientes.
Según Ilya Sutskever, uno de los cofundadores de OpenAI ha opinado todo lo contrario ya que, cree que este tipo de modelos puedan causar mucho daño a medida que sus capacidades mejoras, por lo que tiene mucho sentido que no se quiera desvelar información del desarrollo para evitar que algunos actores malintencionados busque aprovecharse de ello.
“Teniendo en cuenta el panorama competitivo y las implicaciones para la seguridad de modelos a gran escala como lo es el GPT-4, este informe no contiene más detalles sobre la arquitectura, el hardware, el cálculo de entrenamiento, la construcción del conjunto de datos, el método de entrenamiento y más aspectos similares”
Ilya Sutskever, uno de los cofundadores de OpenAI
Además, Ilya Sutskever ha asegurado que muchas empresas competitivas quieren hacer lo mismo ahí afuera, por lo que cree que esta nueva medida por parte de OpenAI es muy madura al querer cuidar uno de sus principales productos. Es así, como la compañía ha pasado de compartir los conocimientos como en año anteriores a tener un enfoque más proteccionista en sus avances.
Sutskever también ha mencionado que OpenAI había estado equivocado este tiempo, por lo que han tenido que hacer un cambio total. En el pasado compartieron mucha información sobre sus modelos. Es así, como el cofundador de la empresa considera que, si la inteligencia artificial es potente, entonces no tiene ningún sentido abrir el código fuente.
“Es muy probable que dentro de unos años la mayoría de empresas entiendan que la inteligencia artificial de código abierto no es una buena idea para nadie, las mismas deben trabajarse de forma secreta y cerrada”
Ilya Sutskever, uno de los cofundadores de OpenAI
Lo cierto es que el lanzamiento del GPT-4 es una de las últimas armas de OpenAI en la carrera de inteligencia artificial con otras empresas como Google, Microsoft o Meta, quien recientemente acaba de lanzar LLaMA, un competidor de código abierto que está disponible para instalar en los ordenadores.
Por otro lado, Google también anunció el pasado miércoles que su modelo de lenguaje PaLM lanzaría una API para que pueda ser usada por las empresas y desarrolladores. Microsoft no se ha quedado atrás y ha sido así cómo ha realizado una gran cantidad de despidos de su equipo de IA y sigue su apuesta por los productos de OpenAI.
I think we can call it shut on ‘Open’ AI: the 98 page paper introducing GPT-4 proudly declares that they’re disclosing *nothing* about the contents of their training set. pic.twitter.com/dyI4Vf0uL3
— Ben Schmidt / @benmschmidt@vis.social (@benmschmidt) March 14, 2023