DeepMind de Google dice que está a punto de lograr una IA a nivel humano
La inteligencia artificial a nivel humano está cerca de lograrse finalmente, según un investigador principal de la división DeepMind AI de Google.
El doctor Nando de Freitas dijo que “el juego ha terminado” en la búsqueda para hacer realidad la inteligencia artificial general (AGI) que comenzó hace décadas, después de que DeepMind presentara un sistema de IA capaz de completar una amplia gama de tareas complejas, desde apilar bloques hasta escribir poesía.
Descrito como un “agente generalista”, el nuevo Gato AI de DeepMind solo necesita ampliarse para crear una inteligencia artificial capaz de rivalizar con la inteligencia humana, aseguró el doctor De Freitas.
En respuesta a un artículo de opinión escrito en The Next Web que afirmaba que “los humanos nunca llegarían a la AGI”, el director de investigación de DeepMind señaló que, en su opinión, ese resultado es inevitable.
“¡Todo se trata de la escala ahora! ¡El juego ha terminado!” escribió en Twitter.
“Se trata de hacer que estos modelos sean más grandes, más seguros, más eficientes informáticamente, más rápidos en el muestreo, con una memoria más inteligente, más modalidades, datos innovadores, on/offline... Resolver estos desafíos es lo que generará la AGI”.
Cuando el investigador de aprendizaje automático Alex Dimikas le preguntó que tan lejos creía que Gato AI estaba de pasar una prueba de Turing real (una medida de inteligencia informática que requiere que un humano no pueda distinguir una máquina de otro humano), el doctor De Freitas respondió: “Todavía falta”.
Los principales investigadores de IA han advertido que la llegada de la AGI podría resultar en una catástrofe existencial para la humanidad. El profesor de la Universidad de Oxford Nick Bostrom especula que un sistema “superinteligente” que supere la inteligencia biológica podría hacer que los humanos sean reemplazados como la forma de vida dominante en la Tierra.
It’s funny to me that there are AI researchers out there who are still deeply convinced that AGI is not somewhat imminent, or even near term feasible, and they are even in the majority https://t.co/lmAQ6N6eny
— Joscha Bach (@Plinz) May 17, 2022
Una de las principales inquietudes sobre la llegada de un sistema AGI, capaz de autoenseñarse y volverse exponencialmente más inteligente que los humanos, es que sería imposible de apagar.
Mientras respondía más preguntas de parte de los investigadores de IA en Twitter, el doctor De Freitas dijo que “la seguridad es de suma importancia” al desarrollar la AGI.
“Probablemente es el problema más grande al que nos enfrentamos”, escribió. “Todos deberían estar pensando en ello. La falta de suficiente diversidad también me preocupa mucho”.
Someone’s opinion article. My opinion: It’s all about scale now! The Game is Over! It’s about making these models bigger, safer, compute efficient, faster at sampling, smarter memory, more modalities, INNOVATIVE DATA, on/offline, … 1/N https://t.co/UJxSLZGc71
— Nando de Freitas 🏳️🌈 (@NandoDF) May 14, 2022
Google, que adquirió DeepMind, con sede en Londres, en 2014, ya está trabajando en un “gran botón rojo” para mitigar los riesgos relacionados con una explosión de inteligencia.
En un artículo publicado en 2016 y titulado “Agentes interruptibles seguros”, los investigadores de DeepMind describieron un esbozo para evitar que la inteligencia artificial avanzada ignore los comandos de apagado.
“La interrumpibilidad segura puede ser útil para tomar el control de un robot que se está comportando inadecuadamente y que podría tener consecuencias irreversibles”, afirma el artículo.
“Si tal agente está operando en tiempo real bajo supervisión humana, de vez en cuando puede ser necesario que un operador humano presione el gran botón rojo para evitar que el agente continúe con una secuencia dañina de acciones (dañinas ya sea para el agente o para el ambiente) y llevar al agente a un estado más seguro”.