Anuncios
U.S. markets closed
  • S&P 500

    5,099.96
    +51.54 (+1.02%)
     
  • Dow Jones

    38,239.66
    +153.86 (+0.40%)
     
  • Nasdaq

    15,927.90
    +316.14 (+2.03%)
     
  • Russell 2000

    2,002.00
    +20.88 (+1.05%)
     
  • Petróleo

    83.66
    +0.09 (+0.11%)
     
  • Oro

    2,349.60
    +7.10 (+0.30%)
     
  • Plata

    27.51
    -0.12 (-0.43%)
     
  • dólar/euro

    1.0699
    -0.0034 (-0.32%)
     
  • Bono a 10 años

    4.6690
    -0.0370 (-0.79%)
     
  • dólar/libra

    1.2494
    -0.0017 (-0.13%)
     
  • yen/dólar

    158.2960
    +2.7160 (+1.75%)
     
  • Bitcoin USD

    63,819.51
    +851.20 (+1.35%)
     
  • CMC Crypto 200

    1,343.72
    -52.82 (-3.78%)
     
  • FTSE 100

    8,139.83
    +60.97 (+0.75%)
     
  • Nikkei 225

    37,934.76
    +306.28 (+0.81%)
     

Silicon Valley enfrenta la idea de que la ‘singularidad’ está aquí

Sam Altman, director ejecutivo de Open AI, en una audiencia de supervisión del Subcomité Judicial del Senado sobre inteligencia artificial en el Capitolio en Washington, el 16 de mayo de 2023. (Haiyun Jiang/The New York Times)
Sam Altman, director ejecutivo de Open AI, en una audiencia de supervisión del Subcomité Judicial del Senado sobre inteligencia artificial en el Capitolio en Washington, el 16 de mayo de 2023. (Haiyun Jiang/The New York Times)

SAN FRANCISCO — Durante décadas, Silicon Valley anticipó el momento en que una nueva tecnología llegaría y lo cambiaría todo. Uniría al ser humano y a la máquina, quizá para mejorar, pero tal vez también para empeorar y dividiría la historia en un antes y un después.

El nombre de este hito: la singularidad.

Podría ocurrir de varias maneras. Una posibilidad es que las personas añadieran la capacidad de procesamiento de una computadora a su propia inteligencia innata, convirtiéndose en versiones sobrealimentadas de sí mismas. O quizá las computadoras se vuelvan tan complejas que puedan pensar de verdad, creando un cerebro global.

PUBLICIDAD

En cualquier caso, los cambios serían drásticos, exponenciales e irreversibles. Una máquina superhumana con conciencia de sí misma podría diseñar sus propias mejoras más rápido que cualquier grupo de científicos, desencadenando una explosión de inteligencia. Siglos de progreso podrían suceder en años o incluso meses. La singularidad es una catapulta hacia el futuro.

La inteligencia artificial está sacudiendo la tecnología, los negocios y la política como nunca antes se había visto. Escuchar las extravagantes afirmaciones y salvajes aseveraciones que salen de Silicon Valley parece indicar que el paraíso virtual prometido durante tanto tiempo por fin está al alcance de la mano.

El director ejecutivo de Google, Sundar Pichai, que es habitualmente discreto, califica a la inteligencia artificial como algo “más profundo que el fuego, la electricidad o cualquier cosa que hayamos hecho en el pasado”. Reid Hoffman, un inversor multimillonario, dice: “El poder de hacer cambios positivos en el mundo está a punto de recibir el mayor impulso que ha tenido nunca”. Y el cofundador de Microsoft, Bill Gates, proclama que la IA “cambiará la manera en que la gente trabaja, aprende, viaja, recibe asistencia sanitaria y se comunica”.

El frenesí en torno a la inteligencia artificial puede estar dando paso al tan esperado momento en que la tecnología se vuelva salvaje. O tal vez sea la exageración lo que está fuera de control. (Zach Meyer/The New York Times)
El frenesí en torno a la inteligencia artificial puede estar dando paso al tan esperado momento en que la tecnología se vuelva salvaje. O tal vez sea la exageración lo que está fuera de control. (Zach Meyer/The New York Times)

La IA es la última novedad de Silicon Valley: trascendencia a la carta.

Sin embargo, hay un giro oscuro. Es como si las empresas tecnológicas introdujeran los vehículos autónomos con la advertencia de que podrían explotar antes de que llegues a Walmart.

“La llegada de la inteligencia artificial general se llama la singularidad porque es muy difícil predecir lo que ocurrirá después”, explicó Elon Musk, quien dirige Twitter y Tesla, a CNBC el mes pasado. Dijo que creía que se produciría “una era de abundancia”, pero que había “alguna posibilidad” de que “destruya a la humanidad”.

El más grande simpatizante de la IA en la comunidad tecnológica es Sam Altman, director ejecutivo de OpenAI, la empresa emergente que provocó el frenesí actual con su chatbot ChatGPT. Dice que la IA será “la mayor fuerza para el empoderamiento económico y para que mucha gente se haga rica que hayamos visto jamás”.

Pero también dice que Musk, un crítico de la IA que también creó una empresa para desarrollar interfaces cerebro-computadora, podría tener razón.

El mes pasado, Altman firmó una carta abierta publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro, en la que dijo que “mitigar el riesgo de extinción causada por la IA debe ser una prioridad mundial” y que esta se encuentra a la altura de “las pandemias y la guerra nuclear”. Entre los signatarios también figuran colegas de Altman en OpenAI e informáticos de Microsoft y Google.

Las raíces de la trascendencia

Las raíces intelectuales de la singularidad se remontan a John von Neumann, informático pionero que en la década de 1950 hablaba de cómo “el progreso siempre acelerado de la tecnología” daría lugar a “alguna singularidad esencial en la historia de la raza”.

Irving John Good, matemático británico que ayudó a descifrar el dispositivo alemán Enigma en Bletchley Park durante la Segunda Guerra Mundial, también fue un influyente defensor. “La supervivencia del hombre depende de la pronta construcción de una máquina ultrainteligente”, escribió en 1964. El director Stanley Kubrick consultó a Good para la creación de HAL, la computadora benigna que se convierte en un ente malévolo en “2001: Odisea del espacio”, un ejemplo temprano de las porosas fronteras entre la informática y la ciencia ficción.

Hans Moravec, profesor adjunto del Instituto de Robótica de la Universidad Carnegie Mellon, pensaba que la IA no solo sería una bendición para los vivos: también los muertos serían recuperados con la singularidad. “Tendríamos la oportunidad de recrear el pasado e interactuar con él de manera real y directa”, escribió en el libro “Mind Children: The Future of Robot and Human Intelligence”.

La innovación que alimenta hoy el debate sobre la singularidad es el gran modelo lingüístico, el tipo de sistema de IA que impulsa los chatbots. Inicia una conversación con uno de estos sistemas y podrás generar respuestas rápidas, coherentes y, a menudo, bastante esclarecedoras.

“Cuando haces una pregunta, estos modelos interpretan lo que significa, determinan lo que debería significar su respuesta y luego, lo traducen en palabras: si eso no es una definición de inteligencia general, ¿qué lo es?”, afirma Jerry Kaplan, un veterano empresario de IA y autor del libro “Inteligencia artificial: lo que todo el mundo debe saber”.

Kaplan se mostró escéptico ante maravillas tan anunciadas como los vehículos autónomos y las criptomonedas. Se acercó al último auge de la IA con las mismas dudas, pero aseguró que lo habían convencido.

“Si esto no es ‘la singularidad’, en efecto es una singularidad: un paso tecnológico transformador que va a acelerar ampliamente un montón de arte, ciencia y conocimiento humano y creará algunos problemas”, afirmó.

Los críticos replican que incluso los impresionantes resultados de esta tecnología distan mucho de la enorme inteligencia global que promete la singularidad. Parte del problema a la hora de separar con precisión el bombo publicitario de la realidad es que los motores que impulsan esta tecnología se están ocultando. OpenAI, que comenzó como una organización sin fines de lucro que utilizaba código fuente abierto, ahora es una empresa con fines de lucro que, según los críticos, es en realidad una caja negra. Google y Microsoft también ofrecen una visibilidad limitada.

Vida eterna, ganancias eternas

En Washington, Londres y Bruselas, los legisladores se agitan ante las oportunidades y los problemas de la IA, y empiezan a hablar de regulación. Altman está de gira, tratando de desviar las primeras críticas y de promover OpenAI como el pastor de la singularidad.

Esto incluye una apertura a la regulación, pero no está claro cómo sería exactamente. Por lo general, Silicon Valley opina que los gobiernos son demasiado lentos y estúpidos para supervisar los rápidos avances tecnológicos.

“No hay nadie en el gobierno que pueda hacerlo bien”, señaló Eric Schmidt, exdirector ejecutivo de Google, en una entrevista con “Meet the Press” el mes pasado, argumentando a favor de la autorregulación de la IA. “Pero la industria puede, a grandes rasgos, hacerlo bien”.

La IA, al igual que la singularidad, ya se describe como irreversible. “Detenerla requeriría algo así como un régimen de vigilancia global e incluso eso no está garantizado que funcione”, escribieron Altman y algunos de sus colegas el mes pasado. Si Silicon Valley no lo logra, añadieron, lo harán otros.

De lo que menos se habla es de los enormes beneficios que puede reportar la teletransformación del mundo. A pesar de todo lo que se dice acerca de que la IA es una máquina generadora de riqueza ilimitada, los que se están enriqueciendo son los que ya son ricos.

Microsoft ha visto dispararse su capitalización bursátil en medio billón de dólares este año. Nvidia, fabricante de chips que ejecutan sistemas de IA, se convirtió hace poco en una de las empresas públicas estadounidenses más valiosas al afirmar que la demanda de esos chips se había disparado.

“La IA es la tecnología que el mundo siempre ha querido”, tuiteó Altman.

c.2023 The New York Times Company