Anuncios
U.S. markets open in 2 hours 3 minutes
  • F S&P 500

    5,083.00
    +36.50 (+0.72%)
     
  • F Dow Jones

    38,249.00
    +180.00 (+0.47%)
     
  • F Nasdaq

    17,605.25
    +167.00 (+0.96%)
     
  • E-mini Russell 2000 Index Futur

    2,012.20
    +22.50 (+1.13%)
     
  • Petróleo

    79.37
    +0.37 (+0.47%)
     
  • Oro

    2,309.50
    -1.50 (-0.06%)
     
  • Plata

    26.57
    -0.18 (-0.67%)
     
  • dólar/euro

    1.0701
    -0.0017 (-0.16%)
     
  • Bono a 10 años

    4.5950
    -0.0910 (-1.94%)
     
  • Volatilidad

    14.95
    -0.44 (-2.86%)
     
  • dólar/libra

    1.2508
    -0.0016 (-0.13%)
     
  • yen/dólar

    154.9200
    -0.2610 (-0.17%)
     
  • Bitcoin USD

    58,287.23
    +728.64 (+1.27%)
     
  • CMC Crypto 200

    1,261.06
    -9.69 (-0.76%)
     
  • FTSE 100

    8,156.64
    +35.40 (+0.44%)
     
  • Nikkei 225

    38,236.07
    -37.98 (-0.10%)
     

¿Cuál es el siguiente paso en la inteligencia artificial?

Mustafa Suleyman recuerda el momento trascendental en el que comprendió el potencial de la inteligencia artificial. Era 2016 —época paleolítica para los estándares de la IA— y DeepMind, la empresa que había cofundado y que había sido adquirida por Google en 2014, había enfrentado su máquina de IA, AlphaGo, contra un campeón mundial de go, el juego de estrategia desconcertantemente difícil. AlphaGo realizó miles de permutaciones, despachando con rapidez al desventurado humano. Atónito, Suleyman entendió que la máquina tenía “percepciones aparentemente sobrehumanas”, dice en su libro sobre IA, “La ola que viene”.

El resultado ya no es sorprendente, pero las implicaciones sí lo son. Poco más de un año después de que el software ChatGPT de OpenAI ayudara a llevar la IA generativa a la conciencia pública, las empresas, los inversores y los reguladores están lidiando con cómo moldear la tecnología diseñada para superarlos. Los riesgos exactos de la tecnología aún se están debatiendo y aún no se han determinado las empresas que la liderarán. Sin embargo, hay un punto de acuerdo: la IA es transformadora. “A la gente le resulta muy difícil imaginar el nivel de innovación”, dijo Vinod Khosla, fundador de la firma de capital riesgo de Silicon Valley Khosla Ventures, que fue uno de los primeros inversores de OpenAI. “Elige un área: libros, películas, música, productos, oncología. Simplemente no se detiene”.

Si 2023 fue el año en que el mundo despertó a la IA, 2024 podría ser el año en el que se pondrán a prueba (y quizás se infrinjan) sus límites legales y técnicos. DealBook habló con expertos en inteligencia artificial sobre los efectos de este cambio en el mundo real y qué esperar el próximo año.

Los jueces y legisladores intervendrán cada vez más.

Es muy probable que la avalancha de regulaciones sobre IA de los últimos meses sea objeto de escrutinio. Eso incluye la orden ejecutiva del presidente Joe Biden de octubre, la cual, de ser ratificada por el Congreso, podría obligar a las empresas a garantizar que sus sistemas de inteligencia artificial no puedan utilizarse para fabricar armas biológicas o nucleares, incrustar marcas de agua en contenido generado por la IA y revelar los clientes extranjeros al gobierno.

En la Cumbre de Seguridad de la IA celebrada en el Reino Unido en noviembre, 28 países, incluida China —aunque no Rusia—, acordaron colaborar para prevenir “riesgos catastróficos”. Y en negociaciones maratónicas en diciembre, la Unión Europea redactó uno de los primeros intentos integrales del mundo para limitar el uso de la inteligencia artificial, el cual, entre otras disposiciones, restringe el reconocimiento facial y los ultrafalsos (“deepfakes”) y define cómo las empresas pueden usar la IA. El texto final deberá presentarse a principios de 2024 y los 27 países miembros del bloque esperan aprobarlo antes de las elecciones al Parlamento Europeo en junio.

Con eso, Europa podría terminar generando reglas globales de IA, al exigir que cualquier empresa que haga negocios en su mercado, de 450 millones de personas, coopere. “Les hace la vida más difícil a los innovadores”, dijo Matt Clifford, quien ayudó a organizar la cumbre sobre IA en el Reino Unido. “Tienen que considerar cumplir con una lista muy larga de cosas que preocupan a la gente en Bruselas”.

Hay muchas preocupaciones, incluyendo algunas sobre el potencial de la IA para remplazar una gran cantidad de empleos y reforzar los prejuicios raciales existentes.

Algunos temen saturar a las empresas de IA con regulaciones.

Clifford cree que las leyes existentes contra el fraude y la protección del consumidor hacen que algunas partes de la legislación europea, la Ley de IA, sean redundantes. Pero el principal arquitecto de la UE, Dragos Tudorache, afirmó que Europa “no aspiraba a ser un regulador global” y que mantuvo un estrecho diálogo con miembros del Congreso de Estados Unidos durante las negociaciones. “Estoy convencido de que debemos mantenernos sincronizados tanto como sea posible”, afirmó.

Los gobiernos tienen buenas razones para abordar la IA: incluso las herramientas simples pueden servir a propósitos oscuros. “El micrófono permitió tanto los congresos de Núremberg como a los Beatles”, escribió Suleyman, quien es actualmente director ejecutivo de Inflection AI, una empresa emergente que cofundó el año pasado con Reid Hoffman, cofundador de LinkedIn. Teme que la IA pueda volverse “incontenible e incontrolable” una vez que supere a los humanos. “El Homo technologicus podría acabar amenazado por su propia creación”.

Las capacidades de la IA se dispararán.

Es difícil determinar cuándo podría llegar ese punto de inflexión. Jensen Huang, cofundador y director ejecutivo de Nvidia, cuyo dominio de los chips de IA ha triplicado el precio de sus acciones desde el 1 de enero de 2023, dijo en la Cumbre DealBook a finales de noviembre que “hay un montón de cosas que todavía no podemos hacer”.

Khosla cree que el avance clave de la IA en 2024 será el “razonamiento”, el cual le permitirá a las máquinas producir resultados mucho más precisos, y que en 2025, “la IA le ganará en razonamiento a los miembros inteligentes de la comunidad”. Las máquinas de IA serán cada vez más capaces de trabajar a través de varios pasos lógicos y realizar pensamiento probabilístico, como identificar una enfermedad basándose en datos específicos, afirmó Khosla.

Billions in investments will be needed.

None of this will come cheap, and the question now is which companies will be able to build truly sustainable AI businesses. Of 175,072 AI patents filed between 2012 and 2022, more than half were filed in the past three years, according to Deutsche Bank. In 2024 and 2025, the bank predicts sharp increases in companies using AI for human resources, marketing, sales and product development. That is already happening: Legal firms, for example, have begun using AI-generated contracts, cutting out hours of work for lawyers. “The time is ripe for an explosion of AI innovation,” it predicted last May.

As those innovations roll out, fundraising has ramped up. The French AI startup Mistral AI — considered a European contender to OpenAI — raised more than $500 million in 2023. More than $200 million came from Silicon Valley venture capital giant Andreessen Horowitz in a funding round that valued Mistral, just seven months old, at $2 billion.

PUBLICIDAD

But that might not be enough to create a general-purpose AI system of the kind that powers ChatGPT and that Mistral has in mind. “It’s becoming clear the vast sums of money you need to be competitive,” Clifford said. “If you want to build a general-purpose model, it may be that the amount of capital needed is so great, it makes it very tricky for traditional venture capital.”

c.2023 The New York Times Company