Anuncios
U.S. markets closed
  • F S&P 500

    5,440.75
    +2.25 (+0.04%)
     
  • F Dow Jones

    38,663.00
    -14.00 (-0.04%)
     
  • F Nasdaq

    19,640.50
    +38.00 (+0.19%)
     
  • E-mini Russell 2000 Index Futur

    2,037.40
    -3.60 (-0.18%)
     
  • Petróleo

    78.21
    -0.41 (-0.52%)
     
  • Oro

    2,320.30
    +2.30 (+0.10%)
     
  • Plata

    29.10
    +0.03 (+0.12%)
     
  • dólar/euro

    1.0742
    0.0000 (-0.00%)
     
  • Bono a 10 años

    4.2380
    -0.0570 (-1.33%)
     
  • Volatilidad

    11.94
    -0.10 (-0.83%)
     
  • dólar/libra

    1.2753
    -0.0008 (-0.06%)
     
  • yen/dólar

    157.8420
    +0.8600 (+0.55%)
     
  • Bitcoin USD

    66,698.76
    -577.24 (-0.86%)
     
  • CMC Crypto 200

    1,419.60
    +6.65 (+0.47%)
     
  • FTSE 100

    8,163.67
    -51.81 (-0.63%)
     
  • Nikkei 225

    38,912.87
    +192.40 (+0.50%)
     

Salida de altos ejecutivos y fin del equipo de seguridad: ¿qué pasa en OpenAI, líder en inteligencia artificial?

Valora Analitik
Valora Analitik

Apenas días después del lanzamiento de su nuevo modelo de lenguaje GPT-4o, OpenAI volvió a los titulares, no por sus avances en la inteligencia artificial, sino por la salida de varios altos ejecutivos. También por la disolución del equipo dedicado a los términos a largo plazo de esta tecnología.

La cronología es la siguiente. El lunes 13 de mayo, la empresa dirigida por Sam Altman presentó GPT-4o, definiéndolo como “un paso hacia adelante en una interacción más natural humano – computador”.

Pese a la expectativa por los avances prometidos por GPT-4o (como la promesa de que las personas puedan mantener conversaciones con la IA), un día después, el 14 de mayo, Ilya Sutskever anunció su salida de OpenAI, empresa que cofundó y en la que se desempeñaba como jefe científico. El 17 de mayo, hizo lo mismo Jan Leike, quien era la cabeza del mencionado equipo de seguridad.

PUBLICIDAD

Sutskever y Leike son dos de los nombres de más alto perfil en terminar su relación laboral con OpenAI. Sin embargo, no son los únicos.

En los últimos meses, varios empleados han dejado la compañía, varios de ellos cuestionando las posturas comerciales y de desarrollo de la empresa. Fue el caso de Daniel Kokotajlo, miembro del equipo de seguridad, que salió asegurando que había “perdido confianza en el comportamiento responsable frente a la inteligencia artificial generativa (AGI)”.

Preguntas alrededor de las renuncias de Sutskever y Leike de OpenAI

Tanto Ilya Sutskever como Jan Leike anunciaron su salida de OpenAI a través de X (antes Twitter).

“La trayectoria de la compañía ha sido no menos que milagrosa. Y estoy seguro de que OpenAI construirá una inteligencia artificial generativa (AGI), que sea segura y benéfica”, dijo Sutskever. Y explicó que saldría de la compañía para emprender un proyecto personal.

Sin embargo, es de recordar que el exejecutivo lideró el intento de ‘golpe’ contra Sam Altman en noviembre del año pasado. En esa ocasión, Altman salió de la compañía durante tres días para ser restituido como CEO por la Junta Directiva que lo quiso sacar.

El episodio dejó ver rupturas entre los líderes de OpenAI respecto al manejo comercial y de seguridad de la inteligencia artificial. Precisamente, Leike fue más vocal respecto a estas cada vez más marcadas diferencias.

“Necesitamos con urgencia resolver cómo dirigiremos y controlaremos sistemas de IA mucho más inteligentes que nosotros. Me uní a OpenAI pensando que sería el mejor lugar en el mundo para realizar esta investigación”, escribió en X.

Y agregó: “No obstante, he tenido desacuerdos con los líderes de OpenAI sobre las prioridades de la compañía”. A su juicio, escribió, la compañía debería estar enfocada en prepararse para las próximas generaciones de modelos, con particular énfasis en seguridad, monitorización, preparación, alineación e impacto social.

“En los últimos meses, mi equipo ha estado navegando contra el viento. A veces luchábamos por obtener recursos de cómputo y se estaba volviendo cada vez más difícil llevar a cabo esta investigación crucial. Construir máquinas más inteligentes que los humanos es una tarea inherentemente peligrosa”, sentenció.

OpenAI desmantela su equipo de seguridad

Leike, como se dijo, era el jefe del equipo de seguridad a largo plazo de OpenAI. Este equipo había sido anunciado en julio de 2023, pero, menos de un año después, se acabó, como lo reveló en un primer momento el medio especializado Wired.

Cuando se presentó este equipo, se indicó que 20 % del poder computacional de OpenAI se dedicaría a la iniciativa por un periodo de cuatro años.

Recomendado: Apple, en negociaciones con OpenAI para incorporar inteligencia artificial en iPhone

No obstante, “el equipo entero de OpenAI dedicado a los peligros de la inteligencia artificial ha sido reasignado o trasladado a otros grupos de investigación”, se lee en el reporte del pasado 17 de mayo (mismo día de la salida de Leike).

Leike, que también participó junto con Sutskever en el ‘golpe’ contra Altman en 2023, ha tenido una postura de mayor cautela. Sin embargo, según reportes de distintos medios, el equipo directivo que permanece en la empresa, liderado por Altman, apuestan por mayor velocidad en el desarrollo, aún sin certezas sobre la seguridad.

Así las cosas, se está a la expectativa del rumbo que tomará OpenAI para el desarrollo de la inteligencia artificial, cuando se han desbalanceado los contrapesos entre una y otra posición.