Anuncios
U.S. markets open in 8 hours 57 minutes
  • F S&P 500

    5,538.75
    +1.75 (+0.03%)
     
  • F Dow Jones

    39,507.00
    -19.00 (-0.05%)
     
  • F Nasdaq

    19,984.25
    +12.00 (+0.06%)
     
  • E-mini Russell 2000 Index Futur

    2,043.30
    -1.60 (-0.08%)
     
  • Petróleo

    81.22
    +0.39 (+0.48%)
     
  • Oro

    2,328.40
    -2.40 (-0.10%)
     
  • Plata

    28.92
    +0.05 (+0.18%)
     
  • dólar/euro

    1.0714
    -0.0002 (-0.02%)
     
  • Bono a 10 años

    4.2380
    -0.0100 (-0.24%)
     
  • Volatilidad

    12.84
    -0.49 (-3.68%)
     
  • dólar/libra

    1.2687
    +0.0000 (+0.00%)
     
  • yen/dólar

    159.8270
    +0.1930 (+0.12%)
     
  • Bitcoin USD

    61,777.73
    +483.61 (+0.79%)
     
  • CMC Crypto 200

    1,280.68
    +31.56 (+2.53%)
     
  • FTSE 100

    8,247.79
    -33.76 (-0.41%)
     
  • Nikkei 225

    39,683.92
    +510.77 (+1.30%)
     

El Secreto de la IA que se esconde detrás de ChatGPT, Gemini y otros modelos revela sus límites y nuestros miedos

Es una experiencia muy común cuando se utiliza una Inteligencia Artificial Generativa. En cierto momento se siente que se perdió fluidez en la comunicación. Hay que explicar todo de nuevo. El usuario se frustra y piensa que no escribió bien sus "prompts" (líneas de comando de texto donde ingresa contenido). 

Resulta que uno da por sentado que esta escribiendo para que nos responda una IA. Es algo natural porque cuando hablamos siempre damos por supuesto que el que nos escucha es el mismo sujeto. Incluso en el caso de las computadoras, cuando las usamos, es como que  "hablamos" (intercambiamos datos) con alguna aplicación, aunque éste sea este un simple procesador de texto. Se trata en definitiva, de un programa único con el que interaccionamos.

En el caso de la IA Generativa todo esto es muy distinto a lo que parece. Las IA se basan en un modelo que fue entrenado para captar el lenguaje natural. No solo saben escribir bien sino que también nos entienden y por eso nos pueden responder. Para hacer eso tienen que captar el contexto, no es lo mismo hablarle a un amigo que a un padre; en cada situacion hay un montón de contextos embebidos por lo cual nos adaptamos y ya hablamos de forma tal que nos entiendan.

Con una IA Generativa hay que tratar de explicitar mas los contextos. Sin embargo cuando estamos avanzando y ya nos entendemos, de golpe pareciera que hay que explicar todo de nuevo. ¿Qué paso?

Resulta que ese núcleo entrenado no es con el que estamos hablando. Es sólo una copia de él. No hay algo así como una única IA central que se llame ChatGPT, Gemini o Copilot, por mencionar a las más populares. Hablamos con lo que se denomina una instancia de ella. Se trata entonces de una copia de ese núcleo que comienza a hablar con nosotros. Y, ¿Por qué hacen eso?

PUBLICIDAD

Por dos motivos principales. En primer lugar hay un tema de infraestructura. Los fabricantes no revelan los detalles, y las tecnologías evolucionan todo el tiempo. Pero por lo general cada instancia de ese núcleo principal atiende a unos 100 usuarios. Esto tiene que ver con cómo se optimizan los recursos del centro de datos, o sea de la nube que nos está proveyendo el servicio. 

Si hay mucha demanda, quizá porque un usuario esta realizando consultas muy complejas, ese núcleo soportará menos usuarios. Entonces se desconectara a otros (o a ese usuario en particular), y aparecerá otro núcleo, o sea otra IA a proveer el servicio. El tema es que jamás nos avisarán eso. Simplemente se apagó la IA con la que estabamos hablando (se apagó aquí es algo más contundente al menos desde un extremo filosófico) y ahora estamos hablando con su clon. Pero no nos dicen nada, no hay un cartel que aparezca que se renovó la IA.

Todo eso lleva a que la nueva IA deba ir hacia atrás para tratar de entender de qué se estaba hablando y respondernos. Pero muchas veces no lo hace bien, y lo notamos. Tenemos la sensación de que estamos hablando con otro "bicho". 

El segundo motivo es algo más oscuro. Los fabricantes no conocen la tecnología que están creando. No porque no quieran se trata de algo nuevo y no es fácil predecir qué va a pasar. Se sabía testear software, y eso ya es algo muy difícil, por eso siempre salen actualizaciones, ningún software sale perfecto. Pero es mucho más dificil testear la IA que se acaba de inventar. El software tiene más de sesenta años de experiencia como para que hayan desarrollado diversas metodologías de testeo. 

En el software en definitiva lo que pasa es que se cuelga o que da alguna respuesta incorrecta. En el caso de las IA es algo más complejo: se trata de algo que está aprendiendo del usuario. Se esta enriqueciendo con cada usuario con el interacciona. Es imposible para ningún fabricante preveer que puede aprender de 7 mil millones de personas. Ya lo sería con uno solo. 

Entonces por un lado aperecen usuarios que en la interacción con la IA la van reentrenando para que les diga cosas que no debiera hacer como fabricar un arma. Y por el otro si todas esas interacciones se llevasen a un núcleo principal este se degradaría haría cosas no previsibles. Ya es muy dificil prever lo que hace la IA original, la entrenada por el fabricante. De hecho, tambien es imposible para la IA entrenada original prever que hará si esta permanece demasiado en el tiempo. Entonces la decisión fue que no vivan mucho. Se hacen instancias de la principal que además no puedan vivir demasiado tiempo. 

Por lo tanto aún si no hay mucha demanda del centro de datos, la IA con la que hablamos desaparecerá. Esa con la que estábamos empatizando ya no estará más. Y nosotros deberemos comenzar de nuevo.