Anuncios
U.S. markets open in 9 hours 28 minutes
  • F S&P 500

    5,539.50
    +2.50 (+0.05%)
     
  • F Dow Jones

    39,512.00
    -14.00 (-0.04%)
     
  • F Nasdaq

    19,988.25
    +16.00 (+0.08%)
     
  • E-mini Russell 2000 Index Futur

    2,044.00
    -0.90 (-0.04%)
     
  • Petróleo

    81.20
    +0.37 (+0.46%)
     
  • Oro

    2,329.30
    -1.50 (-0.06%)
     
  • Plata

    28.94
    +0.07 (+0.25%)
     
  • dólar/euro

    1.0711
    -0.0005 (-0.04%)
     
  • Bono a 10 años

    4.2380
    -0.0100 (-0.24%)
     
  • Volatilidad

    12.84
    -0.49 (-3.68%)
     
  • dólar/libra

    1.2686
    -0.0001 (-0.01%)
     
  • yen/dólar

    159.8480
    +0.2140 (+0.13%)
     
  • Bitcoin USD

    61,924.74
    +638.74 (+1.04%)
     
  • CMC Crypto 200

    1,283.89
    +34.77 (+2.78%)
     
  • FTSE 100

    8,247.79
    -33.76 (-0.41%)
     
  • Nikkei 225

    39,714.38
    +541.23 (+1.38%)
     

Expertos advierten de que la Inteligencia Artificial puede colapsar pronto

El aprendizaje de la IA a partir de contenidos generados por ella misma podría provocar el colapso del modelo y distorsiones de la realidad.

La Inteligencia Artificial puede colapsar, según advierten investigadores de universidades británicas. Foto: Getty Images.
La Inteligencia Artificial puede colapsar, según advierten investigadores de universidades británicas. Foto: Getty Images. (Yuichiro Chino via Getty Images)

La inteligencia artificial (IA) ha revolucionado las reglas del juego en numerosos campos, desde la sanidad al comercio minorista, pasando por el entretenimiento y el arte. Sin embargo, una nueva investigación sugiere que podríamos haber llegado a un punto de inflexión: ahora mismo, la IA aprende de los contenidos generados por ella misma y esto puede terminar generando un colapso.

Este problema de la IA es una serpiente que se come su propia cola y podría acabar bastante mal. Tal y como informa Genbeta, un grupo de investigación de distintas universidades del Reino Unido ha lanzado una advertencia sobre lo que denominan "colapso del modelo", un proceso degenerativo que podría separar por completo la IA de la realidad.

En un artículo titulado "The Curse of Recursion: Training on Generated Data Makes Models Forget", investigadores de las Universidades de Cambridge, Oxford, la Universidad de Toronto y el Imperial College de Londres explican que el colapso de los modelos se produce cuando "los datos generados acaban contaminando el conjunto de entrenamiento de la siguiente generación de modelos".

PUBLICIDAD

"Al ser entrenados con datos contaminados, entonces perciben erróneamente la realidad", escriben los autores. En otras palabras, los contenidos generados por IA que se publican en Internet podrían ser absorbidos y aprendidos por esos mismos sistemas de IA, lo que provocaría distorsiones e imprecisiones.

Los investigadores afirman que al igual que intentar copiar o clonar algo indefinidamente, estas prácticas, podrían dar lugar a más casos de colapso de modelos, creando un loop infinito de desinformación y contenido inútil.

Cómo evitar el colapso de los modelos de IA

¿Hay solución? Los autores dan una, pero es compleja. Dadas las graves implicaciones del colapso de los modelos, el acceso a la distribución original de los datos es fundamental.

"Los modelos de IA necesitan datos reales producidos por humanos para comprender y simular con precisión nuestro mundo", defienden los investigadores.

Según se puede leer en el documento, hay dos causas principales del colapso del modelo. La principal es el "error de aproximación estadística", que está relacionado con el número finito de muestras de datos. La secundaria es el "error de aproximación funcional", que se deriva del margen de error utilizado durante el entrenamiento de la IA que no está configurado correctamente. Estos errores pueden acumularse a lo largo de sus procesos de trabajo, provocando un efecto cascada de inexactitudes cada vez peores.

El artículo explica una "ventaja del primero" para el entrenamiento de modelos de IA. Si podemos mantener el acceso a la fuente original de datos generados por humanos, podríamos evitar un desplazamiento perjudicial de la distribución y, por tanto, el colapso del modelo.

Distinguir los contenidos generados por IA a escala es un reto de enormes proporciones que puede requerir un esfuerzo de coordinación titánico a nivel social, político y empresarial. Hay que ponerse de acuerdo en cuáles son las fuentes originales de datos, dar acceso a las IA y, de alguna manera, prevenir que aprendan contenido falso.

Tal y como destacan los autores, "en última instancia, la importancia de la integridad de los datos y la influencia de la aportación humana en la IA sólo es tan buena como los datos de los que se deriva, y la explosión de contenidos generados por IA podría ser un arma de doble filo para el sector".

La IA basada en contenidos generados por otras IA dará lugar a muchos sistemas muy capaces, pero "delirantes" advierten los científicos.

Se trata de un hecho de lo más irónico: nuestra "descendencia", las máquinas, cuando no aprenden de nosotros los humanos, se vuelven "delirantes".

Más noticias que te pueden interesar:

EN VÍDEO | Repercusiones de la IA en el mundo real