Anuncios
U.S. markets open in 6 hours 54 minutes
  • F S&P 500

    5,545.00
    +8.00 (+0.14%)
     
  • F Dow Jones

    39,531.00
    +5.00 (+0.01%)
     
  • F Nasdaq

    20,020.25
    +48.00 (+0.24%)
     
  • E-mini Russell 2000 Index Futur

    2,045.80
    +0.90 (+0.04%)
     
  • Petróleo

    81.32
    +0.49 (+0.61%)
     
  • Oro

    2,322.60
    -8.20 (-0.35%)
     
  • Plata

    28.85
    -0.01 (-0.05%)
     
  • dólar/euro

    1.0702
    -0.0014 (-0.13%)
     
  • Bono a 10 años

    4.2380
    -0.0100 (-0.24%)
     
  • Volatilidad

    12.84
    -0.49 (-3.68%)
     
  • dólar/libra

    1.2682
    -0.0005 (-0.04%)
     
  • yen/dólar

    159.8370
    +0.2030 (+0.13%)
     
  • Bitcoin USD

    61,613.62
    +511.80 (+0.84%)
     
  • CMC Crypto 200

    1,277.91
    -5.88 (-0.46%)
     
  • FTSE 100

    8,247.79
    -33.76 (-0.41%)
     
  • Nikkei 225

    39,667.07
    +493.92 (+1.26%)
     

Experto en Inteligencia Artificial lanzó un preocupante diagnóstico sobre su uso: “Están siendo poco prudentes”

La IA preocupa a los expertos del rubro tecnológico
La IA preocupa a los expertos del rubro tecnológico - Créditos: @Shutterstock

La explosión de los modelos de inteligencia artificial generativa, capaces de “conversar” y crear textos, imágenes o música a partir de datos existentes, hizo que más de 5.500 expertos de todo el mundo hayan pedido una pausa, pero ¿por qué ahora?

El ritmo al que avanza esta tecnología preocupa, hay que repensarla. Encabezados por Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal, en Canadá, y Stuart Russell, de la Universidad de California en Berkeley, Estados Unidos, los expertos solicitan en una carta a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de inteligencia artificial (IA) más potentes que ChatGPT-4 (el último modelo de IA generativa de la empresa OpenAI).

Así perdió un trabajo de locutor por una IA: “Vamos camino de que el factor humano desaparezca”

PUBLICIDAD

Entre los firmantes hay varios españoles. Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC), y Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT), quienes coinciden en que no se han tomado “las precauciones necesarias” antes de trasladar masivamente esta IA a la ciudadanía. Sierra, en declaraciones a EFE, admite tener “una preocupación creciente por esta especie de carrera armamentística” en la que están las empresas tecnológicas. No solo es OpenIA la que está desarrollando modelos de IA generativa, también Google, con Bard, o Meta con LLaMa.

No se trata de catastrofismo

No se trata de catastrofismo, dice Sierra, sino que “hay compañías que han invertido mucho dinero, quieren monetizar lo que han hecho y están en la batalla por ver quién se lleva el trozo más grande del pastel”, pero en “este proceso están siendo poco prudentes”.

El boom del ChatGP: Los inversores, enloquecidos con la inteligencia artificial
El boom del ChatGP: Los inversores, enloquecidos con la inteligencia artificial - Créditos: @shutterstock

Falta evaluación y sin ella no sabemos qué consecuencias puede tener esta IA, afirma el experto del CSIC, quien lo compara con el proceso de investigación y aprobación de un medicamento; las agencias reguladoras tardan años en aprobarlos y solo tras la superación de las tres fases de los ensayos clínicos (hay una cuarta de farmacovigilancia).

“Las empresas están sucediendo sus versiones a un ritmo de una cada mes -Open IA ya trabaja en ChatGPT-5-, poniendo a disposición de todo el mundo los nuevos modelos, y no de manera sectorial”, lamenta.

Jarillo-Herrero también está preocupado por el ritmo al que está avanzando esta IA y recuerda que hace algún tiempo también hubo interés en una moratoria sobre el uso de la técnica de edición genética CRISPR, que progresaba “mucho más deprisa de lo que la humanidad podía ‘digerir’, y algunas aplicaciones se podían ir de las manos”.

“Con tecnologías tan disruptivas es conveniente entender y anticipar las posibles consecuencias de su uso y regularlo”, señala a EFE. Ambos expertos coinciden en que la IA, también la generativa, puede proporcionar beneficios, pero, tal y como advierte Sierra, estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto, y que parezca que lo dijo un humano; ahí está el riesgo.

El papa Francisco a puro baile: las increíbles fotos con IA que muestran al Sumo Pontífice en plena fiesta

Basados en el aprendizaje automático, estos sistemas, de los que también preocupa la privacidad y el uso de datos personales, aprenden de los millones de textos, imágenes o vídeos publicados en internet, y los desarrolladores se quedan con los datos de las miles de “conversaciones” de los usuarios para mejorar los siguientes modelos.

El mayor temor, la desinformación

Jarillo-Herrero, profesor de Física en el MIT, concentra sus preocupaciones sobre todo en la desinformación. Imágenes hiperrealistas del Papa Francisco con un plumas blanco o de Donald Trump resistiéndose a un arresto son dos de los ejemplos que han circulado estos días en redes.

Guía rápida para saber todo sobre esta tecnología
Guía rápida para saber todo sobre esta tecnología

“Antes ya había mucha desinformación, pero era bastante fácil darse cuenta y distinguir para una persona educada. Ahora, con el uso de la IA, es mucho más fácil publicar/diseminar información que en una primera lectura parece real, pero que en realidad es falsa”, resume Jarillo-Herrero.

Reino Unido multa a TikTok por US$ 15,9 millones por utilizar datos de menores

Además, “la información/texto con el que se entrena esta IA contiene muchos ‘biases’ -sesgos-, los mismos que los humanos”, con lo cual las respuestas generadas contienen todo tipo de estereotipos falsos.