Anuncios
U.S. markets open in 4 hours 52 minutes
  • F S&P 500

    5,438.50
    +1.00 (+0.02%)
     
  • F Dow Jones

    38,579.00
    -26.00 (-0.07%)
     
  • F Nasdaq

    19,726.00
    +40.50 (+0.21%)
     
  • E-mini Russell 2000 Index Futur

    2,030.70
    +1.70 (+0.08%)
     
  • Petróleo

    78.76
    +0.31 (+0.40%)
     
  • Oro

    2,335.60
    -13.50 (-0.57%)
     
  • Plata

    29.24
    -0.23 (-0.79%)
     
  • dólar/euro

    1.0708
    -0.0001 (-0.01%)
     
  • Bono a 10 años

    4.2130
    -0.0250 (-0.59%)
     
  • Volatilidad

    13.09
    +0.43 (+3.40%)
     
  • dólar/libra

    1.2672
    -0.0014 (-0.11%)
     
  • yen/dólar

    157.6210
    +0.2980 (+0.19%)
     
  • Bitcoin USD

    65,983.23
    -268.49 (-0.41%)
     
  • CMC Crypto 200

    1,387.58
    -0.58 (-0.04%)
     
  • FTSE 100

    8,158.21
    +11.35 (+0.14%)
     
  • Nikkei 225

    38,102.44
    -712.12 (-1.83%)
     

Un conocedor de la industria impulsa una alternativa abierta a la inteligencia artificial de las grandes empresas tecnológicas

Ali Farhadi, director ejecutivo del Instituto Allen para la Inteligencia Artificial en Seattle, en la oficina el 13 de octubre de 2023. (Chona Kasinger/The New York Times)
Ali Farhadi, director ejecutivo del Instituto Allen para la Inteligencia Artificial en Seattle, en la oficina el 13 de octubre de 2023. (Chona Kasinger/The New York Times)

Ali Farhadi no es ningún rebelde del sector tecnológico.

El experto informático de 42 años es un investigador muy respetado, un profesor de la Universidad de Washington y el fundador de una empresa emergente que adquirió Apple, donde trabajó hasta hace cuatro meses.

Sin embargo, Farhadi, quien en julio se convirtió en el director ejecutivo del Instituto Allen para la Inteligencia Artificial, está proponiendo una “apertura radical” para democratizar la investigación y el desarrollo en una nueva ola de inteligencia artificial que muchos consideran el avance tecnológico más importante en décadas.

El Instituto Allen comenzó una iniciativa ambiciosa para construir una inteligencia artificial de libre acceso que sirva de alternativa a los gigantes tecnológicos como Google y empresas emergentes como OpenAI. En un proceso industrial llamado código abierto, a otros investigadores se les permitirá examinar y utilizar este nuevo sistema y los datos que se le introduzcan.

PUBLICIDAD

La postura que adoptó el Instituto Allen, un influyente centro de investigación sin fines de lucro en Seattle, lo pone de lleno en un bando donde hay un debate encarnizado respecto a cuán abierta o cerrada debe ser la nueva inteligencia artificial. ¿La apertura de la llamada inteligencia artificial generativa, la cual impulsa chatbots como ChatGPT de OpenAI y Bard de Google, generaría más innovación y oportunidades? ¿O abriría la caja de Pandora del daño digital?

En el contexto de la inteligencia artificial generativa varían las definiciones del significado de “abierto”. Tradicionalmente, los proyectos de software han abierto el código “fuente” subyacente de los programas. Por lo tanto, cualquiera puede examinar el código, detectar errores y hacer sugerencias. Hay normas que determinan si se pueden realizar cambios.

Una oficina del Instituto Allen para la Inteligencia Artificial, que se abrevia a sí mismo como AI2, en Seattle, 13 de octubre de 2023. (Chona Kasinger/The New York Times)
Una oficina del Instituto Allen para la Inteligencia Artificial, que se abrevia a sí mismo como AI2, en Seattle, 13 de octubre de 2023. (Chona Kasinger/The New York Times)

Así operan los populares proyectos de código abierto detrás de herramientas de uso generalizado como el sistema operativo Linux, el servidor web Apache y el navegador Firefox.

Sin embargo, la tecnología de la inteligencia artificial generativa involucra algo más que código. Los modelos de inteligencia artificial se entrenan y ajustan con una ronda tras otra de enormes cantidades de datos.

Los expertos advierten que, sin importar cuán buenas sean las intenciones del Instituto Allen, el camino que está tomando es arriesgado por naturaleza.

“Las decisiones sobre la apertura de los sistemas de inteligencia artificial son irreversibles y es probable que sean de las más trascendentales de nuestra época”, afirmó Aviv Ovadya, investigador del Centro Berkman Klein de Internet y Sociedad de la Universidad de Harvard. En su opinión, se necesitan acuerdos internacionales para determinar cuál tecnología no debe lanzarse al público.

La inteligencia artificial generativa es poderosa, pero a menudo impredecible. Puede escribir correos electrónicos, poesía y trabajos académicos en un instante y responder a cualquier pregunta imaginable con una fluidez similar a la humana. No obstante, también tiene una tendencia perturbadora a inventar cosas, un fenómeno que los investigadores llaman “alucinaciones”.

Las principales fabricantes de chatbots —OpenAI, con respaldo de Microsoft, y Google— han mantenido cerrada su tecnología más nueva, sin revelar cómo se entrenan y ajustan sus modelos de inteligencia artificial. En particular, Google tenía un largo historial de publicar sus investigaciones y compartir su software de inteligencia artificial pero, conforme se ha dado el desarrollo de Bard, es cada vez más común que reserve su tecnología para sí misma.

Según las empresas, este criterio reduce el riesgo de que los criminales se apropien de la tecnología para seguir inundando internet con desinformación y estafas o para involucrarse en conductas más peligrosas.

Los partidarios de los sistemas abiertos reconocen los riesgos, pero afirman que la mejor solución para combatirlos es tener más gente inteligente trabajando.

Cuando Meta lanzó este año un modelo de inteligencia artificial llamado LLaMA (la sigla en inglés de Large Language Model Meta AI), creó revuelo. Farhadi alabó la iniciativa de Meta, pero no cree que abarque lo suficiente.

“Su planteamiento en esencia es: ‘Hice algo de magia. No te voy a decir cuál es’”, afirmó.

Farhadi propone revelar los detalles técnicos de los modelos de inteligencia artificial, los datos con los que se entrenaron, los ajustes que se hicieron y las herramientas utilizadas para evaluar su comportamiento.

El Instituto Allen ha dado un primer paso al publicar un enorme conjunto de datos para entrenar modelos de inteligencia artificial. Está conformado de datos de acceso público provenientes de internet, libros, revistas académicas y código de computadora. Se ha depurado el conjunto de datos para eliminar información personal identificable y lenguaje tóxico, como frases racistas y obscenas.

En la edición, se toman decisiones. ¿Eliminar lenguajes que se consideran tóxicos disminuirá la capacidad de un modelo para detectar el discurso de odio?

Según Farhadi, la colección de datos del Instituto Allen es el mayor conjunto de datos abiertos disponible en la actualidad. Desde su publicación en agosto, se ha descargado más de 500.000 veces en Hugging Face, un sitio de recursos y colaboración de código abierto sobre inteligencia artificial.

En el Instituto Allen, el conjunto de datos se utilizará para entrenar y realizar ajustes a un programa grande de inteligencia artificial generativa, OLMo (la sigla en inglés de Open Language Model), el cual se lanzará este año o a inicios del próximo.

Son pocos los modelos básicos de inteligencia artificial generativa, del tamaño de los que tiene en mente el Instituto Allen, que están disponibles al público. Entre ellos se encuentran LLaMA de Meta y Falcon, un proyecto con respaldo del gobierno de Abu Dabi, Emiratos Árabes Unidos.

El Instituto Allen parece un hogar lógico para un gran proyecto de inteligencia artificial. “Está bien financiado, pero opera con valores académicos y tiene un historial de ayudar al avance de la ciencia abierta y la tecnología de la inteligencia artificial”, aseguró Zachary Lipton, experto informático de la Universidad Carnegie Mellon.

El Instituto Allen colabora con otros para impulsar su visión abierta. Este año, la Fundación Mozilla, una organización sin fines de lucro, destinó 30 millones de dólares a una empresa emergente, http://Mozilla.ai, para crear software de código abierto que al principio se centrará en desarrollar herramientas que rodeen a los motores de inteligencia artificial abiertos, como el del Instituto Allen, con el fin de que sean más fáciles de usar, monitorear y desplegar.

La Fundación Mozilla, creada en 2003 para promover que internet siga siendo un recurso global abierto para todos, teme una mayor concentración del poder tecnológico y económico.

“Un conjunto diminuto de actores, todos ellos en la costa oeste de Estados Unidos, está tratando de controlar el espacio de la inteligencia artificial generativa incluso antes de que prospere”, comentó Mark Surman, presidente de la Fundación.

Farhadi y su equipo han invertido tiempo en intentar controlar los riesgos de su estrategia de apertura. Por ejemplo, están trabajando en mecanismos para evaluar la conducta de un modelo en la fase de entrenamiento y así evitar ciertas acciones como la discriminación racial y la fabricación de armas biológicas.

Farhadi considera que las barreras en los grandes modelos de chatbot son curitas que los hackers astutos pueden arrancar con facilidad. “Mi argumento es que no debemos permitir que ese tipo de conocimiento se codifique en estos modelos”, afirmó.

Según Farhadi, la gente hará cosas malas con esta tecnología, como lo ha hecho con todas las tecnologías poderosas y agregó que la tarea de la sociedad es comprender y gestionar mejor los riesgos, por eso asegura que la apertura es la mejor apuesta para encontrar seguridad y compartir las oportunidades económicas.

“La regulación no resolverá esto por sí sola”, opinó Farhadi.

c.2023 The New York Times Company