Anuncios
U.S. markets closed
  • S&P 500

    5,099.96
    +51.54 (+1.02%)
     
  • Dow Jones

    38,239.66
    +153.86 (+0.40%)
     
  • Nasdaq

    15,927.90
    +316.14 (+2.03%)
     
  • Russell 2000

    2,002.00
    +20.88 (+1.05%)
     
  • Petróleo

    83.66
    +0.09 (+0.11%)
     
  • Oro

    2,349.60
    +7.10 (+0.30%)
     
  • Plata

    27.23
    -0.13 (-0.47%)
     
  • dólar/euro

    1.0699
    -0.0034 (-0.32%)
     
  • Bono a 10 años

    4.6690
    -0.0370 (-0.79%)
     
  • dólar/libra

    1.2494
    -0.0017 (-0.13%)
     
  • yen/dólar

    158.2960
    +2.7160 (+1.75%)
     
  • Bitcoin USD

    63,065.15
    -1,330.17 (-2.07%)
     
  • CMC Crypto 200

    1,304.48
    -92.06 (-6.59%)
     
  • FTSE 100

    8,139.83
    +60.97 (+0.75%)
     
  • Nikkei 225

    37,934.76
    +306.28 (+0.81%)
     

Los chatbots podrían estar ‘alucinando’ con más frecuencia de lo que muchos creen

Simon Hughes, investigador de Vectara, construyó un sistema que tiene como objetivo mostrar con qué frecuencia los chatbots “alucinan”. (Lyndon French/The New York Times).
Simon Hughes, investigador de Vectara, construyó un sistema que tiene como objetivo mostrar con qué frecuencia los chatbots “alucinan”. (Lyndon French/The New York Times).

SAN FRANCISCO — Cuando OpenAI, la empresa emergente de San Francisco, presentó su chatbot en línea ChatGPT a finales del año pasado, millones quedaron cautivados por la forma cuasi humana en que respondía preguntas, escribía poesía y conversaba sobre casi cualquier tema. Pero lo que la mayoría de la gente tardó en darse cuenta es que este nuevo tipo de chatbot a menudo inventa cosas.

Cuando Google presentó un chatbot similar varias semanas después, generó datos sin sentido sobre el telescopio espacial James Webb. Al día siguiente, el nuevo chatbot Bing de Microsoft ofreció todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish. Luego, en marzo, ChatGPT citó media docena de casos judiciales falsos mientras redactaba un escrito legal de 10 páginas que un abogado presentó ante un juez federal en Manhattan.

Ahora, una nueva empresa emergente llamada Vectara, fundada por exempleados de Google, está tratando de descubrir con qué frecuencia los chatbots se desvían de la verdad. La investigación de la compañía estima que incluso en situaciones diseñadas para evitar que esto suceda, los chatbots inventan información al menos el 3 por ciento de las veces y hasta un 27 por ciento.

Los expertos llaman a este comportamiento de chatbots “alucinación”. Puede que no sea un problema para las personas que juegan con chatbots en sus computadoras personales, pero es un asunto grave para cualquiera que use esta tecnología con documentos judiciales, información médica o datos comerciales confidenciales.

Debido a que estos chatbots pueden responder a casi cualquier solicitud de un número ilimitado de formas, no hay manera de determinar con total certeza la frecuencia con la que alucinan. “Habría que revisar toda la información del mundo”, dijo Simon Hughes, el investigador de Vectara que dirigió el proyecto.

Hughes y su equipo pidieron a estos sistemas que realizaran una tarea única y sencilla que se pudiera verificar fácilmente: resumir artículos de noticias. Incluso en estos casos, los chatbots inventaron información de forma persistente.

“Le proporcionamos al sistema entre 10 y 20 datos y le pedimos un resumen de esos datos”, comentó Amr Awadallah, director ejecutivo de Vectara y exejecutivo de Google. “Que el sistema todavía pueda introducir errores es un problema fundamental”.

Los investigadores sostienen que cuando estos chatbots realizan otras tareas —más allá del mero resumen— las tasas de alucinación pueden ser más altas.

Su investigación también mostró que las tasas de alucinación varían ampliamente entre las principales empresas de IA. Las tecnologías de OpenAI tuvieron la tasa más baja, alrededor del 3 por ciento. Los sistemas de Meta, propietaria de Facebook e Instagram, rondaron el 5 por ciento. El sistema Claude 2 ofrecido por Anthropic, un rival de OpenAI también con sede en San Francisco, superó el 8 por ciento. Un sistema de Google, Palmchat, tuvo la tasa más alta con un 27 por ciento.

Una portavoz de Anthropic, Sally Aldous, declaró: “Hacer que nuestros sistemas sean útiles, honestos e inofensivos, lo que incluye evitar alucinaciones, es uno de nuestros principales objetivos como empresa”.

Google se negó a hacer comentarios y OpenAI y Meta no respondieron de inmediato a las solicitudes de comentarios.

Con esta investigación, Hughes y Awadallah quieren mostrarle a la gente que debe tener cuidado con la información que proviene de los chatbots e incluso del servicio que Vectara vende a las empresas. Muchas compañías ofrecen actualmente este tipo de tecnología para uso empresarial.

Con sede en Palo Alto, California, Vectara es una empresa emergente de 30 personas respaldada por 28,5 millones de dólares en financiación inicial. Uno de sus fundadores, Amin Ahmad, exinvestigador de inteligencia artificial de Google, ha estado trabajando con este tipo de tecnología desde 2017, cuando se incubó dentro de Google y un puñado de otras empresas.

Así como el chatbot de búsqueda Bing de Microsoft puede recuperar información del internet abierto, el servicio de Vectara puede recuperar información de la colección privada de correos electrónicos, documentos y otros archivos de una empresa.

Los investigadores también esperan que sus métodos —los cuales comparten públicamente y seguirán actualizando— ayuden a estimular esfuerzos en toda la industria para reducir las alucinaciones. OpenAI, Google y otros están trabajando para minimizar el problema mediante una variedad de técnicas, aunque no está claro si podrán eliminarlo.

Los chatbots como ChatGPT funcionan con una tecnología llamada grandes modelos de lenguaje (LLM, por su sigla en inglés) que adquiere sus habilidades mediante el análisis de enormes cantidades de texto digital, incluidos libros, artículos de Wikipedia y registros de chat en línea. Al identificar patrones en todos esos datos, un LLM aprende a hacer una cosa en particular: adivinar la siguiente palabra en una secuencia de palabras.

Debido a que el internet está repleto de información falsa, estos sistemas repiten las mismas falsedades. También se basan en probabilidades: ¿cuál es la probabilidad matemática de que la siguiente palabra sea “dramaturgo”? De vez en cuando lo que adivinan es incorrecto.

La nueva investigación de Vectara muestra cómo puede suceder esto. Al resumir artículos de noticias, los chatbots no repiten falsedades de otras partes de internet. Simplemente, se equivocan en el resumen.

Amr Awadallah, director ejecutivo de Vectara, en su oficina en Palo Alto, California, el 31 de octubre de 2023. (Cayce Clifford/The New York Times).
Amr Awadallah, director ejecutivo de Vectara, en su oficina en Palo Alto, California, el 31 de octubre de 2023. (Cayce Clifford/The New York Times).

Empresas como OpenAI, Google y Microsoft han desarrollado formas de mejorar la precisión de sus tecnologías. Por ejemplo, OpenAI intenta perfeccionar su tecnología con observaciones de evaluadores humanos, quienes califican las respuestas del chatbot, al separar las respuestas útiles y veraces de las que no lo son. Luego, utilizando una técnica llamada aprendizaje por refuerzo, el sistema pasa semanas analizando las calificaciones para comprender mejor qué es verdadero y qué es ficción.

Sin embargo, los investigadores advierten que las alucinaciones de los chatbots no son un problema fácil de resolver. Debido a que los chatbots aprenden de patrones en los datos y operan con base en probabilidades, se comportan de maneras no deseadas al menos en algunas ocasiones.

Para determinar con qué frecuencia los chatbots alucinaban al resumir artículos de noticias, los investigadores de Vectara utilizaron otro gran modelo de lenguaje para verificar la precisión de cada resumen. Solo así se podía comprobar con eficacia un número tan grande de resúmenes.

Pero James Zou, profesor de Informática de la Universidad de Stanford, dijo que este método conlleva una advertencia. El modelo de lenguaje que realiza la verificación también puede cometer errores.

“El detector de alucinaciones podría ser engañado o alucinar él mismo”, afirmó.

c.2023 The New York Times Company