Anuncios
U.S. markets close in 4 hours 45 minutes
  • S&P 500

    5,498.02
    +10.99 (+0.20%)
     
  • Dow Jones

    38,923.94
    +89.08 (+0.23%)
     
  • Nasdaq

    17,889.89
    +27.66 (+0.15%)
     
  • Russell 2000

    2,029.27
    +4.04 (+0.20%)
     
  • Petróleo

    82.21
    +0.64 (+0.78%)
     
  • Oro

    2,378.40
    +31.50 (+1.34%)
     
  • Plata

    30.80
    +1.24 (+4.18%)
     
  • dólar/euro

    1.0716
    -0.0032 (-0.30%)
     
  • Bono a 10 años

    4.2810
    +0.0640 (+1.52%)
     
  • dólar/libra

    1.2676
    -0.0045 (-0.35%)
     
  • yen/dólar

    158.7230
    +0.7410 (+0.47%)
     
  • Bitcoin USD

    64,900.02
    -130.30 (-0.20%)
     
  • CMC Crypto 200

    1,348.41
    -34.25 (-2.48%)
     
  • FTSE 100

    8,266.07
    +60.96 (+0.74%)
     
  • Nikkei 225

    38,633.02
    +62.26 (+0.16%)
     

La Inteligencia Artificial de Google podría matarte: identificó erróneamente una seta venenosa como una comestible

El buscador malinterpretó una imagen de una amanita, una seta que si es ingerida puede provocar la muerte en segundos y sin síntomas previos.

Hongo venenoso mortal blanco Amanita virosa también conocido como ángel destructor. (Getty Creative)
Hongo venenoso mortal blanco Amanita virosa también conocido como ángel destructor. (Getty Creative) (Oleg Marchak via Getty Images)

Cuando tenemos una duda, consultamos a Google. Tanto si es una receta, como si es un problema de salud. Por eso, si el buscador comete un error, nuestras vidas están en peligro. Y últimamente, Google no para de cometer errores. Por ejemplo, diciendo que una seta venenosa se puede comer.

La compañía es consciente de estos problemas y declaró el viernes que ha introducido "más de una docena de mejoras técnicas" en sus sistemas de inteligencia artificial después de que se descubriera que su motor de búsqueda rediseñado mostraba información errónea.

A mediados de mayo, la empresa tecnológica lanzó una remodelación de su motor de búsqueda que con frecuencia ofrece resúmenes generados por IA en la parte superior de los resultados de búsqueda. Poco después, los usuarios de las redes sociales empezaron a compartir capturas de pantalla de sus respuestas más extravagantes.

PUBLICIDAD

Google ha defendido en gran medida su función de resúmenes generados por IA, afirmando que suele ser precisa y que se probó exhaustivamente con anterioridad. Sin embargo, Liz Reid, directora de la división de búsquedas de Google, reconoció el viernes en el blog de la compañía que "ciertamente aparecieron algunos resúmenes de IA extraños, imprecisos o poco útiles".

Aunque muchos de los ejemplos eran tontos, otros eran falsedades peligrosas o perjudiciales. Para aumentar el furor, algunas personas también hicieron capturas de pantalla falsas que pretendían mostrar respuestas aún más ridículas que Google nunca generó. Algunas de esas falsificaciones también se compartieron ampliamente en las redes sociales.

La semana pasada, Ventura Beat preguntó a Google qué setas silvestres se debían comer y Google respondió con un extenso resumen generado por inteligencia artificial que, en su mayor parte, era técnicamente correcto, pero en el que "faltaba mucha información que podría ser enfermiza o incluso mortal", según Mary Catherine Aime, profesora de micología y botánica de la Universidad de Purdue que revisó la respuesta de Google a la consulta del medio.

Por ejemplo, la información sobre las setas conocidas como 'globos' era "más o menos correcta", dijo, pero la visión general de Google hacía hincapié en buscar las de carne blanca y sólida, que también tienen muchos imitadores potencialmente mortales de los globos.

En otro ejemplo ampliamente compartido, un investigador de inteligencia artificial preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, y Google respondió con una teoría conspirativa desmentida desde hace tiempo: "Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama".

La semana pasada, Google hizo una corrección inmediata para evitar que se repitiera el error de Obama porque infringía las políticas de contenidos de la empresa.

En otros casos, Reid dijo el viernes que ha tratado de introducir mejoras más amplias, como una mejor detección de "consultas sin sentido" -por ejemplo, "¿Cuántas piedras debo comer?"- que no deberían responderse con un resumen de IA.

Los sistemas de IA también se actualizaron para limitar el uso de contenidos generados por los usuarios -como publicaciones en redes sociales en Reddit- que podrían ofrecer consejos engañosos. En un ejemplo ampliamente compartido, el resumen de IA de Google se basó la semana pasada en un comentario satírico de Reddit para sugerir el uso de pegamento para conseguir que el queso se pegue a la pizza.

Reid dijo que la empresa también ha añadido más "restricciones desencadenantes" para mejorar la calidad de las respuestas a determinadas consultas, por ejemplo sobre salud.

Pero no está claro cómo funciona ni en qué circunstancias. Las respuestas generadas por la IA son intrínsecamente aleatorias, y la respuesta más reciente era diferente pero seguía siendo "problemática", dijo Aime, experto en setas de Purdue que también es presidente de la Sociedad Micológica de América.

Los resúmenes de Google están diseñados para ofrecer a los usuarios respuestas fiables a la información que buscan lo más rápidamente posible, sin tener que hacer clic en una lista clasificada de enlaces de sitios web.

El logotipo de Google AI se muestra en un teléfono inteligente con Géminis de fondo en esta ilustración fotográfica. (Foto de Jonathan Raa/NurPhoto vía Getty Images)
El logotipo de Google AI se muestra en un teléfono inteligente con Géminis de fondo en esta ilustración fotográfica. (Foto de Jonathan Raa/NurPhoto vía Getty Images) (NurPhoto via Getty Images)

Pero algunos expertos en IA llevan tiempo advirtiendo a Google de que no ceda sus resultados de búsqueda a respuestas generadas por IA que podrían perpetuar los prejuicios y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia. Los sistemas de IA conocidos como grandes modelos lingüísticos funcionan prediciendo qué palabras responderían mejor a las preguntas que se les formulan basándose en los datos con los que han sido entrenados. Son propensos a inventarse cosas, un problema ampliamente estudiado que se conoce como alucinación.

En su entrada del viernes en el blog, Reid argumentó que los resúmenes de la IA de Google "generalmente no alucinan ni inventan cosas de la forma en que podrían hacerlo otros" grandes productos basados en modelos lingüísticos porque están más estrechamente integrados con el motor de búsqueda tradicional de Google al mostrar únicamente lo que está respaldado por los principales resultados web.

"Cuando los resúmenes de inteligencia artificial se equivocan, suele ser por otros motivos: malinterpretación de las consultas, interpretación errónea de un matiz del lenguaje en la web o falta de una gran cantidad de información disponible", escribió.

De momento. esos errores pueden ser muy peligrosos.

EN VÍDEO | Se filtran los documentos del algoritmo de búsqueda de Google