Anuncios
U.S. markets closed
  • F S&P 500

    5,437.50
    0.00 (0.00%)
     
  • F Dow Jones

    38,596.00
    -9.00 (-0.02%)
     
  • F Nasdaq

    19,710.50
    +25.00 (+0.13%)
     
  • E-mini Russell 2000 Index Futur

    2,006.40
    -1.60 (-0.08%)
     
  • Petróleo

    78.36
    -0.09 (-0.11%)
     
  • Oro

    2,343.30
    -5.80 (-0.25%)
     
  • Plata

    29.57
    +0.10 (+0.33%)
     
  • dólar/euro

    1.0707
    -0.0002 (-0.02%)
     
  • Bono a 10 años

    4.2130
    -0.0250 (-0.59%)
     
  • Volatilidad

    12.66
    +0.72 (+6.03%)
     
  • dólar/libra

    1.2682
    -0.0004 (-0.03%)
     
  • yen/dólar

    157.6080
    +0.2850 (+0.18%)
     
  • Bitcoin USD

    66,613.42
    +412.36 (+0.62%)
     
  • CMC Crypto 200

    1,387.68
    -30.19 (-2.13%)
     
  • FTSE 100

    8,146.86
    -16.81 (-0.21%)
     
  • Nikkei 225

    38,814.56
    +94.06 (+0.24%)
     

Google defiende las respuestas extrañas de la función “Resúmenes creados con IA”

Google defiende las respuestas extrañas de la función “Resúmenes creados con IA”

Google defendió su función “Resúmenes creados con IA”, después de que los usuarios denunciaran haber recibido respuestas extrañas.

La herramienta está pensada para complementar los resultados tradicionales de Google y utilizar inteligencia artificial para responder a las consultas. El sistema utiliza datos de Internet para elaborar respuestas; de hecho, Google afirma que la herramienta facilitará las búsquedas.

Sin embargo, en los últimos días, los usuarios de Google han denunciado que el sistema los ha animado a comer piedras, hacer pizzas con pegamento y ha reiterado una falsa teoría de conspiración de que Barack Obama es musulmán.

Algunas de esas respuestas parecían haber sido extraídas de resultados en línea. Por ejemplo, la recomendación de que la masa de una pizza quedaría más gomosa si se utilizara pegamento parece proceder de una broma que se publicó en Reddit.

PUBLICIDAD

Ahora Google alega que dichos ejemplos se referían a consultas poco frecuentes y afirma que la herramienta funciona bien en general.

“Los ejemplos que hemos visto son en general consultas muy poco comunes y no son representativas de las experiencias de la mayoría de la gente”, sostuvo un portavoz. “La gran mayoría de los resúmenes creados con IA ofrecen información de gran calidad y enlaces para profundizar en la web”.

“Antes de lanzar esta nueva experiencia, realizamos pruebas exhaustivas para garantizar que los resúmenes creados con IA cumplan nuestro alto nivel de calidad. Cuando se han producido infracciones de nuestras políticas, hemos tomado medidas, y también estamos utilizando estos ejemplos aislados para seguir perfeccionando nuestros sistemas en general”.

La empresa recalcó tres medidas: que había añadido salvaguardias a su sistema con vistas a impedir que aparecieran contenidos nocivos, que había sometido el sistema a un proceso de evaluación y pruebas, y que los resúmenes de IA se habían creado para cumplir sus políticas vigentes.

Según Google, también ha estado trabajando en mejorar el sistema para que ofrezca mejores respuestas objetivas.

Al parecer, los problemas se debieron en parte a los datos que se utilizan para elaborar las respuestas, que pueden incluir chistes u otros contenidos que resultan engañosos cuando se reutilizan en una respuesta. Pero parte del problema también puede ser la tendencia a “alucinar” de los grandes modelos lingüísticos como los que utiliza Google.

Debido a que esos grandes modelos lingüísticos se alimentan de datos lingüísticos y no de hechos, tienden a dar respuestas que pueden estar redactadas de forma convincente, pero que en realidad incluyen mentiras. Algunos expertos han sugerido que tales problemas son inherentes a esos sistemas.