Anuncios
U.S. markets close in 51 minutes
  • S&P 500

    5,063.40
    -7.15 (-0.14%)
     
  • Dow Jones

    38,425.07
    -78.62 (-0.20%)
     
  • Nasdaq

    15,678.95
    -17.69 (-0.11%)
     
  • Russell 2000

    1,990.54
    -12.11 (-0.60%)
     
  • Petróleo

    82.87
    -0.49 (-0.59%)
     
  • Oro

    2,333.40
    -8.70 (-0.37%)
     
  • Plata

    27.26
    -0.10 (-0.35%)
     
  • dólar/euro

    1.0701
    -0.0003 (-0.03%)
     
  • Bono a 10 años

    4.6540
    +0.0560 (+1.22%)
     
  • dólar/libra

    1.2462
    +0.0009 (+0.08%)
     
  • yen/dólar

    155.2430
    +0.4550 (+0.29%)
     
  • Bitcoin USD

    64,098.12
    -2,622.61 (-3.93%)
     
  • CMC Crypto 200

    1,387.01
    -37.09 (-2.60%)
     
  • FTSE 100

    8,040.38
    -4.43 (-0.06%)
     
  • Nikkei 225

    38,460.08
    +907.92 (+2.42%)
     

Tras una controversia Google suspende la generación de imágenes por Inteligencia Artificial

Google se vió en la necesidad de suspender temporalmente la generación de imágenes en Gemini, su chatbot de inteligencia artificial (IA), después de que surgieran críticas por la reproducción de "inexactitudes en algunas representaciones históricas".

El gigante tecnológico estadounidense ofreció disculpas este jueves tras denuncias de usuarios sobre la generación de imágenes inexactas, incluyendo soldados nazis y padres fundadores de Estados Unidos representados como personas racializadas.

"Estamos trabajando para mejorar este tipo de representaciones de inmediato", explicaron.

Desafíos de la Inteligencia Artificial generativa

Los programas de IA generativa han sido objeto de críticas por amplificar estereotipos raciales y de género.

PUBLICIDAD

Investigaciones anteriores, como la realizada por The Washington Post el año pasado, revelaron que programas de generación de imágenes como Stable Diffusion o DALL-E perpetuaban sesgos.

Por ejemplo, ante la solicitud de "una persona productiva", respondían con hombres blancos, mientras que la solicitud de "una persona en servicios sociales" resultaba en personas de color.

Google presentó Gemini a principios de febrero
Google presentó Gemini a principios de febrero

Google presentó Gemini a principios de febrero

Google Fotos enfrentó críticas en 2015 cuando su sistema etiquetó erróneamente una imagen de dos personas negras como gorilas.

La empresa buscaba evitar problemas similares con Gemini, pero sus esfuerzos por promover la diversidad racial y de género han resultado en inexactitudes históricas.

"La generación de imágenes por IA de Gemini abarca una amplia variedad de personas, lo cual es beneficioso en general, pero está fallando en este caso", reconocieron.

Los reclamos de los usuarios

En los últimos días, usuarios, incluidos el magnate tecnológico Elon Musk y el filósofo Jordan Peterson, han denunciado estas imprecisiones, acusando a Google de tener un sesgo liberal que perjudica a los blancos.

Según The Washington Post, esta controversia refleja cómo los productos de IA no probados se ven envueltos en disputas culturales sobre diversidad y moderación de contenidos.

Otros usuarios han criticado a Google por cuestiones técnicas, argumentando que la diversidad tiene sentido en ciertos contextos, como la representación de mujeres estadounidenses o cocineros, pero no en el caso de entender el contexto histórico para la representación de vikingos o soldados alemanes durante la Segunda Guerra Mundial.

Elon Musk denunció que Google
Elon Musk denunció que Google

Elon Musk denunció a Google de tener un sesgo liberal que perjudica a los blancos

Google lanzó la capacidad de generar imágenes en Gemini a principios de febrero, en un intento por competir con OpenAI, su principal rival respaldado por Microsoft y responsable de ChatGPT.

Sin embargo, las críticas sugieren que esta IA se hizo pública sin una revisión exhaustiva que hubiera evitado los errores que llevaron a su suspensión temporal.

Margaret Mitchell, ex codirectora de ética en IA de Google, enfatizó la importancia de mantener datos éticos desde el inicio para evitar sistemas con sesgos.