U.S. markets open in 7 hours 46 minutes
  • F S&P 500

    4,167.25
    -24.25 (-0.58%)
     
  • F Dow Jones

    34,091.00
    -6.00 (-0.02%)
     
  • F Nasdaq

    12,651.50
    -195.25 (-1.52%)
     
  • RTY=F

    2,005.70
    -2.20 (-0.11%)
     
  • Petróleo

    75.81
    -0.07 (-0.09%)
     
  • Oro

    1,929.20
    -1.60 (-0.08%)
     
  • Plata

    23.56
    -0.06 (-0.25%)
     
  • dólar/euro

    1.0900
    -0.0011 (-0.10%)
     
  • Bono a 10 años

    3.3960
    0.0000 (0.00%)
     
  • Volatilidad

    18.73
    +0.86 (+4.81%)
     
  • dólar/libra

    1.2222
    -0.0007 (-0.06%)
     
  • yen/dólar

    128.5700
    -0.0340 (-0.03%)
     
  • BTC-USD

    23,535.68
    -235.00 (-0.99%)
     
  • CMC Crypto 200

    536.69
    -8.63 (-1.58%)
     
  • FTSE 100

    7,820.16
    +59.05 (+0.76%)
     
  • Nikkei 225

    27,509.46
    +107.41 (+0.39%)
     

Agencia europea de DDHH advierte contra la parcialidad de la IA en la detección de delitos

Un grupo de personas visita un puesto del metaverso durante la Conferencia Mundial de Inteligencia Artificial, tras el brote de la enfermedad por coronavirus (COVID-19), en Shanghái

Por Dina Kartit

8 dic (Reuters) - La Agencia de los Derechos Fundamentales de la Unión Europea (FRA) afirmó el jueves que las aplicaciones que utilizan inteligencia artificial (IA) para predecir la delincuencia y moderar el discurso de odio online deben estar libres de sesgos para evitar la discriminación.

En un informe basado en un estudio de 2021, la FRA, con sede en Viena, afirma que los algoritmos basados en datos de mala calidad pueden perjudicar la vida de las personas.

El estudio se produce en el contexto de la propuesta de ley sobre la IA de la Comisión Europea, que suscitó críticas de parlamentarios y grupos de consumidores de países de la UE por no abordar plenamente los riesgos de los sistemas de IA que podrían violar los derechos fundamentales.

"Necesitamos un sistema para evaluar y mitigar el sesgo antes y durante el uso de algoritmos para proteger a las personas de la discriminación", dijo el director de la FRA, Michael O'Flaherty.

La detección de delitos varía y puede afectar a los datos, dijo la FRA, ya que ciertos delitos son fáciles de detectar mientras que las predicciones se centran demasiado en los delitos que son más fáciles de registrar para la policía.

Como resultado, algunos grupos demográficos pueden estar más a menudo relacionados con "delitos más simples", lo que puede dar lugar a sesgos en la aplicación de la ley, dijo la FRA.

En cuanto a la moderación del discurso ofensivo, la agencia consideró poco fiables los algoritmos desarrollados para la detección automática del discurso del odio, ya que marcaban como ofensivos términos no ofensivos en inglés que aludían a "musulmán", "gay" o "judío".

Del mismo modo, algunos algoritmos en alemán e italiano, que utilizan sustantivos de género, juzgaban más insultante la versión femenina de un término que su equivalente masculino, o viceversa.

La FRA afirmó que las predicciones de los algoritmos tienden a reaccionar de forma exagerada al estar vinculadas al odio online en sus conjuntos de datos de texto.

(Reporte de Dina Kartit; editado en español por Tomás Cobos)