Anuncios
U.S. markets closed
  • S&P 500

    4,967.23
    -43.89 (-0.88%)
     
  • Dow Jones

    37,986.40
    +211.02 (+0.56%)
     
  • Nasdaq

    15,282.01
    -319.49 (-2.05%)
     
  • Russell 2000

    1,947.66
    +4.70 (+0.24%)
     
  • Petróleo

    83.24
    +0.51 (+0.62%)
     
  • Oro

    2,406.70
    +8.70 (+0.36%)
     
  • Plata

    28.75
    +0.37 (+1.29%)
     
  • dólar/euro

    1.0661
    +0.0015 (+0.14%)
     
  • Bono a 10 años

    4.6150
    -0.0320 (-0.69%)
     
  • dólar/libra

    1.2370
    -0.0068 (-0.55%)
     
  • yen/dólar

    154.5620
    -0.0380 (-0.02%)
     
  • Bitcoin USD

    64,790.89
    +158.85 (+0.25%)
     
  • CMC Crypto 200

    1,371.97
    +59.35 (+4.52%)
     
  • FTSE 100

    7,895.85
    +18.80 (+0.24%)
     
  • Nikkei 225

    37,068.35
    -1,011.35 (-2.66%)
     

Para arreglar la discriminación, debemos verla: N. Kocherlakota

(Bloomberg) -- La investigación académica tiene un gran papel que desempeñar para abordar el problema de la discriminación racial y de género que los movimientos Black Lives Matter y Me Too han hecho urgente últimamente: para eliminarla, los políticos necesitan buena evidencia sobre dónde y cómo está haciendo daño.

Infortunadamente, los métodos supuestamente neutrales de los investigadores están sesgados en contra de encontrar sesgos. Esto necesita cambiar.

Supongamos que estamos estudiando sesgos en el empleo. Los gerentes se presentan regularmente con pares de candidatos blancos y negros igualmente calificados. Si el proceso no está sesgado contra los negros, la probabilidad de elegir a alguien de una u otra raza debería ser igual a un lanzamiento de moneda, 50%. Si está sesgado, habría una mayor probabilidad (digamos 60%) de elegir a una persona blanca, y se necesitaría una intervención política para arreglar el proceso.

Por lo general, no podemos saber cuáles son las probabilidades reales. Tenemos que estimarlas estudiando una muestra de las decisiones de contratación. Al hacerlo, debemos ser conscientes de dos tipos de posibles errores. Podríamos encontrar un sesgo donde no hay ninguno y, por lo tanto, recomendar erróneamente una acción. O podríamos no ver el sesgo que realmente existe y, por lo tanto, no actuar.

PUBLICIDAD

Digamos, por ejemplo, que estamos analizando una muestra de 20 decisiones, en las que se contrataron a 14 candidatos blancos. A simple vista, esto parece evidencia de sesgo. Pero podría ser una desviación aleatoria: tal vez se seleccionarán 14 candidatos negros las próximas 20 veces. Al llegar a una conclusión, debemos sopesar el riesgo de encontrar un sesgo donde no lo hay (lo que los estadísticos llaman error tipo uno) frente al riesgo de no encontrar un sesgo cuando realmente existe (un error tipo dos).

Estos riesgos son calculables. Si establecemos el umbral para encontrar el sesgo en 14 de 20, hay una probabilidad de 6% de error tipo uno y una probabilidad de 75% de error tipo dos. Si establecemos el umbral en 13, que es más probable que conduzca a una intervención, las probabilidades cambian a 13% y 58%, respectivamente.

Entonces, ¿qué umbral debemos elegir? No hay una respuesta neutral. Si somos más conservadores y, por lo tanto, nos preocupa más recomendar acciones innecesarias que no hacerlo, nos decidiremos por el nivel más alto. Si damos prioridad a la justicia social, estableceremos un nivel más bajo, en parte porque creemos que el costo de no actuar cuando existe un sesgo es mucho mayor que el costo de actuar cuando no es así.

Uno podría esperar que los análisis de discriminación racial y de género utilicen un rango de umbrales, dependiendo de las prioridades de los investigadores y políticos. Pero no lo hacen. A los investigadores se les enseña a mantener la probabilidad de error tipo uno por debajo de cierto nivel, generalmente 5% o 1%, sin referencia a la probabilidad o las consecuencias de cometer un error tipo dos. Ellos, y casi cualquier revista científica que considere publicar sus resultados, considerarían que el umbral de “justicia social” es demasiado agresivo, simplemente porque implica 13% de posibilidades de error tipo uno.

Tal enfoque podría parecer científicamente consistente, en el sentido de que diferentes investigadores llegarían a las mismas conclusiones a partir de los mismos datos. Pero no tiene sentido. Dada la larga historia de discriminación racial y de género, existen muchas razones para que un investigador crea que los errores tipo dos (no recomendar acciones) son más costosos. O bien, el investigador podría tener evidencia de sesgo desde fuera de la muestra. En cualquier caso, el criterio de justicia social sería más apropiado.

No me malinterpreten: los investigadores han demostrado de manera convincente la existencia de discriminación racial y de género en muchos contextos. Mi punto es que debemos ser cautelosos al tratar los estudios que no encuentran evidencia de sesgo como justificación para no hacer nada.

Los científicos sociales deben reconocer que no están sacando conclusiones sobre el sesgo (y realmente de ninguna pregunta de importancia) en el vacío. El pasado es importante, en el sentido que proporciona evidencia previa que no proviene de datos. Y el futuro es importante, en el sentido que el análisis influirá en las decisiones que tienen costos y beneficios sociales. Tener todo esto en cuenta podría llevar a diferentes investigadores, y legisladores, a leer los mismos datos de manera diferente. Pero, en general, también será más probable que hagan un bien mayor.

Nota Original:To Fix Discrimination, We Need to See It: Narayana Kocherlakota

For more articles like this, please visit us at bloomberg.com

Subscribe now to stay ahead with the most trusted business news source.

©2020 Bloomberg L.P.