Anuncios
U.S. markets closed
  • F S&P 500

    5,304.25
    -4.00 (-0.08%)
     
  • F Dow Jones

    40,140.00
    -36.00 (-0.09%)
     
  • F Nasdaq

    18,465.00
    -38.75 (-0.21%)
     
  • E-mini Russell 2000 Index Futur

    2,145.20
    +6.80 (+0.32%)
     
  • Petróleo

    83.11
    -0.06 (-0.07%)
     
  • Oro

    2,254.80
    +16.40 (+0.73%)
     
  • Plata

    25.10
    +0.18 (+0.74%)
     
  • dólar/euro

    1.0791
    -0.0002 (-0.02%)
     
  • Bono a 10 años

    4.2060
    +0.0100 (+0.24%)
     
  • Volatilidad

    13.01
    +0.23 (+1.80%)
     
  • dólar/libra

    1.2620
    -0.0002 (-0.02%)
     
  • yen/dólar

    151.4260
    +0.0540 (+0.04%)
     
  • Bitcoin USD

    70,698.44
    +1,138.54 (+1.64%)
     
  • CMC Crypto 200

    885.54
    0.00 (0.00%)
     
  • FTSE 100

    7,952.62
    +20.64 (+0.26%)
     
  • Nikkei 225

    40,371.63
    +203.56 (+0.51%)
     

El peor trabajo del mundo está en Facebook: moderador de contenido inapropiado

Hay trabajos malos, trabajos muy malos y luego está que tienen que desempeñar los moderadores de contenido de Facebook (FB). Estos empleados tienen que visionar y filtrar el peor contenido que se suben a Internet. Fotos y vídeos repletos de secuencias horrorosas, tan terribles que quedan marcados de por vida. Asesinatos, torturas, abuso infantil: cada día ven cosas que nos mantienen despiertos por la noche. Sin embargo, Mark Zuckerberg asegura que estos empleados son "excesivamente dramáticos".

Solo hay que leer cómo es una de sus jornadas laborales: “Migrantes desnudos están siendo torturados con metal fundido en Libia; El departamento de control de calidad (QA) de Facebook nos pregunta si ese bebé en Myanmar está muerto; Dave y Doreen están reportándose mutuamente para hacerse daño…” cuenta un ex empleado llamado Chris Gray en The Guardian.

El peor trabajo del mundo está en Facebook: moderador de contenido inapropiado (AP Photo/Mark Lennihan)
El peor trabajo del mundo está en Facebook: moderador de contenido inapropiado (AP Photo/Mark Lennihan)

El trabajo de Gray consistía en analizar si el contenido de los usuarios de Facebook es violento o no. A pesar de que la red social está altamente automatizada y decenas de algoritmos analizan si una noticia puede interesar a una persona o no, o si un anuncio puede ser relevante o no, todavía no se ha creado un programa informático lo suficientemente bueno que determine si un vídeo de unos soldados torturando prisioneros es una película, un montaje o una escabrosa escena sacada de la guerra.

PUBLICIDAD

Como explica él mismo “con miles de millones de personas en Facebook, solo hay un pequeño porcentaje de cosas "inapropiadas", que a menudo se comparten y se vuelven a publicar sin cesar”.

Los moderadores toman centenares de decisiones complicadas día a día. Su trabajo diario se encuentra en esa delgada frontera entre la libertad de expresión, los límites del humor y del buen gusto, y las propias reglas de Facebook. ¿Cómo son estos moderadores? Según Gray, “Es un trabajo que debe ser realizado por “personas inteligentes, bien adaptadas y con una sólida brújula moral que pueda equilibrar las libertades del individuo con los derechos de la sociedad”.

Sin embargo, aunque su tarea es muy importante para Facebook (si una vídeo atroz se viraliza, la ya de por sí maltrecha reputación de la red social se vería puesta entredicho) y todavía no hay máquinas que sean capaces de desempeñar esta labor, los moderadores de Facebook cobran una miseria. “Estamos mal pagados y bajo presión constante. No podemos hacer una pausa para reflexionar sobre el bebé muerto que vimos, porque estamos muy preocupados sobre si tomamos la decisión correcta y si podemos mantener contento el control de calidad”.

No solo tienen que ver escenas de extrema violencia, también memes racistas, pornografía y hasta razonamientos de extremistas. Para Gray, lo peor es que con el paso del tiempo ver tanto contenido extremo hace que te vuelvas insensible y pienses que semejantes barbaridades son algo habitual.

“No dormimos mucho, estamos irritables, no podemos concentrarnos, tenemos problemas en nuestros matrimonios, no es que podamos hablar de eso. Firmamos acuerdos de no divulgación, el Facebook Omertà, por lo que las personas más cercanas a nosotros no tienen idea de que hemos presenciado un asesinato esta noche. Cuatro veces”, resume Gray.

Pero todas estas revelaciones no son nuevas. Desde que Facebook existe se sabe que los moderadores deben ver contenidos extremos, que están mal pagados, que no tienen contrato fijo -porque nadie aguanta más de un año- y demás penurias. Lo que sí que es nuevo es que Mark Zuckerberg, CEO de Facebook, ha dicho que cada vez hay menos moderadores porque su trabajo no es necesario y que están “dramatizando en exceso” cuando hablan de sus condiciones laborales. ¿Una prueba más de que el joven multimillonario es una persona que carece de toda empatía?

Más historias que te pueden interesar

Facebook, Apple, Amazon, Netflix, Google y Microsoft han defraudado 100.000 millones de dólares en impuestos en los últimos diez años

El debate en EEUU sobre la responsabilidad de los gigantes de internet se extiende

TikTok, la única red social que pone en aprietos a Facebook, se instala en Silicon Valley