Polémica por el algoritmo racista de Twitter: destaca rostros blancos antes que negros en una foto
Twitter ha asegurado que tiene que realizar más análisis en el algoritmo de la red social después de que se mostrara que tiene sesgos raciales a la hora de priorizar las fotografías insertadas en los tuits, al margen de la prioridad que les dé el usuario que las comparte.
Hace tiempo que se sabe que al momento de mostrar una miniatura de una foto en un tuit, una herramienta interna de Twitter analiza la imagen y destaca algunos elementos por sobre todos (texto, un rostro, un objeto con un fondo uniforme, etcétera) y centra la miniatura en ellos, lo que permite en algunos casos jugar con ello (la imagen tiene un sentido cuando se ve en miniatura, y otro cuando se expande), pero aquí se trata de otra cosa.
¿Neutrales y objetivos? Los algoritmos también pueden ser racistas o machistas
El ingeniero de criptografía e infraestructura Tony Arcieri mostró en un experimento el sesgo racial del algoritmo de Twitter con dos fotografías en un tuit: una del expresidente de Estados Unidos, Barack Obama, y otra del senador republicano Mitch McConnell.
Trying a horrible experiment...Which will the twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia&- Tony "Abolish (Pol)ICE" Arcieri ?? (@bascule) September 19, 2020
Los rostros de los dos personajes se muestran en parejas en cada foto, colocadas en vertical, una encabezada por la de McConnell y la otra por la de Obama. En la prueba de Arcieri, el algoritmo destaca el rostro de McConnell frente al de Obama en ambos casos, tanto si el senador lleva una corbata roja como una azul. Solo destaca la del expresidente cuando el ingeniero muestra las fotografías polarizadas.
Probando si es cierto que el algoritmo de twitter elige gente blanca para las miniaturas, cuando hay dos personas en las fotos. pic.twitter.com/Lr3Tn1NhO0&- Leo (@loeanrdo) September 20, 2020
La prueba llegó a conocimiento de Liz Kelley, del equipo de comunicación de Twitter, quien ha asegurado que la empresa "todavía tiene más análisis que hacer" para evitar el sesgo en su algoritmo.
Según Kelley, Twitter realizó tests antes de distribuir el modelo y no encontraron "pruebas de sesgos racial ni de género". No obstante, van a facilitar el código de su trabajo para que otros los puedan revisar y replicar.
thanks to everyone who raised this. we tested for bias before shipping the model and didn't find evidence of racial or gender bias in our testing, but it's clear that we've got more analysis to do. we'll open source our work so others can review and replicate. https://t.co/E6sZV3xboH&- liz kelley (@lizkelley) September 20, 2020