¿El algoritmo de Twitter es racista?

Información General

Usuarios de la red social denunciaron que cuando hay dos fotos en un tweet, el sistema elige por defecto mostrar la imagen con la persona blanca.

Usuarios de Twitter manifestaron su enojo contra la red social y denunciaron que el algoritmo que utiliza es racista. La crítica se volvió tendencia luego de que un joven señaló que Twitter visibiliza primero las fotos de personas de tez blanca en mensajes donde se publican varias imágenes.

Es decir, cuando hay dos fotos en un tweet, el sistema elige por defecto mostrar la de la persona blanca.

Para demostrarlo, un ingeniero publicó un mensaje con una foto de Barack Obama y otra del senador Mitch McConnell. Luego verificó que cuando se visibiliza el tweet en el feed, aparece la imagen del senador sobre la del expresidente de Estados Unidos.

Sin embargo, el desarrollador informático Tony Arcieri oscureció la imagen de ambos y ahí sí figuró la imagen de Obama.

https://twitter.com/bascule/status/1307440596668182528
Captura de pantalla 2020-09-22 174551.jpg

“Twitter es sólo un ejemplo más del racismo que se manifiesta a través de los algoritmos de aprendizaje máquina", aseguró el ingeniero.

Luego de que se viralice el experimento de Arcieri, cientos de usuarios comenzaron a realizar la prueba y obtuvieron los mismos resultados: cuando una foto es demasiado grande se selecciona automáticamente la parte que corresponde a personas blancas.

https://twitter.com/Pinkmarsmallows/status/1308149868532301824

Captura de pantalla 2020-09-22 174800.jpg

A medida que fueron aumentando las publicaciones que evidenciaban la denuncia, los usuarios empezaron a acusar a la red social de que el algoritmo tiene un sesgo racial.

https://twitter.com/habitgoldn/status/1308241257429438466

No obstante, las pruebas que se realizaron no tienen un fundamento verificado que confirme que el algoritmo de twitter sea racista.

Por su parte Twitter señaló: "Probamos el sesgo antes de enviar el modelo y no encontramos evidencia de sesgo racial o de género en nuestras pruebas. Pero está claro que tenemos más análisis para hacer. Continuaremos compartiendo lo que aprendemos, qué acciones tomamos y lo abriremos de código abierto para que otros puedan revisar y replicar."

https://twitter.com/m8rbnsn/status/1307801582411689984

El contenido al que quiere acceder es exclusivo para suscriptores.

Dejá tu comentario