Un 'algoritmo racista' de Twitter ha desatado polémica en la red social. Foto: AFP.

Un 'algoritmo racista' de Twitter ha desatado polémica en la red social. Foto: AFP.

¿Es Twitter racista?

Un 'algoritmo racista' de Twitter ha desatado polémica en la red social. Foto: AFP.

Desde el año 2018, la red social Twitter utiliza machine learning -aprendizaje automático- para reconocer y centrar las caras en las imágenes que publica. Sin embargo, esta forma de inteligencia artificial (IA) puede cometer -por acción u omisión de sus programadores- errores socialmente graves.

Un sesgo racista se ha detectado en el funcionamiento del algoritmo de las fotos de Twitter. Esto fue demostrado por usuarios de esta red social en los últimos días.

Las caras de personas caucásicas aparecían en muchas más ocasiones como vistas previas, incluso cuando las imágenes estaban controladas por tamaño, color de fondo y otras variables que posiblemente podrían estar influyendo en el algoritmo.

El experto en informática César Suárez explica que los algoritmos responden a una programación que a su vez toma en cuenta datos cargados. El hecho de que erróneamente el programa privilegie la imagen de un hombre blanco por sobre la de uno que no lo es, puede ser producto de datos introducidos con sesgo consciente o inconscientemente por los programadores.

Por ejemplo, a la hora de tomar en cuenta a las personas para desarrollar el algoritmo se pudo haber anotado que en países anglosajones la mayoría de la población es caucásica, provocando así que el algoritmo discrimine a los que no lo son si hay que centrar una foto.

Todo algoritmo es sesgado, según el experto, porque, al menos al inicio, se lo trabaja para que escoja una situación por sobre otra. Se podría cambiar lo que pasa ahora con el algoritmo racista de Twitter, pero habría que introducir datos para que el algoritmo centre la foto privilegiando otros parámetros como popularidad, estatura, pasado político, etc.

Lo más relevante se muestra de forma automática según la programación realizada. Después un algoritmo puede aprender y corregir por sí mismo, pero puede tardar en hacerlo.

Los responsables de Twitter estudian al momento el motivo por el que la vista previa de las fotos parece favorecer las caras blancas sobre las caras negras. Twitter explica que el algoritmo determina la parte más sobresaliente de la imagen, es decir, aquello en lo que nuestros ojos se fijan primero.

La idea de Twitter era recortar las imágenes de un modo inteligente. Gracias a dicha función, el usuario no tenía que preocuparse por cómo va a quedar la imagen en la línea de tiempo de otros usuarios. Esto, cuando repasen qué han publicado los usuarios a los que siguen o el resto de tuits que aparecen en él; siempre verán lo más interesante, o al menos lo que la IA considere que es lo que debería tener más peso y relevancia para atraer al usuario que ve una publicación en dicha plataforma.

Sin embargo, ahora hay quienes consideran que la IA de Twitter es racista. Esto porque tras un pequeño experimento llevado a cabo por usuarios como @bascule o @JackCouvela, el recorte siempre aplica a la persona blanca. Es decir, ni Barack Obama ni Chadwick Boseman (actor que interpretó a Black Panther) aparecen nunca a pesar de estar en las mismas imágenes junto a un hombre blanco.

El machine learning de Twitter nunca recorta para que ellos sean los que se vean en la vista reducida del timeline. Da igual que se cambie el orden y que la cara de Barack Obama esté en la parte superior, inferior o el centro. Incluso detalles como el color de la corbata u otros elementos se cambian para ver si los tienen en cuenta o no. Siempre es la persona blanca la que parece tener mayor relevancia.

El tema del sesgo racista de Twitter empezó a ser tendencia el viernes 18 de septiembre del 2020, después de que un usuario intentara tuitear sobre un problema con el algoritmo de detección de rostros de Zoom.

Los sistemas de esta plataforma de videoconferencias no detectaban la cabeza de un usuario afrodescendiente, y cuando subió capturas de pantalla del problema a Twitter, descubrió que la herramienta de recorte automático de esta red social mostraba de forma predeterminada su cara en lugar de la de su compañero de trabajo afro en las imágenes de vista previa.

Al parecer, este sesgo es una novedad para Twitter. El director de diseño de la compañía, Dantley Davis, realizó algunos experimentos informales por su cuenta y tuiteó que estaba tan irritado por esto como todos los demás.

El responsable de tecnología de la plataforma, Parag Agrawal, también habló del tema en un tuit y reconoció que el algoritmo necesita una mejora continua y estaba ansioso por aprender de las rigurosas pruebas de los usuarios.

Twitter ha prometido solucionar lo antes posible el sesgo racista de su machine learning, dado que esta situación solo puede sumar más protestas por racismo a las que ya se viven en Estados Unidos.