15 de julio de 2018 00:00

¿Los algoritmos refuerzan los prejuicios sociales?

El procesamiento de datos se ha constituido en una herramienta confiable para tomar decisiones. Sin embargo, estos sistemas están construidos por seres humanos y pueden ahondar los conflictos sociales.

El procesamiento de datos se ha constituido en una herramienta confiable para tomar decisiones. Sin embargo, estos sistemas están construidos por seres humanos y pueden ahondar los conflictos sociales.

valore
Descrición
Indignado 0
Triste 0
Indiferente 0
Sorprendido 1
Contento 3
Diego Ortiz. Coordinador (O)
ortizd@elcomercio.com

LEA TAMBIÉN

LEA TAMBIÉN

La construcción matemática de los algoritmos hace que estos sean, por excelencia, apriorísticos. Sin embargo, y a pesar de que teórica y estructuralmente responde a un modelo numérico, en la práctica esos algoritmos han ido aprendiendo los juicios que hemos construido históricamente a través de los siglos.

Para entenderlo hay que partir de la construcción misma del algoritmo. Teóricos matemáticos como Alonzo Church lo han llegado a definir como una serie de cálculos para resolver problemas a partir de un orden lógico. En ese sentido, por principio los algoritmos estarían predispuestos a analizar cualquier situación desde un orden numérico, para resolverlo a ese mismo nivel y expresarlo en el lenguaje que requiera la persona que lo crea.

Hasta este punto, la neutralidad matemática se mantiene como la base de la construcción algorítmica; sin embargo, hay un factor que interviene en este proceso: el ser humano. Los algoritmos, aún los basados en inteligencia artificial, son la respuesta a una problemática pensada por las personas. Una muestra clara es Tinder, cuyo algoritmo, en principio, fue creado para facilitar las citas en línea, pero que, en realidad, también toma en cuenta el concepto subjetivo de belleza o fealdad de los usuarios, el cual se construye de acuerdo con la cantidad de ‘matches’ que obtienen las personas que tienden a ser más ‘simpáticas’, según los estándares sociales. Es así que la fórmula matemática responde adecuadamente con lo que busca la gente: una pareja que luzca estadísticamente bien.

En el modelo social altamente tecnificado que buscamos en la actualidad, los algoritmos han pasado a formar un pilar fundamental de nuestras vidas. Para conectarnos con nuestros amigos y familiares, utilizamos los algoritmos de Facebook, WhatsApp o Skype; para conocer la música del momento, usamos el modelo matemático de Spotify o YouTube; y hasta para encontrar pareja o una cita rápida, optamos por las opciones que nos ofrecen plataformas como Tinder o Grindr. Ciegamente, nuestra confianza ha recaído en una estructura lógico-matemática que no comprendemos a cabalidad, que aparentemente funciona desde una idea de neutralidad, y que, al mismo tiempo, ha ido aprendiendo nuestro comportamiento social.

¿Es una exageración? La única respuesta es un NO rotundo. Y para ello vale analizar el trabajo documental realizado por Ava DuVernay en su cinta ‘13th’. La película parte de una premisa: en 1865 se abolió la esclavitud en los Estados Unidos. A pesar de ello, el sistema penitenciario de este país muestra una clara tendencia: los afrodescendientes son una mayoría poblacional, siendo 6 a 1 con relación a los blancos.

Pero esta sobrepoblación de los afrodescendientes en las cárceles estadounidenses no solo es una muestra de ciertos prejuicios sociales en torno a esta población. En 2016, una investigación realizada por periodistas de ProPublica determinó que el sistema judicial de este país estaba viciado por los conceptos en torno a los procesados que pertenecían a este grupo étnico. Y todo esto saltó a la luz cuando revisaron el algoritmo de Compas.

Como muchos de los procesos gubernamentales de los Estados Unidos, varias de las decisiones que se toman en este país están basadas en información que se recolecta de base de datos. En el caso judicial, varios estados apostaron por el algoritmo del programa Correctional Offender Management Profiling for Alternative Sanctions (Administración de Perfiles de Criminales para Sanciones Alternativas del Sistema de Prisiones), mejor conocido como Compas. Aquí la información se alimenta de los cuestionarios que son tomados a los detenidos por la Policía. En estos se incluyen preguntas en torno a la identidad étnica, el lugar donde vive, amistades, hasta relaciones sentimentales y sociales. Las respuestas tienen valores que van del 1 al 10.

Cuando la información es procesada, esta es redireccionada hacia el juez que dictará sentencia. Es así que, luego de analizar 7 000 condenas en la Florida, los periodistas de ProPublica hallaron que Compas emite un perfil criminológico negativo para los afrodescendientes. En una entrevista con la BBC, Julia Angwin, de ProPublica, señaló que “si comparas a una persona negra y a una blanca que tienen el mismo historial, la misma edad, el mismo género, el mismo pasado judicial y el mismo ‘futuro criminal’ (las posibilidades de cometer un crimen, dos crímenes o ninguno), el acusado negro tiene un 45% más de posibilidades de obtener un puntaje de riesgo que un acusado blanco”.

Este no es el único caso en el que los algoritmos responden a una construcción social. En esta época de equidad, y justamente en la última celebración del 4 de julio, varias publicaciones en Facebook fueron dadas de baja de la plataforma luego de que el algoritmo identificara que ciertas partes de la Declaración de Independencia, que eran subidas por los usuarios a sus cuentas, tenían una connotación racista. Así, el programa respondía satisfactoriamente a una necesidad en esta comunidad digital: promover el respeto entre sus usuarios.

Detrás de todo esto queda en evidencia una realidad de las sociedades del siglo XXI: estamos avanzando hacia la construcción de algoritmos que logran resolver los problemas diarios que tenemos, pero, de igual manera, esta tecnología está aprendiendo, de manera concisa y sistemática, los conflictos sociales que no hemos podido resolver: la inequidad, las brechas de género, el lenguaje no inclusivo.

Descrición
¿Te sirvió esta noticia?:
Si (11)
No (0)