Cient铆ficos comprobaron que el antiguo algoritmo de Twitter discriminaba rostros que no sean "femeninos, delgados, blancos y j贸venes"
En un concurso organizado por la propia red social, varios investigadores estudiaron el programa que destaca y encuadra las im谩genes de esta plataforma. Un cient铆fico聽ucraniano consigui贸 el primer puesto al revelar este聽"comportamiento" algor铆tmico.聽
Luego de que un estudiante universitario descubriese que Twitter encuadraba a rostros blancos en la previsualizaci贸n de fotos con m谩s de una cara u objeto, un cient铆fico de la Universidad de Polit茅cnica de Lausana, en Suiza, confirm贸 que el algoritmo de Twitter efectivamente realiza ese recorte y "discriminaba" algunas caras.
El algoritmo hab铆a sido eliminado de Twitter, luego de las quejas de los usuarios, que aseguraban que el programa eleg铆a rostros femeninos, blancos, delgados, j贸venes y con un tono c谩lido y bien contrastado.
Trying a horrible experiment... Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
鈥 Tony 鈥淎bolish ICE鈥 Arcieri (@bascule) September 19, 2020鈥淓n mi investigaci贸n gener茅 varias caras artificiales y las modifiqu茅 no arbitrariamente, sino de una manera muy espec铆fica para ver en cu谩les el algoritmo incrementaba la prominencia鈥, explic贸 Bogdan Kulynych, doctorando de la Universidad Polit茅cnica de Lausane a El Pa铆s聽en una conversaci贸n por videoconferencia.
Kulunych hab铆a participado del concurso que termin贸 en agosto, basado en una competici贸n entre inform谩ticos a quienes se permiti贸 analizar el algoritmo. Y se les ofreci贸 una recompensa por sus hallazgos.
Adem谩s, el especialista en sistemas y algoritmos, agreg贸: 鈥淪eleccion茅 solo un peque帽o grupo de 16 caras por problemas de tiempo y porque el proceso computacional es largo. Eran caras diversas y al final vi patrones. El algoritmo daba m谩s prominencia a caras m谩s j贸venes, delgadas, con m谩s calidez y rasgos femeninos鈥.
Aunque la muestra de Kulynych es peque帽a porque la competici贸n dejaba solo una semana para participar, cree que es probable que el problema fuera 鈥渇undamental鈥 y ocurriera igual si se repitiera con una muestra de caras mayor. 鈥淎unque sospecho que con ese an谩lisis m谩s extenso la diferencia ser铆a menos pronunciada o que los patrones ser铆an menos claros鈥, aclar贸.
Twitter finalmente elimin贸 este algoritmo en mayo pasado y ahora ofrece la posibilidad de que cada usuario pueda recortar la parte que quiere que se vea de la imagen de previsualizaci贸n.
鈥淓s una buena opci贸n鈥, opin贸 Kulynych, quien se帽al贸 que ese tipo de algoritmos no se ponen de momento a disposici贸n de investigadores externos para ver si hay sesgos o errores, dice Kulynych, aunque son una parte central de las tecnol贸gicas.
Testing this to see if it's real. pic.twitter.com/rINjaNvXaj
鈥 Jef Caine (@JefCaine) September 19, 2020鈥淎parte de los errores, est谩n los problemas en los algoritmos que emergen debido a la estructura de incentivos y optimizaci贸n de beneficios dentro de las compa帽铆as鈥, dijo Kulynych, que agreg贸 que 鈥渃on estos no organizan competiciones porque no son errores como tales鈥 y que 鈥渟olo pueden resolverse desde fuera y para ello ser铆a necesaria la regulaci贸n para retos como la mitigaci贸n de la desinformaci贸n en redes sociales, o aumento de la gentrificaci贸n en plataformas como Airbnb鈥. Sin embargo, remarc贸 que la capacidad de autorregulaci贸n de estas empresas 鈥渆s limitada鈥.
聽
Qu茅 son los algoritmos y c贸mo funcionan 聽Un algoritmo es un programa que ordena resultados a partir de datos que se le proporcionan. En el caso de Twitter escog铆a el fragmento (los p铆xeles) de una imagen que cre铆a que iba a ser m谩s interesante para destacarlo y que los usuarios de Twitter lo vieran en sus pantallas.
Este algoritmo proviene de un modelo elaborado a partir de seguir la mirada humana cuando aparece una imagen en una pantalla. Y supuestamente los humanos prefieren "caras de piel clara, femeninas, delgadas, j贸venes, y con un tono c谩lido y bien contrastado".
En un estudio previo al concurso que hizo la propia red social, y en el que ya se ve铆a cierto sesgo, tambi茅n analizaron lo que llaman la 鈥渕irada masculina鈥: a veces el algoritmo se centraba en zonas del cuerpo femenino que no eran la cara, lo que, seg煤n el art铆culo cient铆fico, se originaba en 鈥渓a representaci贸n constante de las mujeres como objetos sexuales para el placer desde la perspectiva de los hombres heterosexuales鈥.
Rumman Chowdhury, nueva directora (se incorpor贸 en febrero) de 脡tica de Machine Learning de Twitter admiti贸 la obviedad de que los sesgos de los algoritmos se basan en automatizar lo que los humanos hacemos de forma natural: 鈥淗emos creado estos filtros porque creemos que eso es lo que es 鈥榖onito鈥, y eso termina entrenando nuestros modelos y llev谩ndonos a estas nociones irreales de lo que significa ser atractivo鈥.