Facebook emitió una disculpa en nombre de su software de inteligencia artificial que preguntaba a los usuarios que veían un video con hombres negros si querían ver más "videos sobre primates". Desde entonces, el gigante de las redes sociales desactivó la función de recomendación de temas y afirmó estar investigando la causa del error, a pesar de que el video había estado en línea durante más de un año.

Un portavoz de Facebook le dijo a The New York Times este viernes que el mensaje automatizado fue un "error inaceptable" y se disculpó con cualquiera que se haya encontrado con la sugerencia ofensiva. El episodio se ve agravado cuando se tiene en consideración el contenido del video, que denuncia una práctica racista.

 

El clip, publicado por el Daily Mail el 27 de junio de 2020, documentó un encuentro entre un hombre blanco y un grupo de hombres negros que estaban celebrando un cumpleaños. El clip captura al hombre blanco supuestamente llamando al 911 para informar que estaba "siendo acosado por un grupo de hombres negros", antes de pasar a un video no relacionado que mostraba a los oficiales de policía arrestando a un inquilino negro en su propia casa.

El error salió a la luz cuando la ex empleada de Facebook, Darci Groves, tuiteó sobre el error el jueves después de que un amigo la advirtiera sobre la identificación errónea. Ella compartió una captura de pantalla del video que mostraba el mensaje de Facebook que leía "¿Seguir viendo videos sobre Primates?".

"Este mensaje de 'seguir viendo' es inaceptable, @Facebook", escribió. "Y a pesar de que el video tiene más de un año, un amigo recibió este aviso ayer. Amigos en [Facebook], por favor, difundan. Esto es atroz".

 

El prejuicio racial de la inteligencia artificial

Este no es el primer episodio que resalta un problema en los softwares de las redes sociales. En 2015, el software de reconocimiento de imágenes de Google clasificó las fotos de personas negras como "gorilas". Google se disculpó y eliminó las etiquetas de gorila, chimpancé, chimpancé y mono, palabras que permanecieron censuradas por más de dos años.

A fines de 2020, usuarios de Twitter se unieron en un insólito experimento para poner a prueba el sistema de recorte que hace la red social del pajarito, luego de que un internauta elevara la sospecha de un prejuicio racial:

Colin Madland, un estudiante universitario, comenzó publicando una captura de su reunión de zoom con un compañero de cátedra; él es blanco, su amigo, negro. Como la foto era demasiado ancha para el formato de Twitter, su algoritmo recortó la foto y se concentró en el rostro de Colin. Al invertir la foto de lugar, moviendo su colega a la derecha, el algoritmo aún se concetraba en su lado. El posteo generó una ola de experimentos, con usuarios poniendo a prueba el algoritmo de Twitter y descubriendo que tenía una clara preferencia por las personas blancas.

 

Twitter reaccionó rápidamente y explicó que había probado este tipo de problemas con su sistema de aprendizaje automático antes de lanzarlo, pero reconoció que había que trabajar más y prometió una solución. Tras investigación sobre su sistema de software, Twitter confirmó que efectivamente existía un problema de prejuicio racial en su algoritmo. La solución llegó unos meses después, con Twitter eliminando el recorte vertical de imágenes de su plataforma.

Ver comentarios