驴Por qu茅 Facebook no pudo interrumpir el vivo del atentado en Nueva Zelanda?

Fueron 17 minutos en los que el terrorista聽Brenton Tarrant聽se film贸 disparando dentro de la mezquita sin que la red social advirtiera el contenido de las im谩genes.

Las聽redes sociales permiten a sus usuarios compartir en tiempo real momentos gratos, divertidos o emotivos de sus vidas. A veces, sin intenci贸n, captan hechos delictivos. Otras, en cambio, son utilizadas adrede por quienes buscan hacer da帽o y que sus actos lleguen a millones de personas a lo largo y ancho del mundo.

Este fue el caso de聽Brenton Tarrant, el australiano de 28 a帽os que transmiti贸 en vivo聽la masacre que perpetr贸 en la mezquita de Christchurch, Nueva Zelanda. Un atentado para dejar en tiempo real, su raid de odio y xenofobia.聽La emisi贸n dur贸 17 minutos y no tuvo ning煤n tipo de filtro que bloqueara su difusi贸n a trav茅s de la red social de Mark Zuckerberg.

En ese lapso, como si fuera un juego de聽Counter Strike, se ve el arma disparando y matando gente. El usuario porta聽varias armas聽incluyendo una escopeta y un rifle semiautom谩tico.聽Lo que llam贸 la atenci贸n es c贸mo nadie cort贸 esa muestra cruda de muerte en vivo.聽

Las pol铆ticas de seguridad de Facebook son estrictas, pero tienen fallas. A diario son analizados fotos, v铆deos, perfiles y grupos denunciados por otros usuarios o por un algoritmo聽-basado en inteligencia artificial- y pasan los filtros de Facebook.

Posteriormente, un equipo de 20.000 moderadores聽son los聽encargados de garantizar que se cumplan las normas de seguridad. Unos 7.500 de ellos son revisores de contenidos que聽eval煤an las 24 horas聽todas las publicaciones reportadas聽por los usuarios en m谩s de 50 idiomas.

Sin embargo, la masacre en la mezquita de Christchurch super贸 todas esas barreras.聽Una vez reportado el problema por la polic铆a de Nueva Zelanda ya era tarde: el video hab铆a sido visto por los seguidores de Tarrant. Por ende desde las aplicaciones lo que hicieron fue bajar el video que queda para poder volverlo a reproducir.

Las autoridades pertinentes no solo eliminaron el video, si no que tambi茅n las cuentas del terrorista en Facebook e Instagram. Lo mismo sucedi贸 en YouTube y Twitter.聽"Tambi茅n estamos聽eliminando cualquier elogio o apoyo聽para el crimen y el tirador o probables tiradores tan pronto como estemos conscientes. Continuaremos trabajando directamente con la polic铆a de Nueva Zelanda a medida que su respuesta e investigaci贸n contin煤en ", se帽al贸聽la jefa de Facebook en Australia y Nueva Zelanda, Mia Garlick, en un comunicado oficial.聽

Por su parte,聽Twitter聽dijo que suspendi贸 una cuenta relacionada con el tiroteo y est谩 trabajando para eliminar el video de su plataforma, de acuerdo con declaraciones de un portavoz de la compa帽铆a a CNN.聽YouTube, que es propiedad de聽Google, asegur贸 que聽elimina de su plataforma de videos聽“contenido impactante, violento y gr谩fico” tan pronto como se le informa.

"Estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores"

A la vista est谩 que los聽controles impuestos por las redes sociales, al menos en la actualidad, apenas alcanzan para frenar la difusi贸n de im谩genes o videos que fomenten la violencia, contengan sexo expl铆cito o mensajes con contenidos abusivos.聽El desaf铆o ser谩 controlar estas emisiones en directo聽en聽Facebook y聽YouTube, como as铆 tambi茅n en el resto las plataformas que tienen disponible esta funci贸n.聽

Esta nota habla de: