Las redes sociales permiten a sus usuarios compartir en tiempo real momentos gratos, divertidos o emotivos de sus vidas. A veces, sin intención, captan hechos delictivos. Otras, en cambio, son utilizadas adrede por quienes buscan hacer daño y que sus actos lleguen a millones de personas a lo largo y ancho del mundo.

Este fue el caso de Brenton Tarrant, el australiano de 28 años que transmitió en vivo la masacre que perpetró en la mezquita de Christchurch, Nueva Zelanda. Un atentado para dejar en tiempo real, su raid de odio y xenofobia. La emisión duró 17 minutos y no tuvo ningún tipo de filtro que bloqueara su difusión a través de la red social de Mark Zuckerberg.

En ese lapso, como si fuera un juego de Counter Strike, se ve el arma disparando y matando gente. El usuario porta varias armas incluyendo una escopeta y un rifle semiautomático. Lo que llamó la atención es cómo nadie cortó esa muestra cruda de muerte en vivo. 

Las políticas de seguridad de Facebook son estrictas, pero tienen fallas. A diario son analizados fotos, vídeos, perfiles y grupos denunciados por otros usuarios o por un algoritmo -basado en inteligencia artificial- y pasan los filtros de Facebook.

Posteriormente, un equipo de 20.000 moderadores son los encargados de garantizar que se cumplan las normas de seguridad. Unos 7.500 de ellos son revisores de contenidos que evalúan las 24 horas todas las publicaciones reportadas por los usuarios en más de 50 idiomas.

Sin embargo, la masacre en la mezquita de Christchurch superó todas esas barreras. Una vez reportado el problema por la policía de Nueva Zelanda ya era tarde: el video había sido visto por los seguidores de Tarrant. Por ende desde las aplicaciones lo que hicieron fue bajar el video que queda para poder volverlo a reproducir.

Las autoridades pertinentes no solo eliminaron el video, si no que también las cuentas del terrorista en Facebook e Instagram. Lo mismo sucedió en YouTube y Twitter. "También estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores tan pronto como estemos conscientes. Continuaremos trabajando directamente con la policía de Nueva Zelanda a medida que su respuesta e investigación continúen ", señaló la jefa de Facebook en Australia y Nueva Zelanda, Mia Garlick, en un comunicado oficial. 

Por su parte, Twitter dijo que suspendió una cuenta relacionada con el tiroteo y está trabajando para eliminar el video de su plataforma, de acuerdo con declaraciones de un portavoz de la compañía a CNN. YouTube, que es propiedad de Google, aseguró que elimina de su plataforma de videos “contenido impactante, violento y gráfico” tan pronto como se le informa.

"Estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores"

A la vista está que los controles impuestos por las redes sociales, al menos en la actualidad, apenas alcanzan para frenar la difusión de imágenes o videos que fomenten la violencia, contengan sexo explícito o mensajes con contenidos abusivos. El desafío será controlar estas emisiones en directo en  Facebook y YouTube, como así también en el resto las plataformas que tienen disponible esta función.