Facebook explic贸 por qu茅 no fren贸 transmisi贸n en Nueva Zelanda
La emisi贸n de la masacre dur贸 17 minutos y聽no tuvo ning煤n tipo de filtro que bloqueara聽su propagaci贸n聽a trav茅s de聽la red social. Desde la compa帽铆a estadounidense aclararon que聽su sistema para detectar contenido inapropiado "no es perfecto".
El entierro de las 50 personas asesinadas en las mezquitas de la ciudad neozelandesa de Christchurch, el viernes pasado, continu贸 ayer con oraciones y mucho dolor entre los familiares de las v铆ctimas. Mientras tanto, la bronca por la transmisi贸n en vivo en Facebook de la matanza segu铆a en aumento, por lo que las autoridades de la red social debieron reconocer que hubo fallas que permitieron la divulgaci贸n de las im谩genes.
M谩s de 4.000 veces fue visto el video antes de que Facebook lo retirara por primera vez, ya que luego hubo internautas que trataron de cargarlo m谩s de un mill贸n de veces. Por eso, el gigante creado por Mark Zuckerberg tuvo que aclarar que su sistema de inteligencia artificial para detectar contenido no permitido “no es perfecto”聽聽y fall贸 a la hora de reconocer las im谩genes que sub铆a el terrorista australiano Brenton Tarrant.
El vicepresidente en gesti贸n de Facebook, Guy Rosen, explic贸 que, aunque la inteligencia artificial logr贸 un “progreso masivo en muchas 谩reas en los 煤ltimos a帽os” que les permite ser “proactivos” en la detecci贸n de contenidos, el sistema “no es perfecto”.
“La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, im谩genes o videos”, expres贸, antes de agregar que necesitan “proveer” a sus sistemas de “grandes vol煤menes de datos, algo que resulta dif铆cil puesto que, afortunadamente, este tipo de sucesos no son habituales”.