Ahora pod茅s descargarte con Facebook si te bloquea contenido
Quienes tengan un perfil en esta red social tendr谩n la posibilidad de聽apelar en caso de que sus publicaciones sean borradas por no respetar "Normas Comunitarias"聽de la empresa.
Los usuarios de Facebook podr谩n apelar las decisiones con las que la red social decide dar de baja un contenido, como suele suceder cuando una foto muestra desnudez, violencia expl铆cita, explotaci贸n sexual infantil u otras caracter铆sticas que violan las 鈥淣ormas Comunitarias鈥 de la empresa.
Adem谩s, la compa帽铆a public贸 por primera vez las pautas internas que sus empleados usan para aplicar esas normas (las que definen qu茅 se mantiene y qu茅 se elimina), con el objetivo de ayudar a las personas 鈥渁 entender d贸nde trazamos la l铆nea en estas cuestiones鈥, afirm贸 Monika Bickert, vicepresidenta de Facebook para Pol铆ticas Globales de Producto.
La iniciativa busca tambi茅n obtener las opiniones de usuarios y de expertos en distintos campos para 鈥渕ejorar las pautas y las decisiones que tomamos鈥, se帽al贸 la ejecutiva ante la consulta.
El primer paso en este sentido implica la posibilidad para los usuarios de apelar las publicaciones 鈥渜ue fueron removidas por desnudez o contenido sexual, discurso de odio o violencia gr谩fica鈥.
Por ejemplo, 鈥渟i tu foto, v铆deo o publicaci贸n ha sido eliminado por violar nuestras Normas Comunitarias, se te dar谩 la opci贸n de solicitar una revisi贸n鈥, detall贸 la empresa, y aclar贸 que "las apelaciones son revisadas por el equipo de operaciones comunitarias (siempre por una persona) en el plazo de 24 horas鈥.
"Si hemos cometido un error, el contenido ser谩 restaurado y notificaremos a la persona que solicit贸 la apelaci贸n", asegur贸 en un documento al que tuvo acceso esta agencia.
En un futuro cercano, Facebook dar谩 tambi茅n la posibilidad de apelar otros tipos de infracciones, no solo para el contenido que dado de baja sino tambi茅n para aquel que fue reportado pero no fue removido de la plataforma.聽
Bikert, ex fiscal, est谩 al frente de una equipo compuesto por alrededor de 60 personas -distribuidas en 11 oficinas alrededor del mundo- con diferentes formaciones, como abogados, especialistas en seguridad infantil o en terrorismo, quienes trabajan escribiendo las pol铆ticas y supervisando su implementaci贸n.聽
Esta tarea, en tanto, la realiza el equipo de Operaci贸n Comunitaria, compuesto por alrededor de 7.500 personas, los llamados revisores de contenidos, que 鈥渆st谩n distribuidos alrededor del mundo y revisando contenidos que han sido reportados, ya sea por usuarios que utilizan las herramientas para reportar u otros que nuestra tecnolog铆a marc贸 por ser contenidos que pueden violar nuestras pol铆ticas鈥, explic贸 Bikert.
Este equipo trabaja en 40 idiomas diferentes durante las 24 horas todos los d铆as, y en el 煤ltimo a帽o la cantidad de miembros aument贸 en un 40 por ciento.聽
"En algunos casos, nos equivocamos porque nuestras pol铆ticas no son lo suficientemente claras para nuestros revisores", se帽alaron desde la compa帽铆a, y agregaron: 鈥淓n la mayor铆a de las ocasiones, sin embargo, cometemos errores porque los procesos involucran a personas, y las personas somos falibles鈥.
Pero la empresa tambi茅n tiene sistemas de revisi贸n automatizada (basados en inteligencia artificial), que act煤an 鈥渁l momento de subir un contenido y se hace en casos como pornograf铆a infantil o videos de decapitaciones, que no est谩n permitidos en Facebook de ninguna manera鈥.聽
El trabajo de estos equipos se gu铆a por una serie de lineamientos internos que definen qu茅 puede publicarse y qu茅 no sobre un amplio abanico de t贸picos sensibles como discurso de odio, violencia gr谩fica, desnudez, actividad sexual, spam, explotaci贸n sexual infantil, promoci贸n del crimen, suicidio, bullying, acoso, terrorismo o amenazas, entre otros.
Estos son los lineamientos que a partir de hoy est谩n al alcance de cualquier persona que los quieran leer.
"Una de las preguntas que nos hacen con m谩s frecuencia es c贸mo decidimos el contenido que est谩 permitido en Facebook. Estas decisiones est谩n entre las m谩s importantes que tomamos porque son fundamentales para garantizar que Facebook sea a la vez un lugar seguro y un lugar para compartir con libertad diferentes puntos de vista", concluy贸 Bikert.