Twitter bloque贸 a una escritora por escribir el t铆tulo de su novela: por qu茅 censuran las redes y c贸mo impedirlo

La escritora argentina Ariana Harwicz denunci贸 que la red social le restringi贸 la cuenta “por promover el suicidio” tras escribir el t铆tulo de su obra “Matate, amor”. Por qu茅 Facebook y Twitter suelen censurar expresiones v谩lidas y qu茅 se puede hacer al respecto.

@macarenacdl

El pasado viernes, Ariana Harwicz, escritora argentina radicada en Francia, public贸 en un tweet un mail que le lleg贸 de la red social Twitter luego de que la plataforma le bloqueara el acceso a su cuenta por 鈥渋ncitar al suicidio鈥.

Ayer mi cuenta fue bloqueada por 鈥榩romover el suicidio鈥 + 鈥榠ncitar a la automutilaci贸n鈥 al escribir el t铆tulo de mi novela, cont贸 en referencia a su c茅lebre obra 鈥Matate, amor鈥. Adem谩s, denunci贸 que una colega que se solidariz贸 sufri贸 las mismas consecuencias e ironiz贸 驴Alguien tiene la lista de palabras permitidas?

Ayer mi cuenta fue bloqueada por 'promover el suicidio' + 'incitar a la automutilaci贸n' al escribir el t铆tulo de mi novela. Me enviaron una lista de centros para evitar que me suicide. @Margo_Glantz se solidariz贸, y la bloquearon. 驴Alguien tiene la lista de palabras permitidas? pic.twitter.com/v9kiZAI1B0

鈥 Ariana Harwicz (@ArianaHar) February 5, 2021

El bloqueo a Harwicz no es un caso aislado sino que es otro dentro de una larga lista de expresiones v谩lidas, amparadas por las garant铆as a la libertad de expresi贸n, censuradas en redes sociales. En 2016, por ejemplo, el periodista mapuche Umawtufe Wenxu denunci贸 que Facebook le hab铆a cerrado su cuenta personal por considerar que no usaba un 鈥渘ombre real鈥, como exigen los t茅rminos y condiciones de la plataforma.

驴Por qu茅 Twitter y Facebook censuran estos contenidos si est谩n amparados por el derecho a la libertad de expresi贸n?

Las redes sociales son espacios privados donde sucede el debate p煤blico y estos espacios tienen ciertas reglas de uso鈥, dice Javier Pallero, director de pol铆tica p煤blica en Access Now, una organizaci贸n internacional dedicada a los derechos humanos y a promover una Internet libre y abierta. Pallero explica que plataformas como Twitter y Facebook funcionan como curadoras de contenidos con una l铆nea editorial propia: 鈥Esto quiere decir que hay mucho contenido que es legal y que, por lo tanto, est谩 protegido por la libertad de expresi贸n, que Facebook decide que no va a permitir en su espacio privado鈥. Es el caso, por ejemplo, de los desnudos o cierto contenido violento.

Estas plataformas privadas, cuenta, trabajan con esta l铆nea editorial de forma autorregulada, como hacen los medios de comunicaci贸n tradicionales. Pero a diferencia de los medios, que se ven sujetos a control posterior por parte de entidades que garantizan, entre otras cosas, que haya diversidad o que no haya discriminaci贸n, 鈥en Internet no existe eso todav铆a鈥. Internet no cuenta con estos organismos de control, afirma, porque en su origen se plante贸 la existencia de m煤ltiples plataformas, cada una con sus reglas, donde se pueda desarrollar el debate p煤blico.

Un escenario muy distinto al actual, donde predomina la concentraci贸n: 鈥Sucede que hay concentraci贸n en el espacio de las redes sociales, cuasi oligopolios, hay un pu帽adito de empresas que manejan todo lo que es interacci贸n directa con los usuarios en redes sociales (Facebook y Twitter, sin ir m谩s lejos) que por su dominancia, a pesar de ser espacios privados tienen un impacto en el debate p煤blico. Y ese impacto en el debate p煤blico amerita cierto tipo de regulaci贸n鈥, sostiene Pallero.

Con regulaci贸n no se refiere a que se deba ejercer control directamente sobre el contenido (es decir, qu茅 se puede decir y qu茅 no), sino a 鈥poner ciertas condiciones para que esta autorregulaci贸n tenga l铆mites, que sea una autorregulaci贸n regulada鈥. Pone como ejemplo ciertos debates que se est谩n desarrollando en Europa, donde se discute 鈥c贸mo hacer que esto sea m谩s transparente, que las decisiones se justifiquen, que sean claras y predecibles, que exista el derecho a la apelaci贸n鈥 frente a casos de censura injustificada como el de Harwicz.

Para asegurar estas garant铆as a la libertad de expresi贸n de los usuarios, Pallero propone ciertos requisitos b谩sicos a considerar: 鈥Los criterios que hay que tener en cuenta鈥, sostiene, 鈥渟on la transparencia, la rendici贸n de cuentas, la auditor铆a de algoritmos para asegurarse de que no sean discriminatorios, antojadizos o arbitrarios, que haya predicibilidad, apelaci贸n. Requisitos m铆nimos para hacer que todo esto sea menos impredecible, arbitrario e injusto鈥.

Esta nota habla de: