Las redes sociales intervienen con protocolos de censura ante el aumento de los mensajes de odio
El cansancio por la cuarentena y las decisiones de los gobiernos para controlar la pandemia del coronavirus expuso los pensamientos de millones de usuarios, quienes son controlados por estas compañÃas que de alguna manera, deciden los lÃmites de la libertad de expresión.
Los discursos de odio en las redes sociales se exacerbaron los últimos dÃas en medio la crisis mundial generada por la pandemia del coronavirus (orthocoronavirinae).
Por esta situación, Facebook y Twitter debieron intervenir continuamente para eliminar contenidos xenófogos o intimidatorios, lo que generó una serie de conflictos éticos por el alcance de la libertad de expresión y qué tipo de potestad pueden tener estas empresas y compañÃas para regular "según su reglamento" lo que se postea.
Esta tensa situación se expuso aún más cuando el presidente de Estados Unidos, Donald Trump, fue censurado bajo el argumento de "glorificar la violencia".
"Twitter ya nos ha demostrado que todo lo que hemos estado diciendo de ellos...es correcto. Se viene una medida importante!", escribió el mandatario yanqui en la red social, de la cual es un usuario asiduo con respecto a su situación.
Por todo lo vivido, Trump firmó el último jueves una orden ejecutiva, para poner trabas a uno de los pilares de internet desde 1996, que es que las redes sociales o lo comentarios en un blog no pueden ser denunciados por lo que escriban los usuarios.Â
La ensayista española Carolina Emcke en su libro "Contra el odio", plantea que el racisco y el rechazo al diferente están en el centro de la sociedad, a raÃz de las dinámicas que falicitan las redes, lo que deja para el anáisis si es que la "socialización" fue generada a través de estas plataformas o si éstas funcionaron simplemente como una vÃa para visibilizar comportamientos preexistentes en las personas.
El cansancio de los usuarios por las restricciones por el covid-19 tensionó aún más sus comportamientos y generó un debate sobre si la preservación de la vida justifica los dispositivos que ciertos paÃses pusieron en marcha para medir el humor social sobre las decisiones que toman para controlar la circulación del virus.
Â
Facebook fue uno de los expuso que en los primeros tres meses de este 2020, eliminó unas 9,6 millones definidas como un discurso de odio, casi el doble que el mismo perÃodo durante 2019.
La compañÃa fue más allá y armó con ayuda de inteligencia artificial una base de datos de más de 10.000 memes para indentificar con mayor eficacia la aparición de ese tipo de contenidos.
"Lo importante es tener claro a qué consideran 'odio', porque esa categorÃa habilita de inmediato la censura y el silenciamiento. A primera vista, lo que tanto la cuarentena sanitaria como las polÃticas de uso de Facebook no pueden ocultar es que aquel antiguo sueño de internet como un segundo mundo ideal, diseñado para afianzar la concertación definitiva de la Humanidad, ya no existe", sostiene el escritor y ensayista Nicolás Mavrakis.
"Por supuesto, más allá de este paisaje de fondo, el verdadero problema no es que Facebook censure millones de publicaciones catalogadas como 'discursos de odio', sino que confunda al odio con la negatividad, que lejos de significar lo mismo, es nada menos que el primer paso intelectual para poner en marcha al entendimiento", explicó a Télam.
Mavrakis, que analizó estas cuestiones en un libro llamado precisamente "La utilidad del odio", cita al filósofo coreano ByuChul Han, según él quien mejor define el problema en los ecosistemas digitales: "Partiendo de las premisas de Hegel, el punto clave es que al 'borrar' cualquier amenaza de negatividad en las redes como Facebook, es decir, cualquier obstáculo para la 'positividad' constante del 'Me gusta', lo que queda en pie es únicamente una sociedad que le cede su capacidad de entendimiento a las conveniencias de Facebook, que no son otras que las conveniencias del mercado", afirmó.
"Es el mercado, entonces, antes que la convivencia democrática o la fraternidad universal, y claro que desde mucho antes del contexto actual de la cuarentena, lo que encuentra en la negatividad un obstáculo serio para la libre circulación de sus intereses, y por eso Facebook se ocupa de neutralizar cualquier indicio de negatividad, a veces, llamándolo simplemente 'odio'", analizó.
Por otra parte, la politóloga y Magister en Periodismo Natalia Zuazo plantea en lÃnea con Mavrakis las dificultades para generar un consenso en torno a la definición de "odio" cuando está referido a las intervenciones que tienen lugar en las redes: "El discurso de odio es uno de los más complicados en internet para regular porque no tenemos una definición unÃvoca. Según la Comisión Interamericana de Derechos Humanos (CIDH), hay que encontrar un nexo entre ese discurso y una consecuencia generada por él, es decir, ver si ese discurso provocó un daño".
Â
"Es fundamental detectar ese lÃmite para determinar si aquello que se escribió provocó efectivamente una consecuencia, porque sino corremos el riesgo de restringir lo que está contemplado dentro de la libertad de expresión –enfatiza-. Y además plataformas como Facebook o Twitter no deberÃan tener lineamientos privados para definir qué es libertad de expresión. Sin embargo, en los hechos, funciona asÃ", asegura la autora de "Las guerras de internet" y "Los dueños de internet".
Para Zuazo, uno de los elementos más cuestionables del patrullaje que lleva adelante Facebook es que en ningún caso se especifica cuáles son los materiales removidos: "No lo hacen y además siguen las polÃticas de las plataformas que se basan en la autorregulación, algo asà como decir 'nosotros hacemos las leyes'", criticó.
"Y en última instancia, habrÃa que preguntarse si eliminar los discursos ligados al odio contribuye a enfriar la escena social: ¿Tener más contenidos removidos significa algo bueno? No lo sabemos, porque las reglas las pone Facebook. El otro camino serÃa que las reglas sean establecidas democráticamente por un grupo de personas afectadas. Por ejemplo, si en la Argentina los principales crÃmenes de odio son los relacionados con la identidad sexual, habrÃa que convocar a las asociaciones de la comunidad LGBT para pensar estos temas", aportó.
También habrÃa que plantear si con su polÃtica de algoritmos que agrupan a los usuarios por patrones de afinidad, las redes no terminan desacostrumbrando a una mayorÃa al contacto con lo divergente y entonces cuando se produce contrapunto asume tan rápidamente las formas del agravio".
"Sin duda, con esta modalidad las redes generan desacostumbramiento y entonces cuando se produce cualquier contrapunto, se asume que este es una de las formas del agravio. Han dirÃa que al no poder tratar con la negatividad, lo que resta es una sociedad con graves 'deficiencias inmunológicas subjetivas': personas cuyas sensibilidades ya no pueden tratar ni con la más mÃnima disidencia, y entonces 'bloquean', 'silencian' o 'dejan de seguir"' a quienes los inoportunan pensando distinto", concluyó Mavrakis.
Â