Por Redacción - 14 Septiembre 2021
Hace unos días, una amiga pasaba por un grupo de WhatsApp un pantallazo de un mensaje que le acababa de mandar Facebook. Una publicación que había hecho en su muro de la red social, una respuesta sarcástica a otro mensaje de una amiga, había sido bloqueado. Facebook lo desactivó justo después de haberlo publicado. Su sistema lo identificó, de una forma un tanto surrealista, como "contenido de odio". Si reincidía, nos decía por WhatsApp, la bloquearían "o algo así".
El bloqueo de su mensaje dio para toda una reflexión de intercambio de mensajes en la app - también propiedad de Facebook, por otra parte - sobre todas las barbaridades que la red social no bloquea. Resultaba paradójico que una broma interna activase todas las alarmas pero que no lo hiciesen la desinformación o los mensajes de odio que han hecho que algunas marcas abandonen.
Lo cierto es que los argumentos de esa conversación entre amigas es lo que han ido repitiendo activistas y analistas durante años, especialmente cada vez que Facebook bloquea contenidos como campañas de prevención del cáncer de mama o sobre la lactancia.
Lo que esos analistas no sabían es que, además, Facebook tiene un doble rasero. Lo que puede lleva a que un don nadie sea bloqueado en la red social no le afectará del mismo modo a la élite de usuarios que, al final, pueden decir lo que quieran. Facebook ha creado una separación entre ellos y todos los demás, como acaba de demostrar una investigación de The Wall Street Journal.
Como explica el Journal, los documentos internos a los que ha tenido acceso demuestran que, aunque Facebook asegura que todos los usuarios son iguales y por ello se permite la libertad de expresión y la comunicación entre iguales, la realidad no es exactamente así. Los mínimos de comportamiento que se espera de los usuarios de la red no se aplican a un grupo especial, los beneficiados por el programa XCheck.
El programa nació, explica el diario económico, para hacer control de calidad en las acciones contra cuentas de alto nivel, perfiles muy populares. Sin embargo, ha acabado funcionando como un escudo que hace que esas cuentas operen como una lista blanca al margen de la moderación. En esencia, pueden publicar lo que quieran sin consecuencias inmediatas.
Es lo que permitió que Donald Trump publicase contenidos que atentaban contra las normas de la red social durante tanto tiempo o que le dio cancha libre a Neymar en 2019 para publicar las fotos desnuda de una mujer que lo había acusado de haberla violado. Las fotos fueron eliminadas por Facebook, pero antes habían llegado ya a los feeds de sus seguidores.
Facebook ha puntualizado, públicamente, lo que es XCheck al Journal. Aunque hacer críticas del programa es justo, el sistema se creó, apuntan, para que se puedan "aplicar de forma adecuada las políticas de contenido" que requieren "más comprensión".
Sin embargo, en los documentos internos a los que ha tenido acceso el diario económico se lee que "no estamos haciendo lo que decimos públicamente". "A diferencia del resto de nuestra comunidad, esta gente puede violar nuestros estándares sin consecuencias". De hecho, incluso cuando se detectaba un problema, hasta 2020 esos famosos del listado tenían una ventana de gracia: se les daba 24 horas para que ellos mismos eliminasen el contenido antes de que Facebook lo bloquease.
¿Cuántas cuentas están protegidas por el paraguas de XCheck? En 2020, según el Journal, eran como mínimo 5,8 millones. En la lista de quién merece tratamiento especial entran quienes son "noticiosos", "influyentes o populares" o un "riesgo de PR".