Por Redacción - 9 Julio 2019
En la lista de cosas que se esperan de la inteligencia artificial, la moderación de contenidos está en una posición destacada. Los gigantes de la red esperan que en un futuro próximo puedan dejar en sus manos la gestión de determinar qué contenidos son nocivos y cuáles no y sobre qué deben actuar y sobre qué no deben hacerlo. Los algoritmos ya se encargan de gestionar muchos elementos relacionados con el contenido, aunque por ahora la gestión de contenidos tóxicos acaba al final en manos de profesionales humanos. Los moderadores de contenidos de los gigantes de la red tienen un trabajo complejo (cada día se producen muchos, muchísimos contenidos), complicado y además tóxico (que el despido de uno de los subcontratados en EEUU en Facebook por protestar ha hecho más evidente).
La cuestión de la moderación de contenidos se ha convertido en algo complejo para los gigantes de la red, no solo por lo que requiere e implica sino también porque se ha convertido en un lastre para su imagen de marca.
Por un lado, el mercado ve de forma cada vez más crítica lo que están haciendo y lo que deciden que es contenido censurable y lo que no, al tiempo que también son muy críticos con la cantidad de contenidos que realmente son tóxicos y que acaban llegando de todos modos a los canales de distribución.
Por otro lado, en los últimos meses diferentes reportajes en profundidad han ido demostrando las condiciones en las que tienen que desarrollar sus funciones los trabajadores que contratan para ello (y que suelen ser empleados de subcontratas o de empresas creadas de forma específica para ello), lo que ha hecho que la visión que se tiene de las cosas se haya convertido en todavía peor.
La última que ha protagonizado un escándalo en este sentido es Jigsaw, una de las divisiones de Alphabet (Google) que está centrada en ciberseguridad y cuestiones geopolíticas. Las condiciones de trabajo para sus empleadas, como acaba de demostrar un informe, son tóxicas. El entorno laboral es sexista y las profesionales son discriminadas en la cadena de mando. La situación es tan negativa y el clima tan nefasto que las propias trabajadoras y ex-empleadas han creado una red paralela para ayudar a las mujeres que trabajan allí a abandonar la compañía.
La situación es tan nefasta, como publican en Motherboard (el medio que ha destapado la situación), que en su crónica acaban concluyendo que algo que nació que acabó con la cultura tóxica de la red ha acabado siendo tóxico en sí mismo. En el análisis de Motherboard se apuntan muchos más puntos débiles, además de la situación de las empleadas de la compañía y se concluye que en realidad poco está haciendo por hacer de la red algo mejor.
Jigsaw, eso sí, no es una división para moderación de comentarios (aunque sí tiene una solución de IA para ello) sino un elemento más amplio que trabaja en la dirección de mejorar la red.
Google, como corporación, ya ha tenido problemas en el pasado - y sigue teniéndolos, El País acaba de publicar un análisis de cómo da acceso a desinformación sin muchos problemas en YouTube con palabras clave en castellano - por cómo se emplean sus servicios, especialmente YouTube, para distribuir contenidos tóxicos, extremistas y desinformación.
Y a eso hay que sumar, claro está, el gran escándalo que a principios de este año demostraba la cultura de trabajo de lo que no se ve de la red. El trabajo de los moderadores de contenidos de las redes sociales es muy importante, pero como demostraba un amplio reportaje de The Verge su trabajo es brutal y directamente tóxico.
El medio se había adentrado en las condiciones de trabajo de los moderadores en EEUU (aunque un reportaje posterior en Eldiario.es demostraba que las condiciones en Europa son similares) y había demostrado cómo se dejaba ese trabajo en manos de trabajadores jóvenes, carne de cañón que necesitaba esos ingresos y que acababa tomando decisiones complicadas muy rápido y exponiéndose a contenidos horribles que terminaban pasándoles factura emocionalmente.
Los trabajadores señalaban a The Verge que había quien acababa creyendo teorías conspiranoicas por culpa de estar viéndolas todo el tiempo, aunque lo cierto es que eso casi no era lo peor. Los moderadores se enfrentaban a contenidos violentos y trágicos (como asesinatos) como si estuviesen viendo cualquier otra cosa. Las condiciones de trabajo no facilitaban además sobreponerse a lo que acababan de ver.
El reportaje y sus conclusiones se acabó convirtiendo en - como casi se podría decir que obviamente - viral y Facebook, que ya acumulaba meses y meses de debacle de imagen, se enfrentó a un nuevo golpe en su armadura de empresa cool y moderna.