Por Redacción - 4 Abril 2019
Se podría decir que no pasa semana sin que alguna de las grandes de internet no acabe protagonizando un escándalo vinculado a privacidad, a seguridad o a la propagación de contenidos cuestionables. Facebook y YouTube/Google llevan viviendo ya así meses e incluso años en los que los titulares escandalosos y los fallos brutales se suceden.
El último escándalo de Facebook vuelve a estar relacionado con los datos personales de sus consumidores y con cómo aparecen en espacios que, como recuerdan en AdAge, no son donde deberían aparecer. Una compañía de seguridad, UpGuard, ha encontrado datos sobre usuarios de la red social guardados en la nube de Amazon y en abierto (cualquiera que los encontrase podía verlos). Los datos estaban asociados a terceros. CulturaColectiva, una plataforma digital, había almacenado allí 540 millones de registros. Incluían reacciones, nombres de cuenta, comentarios y números de identificación de los usuarios. Una app ya no existente, At the Pool, lo había hecho con nombres, contraseñas y direcciones de email. La información que podría estar disponible y abierta podría ser mucha más, porque la compañía de seguridad encontró 100.000 bases de datos en Amazon con más datos.
El escándalo vuelve a traer, una vez más, a Cambridge Analytica a la palestra informativa, ya que lo que hizo que esta compañía tuviese información y lo que ha hecho que estas otras tuviesen otros es el mismo punto de partida. Todas ellas eran plataformas de terceros que usaban la red social y con las que Facebook compartía información, algo que hizo durante años, como recuerdan en el medio estadounidense.
"El público no se ha dado cuenta todavía de que estos administradores de sistemas de alto nivel y desarrolladores, la gente que son custodios de sus datos, están siendo vagos, tomando riesgos o cogiendo atajos", explica Chris Vickery, director de investigación en UpGuard, la compañía que ha destapado este escándalo, recordando que "no se está tomando el cuidado suficiente con el lado de la seguridad en el big data".
Y, aunque Facebook no es el culpable directo de la fuga de información (ellos no han almacenado los datos en la nube de Amazon y no se han encargado de protegerlos), sí lo es de forma indirecta, ya que creó el entorno favorable para ello y, como le había ocurrido con todo el escándalo de Cambridge Analytica, no se encargó de hacer un seguimiento de lo que ocurría con la información. Una vez que los datos habían sido compartidos con los demás jugadores, se lavó por completo las manos de lo que ocurría con ellos. El problema está en que para los consumidores esto ya no es aceptable.
Teniendo en cuenta que no hace muchos días la compañía tuvo que reconocer un problema directo de seguridad (había dejado expuestas las contraseñas de varios millones de cuentas en su sistema interno de almacenamiento) y que la lista de problemas de seguridad y privacidad es ya tan larga y diversa que la propia prensa especializada reconoce que hacer un resumen es ya demasiado complicado, se puede comprender por qué Facebook tiene un serio problema. Hasta ahora, su imagen lo ha resistido todo pero ¿hasta cuándo logrará seguir resistiendo?
Eso sí, los problemas de seguridad no son los únicos que amenazan la reputación de Facebook y Facebook no está sola en toda esta complicada situación. Facebook lleva años ya siendo vista de forma crítica como un entorno para la expansión de las fake news y para la radicalización de la sociedad. Los ejemplos de cómo Facebook ha impactado en elecciones, en la visión de temas noticiosos y hasta en episodios muy serios de violencia (como ocurrió en Myanmar en la oleada de violencia contra los rohingya) empiezan a ser ya demasiados.
Y, aunque Facebook acaba de anunciar que cerrará grupos que defiendan el extremismo blanco, las críticas sobre sus políticas de gestión de contenidos y de censura son todavía muchas. Al fin y al cabo, Facebook puede censurar una campaña sobre el cáncer de mama porque muestra una foto de un pecho (lo que va en contra de sus normas sobre contenido "sexual") pero no contenidos violentos o racistas. El trabajo de sus moderadores es terrible, malpagado y poco efectivo, como han ido desvelando los artículos que han abordado el tema.
Algo similar ocurre con YouTube. La compañía no tiene líneas claras de actuación y está, de hecho, apuntalando contenidos divisivos o conspiranoicos.
Una investigación de Bloomberg ha estudiado en profundidad la situación en la que se encuentra la plataforma (en un año, apuntan, YouTube está más asociado a las "partes oscuras" de la red de lo que estaba doce meses antes) y lo que YouTube hace para gestionar esa realidad.
Sus conclusiones son las de que no solo YouTube está permitiendo que ese tipo de contenidos afloren y se compartan, sino que además gracias a su tecnología, y a dejar en manos de la inteligencia artificial las recomendaciones, está haciendo que sea más fácil que se propaguen. Esto ocurre, y esta es posiblemente la conclusión más peligrosa para la imagen de la plataforma, a pesar de que muchas personas han alertado ya a Google, especialmente desde dentro, de lo que ocurría y de sus riesgos. YouTube prefirió, se puede concluir leyendo lo que publica Bloomberg, mirad hacia otro lado dando más importancia al engagement.