Al parecer, el video animado comienza con una foto de las banderas negras de la Yihad. Segundos después, aparecen pequeños encabezados de un año de posts en las redes sociales: Versos y fotos antisemitas, hablando de venganza y una foto de dos hombres llevando más banderas de la Yihad mientras queman banderas de los Estados Unidos.
Este video que describimos no fue producido por terroristas islámicos sino por Facebook, y si has utilizado la aplicación en los últimos meses es posible que ya sepas por donde van los tiros.
Gracias por estar aqui con nosotros, de facebook
El video finaliza con la animación de una burbuja a modo de cómic antes de mostrar el famoso botón de la compañía de "me gusta".
A Facebook le gusta generar contenido de video de forma automática. Ha sido una de las funcionalidades en las que Facebook más ha invertido para aumentar la retención de sus usuarios en la plataforma.

Pero la generación automática de contenidos puede provocar serios problemas si no se supervisa de ninguna manera. Generar contenido automatizado casi de forma arbitraria para ellos a partir de datos de usuarios es una cosa, y filtrar contenido inapropiado es otra completamente diferente.
Facebook lleva tiempo entrenando a sus sistemas de machine learning con éxito para que aprendan a filtrar el contenido inapropiado que se filtra dentro de su plataforma (cómo porno, pedo filia, decapitaciones... El mundo es muy grande y está lleno de gente). No obstante, un confidente anónimo desde la web NWC ( National Whistleblower Center, que viene a ser una plataforma donde la gente puede dar chivatazos interesantes y apropiados de este tipo de informaciones) aseguran que exageran la efectividad de dichos sistemas.
Sistemas de control en Facebook
En su última entrevista pública, Mark Zuckerberg - el fundador de Facebook - aseguró que Facebook filtra el 99% de los videos de contenido inapropiado y generados con fines propagandísticos (prohibidos) antes de que ni siquiera llegue a una revisión humana. No obstante, hay que tener en cuenta que el 1% de casi 3 mil millones de usuarios son 30 millones de personas. para haceros a una idea de lo grandes que son estos sistemas. Un filtro con un 99% de seguridad deja pasar un 1% de las billones de interacciones que tienen los usuarios.
El resultado os lo podéis imaginar. De acuerdo con la queja impuesta, en un periodo de cinco meses el año pasado, los investigadores monitorizaron páginas por usuarios que se afiliaron con grupos que el departamento de estado de los EE.UU habían designado como organizaciones terroristas. En ese periodo, el 38% de los posts de estas páginas con símbolos extremistas fueron eliminados y no hace falta examinar ni estudiar mucho para echar un vistazo a través de Facebook y encontrar este tipo de videos con relativa facilidad, lo cual puede dar a entender que Facebook exagera esos números.
Podemos pensar que ante una inmensidad de datos, Facebook pueda tener dificultad a la hora de poner una barrera efectiva ante este tipo de contenidos, pero esto no debería de eximirles de este tipo de responsabilidades.
Un mar de datos
Se estima que Facebook genera hasta 4 peta bytes de información nueva cada día. Esto son más de 4000 terabytes diarios (son 15 ceros).
Aunque el estudio que se ha llevado a cabo dista bastante de ser un estudio científico (porque es raro que Facebook facilite su información privada al público), la facilidad de identificar a las personas afiliadas a estos perfiles utilizando una sola palabra clave sugiere que Facebook exagera enormemente la capacidad censora de sus sistemas, y que en muchos casos estos datos son imprecisos o inciertos.
Por qué es esto importante?
Si estudiamos el caso de Facebook desde un punto de vista antropológico para el ser humano, estamos ante un sistema muy nuevo en la historia de la humanidad que apenas lleva tiempo en activo. Solo ahora se puede empezar a comprender con gran claridad el enorme poder que se puede obtener de estos datos y en qué medida se pueden emplear para manipular la opinión pública y /o los resultados de unas elecciones.
Facebook es consciente del problema que tiene para controlar este mar de datos tan aparentemente caótico que ha creado. Si bien han reconocido en el pasado en diferentes conferencias y ruedas de prensa que pueden hacer mejor trabajo para mejorar la privacidad y seguridad de los datos de sus usuarios, lo cierto es que no es una tarea fácil ni para Facebook ni para los ciudadanos.
La injerencia de los medios digitales en elecciones democráticas
Los problemas gordos que hacen reflexionar sobre la importancia de los medios digitales y la opinión público han empezado a surgir estos últimos años a raíz del crecimiento del uso de estas redes. Por ejemplo, en la campaña de Brexit, se sabe que Cambridge Analitica se puso en contacto con las campañas en favor del si para ofrecerles apoyo mediático a través de Facebook. El auge de este tipo de servicios se basa principalmente en el estudio generalizado a través de los datos que se pueden obtenera través de Facebook, y aun hoy todavía no se sabe hasta que punto tuvo efecto en la campaña porque Facebook sigue siendo reacia a examinar estos datos.
No es la primera vez que se prestan este tipo de servicios a campañas políticas. El escándalo destapado a raíz de la victoria de Donald Trump da mucho que pensar. Sobretodo si tenemos en cuenta la inferencia extranjera que supuso por parte del gobierno ruso, y el escándalo que casi ha acabado con su presidencia.
El problema hacia los servicios públicos surge cuando el modelo de negocio de Facebook se basa en la obtención y el análisis de datos de valor público por entidades externas - bien sean gobiernos o entidades privadas que ofrecen sus servicios de "análisis de comportamientos públicos" a partidos políticos.
Si analizamos esto con calma, podemos empezar a entender la guerra que Facebook y Google tuvieron con China por el control y la cesión de dichos datos así como por qué China está tan obsesionada en la censura de internet.
Mediar entre organismos públicos no es tarea fácil. Pero se puede hacer mejor
Bruselas ya alerta de que las elecciones europeas de este año podrían verse enturbiadas por las Fake News. Las redes sociales se mueven en un espectro de difícil control, la Comisión Europea ya ha dado los primeros pasos en la lucha contra la desinformación online aunque todavía queda mucho por hacer
Por ejemplo y de cara a las próximas elecciones europeas, el pasado 28 de enero, Facebook anunció que pondría en marcha herramientas adicionales para prevenir la injerencia extranjera y hacer que los anuncios electorales y políticos fuesen más transparentes en su origen, forma etc. Hasta aquí todo correcto, y podríamos incluso celebrarlo como una pequeña victoria, como si Facebook hubiese aprendido algo.
No obstante, la forma en la que Facebook se dispone a desarrollar esta medida en principio positiva y beneficiosa, puede provocar un daño irreversible a la democracia y al estado del bienestar europeo.
La consecuencia más directa es que, bajo la excusa de prevenir injerencia foránea, los actores políticos de ámbito Europeo serán vistos como entidades extranjeras en cada estado distinto al suyo, por lo que no podrán emplear Facebook ni Messenger o Instagram con fines políticos pese a que si que deberían importar.
Esto suponemos se debe a que Facebook ha copiado el sistema de circunscripción única que existe en los Estados Unidos y lo ha aplicado a un modelo de votación completamente diferente con varios países y todo un mercado económico común con diferentes políticas y medidas.
Según comenta Esteban Gonzales Pons, portavoz de la Delegación Española del Grupo Popular en el Parlamento Europeo comenta que no tiene mucho sentido.
El mismo, como diputado en el Parlamento Europeo y candidato a la reelección, no podrá subir nada a su cuenta de Facebook o Instagram desde su oficina de Bruselas, porque a Ojos de Mark Zuckerberg, será un agente externo tratando de interferir en el proceso electoral de otro país. La verdad que a simple vista podríamos pensar que se trata de una medida muy vaga y general, como cuando hacemos mal los deberes para que no parezca que no hemos hecho nada en todo el fin de semana.
El problema no solamente es de Facebook sino del colectivo social global
Las redes sociales se han convertido en una peligrosa fuente de desinformación y propaganda. Dejadas al azar y sin supervisión permitirá a expertos en el campo del estudio de este tipo de datos tener más poder y mayor control sobre las opiniones políticas de los ciudadanos de cada país. Un estudio realizado por el MIT descubrió que en el mundo digital, las noticias falsas - o bulos - llegan a los usuarios seis veces más rapido que las verdaderas.
A su vez, la proliferación de servicios automatizados - las archiconocidas granjas de bots, u ordenadores zombis conectados - amplían el alcance de esta difusión. La facilidad con la que se pueden difundir este tipo de noticias sin necesidad de ninguna empresa externa.
No es la primera vez que el control de información se le atraganta a Facebook. Ya comentamos en el pasado el problema que existía en Facebook con los bulos por internet.

Donald trump en una imagen de archivo.
La noticia no tuvo el eco mediático ni la repercusión que debería haber tenido, quizás porque como sociedad aún no somos plenamente conscientes de esta realidad y de cómo podemos ser manipulados a través de las redes sociales - no solamente Facebook, sino cualquier medio digital que envíe información directamente a la palma de nuestra mano.
Otro ejemplo de este tipo de manipulación cuando el PP utilizando caras generadas por una inteligencia artificial en www.thispersondoesnotexist.com, el PP creó cientos de cuentas ficticias que se lanzaban a hablar y a realizar comentarios entre ellos. Bots que replicaban noticias con twits idénticos, con las caras de personas que parecían casi reales.
Esta web está basado en un algoritmo de deep learning de NVIDIA que genera caras con unos detalles y de un parecido a la realidad que cuesta distinguir (o por no decir imposible).
Lo peor de todo es que este ejemplo del Partido Popular no era la primera vez que se utilizaba, pues según informó el New York Times, también fue utilizada durante la campaña de Trump para encender el debate entre grupos radicales de supremacía blanca.
Facebook siempre va a tener este problema de la misma manera que en internet siempre han habido bots, spam y usuarios que han tratado de utilizar internet para sus fines e intereses. Estas compañías se lucran con el uso de los datos de sus usuarios y a medida que el mundo avance y se estudien sus algoritmos más en profundidad, será más común que se utilice la minería de datos para perpetrar este tipo de ataques y atentados.
En Myanmar (Birmania), Facebook fue la correa de transmisión del discurso islamófobo del clero budista que acabó perpetrando un genocidio y una limpieza étnica de la población musulmana en el Este del país en frontera con Bangladés.
Un problema de enorme dificultad e importancia estratégica
En el caso de Myanmar, los ingenieros de Facebook tuvieron mucho más complicado saber que es lo que estaba ocurriendo hasta que fue demasiado tarde No solamente ocurre que Myanmar es el único país del planeta que no ha adoptado la forma de UNICODE para sus caracteres alfabéticos. Además, se hablan aproximadamente 100 idiomas, y cada idioma tiene su propia escritura que a través de Facebook se escriben en diferentes codificaciones o traducidos con vocablos latinos sin ninguna regla más que la interpretación de sus lectores.
Esta guerra híbrida que afecta a todos los ciudadanos del planeta es un medio por el cual se pueden desestabilizar gobiernos y países enteros sin necesidad de pegar un solo tiro.
Definitivamente, no se puede culpar a Facebook de estos problemas - son inherentes al comportamiento humano - pero es innegable hablar de su creciente responsabilidad y participación como entidad en este tipo de acontecimientos y no deberían tolerar la generación automática de videos que enaltecen el terrorismo de forma automática ni tampoco deberían permitir la creación de cuentas falsas y ficticias que se posicionen en favor o en contra de una minoría religiosa o política.
Veremos estas situaciones con más frecuencia a medida que pase el tiempo. Es responsabilidad no solamente de Facebook, sino de los diferentes gobiernos y actores del campo de datos en redes sociales, el implementar medidas y controles que eviten este tipo de acontecimientos.
Solamente en Europa y solamente en Facebook, se crean cinco nuevos perfiles por segundos, y cada 60 segundos se publican 510 mil comentarios y 293000 actualizaciones de estados, con más de 136 mil fotos. Es para darle un poco de vuelta al asunto, porque los riesgos que se asumen como sociedad son muchísimos si no se toman precauciones para frenar este avance.
Hablamos con la politóloga Pilar Jordá Artigas, quien ha trabajado de cerca en la comisión europea sobre el tema.