Solo en las primeras 24 horas luego del ataque, la red social bajó más de 1,5 millones de videos. Facebook indicó que está usando tanto "tecnología como personas" para mantener a raya la propagación.
Luego de conocer los escabrosos detalles del lamentable atentado supremacista en Nueva Zelanda, que dejó 49 muertos y otros 40 heridos, la red social de Mark Zuckerberg se tornó el centro de las críticas por la forma en cómo se manejó la diseminación del video que el mismo asesino grabó y retransmitió a Facebook
Según los datos preliminares, un hombre armado entró en la mezquita Al Noor, en el centro de Christchurch, y abrió fuego cuando en el recinto estaban congregadas unas 300 personas. El atacante llevaba un arma automática, ropa militar y varios cargadores.
En ese sentido, una de las figuras políticas europeas que levantó la voz fue el líder opositor de Partido Laborista, Jeremy Corbyn. El político declaró que “las plataformas de las redes sociales deben ser capaces de reaccionar más rápidamente y detener la retransmisión de eventos en vivo”.
“Las plataformas de redes sociales que en realidad estaban reproduciendo un video hecho por esta persona acusada de asesinato, en todo el mundo, seguramente esto tiene que parar”, dijo Jeremy Corbyn a Sky News.
“Aquellos que controlan y poseen plataformas de redes sociales deben lidiar con esto de inmediato y evitar que estas cosas se emitan. Pero eso lleva a todo el tema de la regulación de las redes sociales”, agregó el político británico.
Police alerted us to a video on Facebook shortly after the livestream commenced and we quickly removed both the shooter’s Facebook and Instagram accounts and the video. We're also removing any praise or support for the crime and the shooter or shooters as soon as we’re aware.
— Facebook Newsroom (@fbnewsroom) March 15, 2019
Desde la red social advirtieron que “se han eliminado más de 1,5 millones de vídeos del ataque en Nueva Zelanda en las primeras 24 horas tras el atentado”, según Mia Garlick, directora de políticas de Facebook para Australia y Nueva Zelanda, citada en un tuit del servicio de prensa de la red social estadounidense.
De acuerdo a la declaración, 1,2 millones de esos vídeos fueron bloqueados a la hora de subirlos. “Por respeto a las personas afectadas por la tragedia y las preocupaciones de las autoridades locales, también eliminamos todas las versiones editadas del video. Continuamos trabajando contra el reloj para remover todo el contenido que viole las condiciones, utilizando una combinación de tecnología y gente”, agregó la directiva.