Um vídeo do massacre em uma mesquita na Nova Zelândia foi bloqueado pelo Facebook durante sua transmissão ao vivo, mas foi amplamente compartilhado em outras redes sociais, evidenciando os desafios enfrentados pelas plataformas de internet para conter conteúdos violentos.
O Facebook afirma que "rapidamente" removeu a transmissão ao vivo do atirador, mas a gravação dura cerca de 17 minutos. O vídeo posteriormente migrou para outras plataformas, como YouTube e Twitter, e algumas sequências ainda eram visíveis nesta sexta-feira.
Pelo menos 49 pessoas morreram e dezenas ficaram feridas no ataque a duas mesquitas em Christchurch, na Nova Zelândia.
As maiores plataformas de internet prometeram impedir o compartilhamento de imagens violentas e outros conteúdos inadequados através de sistemas automatizados e controle humano. Mas isso não funciona, segundo observadores.
"Não há desculpas que justifiquem o conteúdo desta transmissão ao vivo ainda estar circulando nas redes sociais", diz Lucinda Creighton, ex-ministra irlandesa e atualmente consultora do Counter Extremism Project, que faz campanha para remover conteúdo violento de plataformas da internet.
Tais plataformas "dizem ter suas próprias tecnologias, mas não sabemos quais. Não há transparência e claramente não funciona", acrescenta.
Sua organização desenvolveu uma tecnologia que combate alguns conteúdos violentos e a ofereceu às companhias da internet, em vão.
"Plataforma sem moderadores?"
A polícia da Nova Zelândia pediu nesta sexta-feira para que os internautas não compartilhassem as "imagens extremamente chocantes" dos massacres de Christchurch, que circularam, segundo internautas, no Reddit, no 4chan e em outras plataformas.
"Estamos trabalhando para que todos os registros" dos assassinatos sejam removidos, acrescentou a polícia.
Twitter e YouTube disseram que estão trabalhando para remover os vídeos em questão e qualquer conteúdo relacionado.
O Twitter alega ter "um procedimento rigoroso e uma equipe dedicada para lidar com situações delicadas e de emergência como essa". "Também estamos cooperando com a polícia para facilitar suas investigações", continuou o Twitter.
Quanto ao YouTube, a plataforma disse estar "de coração partido pela terrível tragédia na Nova Zelândia", e fez saber que "trabalha ativamente para retirar qualquer vídeo violento" de suas páginas.
O Facebook não respondeu imediatamente a uma pergunta sobre o tempo que levou para suprimir o vídeo ao vivo, mas disse em um comunicado que interrompeu a transmissão e a removeu após um pedido da polícia, e bloqueou as contas do Facebook e Instagram do atirador.
"Também estamos removendo qualquer apoio ou apologia ao crime e ao(s) atirador(es) assim que o vemos", garantiu o Facebook.
Muito pouco, segundo Jennifer Grygiel, professora de comunicação da Universidade de Syracuse, que acompanha de perto as redes sociais.
"O Facebook é uma plataforma sem moderadores, onde você pode transmitir o que quer", acusa, estimando que nenhuma medida de magnitude foi tomada desde a transmissão ao vivo no Facebook em 2017 de um assassinato em Cleveland, Ohio.
Tornou-se comum, de acordo com Grygiel, que os autores de crimes usem as redes sociais para transmitir suas ações, e estas são regravadas e compartilhadas, depois replicadas inúmeras vezes.
Segundo ela, plataformas como YouTube têm a capacidade de encontrar e remover vídeos violentos com pesquisas de palavras-chave, mas são necessárias mais pessoas para moderação e monitoramento.
Ferramentas de inteligência artificial podem ajudar, diz ela, mas "nenhum algoritmo pode ser projetado para isso, porque não podemos prever o futuro".