Em documento entregue ao TSE (Tribunal Superior Eleitoral), o aplicativo disse que removeu 1.304 vídeos que violaram sua política de extremismo violento (que engloba incitação à violência e terrorismo), 5.519 que feriram a diretriz de "desinformação com riscos de danos no mundo real" e 3.614 conteúdos que infringiram as regras sobre desinformação eleitoral. O período contabilizado foi de 8 a 15 de janeiro.
Segundo o TikTok, apenas 5 URLs foram removidas a partir de demandas do STF (Supremo Tribunal Federal) no período.
Autoridades não solicitaram dados sobre 8 de janeiro, mas a circunstância levou o governo a acelerar discussões sobre a regulação de plataformas no Brasil. Uma proposta de medida provisória para conter a circulação de conteúdos antidemocráticos chegou a ser elaborada no Ministério da Justiça. Ela deve avançar agora sob outro formato.
Relatório recente de pesquisadores da área apontou que aplicativos de vídeos curtos, tais como TikTok e Kwai, ajudaram a agravar a desinformação na eleição de 2022, em parte devido à escala de viralização desses conteúdos. Procurado, o Kwai diz que "não poderá abrir esses números".
"Todas as ações e iniciativas desenvolvidas pela plataforma para conter o avanço e propagação de conteúdos que tenham o potencial de prejudicar o processo democrático permanecem em andamento", afirmou em nota.
A Meta (dona de Facebook e Instagram) e o YouTube não divulgaram dados sobre 8 de janeiro, apenas sobre o processo eleitoral. O Telegram e o Twitter não se manifestaram.
De modo geral, ataques à democracia não integram políticas específicas nas plataformas, mas ficam sob o guarda-chuva de outras regras, como as que proíbem discurso de ódio, incitação à violência, terrorismo ou regras para eleições.
TikTok
No TikTok, os conteúdos associados a 8 de janeiro infringiram normas contra o extremismo violento, por exemplo, que proíbe declarações ou imagens que incentivam pessoas a cometer ou apoiar violência e convocações para levar armas a um local para intimidação ou ameaça.
Medidas de transparência e mais prestação de contas das empresas estão entre as principais demandas de autoridades que acompanham a atuação das big techs. Os acordos de cooperação entre as redes sociais e TSE nos últimos anos ajudaram a reforçar essa necessidade, mas, até agora, parte das empresas não divulgou dados sobre o pleito.
"É uma ferramenta importante não só para o governo, mas para a sociedade e a academia, para que se possa entender o tamanho do problema. Ainda não sabemos como as empresas aplicaram seus próprios termos de uso em 8 de janeiro", diz Bruna Martins dos Santos, pesquisadora visitante no WZB, Centro de Ciências Sociais de Berlim.
Segundo ela, é preciso saber como as plataformas identificaram possíveis conteúdos antidemocráticos para entender os parâmetros de convergência e divergência entre elas e autoridades a respeito da interpretação das leis e dos termos de uso.
O TikTok diz que recebeu do TSE, entre 15 de fevereiro e 31 de dezembro do ano passado, 128 links para análise, e que removeu 106 (83%). Durante o ano, segundo o documento, a Justiça emitiu 90 ordens à empresa, que retirou do ar 222 links. "Entre 16 de agosto e 31 de dezembro, removemos 66.020 vídeos que violam nossa política de desinformação sobre eleições, dos quais 91,1% foram detectados proativamente."
A Meta divulga em seu blog apenas dados sobre o primeiro turno, quando diz ter derrubado mais de 310 mil conteúdos por violência e incitação, a partir de análise humana e inteligência artificial treinada em português. "Removemos, por exemplo, conteúdos pedindo que as pessoas comparecessem aos locais de votação portando armas", afirma.
A empresa também diz ter tirado do ar mais de 290 mil conteúdos no primeiro turno por discurso de ódio.
Já o YouTube, do Google, removeu mais de 10 mil vídeos e mais de 2.500 canais de janeiro a novembro de 2022, todos por violar políticas relacionadas à eleição brasileira e outras diretrizes. Segundo a empresa, 84% foi retirado do ar antes de alcançar cem visualizações.
A remoção de conteúdo é apenas uma das ferramentas usadas pelas big techs para diminuir a circulação de desinformação e violência nas redes. Especialistas indicam que essa não deve ser a única regra para medir ações de segurança.
As empresas preveem outras medidas, como redução de alcance de uma publicação e rótulos com contextos informativos e informações de órgãos oficiais. Durante o processo eleitoral, o YouTube e a Meta também alteraram políticas e adotaram ações em parceria com o TSE.