SÃO PAULO, SP (FOLHAPRESS) - O TikTok afirma ter derrubado 10.442 vídeos que incitaram violência, terrorismo e desinformação durante os ataques bolsonaristas de 8 de janeiro e nos dias posteriores. É a única empresa, até agora, que divulgou dados internos sobre os ataques.
Leia Mais
Bolsonarista consegue assinaturas no Senado para CPMI de atos golpistasBella Gonçalves diz que Nikolas Ferreira defende 'bolsoterrorismo golpista'Bolsonaro: TSE mantém 'minuta golpista' em ação contra ex-presidenteBolsonaro ficará inelegível, mas não deve ser preso, dizem ministros do STF e do STJ
Segundo o TikTok, apenas 5 URLs foram removidas a partir de demandas do STF (Supremo Tribunal Federal) no período.
Autoridades não solicitaram dados sobre 8 de janeiro, mas a circunstância levou o governo a acelerar discussões sobre a regulação de plataformas no Brasil. Uma proposta de medida provisória para conter a circulação de conteúdos antidemocráticos chegou a ser elaborada no Ministério da Justiça. Ela deve avançar agora sob outro formato.
Relatório recente de pesquisadores da área apontou que aplicativos de vídeos curtos, tais como TikTok e Kwai, ajudaram a agravar a desinformação na eleição de 2022, em parte devido à escala de viralização desses conteúdos. Procurado, o Kwai diz que "não poderá abrir esses números".
"Todas as ações e iniciativas desenvolvidas pela plataforma para conter o avanço e propagação de conteúdos que tenham o potencial de prejudicar o processo democrático permanecem em andamento", afirmou em nota.
A Meta (dona de Facebook e Instagram) e o YouTube não divulgaram dados sobre 8 de janeiro, apenas sobre o processo eleitoral. O Telegram e o Twitter não se manifestaram.
De modo geral, ataques à democracia não integram políticas específicas nas plataformas, mas ficam sob o guarda-chuva de outras regras, como as que proíbem discurso de ódio, incitação à violência, terrorismo ou regras para eleições.
TikTok
No TikTok, os conteúdos associados a 8 de janeiro infringiram normas contra o extremismo violento, por exemplo, que proíbe declarações ou imagens que incentivam pessoas a cometer ou apoiar violência e convocações para levar armas a um local para intimidação ou ameaça.
Medidas de transparência e mais prestação de contas das empresas estão entre as principais demandas de autoridades que acompanham a atuação das big techs. Os acordos de cooperação entre as redes sociais e TSE nos últimos anos ajudaram a reforçar essa necessidade, mas, até agora, parte das empresas não divulgou dados sobre o pleito.
"É uma ferramenta importante não só para o governo, mas para a sociedade e a academia, para que se possa entender o tamanho do problema. Ainda não sabemos como as empresas aplicaram seus próprios termos de uso em 8 de janeiro", diz Bruna Martins dos Santos, pesquisadora visitante no WZB, Centro de Ciências Sociais de Berlim.
Segundo ela, é preciso saber como as plataformas identificaram possíveis conteúdos antidemocráticos para entender os parâmetros de convergência e divergência entre elas e autoridades a respeito da interpretação das leis e dos termos de uso.
O TikTok diz que recebeu do TSE, entre 15 de fevereiro e 31 de dezembro do ano passado, 128 links para análise, e que removeu 106 (83%). Durante o ano, segundo o documento, a Justiça emitiu 90 ordens à empresa, que retirou do ar 222 links. "Entre 16 de agosto e 31 de dezembro, removemos 66.020 vídeos que violam nossa política de desinformação sobre eleições, dos quais 91,1% foram detectados proativamente."
A Meta divulga em seu blog apenas dados sobre o primeiro turno, quando diz ter derrubado mais de 310 mil conteúdos por violência e incitação, a partir de análise humana e inteligência artificial treinada em português. "Removemos, por exemplo, conteúdos pedindo que as pessoas comparecessem aos locais de votação portando armas", afirma.
A empresa também diz ter tirado do ar mais de 290 mil conteúdos no primeiro turno por discurso de ódio.
Já o YouTube, do Google, removeu mais de 10 mil vídeos e mais de 2.500 canais de janeiro a novembro de 2022, todos por violar políticas relacionadas à eleição brasileira e outras diretrizes. Segundo a empresa, 84% foi retirado do ar antes de alcançar cem visualizações.
A remoção de conteúdo é apenas uma das ferramentas usadas pelas big techs para diminuir a circulação de desinformação e violência nas redes. Especialistas indicam que essa não deve ser a única regra para medir ações de segurança.
As empresas preveem outras medidas, como redução de alcance de uma publicação e rótulos com contextos informativos e informações de órgãos oficiais. Durante o processo eleitoral, o YouTube e a Meta também alteraram políticas e adotaram ações em parceria com o TSE.