Diretora do Laboratório de Estudos de Internet e Redes Sociais (NetLab), da Universidade Federal do Rio de Janeiro (UFRJ), a professora Rose Marie Santini defende uma regulação urgente de grandes empresas de tecnologia para combater "o financiamento de conteúdos nocivos nas redes."
Na semana passada, o corregedor-geral da Justiça Eleitoral, ministro Luis Felipe Salomão, determinou a suspensão de monetização de canais bolsonaristas envolvidos na divulgação de notícias falsas em diferentes plataformas na internet. Como mostrou o Estadão, somente no YouTube, os 14 canais atingidos pela decisão do corregedor podem gerar até US$ 2,9 milhões (R$ 15 milhões) por ano em receita.
"Ideologias e extremismo viraram mercadorias muito lucrativas. Diante desse cenário, esse mercado tem que ser seriamente regulado e isso é urgente. Caso contrário, arriscamos nossa democracia e isso nos custará muito caro", afirmou a pesquisadora.
Como está o debate sobre regulação de conteúdo nas redes sociais no Brasil?
Estamos discutindo muito pouco. Qual o grande problema? Não temos transparência sobre o que acontece dentro das plataformas, não sabemos os filtros que as plataformas usam. Não sabemos como essas empresas classificam o conteúdo, o que retiram, o que não retiram, o que impulsionam, o que escondem, e por que o fazem. Por ser uma caixa-preta e não ter transparência, estamos no escuro. Precisamos de regulamentação, mas, antes de tudo, precisamos de um debate qualificado, baseado em dados e informações sobre o que acontece dentro dessas plataformas. Com mais transparência poderíamos entender a dinâmica, as estratégias e as consequências da desinformação. Como funciona, a quem beneficia. Ao resistir à maior transparência, especialmente para a pesquisa, se abre espaço para desconfiança.
É possível observar algum "enviesamento" por parte das redes no controle de conteúdo, como diz o presidente Jair Bolsonaro?
O que sabemos é que conteúdos de diferentes tipos e ideologias estão sendo bloqueados. É a plataforma que decide.
E o que motiva as plataformas a se fecharem?
É o modelo de negócio baseado na atenção. Pesquisas mostram que o extremismo atiça os usuários, amplia o compartilhamento e gera indignação, que é um dos sentimentos que mais estimulam o engajamento. O que observamos é que o extremismo e o comportamento polarizado tornaram-se muito lucrativos. As plataformas conseguiram capitalizar o fenômeno e inventaram um modelo de negócio em torno disso. Quanto mais usuários se indignam, mais se envolvem na participação e na produção de conteúdo para as plataformas e, assim, mais a máquina de dinheiro roda. É quase uma máquina de engajamento em torno de sentimentos negativos, uma máquina que trabalha com a emoção mais sórdida das pessoas. Esse modelo de negócio em torno da incivilidade e do extremismo é muito nocivo.
O Tribunal Superior Eleitoral (TSE) estuda obrigar plataformas a proibir a geração de receita por canais com conteúdo político e extremista nas eleições.
Uma resolução que proíba a geração de receitas em canais com conteúdo político e extremista coloca novamente o problema da arbitragem: quem classificará os conteúdos e com que critérios? Quem definirá o que é "político e extremista" e como vamos fiscalizar? Sem uma regulamentação madura, com base em amplo debate da sociedade e em mecanismos efetivos de auditoria e de transparência, não vamos conseguir evitar o financiamento de conteúdos nocivos. Porém, sabemos que os conteúdos extremistas possuem diferentes mecanismos de financiamento como doações, assinaturas, crowdfunding, venda de produtos, eventos. Portanto, ou enfrentamos o problema da moderação de conteúdo com uma regulamentação para atuação das plataformas no Brasil, ou vamos ficar enxugando gelo com decisões paliativas que não são aplicáveis de fato, especialmente no período eleitoral onde formas inesperadas de financiamento irregular aparecem.
O presidente Jair Bolsonaro defende alterações no Marco Civil da Internet para impedir o que chama de censura a perfis de direita nas plataformas. Como isso afetaria a web brasileira?
Essa mudança impediria que qualquer tipo de filtro fosse colocado e que qualquer conteúdo pudesse ser retirado. Atualmente, as big techs usam filtros que retiram de suas plataformas uma série de conteúdos considerados inapropriados, como pedofilia, pornografia, violência extrema, automutilação, nudez, terrorismo e material protegido por direitos autorais. Para retirar esses conteúdos, as plataformas usam estratégias de bloqueio automáticas, com ajuda de inteligência artificial, combinadas com o trabalho de um exército de moderadores. Se a regra é alterada e nenhum conteúdo passa a poder ser retirado sem ação judicial prévia, todo tipo de conteúdo, incluindo os citados, necessariamente deverão permanecer nas plataformas. Por exemplo, se uma empresa disseminar desinformação sobre um concorrente, a plataforma não poderia retirar esse conteúdo, o que tornaria esse comportamento válido de alguma maneira. Impedir qualquer tipo de moderação é como viver numa sociedade sem lei. Seria um caos digital. Com essa proposta, o presidente não vai impedir somente os filtros contra si, mas qualquer filtro. As plataformas vão ficar "sujas" de conteúdo. Haverá um aumento exponencial de coisas absurdas na rede.
Os critérios atuais das plataformas podem ser considerados justos?
É importante que as plataformas retirem alguns dos conteúdos que já retiram, mas que o parâmetro de bloqueio não seja definido única e exclusivamente pela plataforma, como é hoje. Precisamos debater com diferentes atores da sociedade civil, pesquisadores, especialistas, para definir esses parâmetros. Os critérios não podem ser nem de um candidato nem de uma empresa, têm de ser definidos por todos nós.
As informações são do jornal O Estado de S. Paulo.
audima