Jornal Estado de Minas

Usuários são os maiores responsáveis por monitorar conteúdo no Facebook

Roberta Machado
- Foto:
Brasília – A internet mudou a forma como o público acessa notícias, e o Facebook pode estar mudando essa dinâmica ainda mais. Mark Zuckerberg revelou, recentemente, que pretende transformar a rede social no “melhor jornal personalizado do mundo” e trabalha continuamente em um complexo sistema inteligente que procura oferecer ao usuário o conteúdo que ele mais deseja acessar. Mas uma nova pesquisa, feita com mais de 10 milhões de membros da comunidade virtual, mostra que a redoma de informações formada em torno do internauta pode ser, na verdade, um espaço que acaba ecoando os pensamentos do próprio navegante.


Artigo publicado na revista Science revela que, apesar da edição feita pelo algoritmo do Facebook, os membros da comunidade virtual ainda são os maiores filtros das informações que recebem pela rede. O sistema da comunidade social exclui automaticamente algumas postagens que possam não interessar a cada membro, como posições políticas discordantes, o que resulta na ocultação de ao menos 15% do conteúdo. Mas esse filtro, na opinião dos pesquisadores ligados ao site, não impede os usuários de acessar notícias de natureza variada. “Descobrimos que as pessoas têm amigos com ideologia política oposta e que o conteúdo do feed de notícias reflete essas visões diversas”, afirma Eytan Bakshy, cientista de dados do Facebook e principal autor do trabalho.

No entanto, as pessoas têm uma tendência a ignorar a maior parte das notícias com as quais elas não concordam. De acordo com o estudo, os usuários deixam de lado cerca de 70% dos posts que contêm informações que favorecem um grupo político oposto. “As ações da pessoa, quem ela adiciona como amigo e que conteúdo ela escolhe acessar têm mais consequências”, ressalta Bakshy.

Notícias

O estudo foi feito com usuários dos Estados Unidos que deixam claras as preferências políticas nos seus perfis.

Os dados dos usuários foram mantidos em sigilo, e os pesquisadores não modificaram o conteúdo de nenhuma página. Os programas da rede social selecionaram 7 milhões de links compartilhados entre julho do ano passado e janeiro deste ano e determinaram quais deles representavam as chamadas hard news, notícias sobre política, economia e outros temas do tipo.

Isso foi feito com o auxílio de um programa capaz de separar os temas noticiosos do conteúdo de entretenimento, como novidades sobre celebridades ou esportes. Para isso, o software analisa as primeiras palavras de cada artigo e determina se o link é um assunto mais “sério” ou não. Dessa forma, os pesquisadores seguiram o rastro de 226 mil artigos noticiosos compartilhados ao menos 100 vezes no Facebook.

O computador conseguiu também classificar as notícias em uma escala de cinco pontos, de acordo com o nível liberal ou conservador do discurso. Como 9% dos usuários da rede social incluem a própria posição política em seus perfis, o programa pôde conferir se os textos acessados por eles estavam ou não alinhados com as suas posições. A pesquisa mostrou que o algoritmo do Facebook filtra apenas 8% do conteúdo contraditório à posição dos internautas liberais, enquanto o feed de notícias dos conservadores poupa 5% de todos os posts que não condizem com suas crenças políticas.

Contudo, os internautas só clicam em 7% do conteúdo hard news que encontram em sua página e têm o hábito de simplesmente deixar passar o conteúdo com o qual não concordam. A tendência de conservadores e liberais clicarem em links que não combinam com sua ideologia é 17% e 6% menores, respectivamente.

Filtro

No mês passado, o Facebook anunciou grandes mudanças no algoritmo que determina que posts vão parar no feed de notícias de cada usuário. O novo sistema dá preferência a conteúdos compartilhados por amigos próximos e de páginas com as quais o internauta interage com mais frequência. “Esse update tenta equilibrar o conteúdo da forma correta para cada pessoa”, ressalta um comunicado divulgado pela empresa. Outra novidade do algoritmo é dar menos espaço às postagens curtidas ou comentadas pelos amigos de um usuário.

A intenção da rede social é tornar o acesso mais intuitivo e natural. Para especialistas, o algoritmo nunca vai refletir com perfeição a vontade do internauta. “Mas é plausível que será cada vez melhor em nos mostrar as coisas que vamos curtir e ler”, pondera David Lazer, professor de ciências políticas e de ciência da computação e da Informação na Universidade de Northeastern.

Na opinião de Lazer, a pesquisa mostra que o usuário ainda é o maior responsável pela escolha do conteúdo que ele acessa, seja influenciando o sistema que automaticamente corta notícias do feed, seja ignorando o conteúdo que não lhe interessa. “A questão perguntada nesse trabalho é se o conteúdo ideologicamente inconsistente é filtrado mais do que o ideologicamente consistente.

E a resposta é ‘um pouco mais’. Mas pode ser que ambos estejam tendo 90% do conteúdo filtrado dos feeds de notícias das pessoas”, ressalta.

O Facebook também conta com uma série de recursos que permitem ao internauta “treinar” o seu feed de notícias. Além de responder às atividades naturais do usuário, como o número de curtidas e outras interações com determinado tipo de conteúdo, a página também pode ser controlada por meio do botão “não quero ver isso”, que ensina ao algoritmo o tipo de conteúdo que o usuário não deseja ver. Há também as opções de simplesmente descurtir a página ou deixar de seguir um amigo, sem desfazer a amizade com ele.

 

Em sigilo
Em junho do ano passado, o Facebook entrou na mira de usuários e de autoridades científicas e políticas depois de revelar que manipulou o feed de notícias de quase 700 mil usuários como parte de um experimento psicológico. A controversa pesquisa foi realizada em janeiro de 2012, quando a empresa editou as páginas por uma semana com a intenção de medir o potencial de contágio emocional da rede social.

 

.