LONDRES - As autoridades britânicas interrogarão os responsáveis pelo Facebook por um experimento polêmico, no qual a rede social manipulou secretamente os sentimentos de seus usuários - anunciaram nesta quarta-feira.
Em 2012, o Facebook manipulou por uma semana o feed de notícias de 700.000 usuários, sem sua permissão, para medir seu impacto emocional.
No estudo, o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias dos usuários para verificar como isso afetava o seu humor.
Os resultados da pesquisa, conduzida por pesquisadores associados ao Facebook, pela Universidade de Cornell e pela Universidade da Califórnia, foram publicados em junho na 17ª edição dos Anais da Academia Nacional de Ciência (disponível em https://www.pnas.org/content/111/24/8788.full.pdf).
Os pesquisadores pretendiam verificar se o número de palavras positivas, ou negativas, nas mensagens lidas pelos usuários resultaria em atualizações positivas, ou negativas, de seus posts nas redes sociais.
Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas, ou negativas, dependendo do conteúdo, ao qual foram expostos.
"Esses resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais", afirmaram seus autores.
Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.
O Gabinete do Comissário de Informação, o organismo britânico independente de supervisão, declarou que está investigando o caso.
"Estamos cientes deste assunto e falaremos com o Facebook, além de nos coordenarmos com a autoridade de proteção de dados irlandesa, para saber mais sobre suas circunstâncias", declarou à AFP um porta-voz.
A sede europeia do Facebook fica em Dublin.
O site de relacionamentos declarou que está disposto a responder e colaborar.
"Está claro que o estudo incomodou as pessoas, e assumimos a responsabilidade", declarou um porta-voz do Facebook em mensagem à AFP.
"Queremos fazer melhor no futuro e estamos melhorando nossos procedimentos, baseando-nos nestes comentários" dos clientes, prosseguiu.
"O estudo foi feito com a proteção adequada da informação das pessoas, e estamos dispostos a responder a qualquer pergunta dos reguladores", concluiu.
A diretora de operações da rede social, Sheryl Sandberg, admitiu que o Facebook se "comunicou muito mal", no que diz respeito a essa experiência.
"No Facebook, levamos a privacidade muito a sério", acrescentou Sandberg em Nova Délhi, aonde viajou para lançar um livro e se reunir com empresários e líderes políticos.
Não curti
O resultado da pesquisa, publicado em 17 de junho na revista da Academia Nacional de Ciências dos Estados Unidos (PNAS), mostra que os usuários usam mais palavras negativas, ou positivas, segundo o alcance dos conteúdos a que estão expostos.
"Os estados emocionais são comunicativos e podem ser transmitidos por um efeito de contágio, o que conduz as pessoas a sentir as mesmas emoções sem serem conscientes disso", escreveram os autores, que dão por demonstrada "a realidade de um contágio emocional de massas por meio das redes sociais".
O estudo passou inicialmente despercebido nos principais meios de comunicação dos Estados Unidos. No entanto, a atenção cresceu após artigos publicados no sábado na revista online Slate e nas páginas na internet da The Atlantic e da Forbes.
"É, sem dúvida, legal, mas é ético?", questionou a The Atlantic.
Alguns usuários da rede social expressaram seu profundo pesar e descreveram o método usado como "alarmante", ou "demoníaco".
"O Facebook manipulou seu 'feed de notícias' para um experimento psicológico. Chegou a hora de encerrar a conta do Facebook", escreveu um usuário no microblog Twitter.
Uma prática corrente
A professora de Ciências do Comportamento Suzy Moat, da Escola de Negócios londrina de Warwick, disse que as empresas na internet fazem diariamente coisas muito similares ao experimento polêmico.
"Em muitos sentidos, este experimento é simplesmente um exemplo público do que muitas empresas realizam para ver como podem influenciar no nosso comportamento", explicou.
"Por exemplo, Facebook e Amazon experimentam constantemente, mostrando a diferentes grupos de pessoas versões sutilmente diferentes de suas páginas para ver se uma versão é melhor para incrementar a frequência com que os usuários se relacionam com o conteúdo, ou se aumentam os cliques em anúncios", prosseguiu.
"Assim, é interessante que haja tanta indignação com isso, mas não com os experimentos com que muitos outros negócios na internet fazem conosco todo dia, possivelmente porque muita gente não tem consciência do que está acontecendo", sentenciou.
.