Jornal Estado de Minas

DIREITO E INOVAÇÃO

A responsabilidade das plataformas digitais por conteúdo de terceiros



No final de 2015, uma senhora, moradora de Capivari, pequeno município do interior de São Paulo, notou uma súbita mudança no comportamento de algumas pessoas com quem convivia na cidade. De uma hora para outra, elas começaram a lhe tratar de uma maneira diferente, algumas delas, até rispidamente. Sem entender o que estava ocorrendo, buscou informações com amigos e descobriu que alguém estava usando seu nome e sua foto em um perfil no Facebook. Além disso, o criador do perfil falso, vinha se passando por ela e ofendendo diversas pessoas. 





Seguindo as orientações de um advogado, a senhora, que sequer tinha uma conta no Facebook, enviou uma notificação para a plataforma, relatou o ocorrido e solicitou  a exclusão do perfil. Para sua surpresa, contudo, a empresa informou-lhe que só poderia efetivar a exclusão com uma ordem judicial.

Não vendo outra opção, a senhora solicitou que o advogado dela recorresse ao Judiciário. Pediu a ele, também, que pleiteasse uma indenização pelos danos sofridos. Seu primeiro pedido foi atendido e o perfil acabou sendo excluído. O pedido de reparação, porém, foi negado. O Juiz da causa fundamentou sua decisão no artigo 19 da lei 12.965/14. A lei, conhecida como Marco Civil da Internet prevê que os provedores de aplicações de internet somente poderão ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tornarem indisponível o conteúdo apontado como infringente. 

Foi apresentado recurso ao Tribunal de Justiça de São Paulo, que teve um entendimento diferente. Para os desembargadores, a inércia da empresa em atender a solicitação de exclusão da plataforma gerou danos morais à autora da ação e a aplicação do artigo em questão não poderia se sobrepor ao direito de ser reparada.




Outro caso

Em setembro de 2014, em Minas Gerais, um pai recebeu um telefonema de um amigo que queria lhe alertar sobre uma postagem no Facebook envolvendo ele e seu filho menor. Quando o pai acessou a rede, ficou aterrorizado com o que viu. Uma foto dele e do filho, com uma legenda que o acusava de pedofilia. Enviou, imediatamente, uma notificação à plataforma solicitando a retirada daquele conteúdo. A empresa, após algum tempo, respondeu ao pedido informando que a foto não violava os seus “padrões de comunidade” e que, de acordo com a lei, só poderia excluir a postagem se recebesse uma ordem judicial. A lei mencionada era o Marco Civil da Internet, que havia entrado em vigor naquele ano.

O pai precisou, então, ajuizar uma ação e pedir uma liminar para retirar a postagem. Pleiteou também uma indenização por danos morais. Os dois pedidos foram acolhidos tanto em primeira instância quanto pelo Tribunal de Justiça de Minas Gerais. O principal fundamento adotado pelos julgadores foi a força das normas que protegem as crianças e os adolescentes, previstas na Constituição Federal e no Estatuto da Criança e Adolescente (ECA).

O Facebook apresentou recursos contra as decisões proferidas nos dois casos acima. Em relação ao primeiro, a questão foi levada ao STF (RE 1037396/SP). A discussão do segundo foi remetida ao STJ (RESP 1783269/MG) . Requereu em ambos que a lei fosse cumprida (o art. 19 do Marco Civil da Internet). 





O julgamento no STJ ocorreu em fevereiro deste ano e a corte confirmou o entendimento das instâncias ordinárias. Segundo os ministros, o provedor de aplicações de hospedagem (Facebook), agiu ilicitamente ao não excluir a imagem do menor de idade, publicada sem autorização dos responsáveis, relacionada a conteúdo inapropriado, mesmo após requerimento feito pelo pai. Os ministros destacaram que as normas de proteção da criança e do adolescente devem prevalecer sobre aquela prevista no Marco Civil da Internet.

Ao  recurso no STF foi atribuído o caráter de repercussão geral. Assim, a decisão nele proferida resolverá o litígio entre os envolvidos e servirá de precedentes para todos os casos em que se discute a responsabilidade civil dos provedores (Facebook, Instagram, Google, Youtube, Twitter, etc) por conteúdos neles postados.  

Para tanto, a Corte deverá declarar como aplicar o artigo 19 do Marco Civil da Internet de acordo com a Constituição Federal. Os ministros vão analisar se sua interpretação literal ou moderada respeitam os princípios constitucionais. E o principal deles é o que garante a liberdade de expressão (arts. 5°, IV e IX, XIV e art. 220, caput, § 1° e 2°). O julgamento estava previsto para este mês, mas foi retirado de pauta pelo presidente do Tribunal.

A doutrina especializada

Enquanto isso, podemos encontrar na doutrina especializada argumentos a favor e contra a constitucionalidade deste artigo.

O grupo que a defende sustenta que um regime de responsabilidade civil diferenciado é justificado pelas peculiaridades da produção e difusão de conteúdo na internet. Afirma que o modelo de responsabilização do artigo 19 impede a prática de censura privada por parte dos provedores. Entende, por fim, que a imposição aos provedores de uma obrigação de moderação prévia poderá gerar a exclusão indevida de conteúdos lícitos.





O principal argumento daqueles que contestam a constitucionalidade é de que o risco a certos valores impõe a ação das plataformas, independentemente de uma ordem judicial prévia. Dentre eles, estão o desrespeito ao consumidor, a exposição de crianças e adolescentes, ataques à democracia, incitação ao ódio, desinformação  e discriminação de certos grupos.

Outro ponto relevante aventado refere-se ao custo imposto a uma vítima de um conteúdo ilícito ou ofensivo: a obrigação de buscar o judiciário. Em um momento em que se prega a desjudicialização dos conflitos, a imposição prevista pela lei não parece coerente.

E, por fim, alguns doutrinadores afirmam que a lei já nasceu defasada. À época de sua edição, prevalecia a noção de que os servidores eram neutros e, que por isto, deveriam ser considerados meros hospedeiros dos conteúdos criados por terceiros.



A realidade hoje é bem diferente, segundo eles. É o que bem destacou a professora Ana Frazão, em artigo publicado no site jurídico JOTA. Segundo ela, estas empresas (os servidores) hoje detêm um forte controle sobre o fluxo informacional. Estão longe, portanto, de serem meras intermediárias. Vale destacar um trecho do texto: (...) já faz algum tempo que se sabe que tal postura de neutralidade é fantasiosa, pois as plataformas selecionam, filtram, ordenam e escolhem os conteúdos que cada usuário irá receber e ganham muito dinheiro com isso. Exercem, portanto, um considerável controle de conteúdo, que vai muito além da sua parte mais visível — a chamada moderação ex post — e envolve um intrincado e obscuro conjunto de medidas adotadas ex ante para decidir que conteúdo cada usuário vai receber.

Como se vê, a questão é bem complexa. Caberá à nossa Suprema Corte tentar colocar um tempero na aplicação deste artigo, considerando, para isto, nossa atual realidade social e tecnológica.

Vale mencionar que em alguns países, como a Alemanha, já existe, há algum tempo, uma tendência de se exigir maior responsabilidade dos provedores. Por lá tem prevalecido a regra de que a simples notificação do usuário gera para a plataforma a obrigação da retirada de um conteúdo tido como ilícito. 





Aqui o PL 262/20 chamado de PL de Fake News ainda aguarda aprovação pelo Congresso. Como destacamos em outro texto desta coluna, o projeto prevê alterações no Marco Civil da Internet, especialmente, no que diz respeito à obrigação de moderação de conteúdo por parte das grandes empresas de tecnologia.

Ao que tudo indica, porém, ele só será colocado em pauta após as eleições deste ano.

O autor desta coluna é Advogado, Especialista e Mestre em Direito Empresarial. É sócio fundador do escritório Ribeiro Rodrigues Advocacia

Sugestões e dúvidas podem ser enviadas para o email lfelipe@ribeirorodrigues.adv.br