BRASÍLIA, DF (FOLHAPRESS) - O STF (Supremo Tribunal Federal) formou maioria para que as big techs possam ser responsabilizadas se não retirarem publicações criminosas de usuários, mesmo que não haja decisão judicial prévia para a remoção do conteúdo.
O plenário somou, nesta quarta-feira (11), os votos dos ministros Flávio Dino, Cristiano Zanin e Gilmar Mendes pela ampliação da responsabilidade das redes sociais no julgamento que trata da constitucionalidade de trechos do Marco Civil da Internet, em vigor desde 2014.
Dias Toffoli, Luiz Fux e Luís Roberto Barroso já haviam manifestado entendimento semelhante, alcançando 6 votos, de um total de 11 no Supremo. Os magistrados, porém, têm avaliações diferentes sobre a amplitude e ainda precisarão modular uma tese ao final do julgamento.
Por enquanto, só André Mendonça votou para manter a responsabilização das plataformas apenas após decisão judicial. Faltam votar Kassio Nunes Marques, Edson Fachin, Alexandre de Moraes e Cármen Lúcia.
A corte debate o artigo 19 do Marco Civil da Internet, que define que as empresas só deverão indenizar usuários ofendidos por postagens de terceiros se descumprirem ordem judicial para remoção de conteúdo.
Com o entendimento formado na corte até aqui, a discussão a a ser o tamanho da lista de obrigações pelas quais as redes serão responsabilizadas a partir do momento em que forem notificadas por usuários ofendidos. A previsão é a que o julgamento seja retomado nesta quinta (12).
A expectativa é que, com as mudanças, o Supremo coloque em voga parte do que vinha sendo discutido no âmbito do PL das Fake News, travado diante do lobby das próprias big techs.
Ao votar, Dino defendeu "avançar na direção da liberdade com responsabilidade e da liberdade regulada, que é a única e verdadeira liberdade".
Ele fez uma analogia com outros setores para defender a regulação. "Eu nunca vi alguém pretender abrir uma companhia aérea sem regulação em nome do direito de ir e vir", disse. "A responsabilidade evita a barbárie, evita tiranias."
Cristiano Zanin, assim como os colegas, afirmou que a norma vigente é insuficiente para proteger direitos fundamentais e a democracia no contexto atual.
O ministro manifestou preocupação com a restrição da liberdade de expressão em situações de possíveis crimes contra a honra. Nesses casos, ele aceita que as empresas recusem a retirada do conteúdo.
"Se tiver alguma dúvida legítima, a plataforma poderia solicitar ou aguardar a decisão judicial. Aqui também me parece importante fazer uma diferenciação do conteúdo manifestamente criminoso daquele que possa dar margem para a dúvida", disse.
O decano Gilmar Mendes lembrou a criação do Marco Civil da Internet, pensado com base no entendimento da neutralidade da rede, ou seja, que as empresas eram apenas intermediárias de conteúdos.
"O paradigma de neutralidade foi completamente superado nas últimas décadas. Ao invés de atuarem como intermediárias, empresas interferem ativamente na circulação de conteúdos de terceiros, por meio de filtros, bloqueios e impulsionamento em massa, com algoritmos que as permitem controlar a forma de propagação de conteúdos privados de forma pouco transparente", disse.
De acordo com ele, trata-se do modelo de negócios das empresas manter os usuários por mais tempo nas redes para estarem também mais expostos a publicidade.
Assim, Gilmar propôs a manutenção do texto do artigo 19 para crimes contra a honra e conteúdos jornalísticos, mas estabeleceu como regime geral a responsabilidade após notificação.
Para ele, na hipótese de exclusão, o provedor deverá notificar o usuário sobre a medida aplicada e a fundamentação e dar o direito ao usuário de pedir a revisão da decisão.
O Supremo também debate a ideia de falha sistêmica das plataformas, para definir em quais cenários o Judiciário deve reconhecer que as big techs não adotaram medidas para sua autorregulação.
Os magistrados afirmaram ser preciso um mecanismo para que conteúdos que já tiveram decisão judicial atestando para o teor criminoso também não possam ser publicados.
Dino sugere que a responsabilização se dê quando forem mantidas no ar publicações que promovam crime contra a criança e o adolescente; crime de induzimento ao suicídio e à automutilação; crime de terrorismo; e apologia aos crimes contra o Estado democrático de Direito.
O ministro ainda defende que as plataformas digitais devem editar regras de autorregulação que necessariamente contenham um sistema de notificações, um processo para análise de conteúdos denunciados e relatórios anuais de transparência em relação a notificações extrajudiciais.
Toffoli e Fux são os dois relatores do caso. Para eles, as plataformas devem agir ao serem notificadas por usuários ou mesmo antes, em alguns casos. O presidente da corte, Luís Roberto Barroso, defendeu que a regra fosse declarada apenas parcialmente inconstitucional.
Um dos principais pontos de controvérsia é a possível criação de um órgão do Executivo que monitore o cumprimento das normas pelas plataformas digitais.
Gilmar defende que seja criado um mecanismo como a Autoridade Nacional de Proteção de Dados, responsável por aplicar sanções contra empresas e órgãos que descumpram a LGPD (Lei Geral de Proteção de Dados).
Barroso, por outro lado, diz que a criação de uma autoridade ligada ao governo pode ser considerada uma afronta à liberdade de expressão. Ele sugere que o órgão seja colegiado, com presença massiva da sociedade civil organizada.
O presidente de Assuntos Globais do Google, Kent Walker, está em Brasília, com uma agenda de encontros com ministros do STF -ele e a empresa não quiseram revelar quais.
Walker disse que a tese em discussão no Supremo fixa uma responsabilidade muito abrangente das plataformas pelo conteúdo produzido por terceiros.
"O que está sendo sugerido é uma noção ampla de responsabilidade e do dever de cuidado, não muito bem definida. Pela maneira como nossas ferramentas funcionam, teríamos que remover muito conteúdo, incluindo conteúdo politicamente valioso, para reduzir o risco de responsabilização", afirmou. "O diabo está nos detalhes."
O executivo diz que o Google concorda com a moderação de conteúdo de categorias específicas (como ameaças à democracia, incitação à violência e conteúdo prejudicial para crianças), mas não com a responsabilização direta das plataformas pelo conteúdo produzido por terceiros.
Leia Também: Câmara é cobrada por medidas econômicas e 'Haddad tem razão' domina web