O ministro Dias Toffoli, relator de uma das ações no Supremo Tribunal Federal que discutem a responsabilidade das plataformas digitais sobre o conteúdo de usuários, concluiu seu voto nesta quinta-feira 5 para declarar a inconstitucionalidade do artigo 19 do Marco Civil da Internet.
Conforme o dispositivo em questão, as big techs só podem ser condenadas em razão das publicações de terceiros caso descumpram ordens judiciais para remover o conteúdo. Na prática, a Corte discute, desde a semana passada, se as redes sociais devem retirar do ar postagens irregulares de forma voluntária.
O voto de Toffoli, portanto, é no sentido de obrigar as redes sociais e plataformas de internet a retirarem do ar conteúdo criminoso, mesmo que não haja determinação da Justiça nesse sentido.
No caso concreto, o magistrado é relator do recurso movido pelo Facebook que tenta reverter uma decisão que condenou a empresa ao pagamento de indenização por ter mantido no ar um perfil falso responsável por divulgar contéudos ofensivos.
O Marco Civil aguardava julgamento havia sete anos. Os processos entraram e saíram da pauta três vezes nos últimos anos. Na última, foram adiados depois de pedido da Câmara dos Deputados, devido à previsão de votação do PL das Fake News, enterrado em abril após a pressão das plataformas e de parlamentares bolsonaristas.
Outras duas ações são discutidas em conjunto no Supremo:
- Recurso do Google que questiona se um provedor de serviços se torna responsável ao armazenar ofensas produzidas por usuários e se deve fiscalizar material previamente (relatoria de Luiz Fux)
- Ação que questiona se o Marco Civil da Internet pode ser usado para fundamentar ordens de suspensão de aplicativos (relatoria original da ministra aposentada Rosa Weber)
Já a ação movida pelo Google tem relação com o antigo Orkut. Uma professora de ensino médio pediu a exclusão de uma comunidade chamada “Eu odeio a Aliandra”, criada em 2009 – antes do Marco – para veicular conteúdo ofensivo.
A empresa negou o pedido, mas a Justiça entendeu que ela deveria ser responsabilizada pela não exclusão. O Google, contudo, tem alegado que a remoção da comunidade antes da aprovação do Marco violaria a liberdade de expressão dos usuários.
O julgamento foi novamente interrompido após a conclusão do voto de Toffoli. Na semana que vem, será a vez de o segundo relator, o ministro Luiz Fux, se manifestar. Em seguida, votarão os demais integrantes da Corte.
Ao começar a apresentação do seu posicionamento, na quinta-feira passada, Dias Toffoli já havia sinalizado que defenderia a inconstitucionalidade do artigo 19, por considerá-lo “incapaz de oferecer proteção efetiva aos direitos fundamentais e resguardar os princípios e valores constitucionais fundamentais” no ambiente virtual.
Nesta quinta, o relator defendeu que, em caso de conteúdos ofensivos ou ilícitos, as plataformas devem agir quando notificadas de forma extrajudicial — ou seja, já pela vítima ou por seu advogado. Se não removerem os conteúdos ofensivos, argumentou o ministro, ficarão sujeitas à responsabilidade objetiva de responder pelos danos, independente de culpa.
Pelos termos do voto, essas seriam as situações em que as big techs deveriam agir sem necessidade de notificação judicial:
- crimes contra o Estado Democrático de Direito;
- atos de terrorismo ou preparatórios de terrorismo;
- crime de induzimento, instigação ou auxílio a suicídio ou à automutilação;
- crime de racismo;
- violência contra a mulher, a criança, o adolescente e as pessoas vulneráveis;
- qualquer espécie de violência contra a mulher;
- tráfico de pessoas;
- incitação ou ameaça da prática de atos de violência física ou sexual;
- divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis;
- divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
O novo modelo de responsabilização das redes proposto pelo ministro baseia-se no que diz o artigo 21 do Marco, chamado por Toffoli de “sistema de notificação e análise”. Se as mudanças forem aprovadas pelo plenário do STF, caberá às plataformas analisar as publicações questionadas e verificar se devem ser removidas.
Elas serão punidas se mantiverem no ar postagens criminosas, mas também se removerem indevidamente conteúdos regulares.
“Do lucro, nasce o encargo”, afirmou o magistrado. “As atividades de recomendação, impulsionamento e moderação de conteúdo são intrínsecas ao modelo de negócio adotado por muitos provedores e, sendo esse o caso, como os provedores lucram com isso, devem arcar com os riscos e prejuízos a que deram causa.”
O relator ainda rebateu a tese de que as big techs não possuem ingerência sobre o conteúdo dos usuários. Para Toffoli, porém, muitas plataformas, provedores e redes sociais impulsionam conteúdos nocivos, influenciando o fluxo de informações nos seus ecossistemas.
“Os conteúdos continuam sendo de terceiros, porque na origem foram confeccionados e/ou publicados por esses, mas ao recomendá-los ou impulsioná-los a um número indefinido de usuários o provedor acaba se tornando corresponsável pela sua difusão”, sustentou. Ele ainda fez uma distinção entre as diferentes plataformas, segundo as atividades exercidas.
Ficariam isentos da responsabilização, por exemplo, provedores de e-mail, plataformas de reuniões fechadas por videoconferência e plataformas e blogs jornalísticos. Os aplicativos de mensagens não responderiam por conversas privadas, mas poderiam ser responsabilizados por conteúdos publicados em grupos públicos e canais abertos.
As plataformas de comércio eletrônico, chamadas de marketplace, também serão afetadas pelo novo sistema, caso ele seja aprovado pela maioria do STF. Elas podem ser punidas se permitirem o anúncio de produtos de venda proibida ou sem certificação e homologação por órgãos competentes, como as TV Box, proibidas pela Anatel.