BRASÍLIA - O Supremo Tribunal Federal decidiu nesta quinta-feira (26) uma nova interpretação do artigo 19 do Marco Civil da Internet, em que responsabiliza as plataformas de internet por conteúdos de terceiros. Por 8 votos a 3, a Corte declarou que o dispositivo é parcialmente inconstitucional e chegou a um consenso sobre a aplicação da decisão. As chamadas "big techs" poderão ser responsabilizadas civilmente caso não removam conteúdos criminosos, o que inclui atos antidemocráticos, discriminatórios ou de incitação a crimes.
Pelo novo entendimento:
- Provedores de internet estão sujeitos a responsabilidade civil no caso de conteúdos postados por terceiros nos casos de crime ou atos ilícitos, sem prejuízo do dever de remoção de conteúdos; o mesmo vale no caso de contas falsas;
- No caso de crimes contra a honra, mantém-se o artigo 19, sem prejuízo de remoções por notificações extrajudiciais.
Os ministros decidiram também que configuram as práticas de crimes graves: condutas e atos antidemocráticos, crimes de terrorismo ou preparatórios de terrorismo, crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, incitação à discriminação, crimes praticados contra a mulher, crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes.
A Corte definiu ainda a responsabilização dos provedores em caso de conteúdos ilícitos quando houver anúncios e impulsionamentos pagos ou com uso de robôs. As plataformas, no entanto, ficarão isentas se comprovarem que atuaram em tempo razoável para tornar indisponível o conteúdo.
Além disso, a decisão prevê que, quando já houver uma decisão sobre aquele conteúdo, todas as postagens devem ser excluídas, sem necessidade de novas decisões judiciais, a partir de notificações judiciais ou extrajudiciais.
Os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Alexandre de Moraes, Cármen Lúcia e o presidente do Supremo, Luís Roberto Barroso, votaram para responsabilizar as redes sociais. Os votos divergentes foram dos ministros André Mendonça, Edson Fachin e Nunes Marques.
Casos envolvem a aplicação de artigo do Marco Civil da Internet
O STF concluiu nesta quinta-feira (26) o julgamento de duas ações que tratam da responsabilidade civil das plataformas da internet por conteúdos de terceiros e da possibilidade de remoção de conteúdos ofensivos ou que incitem ódio a partir de notificação extrajudicial, ou seja, sem determinação judicial.
Pelo artigo 19 do Marco Civil da Internet, é necessário ordem judicial prévia e específica de exclusão de conteúdo para a responsabilização civil de provedores, websites e gestores de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros.
O entendimento majoritário no STF é que empresas como Google, Meta e X podem ser responsabilizadas civilmente por conteúdos ilícitos mesmo sem ordem judicial, em casos específicos, como crimes graves, falhas sistêmicas e postagens patrocinadas.
Em seu voto, o relator de um dos casos, o ministro Dias Toffoli, defendeu que esse modelo de responsabilidade previsto no artigo 19 do Marco Civil é inconstitucional pois, desde sua edição, foi incapaz de oferecer proteção efetiva aos direitos fundamentais em ambientes virtuais.
Toffoli afirmou que, caso seu voto prevaleça, a responsabilização das plataformas por conteúdos de terceiros deverá se basear no artigo 21 do Marco Civil, que prevê a retirada do conteúdo após simples notificação.
Luiz Fux, relator da outra ação, também votou pela inconstitucionalidade parcial da norma, apontando que o dispositivo compromete a proteção de direitos fundamentais e o combate à desinformação.
Na avaliação do ministro Alexandre de Moraes, até que haja nova regulamentação pelo Congresso Nacional, é necessário que o STF reinterprete a regra do Marco Civil para que as plataformas, as redes sociais e os serviços de mensagens privadas sejam legalmente equiparados aos demais meios de comunicação.
O magistrado ainda defendeu que os provedores de redes sociais e serviços de mensagens sejam solidariamente responsáveis, civil e administrativamente, por conteúdos direcionados por algoritmos e publicitários impulsionados mediante pagamento e por omissão.
Moraes afirmou que a falência da autorregulamentação ficou demonstrada na convocação para os atos antidemocráticos de 8 de janeiro, feita abertamente pelas redes sociais sem nenhuma intervenção das plataformas.
“O dia 8 de janeiro demonstrou a total falência do sistema de autorregulação de todas as redes, de todas as big techs. Falência porque tudo foi organizado pelas redes. Ou grande parte pelas redes”, disse.
Ministros defenderam abordagem intermediária
O presidente do STF, Luís Roberto Barroso, antecipou seu voto e propôs uma abordagem intermediária: manutenção da necessidade de ordem judicial em casos de crimes contra a honra, mas permissão para remoção e responsabilização mediante notificação extrajudicial em situações de maior gravidade, como pornografia infantil, terrorismo e incitação ao suicídio.
Barroso também sugeriu que, diante de falhas estruturais de moderação, as plataformas sejam responsabilizadas com base no Código de Defesa do Consumidor.
O ministro Flávio Dino apresentou voto no mesmo sentido, defendendo a responsabilização direta das plataformas em casos de perfis falsos, bots (abreviatura de robôs) anônimos, anúncios ilícitos e crimes contra o Estado Democrático de Direito.
Para ele, a obrigação deve ser mantida em algumas situações específicas, como as que apontam para o cometimento de crimes contra a honra, porque, nesses casos, a retirada da exigência poderia comprometer a proteção à liberdade de expressão.
O ministro Cristiano Zanin votou integralmente com os relatores e demais integrantes da maioria, reforçando a tese de que a proteção ampla hoje garantida às plataformas deve ser limitada. Gilmar Mendes, que havia pedido o adiantamento de seu voto, também se alinhou à posição dominante.
Já a ministra Cármen Lúcia foi a favor de uma ampliação das obrigações das big techs por conteúdos publicados por terceiros.
O ministro André Mendonça, por sua vez, entende que a regra é constitucional, que as plataformas têm legitimidade para defender a liberdade de expressão e o direito de preservar as regras de moderação próprias.
Edson Fachin se alinhou à divergência aberta por Mendonça e votou pela constitucionalidade do artigo 19 e das regras atuais de responsabilização das plataformas de redes sociais.
Nunes Marques foi o último a votar e afirmou que defendia a liberdade de expressão. Disse ainda que a solução para a questão não seria a prévia restrição a esse direito.
Durante o julgamento, a Advocacia-Geral da União (AGU) defendeu a inconstitucionalidade do artigo 19 do Marco Civil da Internet. Além disso, o órgão apresentou pedido de liminar ao Supremo para a aplicação “imediata” de medidas em casos de desinformação, violência digital e danos provocados pela “omissão” de redes sociais diante de conteúdos ilícitos nas plataformas.
“O fato é que a imunidade trazida pelo artigo 19 do Marco Civil da Internet, imunidade esta, que tem sido utilizada pelas plataformas digitais, para uma conduta absolutamente omissa, tem levado a um déficit da nossa qualidade democrática”, declarou o advogado-geral da União, Jorge Messias, durante sessão do julgamento.