Topo

Como votou cada ministro do STF no julgamento sobre big techs e o que falta para a conclusão

Rio

12/06/2025 16h37

O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira, 11, para responsabilizar provedores e redes sociais por publicações de usuários. Seis ministros já defenderam ampliar as obrigações das big techs na moderação de conteúdo.

A votação segue nesta quinta-feira, 12, com os votos de Edson Fachin e Alexandre de Moraes. Depois isso, a votação será suspensa, sem data para ser retomada. Apesar de já ter formado maioria para a responsabilização dos provedores, os ministros ainda precisam entrar em consenso sobre as normas para a aplicação da decisão.

Relacionadas

Os seis ministros que já votaram a favor de regras de responsabilização das plataformas apresentaram fundamentos e teses diferentes para embasar seus votos.

Após a etapa de consenso dos votos já apresentados, os ministros Nunes Marques e Cármen Lúcia ainda devem votar. Ainda não há uma data prevista.

O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.

Veja como cada ministro votou até o momento:

Dias Toffoli

O ministro Dias Toffoli, primeiro a votar, defendeu uma "responsabilização eficiente da internet". Toffoli reconheceu que o Marco Civil da Internet representou um avanço na conquista democrática, no entanto, destacou que, decorridos mais de dez anos da aprovação da lei, é necessário uma atualização da legislação. Para o ministro, o artigo 19 do Marco Civil da Internet é inconstitucional por ser incapaz de oferecer proteção aos direitos fundamentais no ambiente digital.

"Parece-me evidente que o regime de responsabilidade dos provedores de aplicação por conteúdo de terceiros, previsto no art. 19 do MCI, é inconstitucional, seja porque, desde a sua edição, foi incapaz de oferecer proteção efetiva aos direitos fundamentais e resguardar os princípios e valores constitucionais fundamentais nos ambientes virtuais, conforme adiante se demonstrará, seja porque, como já demonstrado, não apto a fazer frente aos riscos sistêmicos que surgiram nesses ambientes, a partir do desenvolvimento de novos modelos de negócios e de seu impacto nas relações econômicas, sociais e culturais", disse.

Segundo o ministro, há ainda omissão do Congresso Nacional e uma anacronismo legislativo diante da deficiente proteção de direitos fundamentais no meio ambiente digital.

O ministro enumerou os motivos para uma atualização do Marco Civil: "riscos sistêmicos ao próprio direito à liberdade de expressão; aos direitos fundamentais da igualdade e da preservação da dignidade da pessoa humana; ao princípio democrático e ao Estado de Direito; e à segurança e ordem pública, criados ou potencializados a partir da popularização de algumas dessas tecnologias internet-dependentes e, sobretudo, da automação e da algoritmização dos ambientes digitais".

"É hora de superar a ideia equivocada de que a internet é uma terra sem lei. As relações que se desenvolvem virtualmente são sim, todas elas, íveis de responsabilização, e o ordenamento jurídico nacional é inteiramente aplicável às condutas praticadas nas plataformas digitais", afirmou Toffoli.

Em outro trecho do voto, o ministro disse que há de se considerar que as plataformas de redes sociais "são vulneráveis à criação e à manutenção de perfis falsos e a atuação de bots" e que a falta de regulação das plataformas fomenta "a disseminação de teorias da conspiração, dá causa ao sectarismo, à polarização e ao extremismo e à difusão de discursos de ódio".

"Propicia o surgimento de um novo tipo de violência que já não podemos ignorar, a violência digital, caracterizada pelo emprego da tecnologia disponível para ameaçar, humilhar, assediar, manipular ou expor alguém, sem consentimento, no ambiente virtual, causando danos emocionais, psicológicos, sociais e até físicos às vítimas, além de estarem se revelando instrumentos eficientes para ousadas cruzadas populistas e autoritárias", disse.

Toffoli citou como exemplo a invasão do Capitólio, nos Estados Unidos, e os ataques de 8 de Janeiro, em Brasília.

"Segundo revelaram as investigações correlatas até o momento, todos esses eventos ou foram previamente anunciados nas redes sociais e/ou em grupos públicos ou canais abertos dos serviços de mensageria, sem que nada fosse feito para impedi-los, ou foram insuflados e fomentados nesses ambientes virtuais", destacou.

Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.

O ministro também definiu um rol de "práticas especialmente graves" que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.

Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.

Luiz Fux

O ministro Luiz Fux defendeu que o artigo 19 do Marco Civil não exclui a possibilidade de responsabilização civil de provedores de internet por conteúdos gerados por terceiros nos casos "em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja porquanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo".

Segundo o ministro, é dever das empresas o monitoramento ativo do conteúdo gerado por terceiro que "veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao golpe de Estado".

"Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros", alertou o ministro.

O ministro defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.

Luís Roberto Barroso

O presidente do STF defendeu que o artigo 19 do Marco Civil "é só parcialmente inconstitucional". Segundo Barroso, a exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.

Para Luís Roberto Barroso, nos casos de crime, "exceto de crimes contra a honra", notificação extrajudicial deve ser suficiente para a remoção de conteúdo. Já nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção.

"As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, como pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou a automutilação, tráfico de pessoas, atos de terrorismo e abolição violenta do Estado Democrático de Direito e golpe de Estado."

Barroso disse que o tribunal não está invadindo competências do Congresso ao julgar o tema. O ministro defendeu que o STF tem o dever de definir critérios claros para serem aplicados em casos concretos que chegarem ao Judiciário e que essas balizas "só prevalecerão" até que o Congresso aprove legislação sobre o assunto.

O ministro argumentou que o Congresso deve definir as sanções possíveis para as plataformas e criar um órgão regulador independente e autônomo para a análise de conformidade, monitoramento e eventual aplicação das punições. Já as plataformas devem criar sistemas para a recepção de notificações dos usuários, com interface ível e amigável, e publicar relatórios anuais, "claros e facilmente compreensíveis" sobre a atividade de moderação de conteúdo.

André Mendonça

O ministro André Mendonça foi o único que votou para manter a sistemática atual de responsabilidade das plataformas por publicações de usuários - apenas em caso de descumprimento de decisões judiciais para remover conteúdos.

O ministro equiparou as redes sociais a veículos de comunicação e jornalísticos e defendeu que, por isso, elas não podem sofrer restrições "à plena liberdade de informação".

Também argumentou que considera arriscado transferir da Justiça para as próprias plataformas a moderação de conteúdos controversos.

"Não vislumbro como transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar, de modo automático e artificial, os valores em disputa, especialmente quando um desses valores é a liberdade de expressão", defendeu.

Na avaliação de Mendonça, se as plataformas estiverem sujeitas a penalidades por conteúdos publicados por terceiros, a tendência é um aumento da vigilância sobre a atividade online dos usuários.

"A análise do tema enseja uma alteração de foco. Deixar de mirar na responsabilidade pela remoção do conteúdo ou do perfil, ando-se a destinar atenção aos protocolos e procedimentos empregados pelas plataformas na tentativa de criar um ambiente digital mais hígido, íntegro e salutar."

O ministro defendeu que, quando houver ordem judicial para a remoção de conteúdos, as plataformas têm direito de o à íntegra da decisão, mesmo que o processo seja sigiloso, para recorrer caso considerem necessário.

Atualmente, as empresas recebem apenas a notificação de remoção de conteúdo ou contas para que procedam ao cumprimento. A sistemática vem sendo alvo de questionamentos mais contundentes pelas plataformas desde que o ministro Alexandre de Moraes mandou derrubar perfis e postagens em série de bolsonaristas.

Mendonça também argumentou que a exclusão de páginas pessoais e perfis inteiros é uma censura prévia e não deve ser permitida, exceto em caso de contas falsas ou criminosas. Para o ministro, apenas publicações pontuais podem ser retiradas do ar.

Flávio Dino

O ministro defendeu que o provedor de aplicações de internet poderá ser responsabilizado civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de postagens de perfis falsos e chatbots, em "ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares", crimes contra crianças e adolescentes, crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação, crime de terrorismo e em casos de apologia ou instigação de violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito.

"Para fins da responsabilidade civil, considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de segurança contra os conteúdos ilícitos anteriormente listados, configurando violação aos deveres específicos de prevenção e precaução, assim como do dever de cuidado necessário aos provedores citados", disse.

Em seu voto, o ministro defendeu que "a liberdade regulada é a única liberdade". "Liberdade sem responsabilidade é anarquia, conduz à barbárie", afirmou.

Dino argumentou ainda que, como qualquer atividade econômica, as plataformas precisam de regulamentação.

"É absolutamente razoável que nós fortaleçamos o dever de vigilância, de prevenção, de cuidado, de precaução. Um shopping não tem que manter seguranças? Um banco não tem que manter seguranças? Qualquer atividade tem bônus e ônus", defendeu.

O ministro destacou ainda que os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, um sistema de notificações, um devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamento.

Cristiano Zanin

O ministro Cristiano Zanin defendeu que o artigo 19 do Marco Civil da Internet, no estágio atual, é "deficiente" para proteger os usuários. Segundo o ministro, "o artigo 19 é incompatível com a atual realidade do modelo de negócio de muitos provedores" e defendeu a inconstitucionalidade do trecho da lei.

"A velocidade e o alcance das comunicações nas plataformas digitais potencializam tanto os benefícios quanto os danos dos conteúdos compartilhados. Se, por um lado, as plataformas digitais, como as redes sociais, constituem um importante espaço de disseminação de ideias e fortalecem a liberdade de expressão, por outro, têm se mostrado um terreno fértil para a propagação de conteúdos que podem causar danos significativos, como discursos ofensivos, de ódio ou discriminatórios, mobilizações antidemocráticas, desinformação e conteúdo criminoso em geral", argumentou.

O ministro destacou ainda que o modelo de exclusão de postagens nas redes sociais apenas após decisão judicial potencializou a disseminação de conteúdo ilícito na internet.

"Uma década após a promulgação do Marco Civil da Internet, a prognose legislativa de promoção legítima da liberdade de expressão por meio do modelo de exclusão após decisão judicial não se confirmou empiricamente, tendo, na verdade, potencializado a disseminação de conteúdo ilícito na internet, com graves consequências para o sistema de direitos fundamentais individuais e coletivos e, ainda, para o Estado Democrático de Direito", disse.

Zanin votou para diferenciar "conteúdos evidentemente criminosos ou ilícitos" de publicações em que houver "dúvida razoável sobre a ilicitude do conteúdo". No primeiro caso, segundo a posição do ministro, as plataformas podem ser punidas se deixarem de remover postagens após notificação dos usuários. No segundo caso, os provedores podem aguardar uma ordem judicial.

Segundo o ministro, "não se pode permitir que as redes sociais sejam espaços livres de direito para a prática de ilícitos".

O ministro diferenciou provedores "neutros", descritos por ele como "meros repositórios" que operam sem impulsionamento, daqueles que usam "curadoria algorítmica", que na visão dele têm uma responsabilidade maior pelos conteúdos que permitem circular.

Gilmar Mendes

O decano do STF defendeu que as plataformas digitais "não são meros condutores de informação, mas sim verdadeiros reguladores do discurso on-line". Gilmar Mendes destaca que o artigo 19 do Marco Civil se aproximou a uma lógica de responsabilidade mitigada das plataformas pelo conteúdo de terceiros e que esse" paradigma de neutralidade com relação ao conteúdo foi completamente superado nas últimas décadas".

"Em vez de figurarem como agentes meramente neutros, ou como tubos de comunicação, fato é que empresas como Facebook, Google e Amazon interferem ativamente na circulação de conteúdo de terceiros. Elas fazem isso por meio de filtros, bloqueios ou impulsionamento em massa de conteúdos produzidos pelos seus usuários - tudo a partir de algoritmos que permitem às plataformas manipular e controlar a forma de propagação dos conteúdos privados de forma pouco transparente", argumentou.

Mendes destaca que as plataformas "constituem sofisticados modelos de negócios voltados especificamente para a captura e monetização da atenção humana" e que "existem evidências que esse modelo de negócio é estruturalmente inclinado à veiculação de conteúdos que promovem desagregação política".

"Existem evidências que esse modelo de negócio é estruturalmente inclinado à veiculação de conteúdos que promovem desagregação política. Os algoritmos das redes sociais, em seu processo de otimização para maximização do engajamento, internalizaram uma lógica perversa: conteúdos divisivos e polarizadores são sistematicamente os que mais geram interação entre os usuários. Essa descoberta não é fortuita, mas decorre de uma característica fundamental da psicologia humana que privilegia respostas emocionais intensas a estímulos controvertidos, como a indignação", disse.

O ministro afirmou que falta transparência nos algoritmos das redes sociais e que essas plataformas "já funcionam como verdadeiros curadores do discurso público" e sugeriu quatro regimes distintos para a responsabilidade das plataformas, que ele chamou de "residual", "geral", "de presunção" e "especial".

E ressalta que a narrativa contrária à regulação das redes, amplamente disseminada por grupos conservadores e empresas de tecnologia, "ignora uma realidade incontornável: as plataformas digitais já exercem, cotidianamente e de forma extensiva, um papel de mediação e controle sobre a liberdade de expressão dos usuários".

O ministro também defendeu que as plataformas devem desenvolver mecanismos técnicos para estender decisões de remoção de conteúdo, sejam elas por ordem judicial ou notificação privada, casos repetitivos de "conteúdos ilícitos idênticos".

Comunicar erro

Comunique à Redação erros de português, de informação ou técnicos encontrados nesta página:

Como votou cada ministro do STF no julgamento sobre big techs e o que falta para a conclusão - UOL

Obs: Link e título da página são enviados automaticamente ao UOL

Ao prosseguir você concorda com nossa Política de Privacidade


Cotidiano