A MUTAÇÃO CONSTITUCIONAL DA RESPONSABILIDADE CIVIL NAS REDES: A CONSTRUÇÃO DO "CÓDIGO DIGITAL" PRETORIANO NO JULGAMENTO DO TEMA 987 PELO STF

THE CONSTITUTIONAL MUTATION OF CIVIL LIABILITY ON SOCIAL MEDIA: THE CONSTRUCTION OF THE "DIGITAL CODE" IN THE SUPREME COURT'S RULING ON CASE 987

REGISTRO DOI: 10.70773/revistatopicos/776957693

RESUMO
O presente estudo empreende uma análise crítica e exaustiva da reconfiguração do regime de responsabilidade civil dos provedores de aplicações de internet no Brasil, consolidada no julgamento do Tema 987 da Repercussão Geral pelo Supremo Tribunal Federal (STF). Partindo da premissa de que o artigo 19 da Lei nº 12.965/2014 (Marco Civil da Internet) foi concebido sob um paradigma liberal-abstencionista — condicionando a responsabilização das plataformas exclusivamente ao descumprimento de ordem judicial (judicial notice and takedown) —, o trabalho demonstra como a evolução do capitalismo de vigilância e a emergência de riscos sistêmicos tornaram tal modelo obsoleto e gerador de um estado de proteção insuficiente (Untermassverbot) aos direitos fundamentais. A pesquisa disseca os fundamentos determinantes do acórdão, explorando a tese da inconstitucionalidade parcial e progressiva, a introdução do "dever de cuidado" (duty of care) para crimes graves, a distinção ontológica entre redes sociais e marketplaces, e a imposição de deveres de compliance e transparência. Conclui-se que a Corte Constitucional, diante da inércia legislativa e da urgência imposta pela realidade fática, assumiu uma função atípica de legislador positivo, instituindo um complexo "Código Digital" pretoriano que redefine a soberania digital brasileira e o equilíbrio entre liberdade de expressão e dignidade da pessoa humana, ainda que deixe lacunas sobre a regulação da curadoria algorítmica.
Palavras-chave: Marco Civil da Internet; Tema 987 STF; Dever de Cuidado; Responsabilidade Civil; Liberdade de Expressão; Capitalismo de Vigilância.

ABSTRACT
This study undertakes a critical and exhaustive analysis of the reconfiguration of the civil liability regime for internet application providers in Brazil, consolidated in the Supreme Federal Court's (STF) judgment of Theme 987 of General Repercussion. Premised on the notion that Article 19 of Law No. 12.965/2014 (Brazilian Civil Rights Framework for the Internet) was conceived under a liberal-abstentionist paradigm—conditioning platform liability exclusively on non-compliance with a judicial order (judicial notice and takedown)—the work demonstrates how the evolution of surveillance capitalism and the emergence of systemic risks have rendered this model obsolete, resulting in a state of insufficient protection (Untermassverbot) for fundamental rights. The research dissects the decision's determining grounds, exploring the thesis of partial and progressive unconstitutionality, the introduction of a "duty of care" for serious crimes, the ontological distinction between social networks and marketplaces, and the imposition of compliance and transparency duties. It is concluded that the Constitutional Court, facing legislative inertia and the urgency imposed by factual reality, assumed an atypical role of positive legislator, instituting a complex Praetorian "Digital Code" that redefines Brazilian digital sovereignty and the balance between freedom of expression and human dignity, albeit leaving gaps regarding the regulation of algorithmic curation.
Keywords: Brazilian Civil Rights Framework for the Internet; STF Theme 987. Duty of Care; Civil Liability; Freedom of Expression; Surveillance Capitalism.

1. INTRODUÇÃO: GÊNESE, APOGEU E OBSOLESCÊNCIA DO MARCO CIVIL DA INTERNET

A Lei nº 12.965/2014, o Marco Civil da Internet (MCI), representou a consolidação de um modelo de governança da rede no Brasil, estruturado sob a influência de vetores exógenos e endógenos. Internamente, o ordenamento jurídico demandava segurança após décadas de vacilação jurisprudencial entre a responsabilidade subjetiva e objetiva. Externamente, as revelações de vigilância estatal global em 2013 aceleraram a tramitação legislativa, conferindo ao texto um caráter de urgência política.

Concebido sob um paradigma de "tecno-otimismo", o MCI priorizou a liberdade de expressão e a neutralidade da rede. O núcleo desse regime, insculpido no artigo 19, adotou o modelo de judicial notice and takedown, visando mitigar o chilling effect e proteger a inovação. Contudo, a evolução dos modelos de negócios digitais na última década tensionou essa arquitetura normativa. A transição para o que Zuboff (2021) denomina "capitalismo de vigilância" transformou as plataformas em arquitetas de ecossistemas onde a atenção é monetizada e a viralização de conteúdos extremos é, muitas vezes, algoritimicamente incentivada.

O descompasso entre a norma de 2014 e os riscos sistêmicos atuais — exemplificados pela desinformação em massa e ameaças às instituições democráticas — fundamentou a controvérsia do Tema 987 no Supremo Tribunal Federal (STF). O presente estudo analisa a decisão da Corte não apenas como revisão de constitucionalidade, mas como o reconhecimento de uma mutação constitucional baseada na vedação à proteção insuficiente (Untermassverbot). Argumenta-se que o Tribunal inaugurou um regime híbrido de responsabilidade e compliance, redefinindo a soberania digital brasileira.

2. A ARQUITETURA DA IMUNIDADE: ANÁLISE CRÍTICA DO MODELO ORIGINAL (ART. 19)

Para compreender a profundidade da mudança operada pelo STF, é imperioso dissecar a lógica jurídica e política que estruturou o Marco Civil da Internet. O legislador de 2014 realizou uma "escolha trágica" — no sentido grego de conflito entre bens incomensuráveis — ao privilegiar a liberdade de expressão em detrimento de uma tutela imediata e extrajudicial dos direitos da personalidade.

Antes da vigência do MCI, a jurisprudência do Superior Tribunal de Justiça (STJ) tendia a consolidar o modelo de notice and takedown (notificação e retirada). Nesse sistema, inspirado no Digital Millennium Copyright Act (DMCA) norte-americano, o provedor tornava-se solidariamente responsável caso não removesse o conteúdo ilícito após a simples notificação extrajudicial da vítima. Era um modelo que privilegiava a celeridade na reparação do dano e a autotutela administrativa.

O artigo 19 do MCI rompeu radicalmente com essa tradição jurisprudencial. Ao condicionar a responsabilidade civil ao descumprimento de ordem judicial específica, o legislador brasileiro criou uma espécie de "imunidade condicionada" para os provedores de aplicações. O dispositivo legal fundamentava-se na premissa de que atribuir a entes privados o poder-dever de decidir o que é lícito ou ilícito levaria a uma censura privada preventiva. A defesa das plataformas sustentava que, na dúvida sobre a legalidade de um conteúdo, e para evitar riscos financeiros, a tendência empresarial seria remover qualquer postagem denunciada, silenciando vozes dissonantes e empobrecendo o debate democrático.

No julgamento do Tema 987, a defesa da empresa Meta (Facebook) reiterou essa tese, argumentando que a exigência de ordem judicial protege a inovação tecnológica e impede que o provedor atue como um "tribunal de exceção" privado. Segundo a recorrente, o modelo do art. 19 não impedia a moderação de conteúdo, pois as plataformas já realizavam remoções proativas baseadas em seus Termos de Uso (autorregulação), mas reservava ao Estado-Juiz a última palavra sobre a ilicitude para fins indenizatórios.

A doutrina constitucionalista, contudo, apontou precocemente as inconstitucionalidades materiais desse arranjo. Ao elevar a liberdade de expressão a um patamar quase absoluto, o artigo 19 teria violado o princípio da proporcionalidade e a dignidade da pessoa humana, permitindo que a honra, a intimidade e a privacidade fossem sacrificadas no altar da inovação tecnológica.

A tese central que emergiu para combater a validade do art. 19 foi a da proibição de proteção insuficiente (Untermassverbot). O Estado, ao conceder essa imunidade às plataformas, falhou em seu dever positivo de proteger os direitos fundamentais dos cidadãos contra ataques de terceiros em ambiente virtual. O dispositivo gerou um efeito colateral perverso: a judicialização obrigatória e massiva do conflito. A vítima de uma ofensa digital — muitas vezes hipossuficiente — viu-se obrigada a percorrer a via crucis do Judiciário, arcando com custos e tempo, enquanto o conteúdo danoso continuava a reverberar na rede, amplificado pela velocidade de replicação digital instantânea.

Além disso, argumentou-se que o modelo representava um retrocesso social (vedação ao retrocesso), pois retirava do consumidor-vítima ferramentas de autotutela administrativa que já eram reconhecidas pelos tribunais superiores antes de 2014. A exigência de ordem judicial "específica" (com indicação de URLs) tornava a remoção de conteúdos virais uma tarefa de Sísifo: mal se removia um link por ordem judicial, surgiam dezenas de cópias (espelhamentos), e a necessidade de novas ordens judiciais para cada nova URL tornava a tutela jurisdicional inócua e tardia.

Essa blindagem normativa permitiu que as plataformas lucrassem com a circulação de ilícitos — através do engajamento gerado por polêmicas e discurso de ódio — sem assumir os riscos inerentes à sua atividade empresarial (teoria do risco do negócio), violando a isonomia em relação aos meios de comunicação tradicionais, que sempre responderam, de forma direta, pelo conteúdo que publicam ou editam.

3. A MUTAÇÃO CONSTITUCIONAL: O JULGAMENTO DO TEMA 987

O julgamento do Tema 987 não foi apenas uma correção de rumos interpretativos, mas uma resposta institucional contundente à falência do modelo de autorregulação das plataformas e à emergência de riscos democráticos. A Corte reconheceu que a internet de 2024 não é a mesma de 2014 e que o Direito Constitucional não pode tolerar um modelo de negócios que monetiza o ódio e a desestabilização democrática sob o manto de uma liberdade de expressão absoluta e irresponsável.

Liderada pelo voto condutor do Relator, Ministro Dias Toffoli, a corrente majoritária (8 votos a 3) assentou-se na tese de que o art. 19 do MCI é parcialmente inconstitucional. O Tribunal entendeu que "há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância".

Toffoli desconstruiu a premissa de que a internet seria um território franco, imune à incidência direta dos deveres de reparação civil. "O que é ilícito no mundo real é ilícito no mundo virtual", afirmou o Relator. O voto destacou que a responsabilidade não pode surgir apenas após o descumprimento de uma ordem judicial; isso equivaleria a dizer que o dano ocorrido antes da ordem é "indenizável" ou que a plataforma goza de uma anistia prévia, deixando a vítima desamparada durante todo o período de tramitação processual.

O Relator enfatizou que o modelo do art. 19 desestimulou o investimento das plataformas em moderação de conteúdo e segurança. Se a responsabilidade financeira só nasce com a ordem judicial, não há incentivo econômico para prevenir danos ou melhorar os sistemas de detecção de ilícitos.

O Ministro Alexandre de Moraes trouxe ao debate a dimensão política e institucional da controvérsia, ancorando seu voto na experiência traumática dos ataques de 8 de janeiro de 2023. Moraes foi categórico ao afirmar que tal evento "demonstrou a total falência do sistema de autorregulação de todas as redes".

Para o Ministro, a manutenção de conteúdos golpistas, a incitação à violência e a organização de atos antidemocráticos nas plataformas não decorreram de incapacidade técnica, mas de uma escolha deliberada pelo lucro e pelo engajamento, facilitada pela proteção do artigo 19. "Falta boa vontade porque, na verdade, esse é o desenho do negócio: ter mais robôs, mais ofensa, mais discurso de ódio, monetizar e ganhar mais dinheiro".

Moraes refutou o argumento de que a moderação proativa seria tecnicamente impossível ou configuraria censura, citando que as plataformas já utilizam algoritmos eficientes para remover pornografia infantil e violações de direitos autorais (copyright) antes mesmo que tenham qualquer visualização. A ausência de aplicação dessas mesmas tecnologias para combater o discurso de ódio e ataques à democracia revelaria uma opção preferencial pelo lucro em detrimento da Constituição.

O Ministro Luiz Fux reforçou a tese da anti-isonomia entre as plataformas digitais e a mídia tradicional. Fux destacou que, enquanto jornais, revistas e emissoras de TV respondem civil e penalmente por aquilo que publicam e editam, as big techs gozavam de um privilégio legal injustificável que as isentava de riscos, mesmo quando lucravam com a viralização de desinformação por meio de algoritmos opacos. "A culpa é do robô", ironizou Fux, apontando que a inteligência artificial é o grande protagonista da circulação de informações e deve ser regulada.

Complementando a corrente majoritária, o Ministro Flávio Dino enfatizou a correlação direta entre a violência virtual e a violência real, citando a onda de ameaças e ataques a escolas no Brasil em 2023 como prova da periculosidade da inação das plataformas. Dino sustentou que a proteção de crianças e adolescentes e o direito à vida impõem um dever de agir preventivo às empresas que administram o espaço digital, rejeitando a tese de que a moderação de conteúdo equivaleria a censura. Ele invocou a "teoria do risco" clássica (comparando à responsabilidade das ferrovias em 1912) para justificar a responsabilidade objetiva das plataformas que lucram com a atividade de risco.

É fundamental, para o rigor acadêmico e dialético, analisar os argumentos vencidos. A corrente divergente, liderada pelo Ministro Edson Fachin e seguida pelos Ministros André Mendonça e Nunes Marques, defendeu a validade integral do modelo original do art. 19.

Para Fachin, a exigência de ordem judicial prévia não viola a Constituição, mas concretiza a proteção à liberdade de expressão, impedindo que empresas privadas exerçam um "poder de polícia" sobre o discurso online sem o devido processo legal. O Ministro argumentou que o artigo 19 reflete uma escolha democrática legítima do Congresso Nacional, que buscou equilibrar inovação e direitos civis.

Os Ministros André Mendonça e Nunes Marques alertaram para os riscos da "zona cinzenta" entre a crítica política ácida e o crime contra a honra. Argumentaram que algoritmos e moderadores privados não possuem a capacidade hermenêutica e a legitimidade democrática para distinguir, no caso concreto, o que é uma sátira política protegida e o que é uma difamação ou injúria. Transferir esse juízo de ponderação para as big techs seria privatizar a justiça e incentivar a censura prévia empresarial: na dúvida, a plataforma removeria o conteúdo para evitar o risco, silenciando o debate.

O Ministro André Mendonça, especificamente, preocupou-se com a extensão dessa responsabilidade aos serviços de mensageria privada (como WhatsApp e Telegram), defendendo que a inviolabilidade das comunicações e o sigilo constitucional deveriam impedir a moderação proativa nesses ambientes, sob pena de vigilância em massa. Essa preocupação, embora vencida na tese global, influenciou a modulação final do acórdão no item 6 da tese.

4. O NOVO REGIME: A ARQUITETURA DO "CÓDIGO DIGITAL" PRETORIANO

Diante do vácuo legislativo deixado pela tramitação inconclusa de propostas regulatórias no Congresso Nacional e da urgência imposta pelos riscos sistêmicos digitais, o Supremo Tribunal Federal não se limitou a exercer uma função de legislador negativo ao invalidar parcialmente o artigo 19 do Marco Civil da Internet. A Corte edificou, por meio de uma decisão judicial estruturante, um complexo e detalhado arcabouço regulatório, assumindo uma função atípica de legislador positivo. A decisão fragmenta a responsabilidade das plataformas em diferentes níveis, abandonando a regra única de imunidade condicionada anterior em favor de um sistema híbrido, estratificado e fortemente alicerçado em deveres de compliance e transparência.

A inovação dogmática central do julgamento reside na internalização e adaptação do conceito de Duty of Care, ou Dever de Cuidado, instituto que dialoga diretamente com as premissas do Digital Services Act da União Europeia. Sob a articulação teórica do Ministro Luís Roberto Barroso e acolhida no voto condutor do Relator Dias Toffoli, a Corte fixou o entendimento de que as plataformas digitais não são meros espelhos passivos da realidade, mas agentes que possuem um dever jurídico de agir proativamente contra conteúdos que configurem ilícitos gravíssimos e evidentes.

Nesse novo paradigma, estabeleceu-se a responsabilidade civil por "falha sistêmica", conforme delineado no item 5 da Tese de Julgamento. A responsabilização, aqui, não decorre necessariamente da existência isolada de um conteúdo danoso, mas da omissão da plataforma em adotar medidas estruturais de prevenção, mitigação e remoção célere. Para conferir segurança jurídica e evitar o arbítrio das empresas privadas sobre o discurso, o Supremo Tribunal Federal definiu um rol taxativo de ilícitos que, por sua gravidade, dispensam qualquer ordem judicial prévia para gerar o dever de remoção.

Este rol abarca crimes que ameaçam a própria existência da sociedade civil e do Estado Democrático de Direito, configurando situações de ilicitude manifesta, ou res ipsa loquitur. As plataformas devem atuar de ofício, sob pena de responsabilidade civil, nos casos de atos antidemocráticos e terrorismo, incluindo seus atos preparatórios; crimes contra crianças e adolescentes, com ênfase na pornografia infantil e no induzimento à automutilação ou suicídio; racismo e discriminação em suas variadas formas, como homofobia e transfobia; violência contra a mulher e discurso de ódio de gênero; e tráfico de pessoas. Nesses cenários, a inércia da plataforma ou a ineficácia de seus sistemas de moderação automatizada e humana configuram uma violação direta do dever de atuar com diligência e cautela, atraindo o dever de indenizar.

Um ponto de elevada sofisticação técnica na decisão foi a distinção ontológica entre a natureza das aplicações de internet, rompendo com a generalidade do artigo 19 original, que tratava provedores de naturezas distintas sob uma mesma égide de isenção. O Tribunal reconheceu que a lógica de proteção à liberdade de expressão não se aplica com a mesma intensidade a transações comerciais ou a comunicações privadas.

No que tange aos marketplaces, ou intermediadores de comércio eletrônico, a Corte determinou a aplicação do Código de Defesa do Consumidor. A lógica é econômica e protetiva: se a plataforma intermedeia uma transação de consumo ou aufere lucro direto sobre a venda, a responsabilidade deve ser objetiva e independente de notificação ou ordem judicial. Essa diretriz corrige uma distorção histórica em que plataformas de e-commerce utilizavam o Marco Civil da Internet para se eximir de responsabilidade por fraudes, vendas de produtos defeituosos ou falsificados. Conforme exemplificado pelo Ministro Dias Toffoli em seu voto, a existência de anúncios pagos de "bancos falsos" em buscadores, que lesam o patrimônio do consumidor, não pode ser escudada pela liberdade de expressão, exigindo reparação imediata.

Para as redes sociais propriamente ditas, o regime permanece híbrido, equilibrando o dever de cuidado para crimes graves, a notificação extrajudicial para ilícitos gerais e a reserva de jurisdição para casos subjetivos de danos à honra. Já para os aplicativos de mensageria privada, como WhatsApp e Telegram, o Tribunal manteve a aplicação integral da necessidade de ordem judicial no que tange às comunicações interpessoais. Essa ressalva é fundamental para proteger o sigilo constitucional das comunicações, evitando que a moderação de conteúdo se transforme em um mecanismo de vigilância em massa sobre conversas privadas, excetuando-se, por óbvio, canais públicos ou grupos abertos onde a viralização se equipara à de uma rede social aberta.

Para além dos crimes gravíssimos, a Corte instituiu um regime de "notificação e análise" (notice and analyze) para ilícitos gerais não abrangidos no rol taxativo. Superando a passividade do modelo anterior, o provedor passará a ser responsabilizado se, após notificação extrajudicial inequívoca realizada pelo usuário ou seu representante, optar por não remover o conteúdo ilícito ou a conta inautêntica. A plataforma assume, assim, o risco de sua avaliação: se mantiver no ar um conteúdo que posteriormente o Judiciário confirme ser ilícito, responderá pelos danos causados desde o momento da notificação, e não apenas a partir do descumprimento da ordem judicial.

Ainda mais severa é a regra estabelecida para conteúdos impulsionados, ou seja, anúncios pagos, e para contas automatizadas, os chamados robôs. Nessas hipóteses, fixa-se a presunção de responsabilidade do provedor, independentemente de qualquer notificação. A fundamentação é baseada na teoria do risco do negócio: se a plataforma recebeu pagamento para impulsionar um conteúdo, ainda que fraudulento ou ilícito, ou se permitiu o uso de automação para distorcer artificialmente o debate público, ela se beneficiou economicamente da atividade de risco e deve responder objetivamente pelos danos causados. O provedor só poderá se eximir dessa responsabilidade se comprovar, de forma cabal, que agiu diligentemente e em tempo razoável para tornar o conteúdo indisponível, invertendo-se a lógica do ônus probatório.

Por fim, o Supremo Tribunal Federal não se limitou a redefinir a responsabilidade material, mas impôs uma série de obrigações de fazer que funcionam como uma regulação ex ante, típicas de agências reguladoras, visando garantir a efetividade da responsabilização civil e a transparência do ecossistema digital. As plataformas foram obrigadas a editar normas claras de autorregulação, que devem incluir o devido processo legal interno, garantindo ao usuário o direito de defesa e de contestação caso tenha seu conteúdo removido ou sua conta suspensa.

Além disso, determinou-se a obrigatoriedade de criação de canais de atendimento específicos e acessíveis para denúncias, tanto para usuários cadastrados quanto para não usuários, e a publicação de relatórios anuais de transparência detalhando as ações de moderação. Coroando esse sistema de compliance, exigiu-se a constituição de representação legal no Brasil com plenos poderes para receber citações e responder perante as esferas administrativa e judicial, inclusive para o pagamento de multas. Essas medidas visam combater a opacidade das "caixas-pretas" algorítmicas e garantir que a soberania nacional seja respeitada por empresas transnacionais que, historicamente, utilizavam a ausência de representação formal como estratégia para evadir-se da jurisdição brasileira.

5. A LACUNA INVISÍVEL: A CURADORIA ALGORÍTMICA E A PROTEÇÃO INFANTOJUVENIL

Embora o julgamento do Tema 987 tenha estabelecido balizas importantes para a responsabilidade civil por conteúdos ilícitos, uma análise detida do acórdão revela uma insuficiência crítica: a Corte concentrou-se excessivamente na moderação de conteúdo (a remoção do que é postado), negligenciando a dimensão da curadoria algorítmica (a decisão automatizada sobre o que é amplificado). Essa lacuna torna-se particularmente grave quando confrontada com o dever constitucional de proteção integral à criança e ao adolescente, expondo as limitações da atuação do Poder Judiciário na regulação de modelos de negócios baseados na economia da atenção.

A tese fixada pelo Supremo Tribunal Federal ancora o dever de cuidado (duty of care) na existência de conteúdos "manifestamente ilícitos" ou que configurem crimes graves. Contudo, essa abordagem binária — legal versus ilegal — mostra-se inadequada para enfrentar os riscos sistêmicos que afetam o público infantojuvenil. Dados do NIC.br indicam que 84,3% das crianças e adolescentes brasileiros conectados já foram expostos a conteúdos nocivos. O problema central é que grande parte desse material não se enquadra na tipificação criminal estrita exigida pelo STF para a atuação proativa das plataformas.

A nocividade no ambiente digital, muitas vezes, não reside no conteúdo de uma postagem isolada, que pode ser formalmente lícita, mas na curadoria automatizada que organiza e amplifica esse material de forma sistemática. O critério adotado pela Corte, ao exigir a configuração de crimes como pornografia infantil ou incitação ao suicídio para ativar o dever de cuidado, deixa desprotegidos os menores diante de conteúdos "limítrofes" (borderline), como padrões estéticos inatingíveis, dietas extremas ou desafios perigosos, que, embora não sejam crimes em si, geram danos psíquicos cumulativos quando consumidos em escala massiva.

A decisão do STF falha em reconhecer que as plataformas não são meros repositórios passivos de informações, mas editores ativos que, através de sistemas de recomendação, perfilam comportamentos para maximizar o tempo de tela. A falha não é meramente técnica, mas uma escolha arquitetural do modelo de negócios, que subordina a segurança do usuário à maximização da receita publicitária.

Um exemplo paradigmático dessa dinâmica, ignorado pela lógica do acórdão, é o caso documentado pelo Wall Street Journal envolvendo o Instagram. O estudo demonstrou que algoritmos de recomendação, ao identificarem o interesse de adolescentes por "dietas saudáveis", passavam a sugerir, em questão de dias e de forma automática, conteúdos progressivamente mais extremos sobre restrição alimentar e anorexia. A nocividade não estava na busca inicial do usuário, mas na cadeia personalizada de amplificação gerada pela plataforma.

Ao focar na remoção de conteúdo ex post ou na responsabilidade por crimes evidentes, o STF não atacou a raiz do problema: o design da plataforma que explora vulnerabilidades cognitivas e emocionais de indivíduos em desenvolvimento. A decisão judicial, por sua natureza reativa, mostra-se incapaz de regular a "curadoria sistemática de vulnerabilização", permitindo que as empresas continuem a lucrar com o engajamento tóxico, desde que removam o conteúdo criminoso quando detectado.

A abordagem adotada no Tema 987 revela um descompasso com o artigo 227 da Constituição Federal, que impõe ao Estado, à sociedade e à família o dever de assegurar à criança e ao adolescente, com absoluta prioridade, o direito à dignidade e ao respeito. A proteção genérica oferecida pelo acórdão, que trata o usuário menor de idade sob a mesma lógica de notificação e remoção aplicável aos adultos (salvo nos crimes gravíssimos), não atende ao princípio da proteção integral.

O Ministro Flávio Dino, em seu voto, trouxe à baila a dramaticidade da violência escolar impulsionada pelas redes, citando milhares de denúncias de ameaças. No entanto, a resposta jurisdicional limitou-se a incluir esses crimes no rol do dever de cuidado, sem estabelecer mecanismos de auditoria sobre os algoritmos que facilitam a viralização dessas ameaças. A decisão cria uma responsabilidade por "falha sistêmica", mas não instrumentaliza o Judiciário ou os órgãos de controle para verificar como o sistema falhou na etapa de recomendação.

Diante dessa limitação estrutural da jurisdição constitucional, a efetiva proteção infantojuvenil dependerá de diplomas legislativos complementares, como o recém-aprovado ECA Digital (Lei nº 15.211/2025). A regulação não pode se restringir ao conteúdo visível; é imperativo auditar o código opaco que decide "quem vê o quê". A lacuna deixada pelo STF evidencia que a complexidade da curadoria algorítmica exige uma fiscalização técnica contínua e especializada — função típica de agências reguladoras como a ANPD (Autoridade Nacional de Proteção de Dados) — e não apenas intervenções pontuais do Poder Judiciário diante de tragédias consumadas.

6. ANÁLISE CRÍTICA: ATIVISMO JUDICIAL OU NECESSIDADE DE SOBREVIVÊNCIA?

A densidade normativa do acórdão inevitavelmente suscita o debate sobre os limites da jurisdição constitucional e a separação de poderes. Ao criar procedimentos administrativos, prazos, presunções e obrigações de fazer detalhadas, o STF exerceu uma função atípica que se aproxima da atividade legislativa. A defesa das plataformas argumentou vigorosamente que tal alteração deslegitima o debate democrático do Congresso, que aprovou o Marco Civil da Internet após amplo debate social.

Contudo, sob a ótica da proteção de direitos fundamentais, a postura da Corte justifica-se pela teoria da inconstitucionalidade por omissão e pelo princípio da proibição de proteção insuficiente. A inércia do Congresso Nacional em aprovar o PL 2.630/2020 (PL das Fake News) — paralisado por lobbies poderosos e polarização política — deixou o país desprotegido diante de riscos sistêmicos que ameaçavam a própria continuidade do Estado Democrático de Direito.

O Ministro Toffoli, em seu voto, fez um "apelo ao legislador", reconhecendo que a solução judicial é provisória e subsidiária. Mas, como ressaltou o Ministro Barroso, "o tribunal não tinha a opção de se abster de julgar a questão sob o argumento de que não existe uma lei específica". A Corte não poderia se omitir diante da "falência da autorregulação" que permitiu eventos como o 8 de janeiro.

Portanto, a decisão opera como um "Código Digital Pretoriano", um estatuto jurídico de transição e emergência. Ela corrige a falha de mercado onde o lucro privado se sobrepôs à segurança pública. Ao impor responsabilidade objetiva para impulsionamento pago e robôs, o STF ataca o modelo de negócios da desinformação, tornando economicamente arriscado lucrar com o ilícito. É uma resposta de sobrevivência institucional.

7. CONCLUSÃO

A declaração de inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet pelo STF, no julgamento do Tema 987, marca a superação do paradigma de imunidade condicionada das plataformas digitais no Brasil. O otimismo regulatório que caracterizou a aprovação da lei em 2014 cedeu espaço a uma interpretação constitucional voltada aos riscos da concentração de poder informacional e da manipulação algorítmica.

O novo regime de responsabilidade civil estabelecido pela Corte alinha-se a padrões internacionais, como o Regulamento de Serviços Digitais (DSA) europeu, ao instituir um sistema multinível. Este modelo preserva a reserva de jurisdição para danos subjetivos, mas impõe o dever de notice and takedown para ilícitos gerais e estabelece um duty of care objetivo para crimes graves e riscos sistêmicos. Transita-se, assim, de uma postura passiva das plataformas para uma obrigação de gestão ativa de riscos e compliance.

Conclui-se, contudo, que a resposta jurisdicional, embora necessária diante da inércia legislativa, é estruturalmente limitada. A regulação da curadoria algorítmica, a transparência de dados e a proteção integral de crianças e adolescentes demandam densidade normativa que apenas o processo legislativo pode conferir. O STF estabeleceu as balizas da responsabilidade; cabe agora às instituições democráticas e regulatórias, como a ANPD e o Congresso Nacional, operacionalizar a governança desse novo ecossistema digital.

REFERÊNCIAS BIBLIOGRÁFICAS

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, 2014. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 02 dez. 2025.

BRASIL. Senado Federal. Marco Civil da Internet completa dez anos ante desafios sobre redes sociais e IA. Brasília: Agência Senado, 26 abr. 2024.

BRASIL. Supremo Tribunal Federal. Recurso Extraordinário 1.037.396/SP (Tema 987). Relator: Min. Dias Toffoli. Tribunal Pleno. Julgado em 26/06/2025. 

CARVALHO, Patrícia Heloisa de. O "Marco Civil da Internet": uma análise sobre a constitucionalidade do artigo 19. Revista da Faculdade de Direito do Sul de Minas, Pouso Alegre, v. 33, n. 2, p. 228-244, jun./dez. 2017.

CAVALCANTE, Isabella. Supremo fixa tese sobre responsabilização de plataformas por conteúdo de usuários. Consultor Jurídico (ConJur), Seção Constitucional, 26 jun. 2025. 

DANTAS, Juliana de Oliveira Jota; MOTA NETO, Leonardo Lima. Liberdade de Expressão versus Responsabilidade Civil dos Provedores no Marco Civil da Internet. Revista da AGU, Brasília, DF, v. 21, n. 4, p. 143-162, out./dez. 2022.

MARQUES, Jaime Augusto. Tema 987 STF: A responsabilidade das big techs pelos conteúdos gerados. A constitucionalidade do art. 19 do MCI. Revista FT, v. 29, ed. 140, nov. 2024.

META. Meta – cooperação e proatividade na remoção de conteúdos. Documento institucional apresentado no âmbito do RE 1.037.396/SP. [S.l.]: Meta, [2023].

NUNES, Luana Esteche. Tema 987 e ECA Digital: A lacuna invisível da curadoria algorítmica. Migalhas de Peso, 21 out. 2025.

SANTANA, Bianca Quitéria de Moura. A (in)constitucionalidade do artigo 19 do Marco Civil da Internet: uma análise à luz do RE nº 1.037.396/SP, Tema 987 do STF. Revista Universitária Brasileira, v. 3, n. 2, p. 078-096, 2025.

SCHREIBER, Anderson. Marco Civil da Internet: Avanço ou retrocesso? A responsabilidade civil por dano derivado do conteúdo gerado por terceiro. In: DE LUCCA, Newton et al (coords). Direito & Internet. São Paulo: Quartier Latin, 2015. v. 2. p. 277-305.

ZUBOFF, Shoshana. A era do capitalismo de vigilância. Rio de Janeiro: Intrínseca, 2021.


1 Diego Henrique Ferreira – Procurador da Fazenda Nacional – Mestrando em Direito (IDP).