REGISTRO DOI: 10.70773/revistatopicos/778555069
RESUMO
O presente artigo analisa os impactos das inovações tecnológicas no ordenamento jurídico contemporâneo, focando na transição para a era da hiperconectividade. O objetivo central é discutir como o Direito Digital se adapta frente a fenômenos como a Inteligência Artificial (IA), o Big Data e a Web 3.0. A problemática reside na assincronia entre o tempo da inovação tecnológica e o tempo da produção legislativa. Através de uma pesquisa qualitativa e do método dedutivo, o estudo aborda a transição da privacidade clássica para a autodeterminação informativa. Conclui-se que a regulação deve migrar de um modelo puramente positivista para um modelo baseado em princípios, governança ética e transparência algorítmica, garantindo a proteção de direitos fundamentais sem sufocar o desenvolvimento econômico.
Palavras-chave: Direito Digital; Inteligência Artificial; LGPD; Regulação; Viés Algorítmico.
ABSTRACT
This article analyzes the impacts of technological innovations on the contemporary legal system, focusing on the transition to the era of hyperconnectivity. The main objective is to discuss how Digital Law adapts to phenomena such as Artificial Intelligence (AI), Big Data, and Web 3.0. The core issue lies in the asynchrony between the pace of technological innovation and the pace of legislative production. Through qualitative research and the deductive method, the study addresses the transition from classical privacy to informative self-determination. It concludes that regulation must migrate from a purely positivist model to one based on principles, ethical governance, and algorithmic transparency, ensuring the protection of fundamental rights without stifling economic development.
Keywords: Digital Law; Artificial Intelligence; LGPD; Regulation; Algorithmic Bias.
RESUMEN
El presente artículo analiza los impactos de las innovaciones tecnológicas en el ordenamiento jurídico contemporáneo, centrándose en la transición hacia la era de la hiperconectividad. El objetivo central es discutir cómo el Derecho Digital se adapta ante fenómenos como la Inteligencia Artificial (IA), el Big Data y la Web 3.0. La problemática reside en la asincronía entre el tiempo de la innovación tecnológica y el tiempo de la producción legislativa. A través de una investigación cualitativa y del método deductivo, el estudio concluye que la regulación debe migrar de un modelo puramente positivista hacia un modelo basado en principios y gobernanza ética, garantizando la protección de los derechos fundamentales sin asfixiar el desarrollo económico.
Palabras-clave: Derecho Digital. Inteligencia Artificial. LGPD. Regulación. Futuro del Derecho.
1. INTRODUÇÃO
A sociedade contemporânea atravessa o que a doutrina e a economia denominam como a Quarta Revolução Industrial. Diferente das revoluções anteriores, a atual é caracterizada pela fusão de tecnologias que apagam as linhas entre as esferas física, digital e biológica. Nesse cenário, o Direito deixa de ser apenas um observador para se tornar o epicentro das discussões sobre a viabilidade e a ética das novas relações sociais.
O Direito Digital, outrora visto como um ramo periférico ou meramente procedimental, ascende à condição de disciplina transversal. Ele não se limita a normas sobre a internet, mas abrange a própria reestruturação de institutos clássicos como a propriedade, a responsabilidade civil, a soberania estatal e a personalidade jurídica.
O problema que norteia esta pesquisa é: como o ordenamento jurídico brasileiro, pautado na tradição da civil law, pode oferecer respostas eficazes a tecnologias disruptivas que operam em escala global e em constante mutação? A hipótese levantada é que o Direito precisa abandonar o fetichismo da lei estrita em favor de marcos regulatórios maleáveis e pautados na ética e na técnica (Privacy by Design e Ethics by Design).
2. REFERENCIAL TEÓRICO: DA SOCIEDADE DISCIPLINAR AO CAPITALISMO DE VIGILÂNCIA
O embasamento teórico do Direito Digital contemporâneo exige uma análise transdisciplinar que perpasse a sociologia, a política e a técnica. A compreensão da norma no ciberespaço não pode dissociar-se da estrutura física e lógica que sustenta a rede.
Lawrence Lessig (2006) estabelece a premissa fundamental de que o "Código é a Lei". Para o autor, o ciberespaço possui quatro forças reguladoras: a lei, as normas sociais, o mercado e a arquitetura (o código). Enquanto o Direito tradicional atua por meio de sanções ex post facto, o código de programação atua ex ante, impedindo comportamentos antes mesmo que ocorram. Se um algoritmo de uma rede social decide o que é visível, ele está exercendo uma função regulatória que, muitas vezes, escapa ao controle constitucional.
Manuel Castells (2003) complementa essa visão ao descrever a "Sociedade em Rede", onde a morfologia social sobrepõe-se à ação social. Nessa estrutura, o poder não reside mais em instituições centralizadas, mas em fluxos de informação. O desafio jurídico, portanto, reside em como regular fluxos que são, por natureza, transfronteiriços e instantâneos.
No campo da privacidade, Stefano Rodotà (2008) propõe a transição do conceito de privacidade como "o direito de ser deixado só" (right to be let alone) para o conceito de "autodeterminação informativa". Para Rodotà, o indivíduo deve ter o poder de controlar o fluxo de seus dados pessoais, entendendo-os como parte integrante de sua identidade e dignidade, e não apenas como um ativo econômico.
Entretanto, essa autodeterminação é posta em xeque pelo que Shoshana Zuboff (2021) denomina "Capitalismo de Vigilância". A autora argumenta que a experiência humana foi unilateralmente reivindicada por empresas de tecnologia como matéria-prima gratuita para tradução em dados comportamentais. Esses dados são alimentados em processos de fabricação de inteligência para prever comportamentos futuros, criando um "poder instrumentário" que desafia a autonomia da vontade, pilar do Direito Civil clássico.
Finalmente, o referencial teórico ancora-se na ideia de "Constitucionalismo Digital". Conforme defendido por teóricos como Giovanni De Gregorio (2022), é necessário transpor as garantias constitucionais para o ambiente digital, limitando o poder das Big Techs da mesma forma que as Constituições limitaram o poder absoluto dos Estados no século XVIII.
3. METODOLOGIA
A construção do presente artigo científico pauta-se por um rigor metodológico que visa conferir validade e profundidade às inferências jurídicas apresentadas. A estrutura da investigação é segmentada em quatro eixos fundamentais: a natureza da pesquisa, o método de abordagem, os procedimentos técnicos e o marco hermenêutico.
Quanto à natureza da pesquisa, trata-se de um estudo de caráter qualitativo e exploratório. Segundo o entendimento doutrinário, a abordagem qualitativa no Direito permite uma imersão nas nuances normativas e nos valores axiológicos que permeiam a tecnologia, indo além da mera análise estatística para compreender o fenômeno da disrupção sob a ótica da dignidade da pessoa humana. O caráter exploratório justifica-se pela atualidade do tema, especialmente no que tange ao Neurodireito e à Web 3.0, áreas cujas fronteiras jurídicas ainda estão em estágio de delimitação teórica.
O método de abordagem eleito é o dedutivo. A investigação parte de premissas universais e estruturantes — a saber, os fundamentos da Sociedade da Informação e os princípios constitucionais — para analisar casos e normas específicas, como a Lei Geral de Proteção de Dados (LGPD) e o Projeto de Lei de Inteligência Artificial. Esse silogismo permite verificar se as garantias fundamentais clássicas são resilientes o suficiente para serem aplicadas a fenômenos tecnológicos sem precedentes históricos.
No que concerne aos procedimentos técnicos, a pesquisa é bibliográfica e documental. O levantamento bibliográfico abrange a doutrina clássica e contemporânea, nacional e estrangeira, com foco em autores que analisam a interseção entre o Direito e a Tecnologia (como Lawrence Lessig, Stefano Rodotà e Shoshana Zuboff). A pesquisa documental baseia-se na análise do corpus legislativo brasileiro (Constituição Federal, Marco Civil da Internet e LGPD), de atos normativos de autoridades reguladoras (ANPD) e de legislações alienígenas de referência, como o General Data Protection Regulation (GDPR) da União Europeia, adotando-se, em momentos pontuais, o método do Direito Comparado para balizar o desenvolvimento normativo nacional.
Por fim, o marco hermenêutico utiliza a interpretação sistemática e teleológica. Dado que o Direito Digital é uma disciplina transversal, a interpretação das normas não se limita ao texto literal da lei, mas busca a finalidade social da norma e sua harmonia com o bloco de constitucionalidade. Utiliza-se a técnica de ponderação de interesses e princípios, essencial para resolver antinomias jurídicas contemporâneas, como o conflito entre o segredo comercial e o direito à explicação algorítmica.
4. PANORAMA E ANÁLISE CRÍTICA DA REGULAÇÃO JURÍDICA NA ERA DIGITAL
4.1. O Cenário Normativo Brasileiro: Entre a Liberdade e a Proteção
A evolução do Direito Digital no Brasil é marcada por uma transição de uma postura de "não-intervenção" para uma regulação robusta e principiológica. O Marco Civil da Internet (Lei 12.965/2014) consolidou o país como vanguarda na proteção de direitos fundamentais na rede, estabelecendo a neutralidade da rede, a liberdade de expressão e a responsabilidade subjetiva dos provedores por danos decorrentes de conteúdo gerado por terceiros.
Contudo, a insuficiência do Marco Civil para lidar com a economia baseada em dados levou à promulgação da Lei Geral de Proteção de Dados (Lei 13.709/2018 - LGPD). A LGPD não é apenas uma norma setorial; ela representa uma mudança de paradigma. A lei impõe que qualquer tratamento de dados pessoais — seja por entes públicos ou privados — deve estar fundamentado em uma das bases legais previstas, como o consentimento, o legítimo interesse ou o cumprimento de obrigação legal.
A criação da Autoridade Nacional de Proteção de Dados (ANPD) e a elevação da proteção de dados pessoais à categoria de direito fundamental (Emenda Constitucional nº 115/2022) demonstram que o Direito Digital brasileiro amadureceu. Todavia, a aplicação prática desses direitos enfrenta o desafio da "assimetria de informação": o usuário comum raramente compreende os complexos termos de uso, resultando em um "consentimento fictício" que a doutrina moderna busca combater através do fortalecimento do dever de transparência.
4.2. Inteligência Artificial: Opacidade Algorítmica e a Crise da Responsabilidade
A Inteligência Artificial (IA) representa o maior desafio atual para a Teoria Geral do Direito. O problema central reside na natureza da "caixa-preta" (black box) dos sistemas de machine learning, onde a lógica da decisão é opaca inclusive para seus desenvolvedores.
No campo da Responsabilidade Civil, o Direito enfrenta um dilema: se um sistema autônomo causa um dano, como provar a culpa? A doutrina majoritária, representada por nomes como Nelson Rosenvald (2023), tende a defender a aplicação da responsabilidade objetiva baseada no risco da atividade. Entretanto, surge a discussão sobre a "personalidade eletrônica". Embora a União Europeia tenha descartado inicialmente a ideia de conceder personalidade jurídica a robôs, o debate persiste sobre a criação de fundos de indenização obrigatórios para danos causados por IAs de alto risco.
No Brasil, o Projeto de Lei nº 2338/2023 estabelece um marco para a IA fundamentado em direitos. O projeto prevê a "centralidade da pessoa humana" e o direito à explicação: qualquer indivíduo tem o direito de saber por que uma decisão automatizada foi tomada a seu respeito. Isso é essencial para combater o viés algorítmico, que pode reproduzir preconceitos históricos (raciais, de gênero ou socioeconômicos) sob uma fachada de neutralidade técnica.
4.2.1. A Falácia da Neutralidade Tecnológica: Viés Algorítmico e a Ofensa à Isonomia Material
A implementação da Inteligência Artificial no sistema de justiça e em decisões administrativas tem sido acompanhada pelo mito da "neutralidade algorítmica". Sob essa perspectiva, o algoritmo seria um decisor puramente racional, imune às paixões, preconceitos e fadigas que acometem o magistrado humano. Todavia, a doutrina crítica contemporânea, liderada por autoras como Cathy O’Neil (2021) e Safiya Noble (2018), demonstra que os algoritmos não operam em um vácuo ético; eles são "opiniões formalizadas em código".
O viés algorítmico (algorithmic bias) ocorre quando um sistema de computação reflete, de forma sistemática e injusta, os preconceitos humanos ou as desigualdades estruturais da sociedade. Esse fenômeno manifesta-se majoritariamente de duas formas: através dos dados de treinamento (data bias) ou através do design do modelo (model bias). Se os dados históricos utilizados para treinar uma IA refletem décadas de policiamento discriminatório ou decisões judiciais parciais, a máquina aprenderá e replicará esses padrões, conferindo-lhes uma aparência de objetividade matemática.
Do ponto de vista jurídico, esse fenômeno atenta diretamente contra o Princípio da Isonomia, insculpido no art. 5º, caput, da Constituição Federal de 1988. A isonomia não se esgota na igualdade formal (perante a lei), mas exige a igualdade material (através da lei). Quando um algoritmo utiliza variáveis aparentemente neutras — como o CEP de residência ou o nível de escolaridade — para prever a periculosidade de um indivíduo, ele pode incorrer na chamada discriminação por correlação. Nesse caso, o código atua como um procurador (proxy) para raça ou classe social, perpetuando estigmas de forma automatizada e opaca.
Um dos exemplos mais lembrados de viés algorítmico na esfera jurídica é o sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilizado em diversos estados dos EUA para prever o risco de reincidência criminal. Uma investigação conduzida pela ProPublica em 2016 revelou que o sistema era significativamente enviesado contra réus negros. O algoritmo atribuía notas de risco mais altas a indivíduos negros, mesmo quando estes possuíam fichas criminais menos extensas que réus brancos, os quais recebiam classificações de baixo risco. O caso Loomis v. Wisconsin (2016) chegou à Suprema Corte do estado, onde se questionou o direito ao devido processo legal, dado que o réu não teve acesso à lógica interna (segredo comercial) do algoritmo que fundamentou sua pena.
No cenário brasileiro, o Supremo Tribunal Federal (STF) utiliza o sistema Victor, uma IA destinada a classificar processos vinculados a temas de repercussão geral. Embora o Victor tenha um propósito administrativo e de celeridade, a doutrina alerta para o risco de "cristalização de entendimentos". Se a base de dados do tribunal contiver tendências históricas de inadmissibilidade de certos recursos de minorias ou grupos vulneráveis, a IA pode automatizar essa exclusão, dificultando o acesso à justiça.
Outro caso relevante no Brasil refere-se ao uso de tecnologias de reconhecimento facial pela segurança pública. Relatórios da Rede de Observatórios da Segurança demonstram que a vasta maioria das prisões efetuadas por essa tecnologia recai sobre pessoas negras, evidenciando que o viés de reconhecimento (que possui maior taxa de erro para peles escuras) soma-se ao viés estrutural das abordagens policiais.
A ofensa à isonomia, nestes casos, é dupla: primeiro, pela discriminação direta ou indireta gerada pelo resultado do sistema; segundo, pela violação do Devido Processo Legal Algorítmico. O jurisdicionado tem o direito de não ser objeto de uma decisão baseada exclusivamente em tratamentos automatizados que utilizem critérios discriminatórios, conforme prevê o art. 20 da LGPD. A superação desse desafio exige o que a doutrina denomina Algorithmic Accountability (responsabilização algorítmica), obrigando os desenvolvedores a realizarem auditorias de viés e a garantirem o direito à explicabilidade, transformando a "caixa-preta" em uma "caixa-de-vidro".
4.2.2. A Colisão Entre Transparência e Propriedade: O Direito à Explicação Frente Ao Segredo Comercial
A implementação do chamado "Direito à Explicação", agasalhado pelo artigo 20 da LGPD, instaura uma das mais complexas tensões dialéticas do Direito Digital contemporâneo: o embate entre a autodeterminação de conteúdo e a proteção do segredo comercial/ industrial. Por um lado, o detentor dos dados possui o direito fundamental de obter informações claras acerca dos critérios usados para decisões abalizadas em tratamentos automatizados, garantia indispensável para o exercício do contraditório e para a sindicabilidade de atos que afetem sua esfera jurídica. Por outro lado, as empresas desenvolvedoras de tecnologia, pautadas na Lei de Propriedade Industrial (Lei nº 9.279/1996), frequentemente utilizam a blindagem do segredo comercial para escusar-se de revelar a lógica interna de seus sistemas, sob o argumento de que a exposição do código-fonte ou dos pesos das variáveis comprometeria a competitividade e os ativos intangíveis da organização.
Essa antinomia jurídica reflete o confronto clássico entre Direitos Fundamentais e Direitos Econômicos. Contudo, conforme sustenta a doutrina de Danilo Doneda (2021), o segredo comercial não pode ser erigido como um biombo de impunidade ou um obstáculo absoluto à transparência pública. A interpretação constitucional do parágrafo 1º do art. 20 da LGPD sugere que a salvaguarda dos segredos comerciais não anula o dever de informar; antes, exige uma modulação em que a empresa forneça a "lógica de funcionamento" sem necessariamente abrir o seu know-how técnico estrito. A transparência algorítmica, portanto, não demanda a entrega do código-fonte (source code), mas sim a explicabilidade (explainability) dos parâmetros de decisão. A resistência corporativa em prover explicações mínimas sob o pretexto de propriedade intelectual cria uma "caixa-preta jurídica" que, em última análise, submete o Estado de Direito à soberania técnica dos algoritmos, subvertendo a hierarquia axiológica constitucional que coloca a dignidade da pessoa humana acima do lucro e da inovação desenfreada.
4.3. Disrupção na Propriedade e nos Contratos: Blockchain e Web 3.0
A tecnologia blockchain introduz o conceito de "confiança descentralizada". Ao permitir registros imutáveis e distribuídos, ela viabiliza os Smart Contracts (Contratos Inteligentes). Estes não são contratos no sentido jurídico estrito, mas códigos de programação que executam automaticamente as cláusulas acordadas.
A problemática jurídica surge na rigidez desses códigos. Como aplicar o princípio da rebus sic stantibus (teoria da imprevisão) ou a função social do contrato em um código que não aceita interferência externa? A jurisdição estatal é desafiada pela natureza global do blockchain. A resolução de conflitos está migrando para as Online Dispute Resolution (ODR), onde tribunais arbitrais digitais utilizam a própria tecnologia para decidir disputas, muitas vezes à margem do Poder Judiciário estatal.
Além disso, a ascensão dos Ativos Digitais e NFTs (Non-Fungible Tokens) exige uma releitura dos Direitos Reais. A posse e a propriedade de bens imateriais em ambientes de realidade virtual (Metaverso) criam conflitos sobre herança digital, penhora de ativos criptográficos e proteção marcaria em mundos sintéticos.
4.4. Soberania Digital e a Governança do Futuro
A era futura do Direito Digital aponta para uma crise da soberania estatal. As Big Techs operam como verdadeiros Estados soberanos, ditando regras de comportamento e exercendo poder de polícia sobre o discurso público. O fenômeno do "Direito Privado das Plataformas" muitas vezes atropela as garantias processuais.
A resposta para o futuro parece residir no "Constitucionalismo Multinível". Não basta uma lei nacional; é necessária uma harmonização internacional, semelhante ao que ocorre no Direito Ambiental. A governança digital futura deverá ser multissetorial (multistakeholder), envolvendo governos, setor privado, academia e sociedade civil.
A proteção da democracia frente às fake news e às operações de influência via algoritmos exige que o Direito Digital atue na regulação do mercado de atenção. O futuro exige a passagem de uma regulação de "conteúdo" para uma regulação de "processos e riscos". O foco não deve ser o que se diz, mas como os algoritmos impulsionam o que é dito, garantindo a transparência dos sistemas de recomendação.
4.5. Neurodireito e Fronteiras Biotecnológicas
Por fim, a fronteira mais extrema do Direito Digital futuro é o Neurodireito. Com o avanço das interfaces cérebro-computador (como a Neuralink), a privacidade deixará de ser sobre dados de navegação para ser sobre "dados neurais". O Direito precisará proteger a liberdade cognitiva e o "habeas mens", garantindo que a tecnologia não seja utilizada para manipular ou extrair informações diretamente do pensamento humano. Trata-se da última fronteira da proteção da personalidade jurídica frente à tecnologia.
A proposta dos Neurodireitos estrutura-se em cinco pilares fundamentais que devem ser incorporados ao Constitucionalismo Digital (IENCA; ANDORNO, 2017):
Privacidade Mental: O direito de que os dados gerados pelo cérebro não sejam utilizados sem o consentimento livre e informado, impedindo o "hacking cerebral".
Integridade Mental: A proteção contra a manipulação da atividade cerebral por meio de tecnologias que possam alterar o humor, a memória ou o comportamento do indivíduo.
Continuidade Psicológica: O direito de preservar a percepção de identidade própria, evitando que intervenções tecnológicas fragmentem a personalidade do sujeito.
Liberdade Cognitiva (ou Autodeterminação Mental): O direito do indivíduo de decidir se quer ou não utilizar neurotecnologias, garantindo que o cérebro não seja o próximo campo de batalha da vigilância estatal ou corporativa.
Proteção contra Vieses Algoritmos em Neurotecnologia: Garantir que os algoritmos que decodificam pensamentos não reproduzam preconceitos estruturais.
No âmbito do Direito Penal, o Neurodireito introduz discussões profundas sobre a culpabilidade e o livre-arbítrio. Se o comportamento criminoso de um indivíduo pode ser correlacionado a uma disfunção neural detectável por neuroimagem, ou se um implante cerebral foi manipulado por terceiros (neuro-hacking), as teorias clássicas da responsabilidade penal precisarão ser revisitadas. Surge o conceito de "Habeas Mens", um remédio jurídico destinado a proteger a integridade dos processos mentais contra intrusões ilegítimas.
O Chile tornou-se o pioneiro global ao aprovar, em 2021, uma emenda constitucional que consagra a proteção dos dados neurais e da integridade mental como direitos fundamentais. No Brasil, o debate começa a ganhar corpo na academia, sugerindo que a interpretação do princípio da dignidade da pessoa humana e do direito à intimidade (Art. 5º, X, CF/88) deve ser ampliada para abarcar o psiquismo humano em sua dimensão digitalizada. A neurotecnologia, portanto, não é apenas uma ferramenta de saúde, mas um dispositivo de poder que exige um "Estatuto Ético-Jurídico da Mente", sob pena de transformarmos a subjetividade humana em um ativo de mercado monitorável em tempo real.
5. A FORMAÇÃO DO JURISTA NA ERA DIGITAL: INTERDISCIPLINARIDADE E ÉTICA ALGORÍTMICA
A complexidade dos desafios impostos pelo Direito Digital redefine o próprio papel do jurista e exige uma profunda transformação na formação acadêmica e profissional. O advogado, o juiz, o promotor ou o legislador da era digital não pode mais se limitar ao conhecimento exclusivo do texto legal, mas deve desenvolver uma compreensão interdisciplinar que abranja a tecnologia, a ética e a economia (O'NEIL, 2021; NOBLE, 2018).
O jurista do futuro precisa ser um "tradutor" entre linguagens distintas: a linguagem do código e a linguagem do Direito. Isso implica em adquirir conhecimentos básicos sobre algoritmos, estruturas de dados, funcionamento de redes e princípios de Inteligência Artificial. Não se trata de transformar o advogado em um programador, mas de capacitá-lo a entender as implicações jurídicas de uma arquitetura tecnológica, a identificar vieses algorítmicos e a propor soluções regulatórias que sejam tecnicamente viáveis e eticamente robustas.
A interdisciplinaridade na formação jurídica é, portanto, um pilar. Cursos de Direito Digital devem integrar módulos sobre Ciência de Dados, Lógica Computacional, Neurociências (para o Neurodireito) e Filosofia da Tecnologia. Essa abordagem permite que o jurista não apenas aplique a lei existente, mas também participe ativamente da construção de novos marcos normativos, compreendendo as potencialidades e os riscos das inovações (IENCA; ANDORNO, 2017).
Além do conhecimento técnico, a ética algorítmica e a filosofia moral ganham centralidade. Diante da capacidade preditiva e decisória dos algoritmos, o jurista é chamado a ponderar valores fundamentais – liberdade, privacidade, igualdade, dignidade – em contextos onde as máquinas atuam. A análise ética dos algoritmos, a identificação de preconceitos e a exigência de explicabilidade e auditabilidade tornam-se competências essenciais. O jurista deve ser o guardião dos direitos humanos no ambiente digital, assegurando que a inovação tecnológica não submeta a autonomia da vontade humana à lógica do lucro ou da eficiência desmedida. A educação continuada, a especialização e a participação em debates sobre o futuro da tecnologia são mandatórios para que a profissão jurídica possa efetivamente guiar a sociedade através da Quarta Revolução Industrial.
6. CONSIDERAÇÕES FINAIS
À guisa de síntese, depreende-se que o Direito Digital não representa apenas um novo ramo especializado, mas uma reestruturação profunda da Teoria Geral do Direito frente à celeridade da Quarta Revolução Industrial. A assincronia entre o tempo da inovação tecnológica e o tempo da produção legislativa impõe o abandono do fetichismo positivista em favor de um modelo regulatório dinâmico, pautado em princípios e na governança de riscos. Nesse contexto, a transição da privacidade clássica para a autodeterminação informativa consolida-se como o baluarte da proteção do indivíduo, exigindo que o ordenamento jurídico brasileiro seja resiliente o suficiente para absorver transformações disruptivas sem abdicar da segurança jurídica e das garantias fundamentais já sedimentadas no bloco de constitucionalidade.
Ao longo deste estudo, evidenciou-se que a conformidade com a LGPD, materializada através do RIPD e da atuação estratégica do DPO, constitui apenas o estágio inicial de uma jornada que agora enfrenta a opacidade dos sistemas de Inteligência Artificial e os perigos do viés algorítmico. O embate entre a transparência necessária ao exercício da cidadania e a proteção do segredo comercial das corporações revela a urgência de um "Devido Processo Legal Algorítmico". Ademais, a expansão para as fronteiras do Neurodireito e a proposta do Habeas Mens demonstram que o objeto de tutela do Direito futuro deixará de ser apenas o rastro de dados para tornar-se a própria integridade psíquica e cognitiva do ser humano, protegendo a cidadela interna do pensamento contra intrusões ilegítimas e manipulações comportamentais.
Conclui-se, portanto, que o futuro do Direito reside no Constitucionalismo Digital, uma abordagem multinível capaz de limitar o poder das grandes plataformas e assegurar a centralidade da pessoa humana na era da automação. A regulação futura deve ser híbrida e preventiva, unindo a norma jurídica à ética por design (Ethics by Design), de modo que a tecnologia sirva ao progresso social sem aniquilar a autonomia da vontade. O jurista contemporâneo deve atuar como um mediador entre a técnica e o valor, garantindo que, por trás de cada algoritmo ou interface, permaneça inegociável o respeito à dignidade humana, marco civilizatório que deve prevalecer sobre qualquer lógica de mercado ou inovação tecnológica.
REFERÊNCIAS BIBLIOGRÁFICAS
ANGWIN, Julia et al. Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks. ProPublica, 23 maio 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 26 abr. 2026.
BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Senado Federal, 1988.
BRASIL. Emenda Constitucional nº 115, de 10 de fevereiro de 2022. Altera a Constituição Federal para incluir a proteção de dados pessoais entre os direitos e garantias fundamentais. Brasília, DF: Presidência da República, 2022.
BRASIL. Lei nº 9.279, de 14 de maio de 1996. Regula direitos e obrigações relativos à propriedade industrial. Brasília, DF: Presidência da República, 1996.
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, 2014.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 2018.
CASTELLS, Manuel. A galáxia da internet: reflexões sobre a internet, os negócios e a sociedade. Rio de Janeiro: Jorge Zahar, 2003.
DE GREGORIO, Giovanni. Digital Constitutionalism in Europe: Reframing Rights and Powers in the Algorithmic Society. Cambridge: Cambridge University Press, 2022.
DONEDA, Danilo. Da privacidade à proteção de dados pessoais. 3. ed. São Paulo: Thomson Reuters Brasil, 2021.
IENCA, Marcello; ANDORNO, Roberto. Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy, v. 13, n. 1, p. 5, 2017.
LESSIG, Lawrence. Code: Version 2.0. New York: Basic Books, 2006.
NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.
O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Tradução de Rafael Abraham. Santo André: Editora Rua do Sabão, 2021.
RODOTÀ, Stefano. A vida na sociedade da vigilância: a privacidade hoje. Organização, seleção e apresentação de Maria Celina Bodin de Moraes. Rio de Janeiro: Renovar, 2008.
ROSENVALD, Nelson. Responsabilidade Civil e Inteligência Artificial. São Paulo: Foco, 2023.
ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2021.
1 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
2 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos; Mestrando em Resolução de Conflitos e Mediação, Universidad Europea del Atlántico (UNEATLANTICO), Santander/Cantábria, Espanha. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
3 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
4 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
5 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
6 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
7 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail
8 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail
9 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail.
10 Mestrando em Estudos Jurídicos com Ênfase em Direito Internacional, MUST University (MUST), Flórida, Estados Unidos. E-mail: [clique para visualizar o e-mail]acesse o artigo original para visualizar o e-mail