REGISTRO DOI: 10.70773/revistatopicos/776143973
RESUMO
O artigo analisa os desafios da responsabilidade civil diante do avanço da inteligência artificial (IA) e das decisões algorítmicas. Destaca que a crescente incorporação da IA nas relações sociais e jurídicas exige uma revisão dos modelos tradicionais, baseados na culpa, que se mostram insuficientes diante da autonomia, opacidade e imprevisibilidade dos sistemas inteligentes. A evolução para a responsabilidade baseada no risco e em regimes objetivos reflete a necessidade de adaptação do Direito Civil às novas dinâmicas tecnológicas, sobretudo, considerando a complexidade da causalidade em ambientes algorítmicos. Além disso, o texto enfatiza a importância de critérios como transparência e explicabilidade para garantir a responsabilização eficaz, especialmente em sistemas de alta complexidade e risco elevado. A dificuldade de estabelecer nexo causal devido à ‘caixa-preta’ dos algoritmos e às decisões autônomas desafia os conceitos clássicos de culpa e responsabilidade. Comparações internacionais evidenciam a tendência de adoção de modelos que valorizam a proteção da vítima e o controle, fortalecendo regimes objetivos. Assim, o estudo considera que, a responsabilização na era da IA demanda abordagem híbrida que considere o risco, o grau de autonomia e a necessidade de transparência, a garantia da tutela dos direitos fundamentais e a inovação tecnológica.
Palavras-chave: Responsabilidade civil; Inteligência artificial; Algoritmos; Causalidade; Transparência.
ABSTRACT
This article examines the challenges of civil liability in the face of advances in artificial intelligence (AI) and algorithmic decisions. It underscores that the increasing integration of AI into social and legal relations necessitates a revision of traditional models, which are primarily based on fault, as they prove insufficient given the autonomy, opacity, and unpredictability of intelligent systems. The shift toward risk-based liability and objective regimes reflects the need to adapt Civil Law to new technological dynamics, especially considering the complexity of causality in algorithmic environments. Furthermore, the text emphasizes the importance of criteria such as transparency and explainability to ensure effective accountability, particularly in highly complex and high-risk systems. The difficulty of establishing causal links due to the ‘black box’ nature of algorithms and autonomous decisions challenges classical concepts of fault and responsibility. International comparisons reveal a trend toward adopting models that prioritize victim protection and control, strengthening objective regimes. Therefore, the study considers that liability in the AI era requires a hybrid approach that considers risk, the level of autonomy, transparency, the safeguarding of fundamental rights, and technological innovation.
Keywords: Civil liability; Artificial intelligence; Algorithms; Causality; Transparency.
RESUMEN
Este artículo analiza los desafíos de la responsabilidad civil ante los avances de la inteligencia artificial (IA) y las decisiones algorítmicas. Destaca que la creciente incorporación de la IA en las relaciones sociales y jurídicas requiere una revisión de los modelos tradicionales, basados en la culpa, que resultan insuficientes frente a la autonomía, opacidad e imprevisibilidad de los sistemas inteligentes. La transición hacia una responsabilidad basada en el riesgo y en regímenes objetivos refleja la necesidad de adaptar el Derecho Civil a las nuevas dinámicas tecnológicas, especialmente considerando la complejidad de la causalidad en entornos algorítmicos. Además, el texto enfatiza la importancia de criterios como la transparencia y la explicabilidad para garantizar una responsabilidad efectiva, especialmente en sistemas de alta complejidad y riesgo elevado. La dificultad para establecer vínculos causales debido a la ‘caja negra’ de los algoritmos y decisiones autónomas desafía los conceptos clásicos de culpa y responsabilidad. Las comparaciones internacionales muestran una tendencia hacia la adopción de modelos que valoran la protección de la víctima y el control, fortaleciendo regímenes objetivos. Por tanto, el estudio sostiene que la responsabilidad en la era de la IA requiere un enfoque híbrido que considere el riesgo, el nivel de autonomía y la necesidad de transparencia, garantizando la protección de los derechos fundamentales y la innovación tecnológica.
Palabras-clave: Responsabilidad civil; Inteligencia artificial; Algoritmos; Causalidad; Transparencia.
INTRODUÇÃO
A crescente incorporação da inteligência artificial (IA) nas relações sociais e jurídicas, evidencia a transformação estrutural na forma como decisões são produzidas, interpretadas e aplicadas no âmbito do Direito. Nesse sentido, a IA pode ser compreendida como o conjunto de sistemas capazes de processar volumes de dados, identificar padrões e produzir resultados com certo grau de autonomia, o que altera significativamente a dinâmica tradicional das atividades humanas. Conforme observa Floridi (2016), a chamada ‘infosfera’ reorganiza a realidade contemporânea ao tornar a informação o elemento central das interações sociais, o que repercute diretamente na estrutura das decisões jurídicas. Desse modo, verifica-se que a inteligência artificial ultrapassa a função meramente instrumental, passando-se a integrar o próprio processo decisório.
Nesse contexto, a inserção da inteligência artificial no campo jurídico, impõe desafios relevantes aos institutos clássicos do Direito Civil, sobretudo no que se refere à responsabilidade civil. Conforme destacam Tepedino; Silva (2019), os sistemas de IA impactam diretamente os elementos tradicionais da responsabilidade, exigindo-se a abordagem sistemática que considere a complexidade tecnológica envolvida. De igual modo, Silva (2023) aponta que a evolução das tecnologias digitais tem gerado dificuldades na aplicação dos modelos tradicionais de imputação, especialmente diante da autonomia e da imprevisibilidade dos sistemas inteligentes. Assim, observa-se que a lógica baseada exclusivamente na culpa, tende a se mostrar insuficiente para lidar com os danos decorrentes de decisões automatizadas.
Além disso, a utilização de algoritmos na análise de dados jurídicos e na produção de decisões, evidencia a centralidade da informação como elemento estruturante da jurisdição contemporânea. Sistemas de inteligência artificial permitem organizar precedentes, normas e decisões em estruturas complexas, como redes e grafos, ampliando-se a capacidade de análise e previsão de resultados. Contudo, é importante considerar a atribuição de responsabilidade em sistemas automatizados torna-se processo distribuído, na medida em que envolve múltiplos agentes e cadeias decisórias complexas. Dessa maneira, a opacidade algorítmica compromete a transparência e dificulta a identificação do nexo causal, o que impacta diretamente a imputação de responsabilidade civil.
Diante desse cenário, o presente estudo tem como objetivo analisar os desafios da responsabilidade civil no contexto das decisões algorítmicas, com ênfase na evolução dos modelos de imputação, nas dificuldades relacionadas ao nexo causal e na necessidade de incorporação de critérios como transparência e explicabilidade na regulação da inteligência artificial, considerando-se o ordenamento jurídico brasileiro e as tendências normativas contemporâneas.
1. A EVOLUÇÃO DA RESPONSABILIDADE CIVIL: DA CULPA À TEORIA DO RISCO
A evolução da responsabilidade civil no Direito brasileiro, parte da estrutura tradicionalmente fundada na culpa, cujo eixo normativo reside nos arts. 186 e 927, caput, do Código Civil de 2002. Progressivamente, esse modelo desloca-se para regimes objetivos vinculados à teoria do risco, especialmente quando a atividade expõe terceiros a danos que a prova da culpa individual não consegue alcançar. No contexto da IA, esse deslocamento ganha densidade: a autonomia operacional e a ‘opacidade algorítmica’, tornam a lógica subjetiva insuficiente. Conforme Manso; Calixto (2024), a IA não é mero executor de ordens, mas tecnologia adaptativa que trata dados de forma massiva, alterando-se a própria natureza da imputação de danos. No mesmo sentido, Teffé; Medon (2020) sustentam que sistemas automatizados geram danos em contextos onde o processo decisório não é claro, exigindo-se a releitura dos parâmetros tradicionais.
Essa mudança de paradigma não descarta a culpa, mas alarga os critérios de imputação em resposta à complexidade técnica. Com isso, Silva (2023) assinala que, embora as teorias da culpa e do risco estruturem o debate, a falta da disciplina normativa consolidada para a IA, gera incertezas que exigem a atualização dos institutos clássicos. Para responder a essa tensão, o Projeto de Lei nº 2.338/2023 propõe regimes diferenciados baseados no grau de risco do sistema. Segundo Manso; Calixto (2024), essa solução fortalece a racionalidade menos centrada na culpa e mais sensível ao risco da atividade tecnológica. Complementarmente, Lima (2024) destaca que o modelo brasileiro busca harmonizar a proteção da vítima com o fomento à inovação, reforçando-se a centralidade da teoria do risco no ambiente digital.
Não seria possível lidar com tantas e tão velozes inovações com base exclusivamente em regras codificadas ou estabelecidas em leis especiais. Isto porque a técnica regulamentar, por mais detalhada que seja, mostra-se insuficiente para solucionar problemas que, a cada dia, desafiam a imaginação do legislador e do magistrado. Daí a importância das cláusulas gerais e dos princípios que, de modo mais abrangente, permitem ao intérprete estabelecer padrões de comportamento coerentes com a tábua de valores do ordenamento. Esse processo de unificação do sistema jurídico só é possível mediante a aplicação direta das normas constitucionais (Tepedino, 2019, apud Teffé; Medon, 2020, p. 303).
Essa passagem é fundamental, pois demonstra que a transição para o risco ocorre dentro da lógica civil-constitucional. Sob essa perspectiva, Teffé; Medon (2020) recorrem a formulação para mostrar que a adaptação do Direito às novas tecnologias depende de cláusulas gerais e princípios, especialmente quando a causalidade se torna difusa. Assim, o problema jurídico deixa de ser apenas ‘quem errou’ e passa a ser ‘quem deve responder pelos riscos’ de colocar o sistema autônomo em operação. Nesse viés, Vasconcelos; Farias; Santos (2025) ressaltam que, a adoção da IA no campo jurídico brasileiro traz desafios complexos, pois a opacidade dos algoritmos amplia drasticamente a dificuldade de atribuição de responsabilidade por ações automatizadas.
Nesse caso, a teoria do risco de desenvolvimento poderia ser resgatada como forma de embasar a atribuição de responsabilidade aos agentes empresariais que desenvolvem ou exploram a IA, justificando-a no princípio da solidariedade social. Seus elementos podem ajudar a criar uma teoria a ser aplicada a estes casos. São elementos do risco de desenvolvimento (i) o dano causado por um produto - que não é, em tese, defeituoso; (ii) a impossibilidade técnica objetiva de reconhecimento, tanto por parte do fornecedor quanto do consumidor, da defeituosidade e da potencialidade danosa do produto, no tempo da ocasião do dano; e (iii) o desenvolvimento tecnológico que identifica, posteriormente, um defeito do produto, gerador do dano. Esses requisitos, se aplicados às hipóteses de danos causados por IA autônoma, poderiam ser igualmente interpretados para fins de atribuição da obrigação de indenizar (Mulholland, 2019, p. 335, apud Teffé; Medon, 2020, p. 322).
O resgate do risco de desenvolvimento é crucial para gerir perigos onde o dano decorre do ‘comportamento emergente’ do sistema, não previsível no momento da criação. Consequentemente, Teffé; Medon (2020) utilizam essa tese para sustentar que a IA não pode ser limitada a esquemas rígidos de culpa, já que danos surgem mesmo sem defeitos evidentes. Essa visão harmoniza-se com a análise de Lima (2024) sobre o PL nº 2.338/2023, que adota a abordagem preventiva e articula a nova disciplina com a LGPD e o Código de Defesa do Consumidor. Da mesma forma, Manso; Calixto (2024) reforçam que a distinção entre sistemas pela intensidade do risco consolida a estrutura híbrida de imputação: objetiva para casos graves e subjetiva mitigada para os demais.
Desse modo, a jornada da culpa em direção à teoria do risco, reflete a adaptação necessária do Direito Privado às transformações digitais. A autonomia técnica e a multiplicidade de agentes envolvidos no ciclo da IA, exigem soluções que protejam os direitos fundamentais das vítimas. O cenário atual no Brasil - pautado pelo Código Civil, CDC, LGPD e o debate em torno do PL 2.338/2023 - aponta para o fortalecimento de modelos de responsabilidade objetiva e de facilitação probatória. Essa inflexão é validada por Silva (2023), ao reconhecer a urgência da atualização dos institutos, e por Vasconcelos; Farias; Santos (2025), ao destacarem que a autonomia dos sistemas inteligentes impõe novas estruturas legais e éticas.
2. O FUNCIONAMENTO DAS DECISÕES ALGORÍTMICAS E A INTELIGÊNCIA ARTIFICIAL: DESAFIOS PARA A RESPONSABILIDADE CIVIL
O funcionamento das decisões algorítmicas parte da utilização de sistemas computacionais capazes de processar grandes volumes de dados, identificar padrões e produzir resultados a partir de modelos estatísticos ou lógicos, o que caracteriza a inteligência artificial contemporânea como tecnologia orientada por dados e por aprendizado. Nesse sentido, Aguiar; Aragão (2024) destacam que a IA não se limita à automação simples, mas envolve processos complexos de análise e predição, o que amplia a inserção em áreas do direito e da sociedade. De igual maneira, Floridi (2016) sustenta que a chamada ‘infosfera’ transforma as relações humanas, pois a informação passa a estruturar decisões e comportamentos, o que altera, de modo direto, a forma como se compreendem os fenômenos jurídicos relacionados à responsabilidade.
Enquanto a automação simples está vinculada à execução mecânica e repetitiva de tarefas previamente definidas por humanos (como emissão automática de boletos ou envio de notificações), a tomada de decisão algorítmica envolve certo grau de autonomia, baseada na análise preditiva de dados, classificação de perfis, recomendação de ações e priorização de políticas. A diferença reside, portanto, no grau de complexidade, autonomia operacional e opacidade do processo (Carboni, 2023, p. 89).
A lógica decisória desses sistemas, por conseguinte, baseia-se em algoritmos que operam mediante regras previamente definidas ou por aprendizado de máquina (machine learning), sendo possível distinguir entre sistemas determinísticos e sistemas adaptativos. Sendo assim, Calo (2017) explica que a inteligência artificial contemporânea apresenta características como autonomia relativa, opacidade e capacidade de aprendizado, fatores que dificultam a previsibilidade dos resultados e desafiam os modelos tradicionais de regulação. Já Botsman (2017) observa que, a crescente confiança em máquinas inteligentes decorre da capacidade dessas tecnologias de produzir decisões rápidas e, em muitos casos, mais eficientes do que as humanas, o que contribui para a ampla adoção em setores econômicos e institucionais.
No campo jurídico, essa transformação tecnológica repercute diretamente na forma de produção das decisões, sobretudo quando sistemas automatizados passam a influenciar ou até substituir a atuação humana. Sob esse ponto de vista, Toledo; Pessoa (2023) apontam que a utilização de inteligência artificial na tomada de decisão judicial, levanta questões relevantes quanto à transparência, à fundamentação e ao controle das decisões, uma vez que, o processo algorítmico nem sempre é plenamente compreensível. De igual modo, Oliveira; Alencar (2025) ressaltam que a chamada administração algorítmica impacta a motivação dos atos decisórios e o controle institucional, pois a opacidade dos sistemas pode comprometer garantias fundamentais, como o devido processo legal e a possibilidade de revisão das decisões automatizadas.
De fato, as novas tecnologias suscitaram uma multidão de controvérsias no âmbito do Direito Civil. Basta lembrar, nos últimos 20 anos, o impacto da engenharia genética e do surgimento do exame de DNA no Direito de Família e Sucessório; ou o potencial danoso extraordinário aportado pelos novos meios de transporte e de comunicação, com particular destaque para a irreversível consolidação da internet e das redes sociais para as comunicações, os negócios etc. A mencionada revolução tecnológica alcança seu auge no cenário contemporâneo, com a difusão da inteligência artificial nos mais variados aspectos das relações sociais, a demandar a pronta atenção da comunidade acadêmica (Tepedino; Silva, 2020, p. 3).
Essa passagem evidencia que a inteligência artificial não constitui fenômeno isolado, mas etapa do processo amplo de transformação tecnológica que impacta o direito civil. Em consonância, Tepedino; Silva (2020) indicam que a difusão da IA nas relações sociais, exige revisão dos institutos jurídicos tradicionais, especialmente quando as decisões deixam de ser exclusivamente humanas. Nessa perspectiva, o funcionamento das decisões algorítmicas deve ser compreendido como parte do ambiente tecnológico amplo, no qual a informação, os dados e os sistemas automatizados passam a exercer função estruturante na organização social e econômica, o que reforça a necessidade de adaptação da responsabilidade civil.
Além disso, a inteligência artificial introduz elemento adicional de complexidade: a chamada ‘caixa-preta’ algorítmica, que dificulta a compreensão do processo decisório interno do sistema. Com esse olhar, Aguiar; Aragão (2024) destacam que, essa opacidade compromete a rastreabilidade das decisões e, por conseguinte, a identificação de eventuais falhas ou desvios. De igual modo, Calo (2017) aponta que, a dificuldade de explicar como o algoritmo chegou a determinado resultado, constitui um dos principais desafios regulatórios da IA, especialmente no que se refere à responsabilização por danos. Essa característica técnica repercute diretamente na esfera jurídica, pois a imputação de responsabilidade depende, em grande medida, da reconstrução do nexo causal entre a conduta e o dano.
Logo, observa-se que o avanço das decisões automatizadas redefine o papel do ser humano no processo decisório, deslocando-o de agente direto para supervisor ou operador do sistema. Segundo afirma Gabriel (2018), o futuro das relações de trabalho e das decisões organizacionais será marcado pela interação entre humanos e máquinas, o que implica novas formas de distribuição de responsabilidades. Nesse contexto, Tepedino; Silva (2020) reforçam que a incorporação da IA nas relações jurídicas, exige reflexão sistemática sobre os impactos, uma vez que, a tecnologia não apenas auxilia, mas passa a integrar o próprio processo decisório, alterando-se os fundamentos tradicionais da imputação de responsabilidade civil
3. DIFICULDADES DE IMPUTAR RESPONSABILIDADE EM CASOS DE DECISÕES AUTÔNOMAS: O PROBLEMA DA CAUSALIDADE
A imputação de responsabilidade civil em decisões autônomas, evidencia a ruptura relevante com os modelos clássicos baseados em causalidade linear, uma vez que, a inteligência artificial opera por meio de processos dinâmicos de aprendizado e adaptação contínua. Nesse cenário, o dano não decorre necessariamente da conduta humana direta e identificável, mas do encadeamento complexo de decisões algorítmicas, o que fragiliza a aplicação tradicional do nexo causal. Nesse sentido, Silva (2023) aponta que, os sistemas de IA desafiam os pressupostos clássicos da responsabilidade civil, sobretudo pela dificuldade de vincular, de forma precisa, a conduta ao resultado danoso. De igual maneira, Toledo; Pessoa (2023) destacam que a utilização de sistemas automatizados na tomada de decisões, inclusive no âmbito judicial, amplia as incertezas quanto à identificação do agente responsável.
Imagem 1: Representação da análise de dados jurídicos por sistemas de IA.
Disponível em: https://medium.com/@diego.miranda02/analyzing-graph-data-using-python-in-the-legal-field-13a0e15bdb81. Acesso em: 11 abr. 2026.
A imagem apresentada, representa a estrutura da jurisdição contemporânea, a partir da organização de dados jurídicos em forma de rede, na qual decisões judiciais, normas, agentes e relações processuais são interligados por meio de conexões algorítmicas. Nesse sentido, observa-se que cada nó corresponde a uma entidade jurídica, como casos, decisões ou dispositivos legais, enquanto as conexões indicam relações como precedentes, referências normativas ou vínculos processuais, permitindo-se visualizar padrões decisórios e estruturas de influência. Desse modo, a utilização de grafos, evidencia que a IA não opera apenas sobre textos isolados, mas sobre sistemas complexos de relações jurídicas, o que amplia a capacidade de análise e previsão de decisões.
Nesse contexto, a própria complexidade dessas redes e a necessidade de dados consistentes para alimentar os sistemas, evidenciam limitações práticas e epistemológicas que impactam diretamente a regulação e a imputação de responsabilidade, conforme se observa a seguir:
Essa tarefa nem sempre é simples, em razão da falta de amostras adequadas e dados confiáveis sobre os efeitos e interações das novas tecnologias a longo prazo na sociedade, nos mais variados ambientes e entre diversos sujeitos. A principal razão para isso é que nem sempre se tem dados, experiência e imaginação suficientes para prever quais impactos negativos podem ser associados a um determinado robô ou IA, o que prejudica, em parte, eventuais intervenções em termos normativos e regulatórios (Teffé; Medon, 2020, p. 303).
A dificuldade apontada, evidencia que o problema da causalidade, no contexto da inteligência artificial, ultrapassa a dimensão probatória e alcança nível estrutural, no qual a própria previsibilidade do dano se encontra comprometida. Assim, conforme observam Aguiar; Aragão (2024), a complexidade dos sistemas algorítmicos impede a reconstrução clara do percurso decisório, tornando-se insuficientes os modelos tradicionais de imputação. Nesse sentido, a causalidade deixa de ser compreendida como relação direta entre causa e efeito, passando-se a ser analisada a partir do conjunto de fatores interdependentes que envolvem dados, programação e interação com o ambiente.
Fala-se, por exemplo, na atribuição de responsabilidade a diversos sujeitos, tais quais: o titular de direitos de propriedade intelectual sobre a IA; o produtor de um objeto dirigido por IA ou o projetista da IA; o fornecedor, o vendedor ou o intermediário da IA; o explorador da IA; o proprietário de um aparelho regido por IA; o usuário da IA; o treinador da máquina comandada por IA; e até mesmo os próprios robôs. Diante da complexidade dos sistemas e das situações fáticas, num primeiro momento, não parece haver uma solução geral, mas sim, casuística [...] (Teffé; Medon, 2020, p. 305).
A multiplicidade de agentes envolvidos no funcionamento da inteligência artificial, reforça a fragmentação da causalidade, uma vez que, o dano pode resultar da atuação conjunta de sujeitos ao longo do ciclo tecnológico. Nesse contexto, Vasconcelos; Farias; Santos (2025) ressaltam que, a opacidade dos sistemas de IA dificulta a compreensão do raciocínio que levou à decisão, o que compromete a identificação de responsabilidades individuais. De igual modo, Lima (2024) observa que essa complexidade exige a adoção de critérios mais amplos de imputação, capazes de considerar a estrutura da atividade tecnológica e não apenas a conduta isolada do agente.
Na relação com a IA, não mais se procede descrevendo um algoritmo com o passo a passo para a solução do problema, mas se oferece a descrição dele, ao que o sistema constrói um caminho próprio para entregar uma solução, que pode se revelar surpreendente e imprevisível mesmo para o seu programador originário (Manso; Calixto, 2024, p. 114).
A imprevisibilidade destacada, revela que a inteligência artificial rompe com a lógica determinística que sustentava os modelos clássicos de causalidade, pois o resultado não é totalmente controlado nem antecipado pelos desenvolvedores. Assim, conforme analisam Calo (2017), a autonomia tecnológica transforma a forma como as decisões são produzidas, deslocando-se o foco da ação humana para sistemas que operam de maneira relativamente independente. Nesse cenário, a imputação de responsabilidade passa a exigir critérios flexíveis, que considerem o risco inerente à atividade e a impossibilidade de controle absoluto sobre os resultados.
A autonomia e a capacidade de aprendizado dos sistemas de inteligência artificial fazem com que os resultados de suas operações não sejam totalmente previsíveis, o que compromete a aplicação direta dos modelos tradicionais de responsabilidade civil, especialmente no que se refere à identificação do nexo causal [...] (Manso; Calixto, 2024, p. 116).
Diante desse quadro, observa-se que, a dificuldade de estabelecer o nexo causal não elimina a necessidade de responsabilização, mas impõe a reformulação dos fundamentos. Assim, Teffé; Medon (2020) indicam que a responsabilidade civil deve incorporar mecanismos que considerem a complexidade tecnológica e a proteção da vítima, enquanto Manso; Calixto (2024) defendem a adoção de regimes diferenciados, conforme o grau de risco dos sistemas de IA. Por conseguinte, a teoria do risco se apresenta como alternativa adequada, pois permite imputar responsabilidade, independentemente da demonstração estrita de culpa, sobretudo em contextos de alta complexidade e imprevisibilidade tecnológica.
4. ANÁLISE COMPARADA: COMO OUTROS ORDENAMENTOS ESTÃO TRATANDO O TEMA DA RESPONSABILIDADE CIVIL POR DECISÕES ALGORÍTMICAS
A análise comparada da responsabilidade civil por decisões algorítmicas, revela o movimento de convergência normativa em torno da centralidade do risco, da transparência e da proteção de direitos fundamentais, ainda que com soluções distintas entre os ordenamentos. Nesse sentido, Calo (2017) aponta que as políticas públicas sobre inteligência artificial, tendem a combinar instrumentos regulatórios tradicionais com abordagens inovadoras baseadas em governança tecnológica, o que demonstra a insuficiência dos modelos clássicos diante da complexidade dos sistemas automatizados. De igual modo, Lima (2024) destaca que o Brasil acompanha esse movimento internacional, ainda que de forma gradual, especialmente por meio de projetos legislativos que dialogam com padrões europeus e diretrizes internacionais.
No âmbito europeu, observa-se a abordagem estruturada e preventiva, centrada na gestão de riscos e na proteção do consumidor digital. A Diretiva da União Europeia (UE) 2019/770 estabelece parâmetros para contratos de fornecimento de conteúdo e serviços digitais, reforçando-se deveres de conformidade, qualidade e responsabilidade dos fornecedores, o que repercute diretamente na disciplina de sistemas baseados em inteligência artificial. Assim, Teffé; Medon (2020) indicam que, a UE adota a lógica regulatória que privilegia a tutela do usuário e a previsibilidade das relações jurídicas, o que contribui para a construção do ambiente normativo seguro diante da automação decisória. Nesse sentido, a responsabilização tende a se aproximar de modelos objetivos ou híbridos, sobretudo quando apresenta riscos elevados ou assimetrias informacionais.
No plano internacional, organismos como a OCDE (2019), exercem papel relevante na harmonização de princípios e diretrizes, estabelecendo-se parâmetros que influenciam múltiplas jurisdições. A recomendação do Conselho sobre inteligência artificial, introduz princípios como transparência, explicabilidade, robustez e accountability, os quais orientam tanto a formulação de políticas públicas quanto a interpretação jurídica da responsabilidade civil. Conforme observado em análises recentes, os princípios vêm sendo incorporados por diferentes países e blocos regionais, promovendo-se a base comum para a regulação da IA e incentivando-se a interoperabilidade normativa (OCDE, 2019). Dessa forma, a responsabilidade civil passa a ser concebida não apenas como mecanismo reparatório, mas também como instrumento de governança e prevenção de danos.
No caso brasileiro, verifica-se a tentativa de adaptação dessas tendências internacionais ao contexto interno, especialmente por meio do Projeto de Lei nº 2.338/2023, que propõe o modelo escalonado de responsabilização com base no grau de risco do sistema. Conforme analisam Manso; Calixto (2024), o referido projeto distingue entre sistemas de alto risco e sistemas de menor risco, adotando-se responsabilidade objetiva nos primeiros e regimes mitigados nos demais, o que evidencia a aproximação com o modelo europeu. Ademais, Lima (2024) observa que a proposta busca harmonizar-se com normas consolidadas, como a Lei nº 13.709/2018 (Lei Geral de Proteção de Dados – LGPD) e a Lei nº 8.078/1990 (Código de Defesa do Consumidor - CDC), reforçando-se a proteção do usuário diante de decisões automatizadas.
Na relação com a IA, não mais se procede descrevendo um algoritmo com o passo a passo para a solução do problema, mas se oferece a descrição dele, ao que o sistema constrói um caminho próprio para entregar uma solução, que pode se revelar surpreendente e imprevisível mesmo para o seu programador originário (Manso; Calixto, 2024, p. 114).
Assim, evidencia-se a imprevisibilidade inerente aos sistemas de inteligência artificial, elemento que fundamenta a adoção de regimes rigorosos de responsabilização em diversos ordenamentos. Nesse contexto, Calo (2017) alertava que a autonomia tecnológica impõe desafios inéditos à imputação jurídica, exigindo-se modelos flexíveis e adaptativos. De igual maneira, Sá; Lima (2020) destacam que, o direito à explicação, previsto na LGPD (art. 20), constitui instrumento essencial para garantir a accountability das decisões automatizadas, aproximando-se o Brasil das tendências internacionais voltadas à transparência e ao controle.
É válido observar que, apesar das diferenças entre os ordenamentos, há a tendência comum de superação dos modelos puramente subjetivos de responsabilidade, com crescente valorização de regimes baseados no risco e na proteção preventiva. Conforme indicam Teffé; Medon (2020), a dificuldade de comprovação da culpa em sistemas complexos, reforça a necessidade de mecanismos jurídicos eficazes, enquanto Manso; Calixto (2024) apontam que a classificação de risco e a exigência de transparência constituem elementos centrais para a efetividade da responsabilização. Assim, a análise comparada demonstra que, a regulação da inteligência artificial se estrutura a partir do equilíbrio entre inovação tecnológica e proteção jurídica, no qual a responsabilidade civil exerce função estruturante no controle dos impactos das decisões algorítmicas.
5. O PAPEL DA TRANSPARÊNCIA E DA EXPLICABILIDADE NA IMPUTAÇÃO DE RESPONSABILIDADE: ABORDAGEM À REGULAÇÃO DA IA NO BRASIL
A transparência e a explicabilidade, assumem papel central na imputação de responsabilidade civil em contextos de inteligência artificial, sobretudo porque a opacidade dos sistemas algorítmicos dificulta a identificação dos critérios que fundamentam as decisões automatizadas. Nesse cenário, a responsabilização não pode prescindir da compreensão mínima do funcionamento do sistema, uma vez que, a ausência de clareza compromete tanto o direito de defesa quanto a própria verificação do nexo causal. Assim, Sá; Lima (2020) destacam que o art. 20 da Lei nº 13.709/2018 (LGPD), introduz o direito à explicação como mecanismo essencial de controle, pois permite ao titular dos dados questionar decisões, baseadas exclusivamente em tratamento automatizado. De igual modo, Toledo; Pessoa (2023) observam que, a utilização de IA em decisões jurídicas, exige padrões rigorosos de fundamentação, sob pena de violação de garantias constitucionais como o devido processo legal e a motivação das decisões.
Imagem 2: Representação da IA como sistema de análise e controle de dados.
Disponível em: https://www.audible.com.br/pd/Atlas-of-AI-Audiolivro/B0BQZTNQGM. Acesso em: 11 abr. 2026.
A imagem 2 apresentada, representa a IA não apenas como tecnologia isolada, mas como sistema complexo de análise, processamento e controle de dados, inserido em estruturas sociais, econômicas e ambientais. Nesse sentido, observa-se que a composição visual, ao articular elementos humanos, naturais e computacionais, evidencia a interdependência entre dados, algoritmos e tomada de decisão, o que reforça a compreensão de que os sistemas de IA operam a partir de múltiplas camadas de informação.
Desse modo, a obra contribui para a análise crítica da responsabilidade civil, na medida em que evidencia a dificuldade de identificar o nexo causal em ambientes algorítmicos, bem como a necessidade de transparência e explicabilidade na regulação dessas tecnologias.
Nesse contexto, ao se reconhecer que as decisões produzidas por sistemas de inteligência artificial decorrem de processos complexos de análise de dados e de aprendizado contínuo, torna-se evidente que a opacidade algorítmica não apenas dificulta a reconstrução do nexo causal, mas também interfere diretamente na caracterização jurídica de eventuais falhas do sistema. A ausência de explicabilidade, gera impactos diretos na própria configuração do defeito do sistema, sobretudo quando se analisa a possibilidade de responsabilização do fornecedor ou desenvolvedor. Assim, a doutrina passa a problematizar se a autonomia decisória da IA poderia ser equiparada ao defeito de concepção, hipótese que desloca a responsabilidade para o âmbito objetivo.
A tomada de decisão da AI, a partir do self-learning poderia ser equiparado a um defeito de concepção imputável ao fornecedor? O defeito de concepção é caracterizado pelo erro de projeto ou pela escolha equivocada dos materiais a serem utilizados na fabricação do produto, de tal maneira que a insegurança está diretamente ligada, como o próprio termo explicita, à concepção ou idealização. Seria esse o caso da tomada de decisão da AI ou estar-se-ia tratando apenas de um desdobramento independente e autônomo a partir da nova realidade tecnológica? (Magrani; Silva; Viola, 2019, p. 133-134).
A reflexão demonstra que, a explicabilidade não se limita à transparência informacional, mas se conecta diretamente à definição do regime jurídico aplicável à responsabilidade civil. Por conseguinte, Manso; Calixto (2024) indicam que o Projeto de Lei nº 2.338/2023 adota abordagem baseada em risco, na qual a transparência e a prestação de informações constituem deveres essenciais dos agentes envolvidos. De igual maneira, Lima (2024) observa que a proposta legislativa brasileira busca harmonizar-se com a LGPD e com o Código de Defesa do Consumidor (Lei nº 8.078/1990), reforçando-se a necessidade de proteção do usuário diante da complexidade tecnológica. Assim, a explicabilidade passa a funcionar como instrumento de redução de assimetrias informacionais, facilitando-se a imputação de responsabilidade.
Além disso, a transparência deve ser compreendida como requisito estrutural para o controle institucional das decisões automatizadas, especialmente no âmbito da Administração Pública e do Poder Judiciário. Conforme destacam Oliveira; Alencar (2025), a administração algorítmica impacta diretamente a motivação dos atos administrativos, exigindo-se mecanismos que garantam a verificabilidade das decisões. Nesse sentido, a construção de parâmetros interpretativos específicos para a motivação algorítmica torna-se essencial.
[…] desenvolver parâmetros interpretativos próprios para a motivação algorítmica, que reconheçam as especificidades da linguagem técnica sem abrir mão dos requisitos de clareza, coerência e possibilidade de revisão. Isso implica o fortalecimento da jurisprudência administrativa e judicial sobre o tema, com decisões que construam precedentes para aferir a compatibilidade entre sistemas automatizados e os direitos dos administrados. O desafio não está apenas em regular a tecnologia, mas em submeter sua lógica ao crivo do direito constitucional (Vieira, 2019, p. 115).
A passagem evidencia que, a transparência não pode ser reduzida à simples disponibilização de informações técnicas, mas deve assegurar a inteligibilidade das decisões para os destinatários, permitindo-se a contestação e revisão. Em conformidade, Vasconcelos; Farias; Santos (2025) ressaltam que, a opacidade dos sistemas de IA compromete a accountability e dificulta a atribuição de responsabilidade, especialmente em contextos nos quais a decisão automatizada produz efeitos jurídicos relevantes. De igual modo, OCDE (2019) estabelece que a explicabilidade constitui princípio fundamental para o desenvolvimento de sistemas confiáveis, pois deve ser acompanhada de mecanismos de responsabilização e supervisão humana.
Sendo assim, observa-se que a regulação da IA no Brasil, caminha no sentido de incorporar a transparência e a explicabilidade como elementos estruturantes da responsabilidade civil, especialmente diante da autonomia crescente dos sistemas algorítmicos. Nesse contexto, Diniz (2025) aponta que o debate legislativo recente, inclusive no âmbito da reforma do Código Civil (PL nº 4/2025), tem evidenciado a necessidade de definir critérios claros para a responsabilização de agentes envolvidos em decisões automatizadas, evitando-se a atribuição de personalidade jurídica às tecnologias e reforçando-se a centralidade do controle humano. Por conseguinte, a explicabilidade emerge como condição indispensável para a efetividade da responsabilização, pois permite reconstruir o processo decisório, reduzir incertezas e assegurar a proteção dos direitos fundamentais, no ambiente marcado pela complexidade tecnológica.
CONSIDERAÇÕES FINAIS
As transformações decorrentes da incorporação da IA nas relações jurídicas, evidenciam a necessidade de reconfiguração dos fundamentos da responsabilidade civil, sobretudo diante da autonomia decisória dos sistemas algorítmicos. Ao longo do estudo, verificou-se que a passagem do modelo tradicional baseado na culpa, para abordagens fundadas na teoria do risco não implica substituição absoluta, mas alargamento interpretativo que busca responder à complexidade técnica das novas tecnologias. Nesse sentido, a autonomia operacional dos sistemas, associada à opacidade dos processos internos, dificulta a aplicação dos critérios clássicos de imputação, especialmente no que se refere à identificação de condutas individualizadas.
De igual modo, observou-se que o funcionamento das decisões algorítmicas, estruturado a partir da análise massiva de dados e de modelos de aprendizado, altera a própria lógica do processo decisório. Assim, a decisão deixa de ser exclusivamente humana e passa a decorrer de interações complexas entre dados, sistemas e agentes, o que desloca o eixo da responsabilidade para além da ação individual. Nesse cenário, a chamada ‘caixa-preta’ algorítmica, compromete a transparência dos sistemas e dificulta a reconstrução do percurso decisório, impactando-se diretamente a verificação do nexo causal.
Sobretudo, constatou-se que a causalidade assume caráter difuso em ambientes tecnológicos, nos quais múltiplos fatores contribuem simultaneamente para a produção do dano. Desse modo, a dificuldade de estabelecer relação direta entre causa e efeito, evidencia a insuficiência dos modelos tradicionais de responsabilização, tornando-se necessária a adoção de critérios amplos e adequados à realidade digital. Nesse contexto, a teoria do risco se apresenta como instrumento relevante para a proteção da vítima, ao permitir a imputação de responsabilidade, independentemente da demonstração estrita de culpa, especialmente em atividades que envolvem elevado grau de complexidade e imprevisibilidade.
No plano normativo, verificou-se que a regulação da inteligência artificial no Brasil, caminha no sentido de incorporar mecanismos de gestão de riscos, transparência e proteção de direitos fundamentais. Assim, observa-se a tendência de construção de modelos escalonados de responsabilização, nos quais o grau de risco da atividade tecnológica influencia diretamente o regime jurídico aplicável. Além disso, instrumentos jurídicos consolidados, como a legislação de proteção de dados e de defesa do consumidor, passam a exercer papel relevante na disciplina das decisões automatizadas, pois contribui para a tutela do usuário no ambiente marcado por assimetrias informacionais.
REFERÊNCIAS BIBLIOGRÁFICAS
AGUIAR, Gustavo Bedê; ARAGÃO, Yan Cavalcanti. Inteligência artificial e sua relação com o direito: análise teórica sobre conflitos, possibilidades, tecnologia e o sistema jurídico. Revista Brasileira de Filosofia e História, v. 13, n. 2, p. 3016-3031, 2024. Disponível em: https://www.gvaa.com.br/revista/index.php/RBFH/article/view/10480?articlesBySimilarityPage=5. Acesso em: 11 abr. 2026.
BOTSMAN, Rachel. The era of intelligent machines is upon us. Harvard Business Review, v. 95, n. 1, p. 34-43, 2017. Acesso em: 11 abr. 2026.
CALO, Ryan. Artificial intelligence policy: a primer and roadmap. UC Irvine Law Review, v. 7, n. 2, p. 399-435, 2017. Disponível em: https://lawreview.law.ucdavis.edu/sites/g/files/dgvnsk15026/files/media/documents/51-2_Calo.pdf. Acesso em: 11 abr. 2026.
CARBONI, Guilherme Capinzaiki. Algoritmos e administração pública: desafios regulatórios da inteligência artificial no setor público. In: DONEDA, Danilo; MORAES, Gustavo Siqueira de (Org.). Inteligência artificial e políticas públicas. Brasília: IPEA, 2023. p. 45-78.
COMISSÃO EUROPEIA. Diretiva (UE) 2019/770 do Parlamento Europeu e do Conselho, de 20 de maio de 2019, relativa a certos aspectos dos contratos de fornecimento de conteúdo digital e serviços digitais. Jornal Oficial da União Europeia, Bruxelas, 2019.
DINIZ, Marcela. Reforma do código civil reabre debate sobre responsabilidade da IA. Rádio Senado, Brasília, 23 out. 2025.
FLORIDI, Luciana. The fourth revolution: how the infosphere is reshaping human reality. Oxford: Oxford University Press, 2016.
GABRIEL, Martha. A era da inteligência artificial: o futuro do trabalho e da sociedade. São Paulo: Revista dos Tribunais, 2018.
LIMA, Glória Machado de. Responsabilidade civil por danos causados pela inteligência artificial: perspectivas sobre a regulação do tema no direito brasileiro. 2024. Trabalho de Conclusão de Curso (Graduação em Direito) – Universidade Federal de Santa Maria, Santa Maria, 2024.
MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade de Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coords.). Inteligência Artificial e Direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019.
MANSO, Adriano Marques; CALIXTO, Marcelo Junqueira. Os regimes de responsabilização civil no novo Marco Legal para Inteligência Artificial: o Projeto de Lei nº 2.338/23. International Journal of Digital Law, Belo Horizonte, v. 4, n. 3, p. 111-129, 2024. Disponível em: https://journal.nuped.com.br/index.php/revista/article/view/1261. Acesso em: 11 abr. 2026.
OLIVEIRA, Jairo Lima de; ALENCAR, Ivoneide Pereira de. Administração algorítmica e processo legal: impactos da automatização sobre a transparência, a motivação e o controle institucional. Revista FT, Ciências Sociais Aplicadas, v. 29, ed. 149, 2025. Disponível em: https://revistaft.com.br/administracao-algoritmica-e-processo-legal-impactos-da-automatizacao-sobre-a-transparencia-a-motivacao-e-o-controle-institucional/. Acesso em: 11 abr. 2026.
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). Recomendação do Conselho sobre Inteligência Artificial. Paris: OCDE, 2019.
SÁ, Maria de Fátima Freire de; LIMA, Taisa Maria Macena de. Inteligência artificial e Lei Geral de Proteção de Dados Pessoais: o direito à explicação nas decisões automatizadas. Revista Brasileira de Direito Civil, Belo Horizonte, v. 26, n. 4, p. 227-246, 2020. Disponível em: https://rbdcivil.ibdcivil.org.br/rbdc/article/view/584. Acesso em: 11 abr. 2026.
SILVA, Francisco Alves da. Responsabilidade civil e inteligência artificial: explorando soluções e desafios da era digital. RECIMA21 - Revista Científica Multidisciplinar, v. 4, n. 11, e4114434, 2023. Disponível em: https://recima21.com.br/recima21/article/view/4434. Acesso em: 11 abr. 2026.
TEFFÉ, Chiara Spadaccini de; MEDON, Filipe. Responsabilidade civil e regulação de novas tecnologias: questões acerca da utilização de inteligência artificial na tomada de decisões empresariais. Revista Estudos Institucionais, Rio de Janeiro, v. 6, n. 1, p. 301-333, 2020. Disponível em: https://www.estudosinstitucionais.com/REI/article/view/383. Acesso em: 11 abr. 2026.
TEPEDINO, Gustavo; SILVA, Rodrigo da Guia (Coord.). O Direito Civil na era da inteligência artificial. São Paulo: Thomson Reuters Brasil, 2020.
TOLEDO, Cláudia; PESSOA, Daniel Alves. O uso de inteligência artificial na tomada de decisão judicial. Revista de Investigações Constitucionais, Curitiba, v. 10, n. 1, e237, 2023. Disponível em: https://www.scielo.br/j/rinc/a/qRC4TmVXVDJ8Wkv7Ns49jxH/abstract/?lang=pt. Acesso em: 11 abr. 2026.
VASCONCELOS, Maria Scarlet Lopes; FARIAS, Thais Santos; SANTOS, Plinyo Paccioly Rodrigues. Entre códigos e leis: responsabilidade civil e sistemas de inteligência artificial no mundo jurídico brasileiro. Brazilian Journal of Development, v. 11, n. 5, e79732, 2025. Disponível em: https://ojs.brazilianjournals.com.br/ojs/index.php/BRJD/article/view/79732. Acesso em: 11 abr. 2026.
VIEIRA, Oscar Vilhena. Direitos fundamentais: uma leitura da jurisprudência do STF. 2. ed. São Paulo: Malheiros, 2019.
1 Bacharela em Direito (Fundação Universidade Federal de Rondônia, UNIR, campus Cacoal-RO). Tecnóloga em Marketing (Universidade Cesumar, UNICESUMAR). Especialista em Didática do Ensino Superior (Faculdade de Ciências Biomédicas de Cacoal, FACIMED, campus Cacoal-RO). Professora celetista no Centro Universitário Mauricio de Nassau, UNINASSAU, campus Cacoal-RO. E-mail: [email protected]
2 Lattes iD: http://lattes.cnpq.br/8693426790176815 Bacharela em Direito (Faculdades Integradas de Cacoal, UNESC-RO). Com especialização em a) Direito Constitucional com Capacitação para o Ensino no Magistério Superior (Damásio Educacional, DAMÁSIO); b) Direito e Processo Civil Contemporâneo (Faculdade de Educação São Luís, FESL). Foi professora substituta no curso de Direito, na Fundação Universidade Federal de Rondônia, UNIR, campus Cacoal. Professora celetista no Centro Universitário Mauricio de Nassau, UNINASSAU, campus Cacoal-RO. E-mail: [email protected]
3 Lattes iD: http://lattes.cnpq.br/4892096472759905 ORCID iD: https://orcid.org/0000-0002-8255-751X Bacharela em Direito (Universidade Estácio de Sá, FAP, RO). Faz parte do grupo de pesquisa Língua(gem), Cultura e Sociedade: Saberes e Práticas Discursivas na Amazônia (PDA-CNPq-IFRO), atua na linha Direitos Humanos, Culturas, Saberes e Linguagens. E-mail: [email protected]
4 Lattes iD: http://lattes.cnpq.br/9648583745536616 ORCID iD: https://orcid.org/0000-0002-8255-751X Professor Titular no Instituto Federal de Educação, Ciência e Tecnologia de Rondônia, campus Cacoal-RO. Acadêmico do Curso de Direito (Centro Universitário Mauricio de Nassau, UNINASSAU), campus Cacoal-RO. É licenciado em Letras Português/Inglês/Literaturas (Universidade do Estado da Bahia, UNEB/FFCLC). Mestre em Linguística (Fundação Universidade Federal de Rondônia, UNIR, campus Guajará-Mirim). Mestre em Science in Legal Studies, Emphasis in International Law (MUST University, USA). Doutor em Educação em Ciências da Educação (UTIC). Doutor em Estudos da Linguagem (Universidade Católica de Pernambuco, UNICAP). Fez estágio pós-doutoral em Ciências da Educação (UFLO). Fez estágio pós-doutoral em Cartografia Social (Universidade Estadual do Maranhão, UEMA). Professor permanente no PPGL-UNIR; ProfEPT-IFRO; ProfLETRAS-IFRO. Colaborador no PPGAgro-UNIR; PPGL-UNEMAT. Atualmente lidera o grupo de pesquisa Língua(gem), Cultura e Sociedade: Saberes e Práticas Discursivas na Amazônia (DGP-CNPq-IFRO). Músico, poeta, escritor. Pesquisador Web of Science Researcher iD: PQA-4188-2026. E-mail: [email protected]