REGISTRO DOI: 10.70773/revistatopicos/773300526
RESUMO
O presente artigo analisa os impactos, riscos e diretrizes para o uso da Inteligência Artificial (IA) Generativa pelo corpo jurídico da Instituição Financeira. A partir da integração de novas doutrinas sobre responsabilidade civil, o impacto no Poder Judiciário e as normas da OAB, o trabalho explora a transição da advocacia tradicional para a digital. Conclui-se que a "diligência tecnológica" é um novo dever anexo à ética profissional, e que a supervisão humana permanece como o único anteparo contra erros sistêmicos e sanções processuais.
Palavras-chave: Advocacia corporativa. Inteligência Artificial Generativa. Diligência Tecnológica.
ABSTRACT
This article analyzes the impacts, risks, and guidelines for the use of Generative Artificial Intelligence (AI) by the legal department of the Bank. Based on the integration of new doctrines on civil liability, the impact on the Judiciary, and the rules of the Brazilian Bar Association (OAB), the work explores the transition from traditional to digital legal practice. It concludes that "technological diligence" is a new duty attached to professional ethics, and that human supervision remains the only safeguard against systemic errors and procedural sanctions.
Keywords: Corporate law. Generative Artificial Intelligence. Technological Diligence.
1. INTRODUÇÃO
A advocacia contemporânea atravessa o que a doutrina jurídica qualifica como o ponto de inflexão mais significativo desde a digitalização dos processos judiciais: a ascensão da Inteligência Artificial (IA) Generativa. Se a automação anterior focava na organização e na busca de dados, os Modelos de Linguagem de Grande Escala (LLMs) inauguram uma era em que a máquina é capaz de inferir, sintetizar e gerar conteúdo jurídico complexo com fluidez semântica (BARROSO; MELLO, 2024). No Brasil, esse fenômeno é célere e irreversível. Segundo levantamento da OAB-SP, aproximadamente 55% dos advogados brasileiros já incorporaram ferramentas de IA generativa em suas rotinas de trabalho, enquanto projeções globais indicam que 87% dos profissionais jurídicos preveem uma transformação estrutural em suas funções nos próximos cinco anos (THOMSON REUTERS, 2025).
Contudo, a adoção dessa tecnologia não ocorre em um vácuo ético ou regulatório. Para os advogados do corpo técnico da Instituição Financeira, a implementação da IA generativa exige um rigor adicional. Operando na intersecção entre o interesse público de uma sociedade de economia mista e as exigências concorrenciais e de sigilo do sistema financeiro, o profissional jurídico do Banco não é apenas um usuário de tecnologia, mas um guardião de informações sensíveis e estratégicas. Como observa Soares (2025), o avanço tecnológico na advocacia demanda uma "reflexão sistêmica" que equilibre a eficiência operacional com a proteção de direitos fundamentais e o sigilo profissional inalienável.
A natureza técnica da IA generativa impõe o primeiro grande desafio: a compreensão de que esses sistemas não possuem entendimento ontológico do Direito. Eles operam por meio de inferência probabilística, calculando a sequência de palavras mais verossímil para um determinado contexto (BARROSO; MELLO, 2024). Essa característica intrínseca dá origem ao fenômeno das "alucinações" ou "conteúdo deturpado", onde a ferramenta gera informações falsas — como precedentes inexistentes ou leis revogadas — com uma aparência técnica impecável (FALEIROS JÚNIOR, 2025). Na advocacia bancária, onde a precisão de julgados e a exatidão de cálculos são vitais para o êxito das teses institucionais, a confiança cega em resultados algorítmicos representa um risco operacional e reputacional de elevada magnitude.
Diante desse cenário, as instituições e órgãos de classe têm se mobilizado para estabelecer balizas seguras. A Recomendação 001/2024 do Conselho Federal da OAB (CFOAB) consolidou o entendimento de que a IA deve ser tratada como ferramenta de apoio, sendo vedada a substituição do raciocínio jurídico humano em atividades privativas (OAB, 2024). Paralelamente, o Projeto de Lei 2338/2023, que visa instituir o Marco Legal da IA no Brasil, adota uma abordagem baseada em riscos, impondo deveres de transparência e auditabilidade aos operadores de sistemas de alto risco (BRASIL, 2023).
A responsabilidade do advogado pelo uso da IA transborda a esfera ética e ingressa nos campos trabalhista, civil e penal. A "diligência tecnológica" passa a ser um novo dever anexo ao contrato de trabalho e ao mandato profissional. Como sublinha Carini (2024), a opacidade algorítmica ou a "caixa-preta" das IAs não pode servir de escusa para erros técnicos; o advogado permanece como o curador final do conteúdo que submete ao Judiciário. Casos reais, como o protocolamento de peças contendo jurisprudência falsa gerada por IA, já resultaram em condenações por litigância de má-fé e multas por atuação temerária, conforme os ditames do Art. 80 do Código de Processo Civil.
Portanto, o presente artigo propõe-se a analisar de forma aprofundada o uso responsável da IA generativa pelo corpo jurídico da Instituição Financeira. O objetivo é fornecer um roteiro técnico e ético que permita ao profissional extrair o máximo potencial da tecnologia — automatizando tarefas repetitivas e qualificando a análise de dados (QUEIROZ; BUENO; LISBINO, 2024) — sem comprometer a segurança da informação ou os deveres de fidelidade institucional. A análise estruturar-se-á em seis pilares: o funcionamento técnico da IA, a ética do usuário advogado-funcionário, e as esferas de responsabilidade trabalhista, civil e penal, culminando em diretrizes práticas para a "advocacia aumentada" e segura no ambiente bancário.
2. COMPREENDENDO A IA GENERATIVA: ENTRE O MOTOR PROBABILÍSTICO E O RACIOCÍNIO JURÍDICO
A introdução de sistemas de Inteligência Artificial (IA) Generativa no cotidiano da advocacia corporativa da Instituição Financeira não representa apenas a adoção de um novo software de produtividade, mas uma mudança de paradigma na manipulação da linguagem jurídica. Para que o advogado possa exercer a "diligência tecnológica" exigida pela contemporaneidade, é imperativo que compreenda a mecânica subjacente a essas ferramentas, superando a visão da tecnologia como uma "caixa-preta" infalível.
A IA Generativa, em sua vertente textual, é sustentada pelos chamados Large Language Models (LLMs) ou Modelos de Linguagem de Grande Escala. Diferente dos sistemas de IA discriminativa — que classificam dados existentes (como filtros de spam ou leitores de jurisprudência por palavras-chave) — a IA generativa é projetada para criar conteúdos a partir de padrões identificados em vastíssimos conjuntos de dados (QUEIROZ; BUENO; LISBINO, 2024).
Tecnicamente, esses modelos baseiam-se em arquiteturas de redes neurais profundas, especificamente os Transformers. O diferencial dessa arquitetura é o mecanismo de "atenção", que permite ao sistema processar relações de contexto em longas sequências de texto, identificando como diferentes partes de uma petição ou contrato se relacionam entre si. No entanto, é fundamental destacar que essa "atenção" é um processo matemático de ponderação de vetores, e não um ato de compreensão consciente.
Um dos equívocos mais comuns entre usuários jurídicos é confundir a fluência verbal da IA com a capacidade de raciocínio lógico-jurídico. Como bem advertem Barroso e Mello (2024), a IA opera sob uma lógica estritamente probabilística. Ao receber um comando (prompt), o modelo não consulta um repositório de "verdades" jurídicas; ele calcula, com base em parâmetros estatísticos, qual é a palavra (ou token) que tem a maior probabilidade de aparecer em seguida, dado o contexto anterior.
Dessa forma, quando um advogado da Instituição Financeira solicita a síntese de uma tese sobre juros remuneratórios, a máquina não está "pensando" na validade da tese perante o Superior Tribunal de Justiça (STJ). Ela está construindo uma sequência textual que se assemelha, estatisticamente, às milhares de teses sobre juros com as quais foi treinada. Portanto, a IA generativa é um motor de verossimilhança, não necessariamente de veracidade (FALEIROS JÚNIOR, 2025).
A consequência direta da natureza probabilística dos LLMs é a ocorrência de "alucinações". Na literatura técnica, o termo refere-se à geração de informações que parecem fatos, mas são fictícias. Na advocacia, isso se manifesta como o "conteúdo deturpado": a criação de acórdãos inexistentes, a citação de leis que nunca foram sancionadas ou a atribuição de votos a magistrados que jamais os proferiram (FALEIROS JÚNIOR, 2025).
Esse risco é potencializado pela capacidade da IA de mimetizar o jargão jurídico (“jurisdiquês”). O texto gerado possui uma autoridade formal tão convincente que pode induzir o profissional menos cauteloso ao erro. No contexto de uma instituição financeira de economia mista, o protocolo de uma peça com conteúdo alucinado não é apenas um deslize ético; é uma falha de serviço que compromete a fé pública e a estratégia processual da instituição bancária.
Outro aspecto crítico é a opacidade algorítmica. Os modelos de IA generativa operam com bilhões de parâmetros, tornando quase impossível para um ser humano rastrear exatamente por que o sistema escolheu a "palavra A" em detrimento da "palavra B" em uma análise de risco contratual (CARINI, 2024).
Essa "caixa-preta" levanta desafios severos para o dever de transparência. Como observa Carini (2024), o Poder Judiciário brasileiro tem buscado sistemas auditáveis e acessíveis, mas as ferramentas de mercado (públicas) muitas vezes carecem dessa explicabilidade. Para o advogado da Instituição Financeira, utilizar um sistema cujo processo de "raciocínio" é oculto dificulta a defesa de teses em caso de contestação judicial sobre decisões automatizadas, algo previsto como direito do cidadão no PL 2338/2023.
Diante dos riscos de vazamento de dados e falta de controle sobre o treinamento dos modelos, a Instituição Financeira deve preconizar o uso de ambientes controlados e ferramentas homologadas. Para alcançar este objetivo, precisa diferenciar o uso de IAs generalistas (públicas) daquelas integradas ao ecossistema da instituição:
Linhagem de Dados: priorizar ferramentas que permitam rastrear a origem da informação, garantindo que o treinamento utilize bases confiáveis e atualizadas conforme a legislação bancária vigente.
Segurança e não-retenção: Ao contrário de ferramentas gratuitas que utilizam os inputs do usuário para treinar o modelo global, as soluções corporativas devem garantir que os dados de processos e clientes do Banco permaneçam confinados e protegidos pelo sigilo bancário.
Toxicidade e Vieses: Modelos generativos podem herdar preconceitos presentes nos dados de treinamento. Aqui, a diretriz é a mitigação ativa de vieses para evitar que a IA gere minutas discriminatórias ou que prejudiquem grupos vulneráveis de clientes.
Concluindo esta análise técnica, é essencial consolidar o conceito de supervisão humana. A IA Generativa deve ser interpretada como um sistema de "copiloto". Conforme as diretrizes institucionais, a intervenção humana não é uma etapa opcional, mas uma barreira de segurança obrigatória. O advogado não deve apenas "revisar" o texto da IA; ele deve validá-lo tecnicamente, assumindo a curadoria final sobre a acurácia jurídica e a adequação aos valores do Banco.
Em suma, compreender a IA generativa como um produtor de linguagem probabilística — e não como um consultor jurídico dotado de consciência — é o primeiro passo para que o corpo técnico da Instituição Financeira utilize essa tecnologia de forma inovadora, segura e, acima de tudo, ética.
3. ÉTICA DO USUÁRIO: A DUALIDADE ENTRE O ADVOGADO E O FUNCIONÁRIO DA INSTITUIÇÃO FINANCEIRA
A utilização da Inteligência Artificial (IA) generativa por um advogado integrante do quadro funcional da Instituição Financeira não se encerra em uma escolha de produtividade individual; trata-se de um ato sujeito a uma complexa teia de normativas éticas. Este profissional encontra-se no centro de uma convergência entre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (Lei nº 8.906/94), o Código de Ética e Disciplina da OAB, e o rigoroso compliance de uma sociedade de economia mista que lida com o patrimônio público e dados sensíveis de milhões de correntistas.
A premissa fundamental da ética jurídica brasileira, reforçada pela Recomendação nº 001/2024 do Conselho Federal da OAB, é que a tecnologia deve atuar como meio, nunca como fim. O artigo 2º do Estatuto da Advocacia proclama o advogado como indispensável à administração da justiça, uma indispensabilidade que reside na capacidade de julgamento, empatia e análise estratégica — atributos intrínsecos à pessoa natural e ainda inalcançáveis pelos sistemas de IA (OAB, 2024).
A ética do usuário advogado corporativo exige a consciência de que a redação de petições, a emissão de pareceres e o aconselhamento jurídico são atividades privativas. A IA generativa, por mais sofisticada que seja, deve ser encarada como uma ferramenta de auxílio intelectual "meramente auxiliar". Delegar a "última palavra" de uma tese jurídica à máquina não é apenas um risco técnico, mas uma infração ética que fere a dignidade da profissão e a confiança depositada pelo Banco no profissional.
Para o advogado da Instituição Financeira, o dever de sigilo é bifronte. De um lado, o sigilo profissional (Art. 7º, XIX, do EAOAB); de outro, o sigilo bancário (Lei Complementar nº 105/2001). O uso de IA generativa pública apresenta-se como um dos maiores desafios éticos contemporâneos a esses deveres.
A inserção de fatos narrados em processos sigilosos ou de estratégias de negociação coletiva do Banco em sistemas de IA de "código aberto" ou sem garantias de privacidade equivale ao vazamento deliberado de informações (SOARES, 2025). É terminantemente proibido o uso de dados que permitam a identificação de clientes ou a exposição de segredos industriais do Banco em ferramentas que utilizem os inputs para o treinamento de modelos globais. A ética do usuário, neste caso, impõe a "anonimização agressiva" ou, preferencialmente, o uso exclusivo de ferramentas homologadas pela Instituição.
As diretrizes éticas da Instituição Financeira estabelecem o princípio da autonomia e responsabilidade, fundamentado no modelo Human-in-the-loop (humano no circuito). Sob a ótica ética, isso significa que o advogado corporativo atua como um "curador tecnológico". Ele é o responsável por filtrar o conteúdo gerado, eliminando possíveis alucinações ou vieses algorítmicos.
A ética profissional impede o que a doutrina chama de "cegueira tecnológica" ou "viés de automação" — a tendência de aceitar a resposta da IA por sua rapidez ou aparência de autoridade (CARINI, 2024). O advogado corporativo tem o dever ético de conferir cada jurisprudência e cada argumento legal. Como recorda Faleiros Júnior (2025), a responsabilidade pelo conteúdo deturpado não se dilui na máquina; ela se concentra no profissional que, ao assinar a peça, atesta a veracidade e a correção jurídica daquele trabalho perante o Poder Judiciário.
A transparência deve ser um dos mandamentos para IA Ética e Responsável da Instituição Financeira. No relacionamento entre o advogado e as diversas instâncias do Banco (seu cliente interno), a ética exige clareza sobre o nível de influência da IA nas decisões tomadas.
Se uma tese de alto impacto financeiro para a instituição foi estruturada com auxílio de IA, essa informação deve constar nos registros internos de conformidade. A Recomendação 001/2024 da OAB inclusive ventila a necessidade de "consentimento informado" em certos contextos (OAB, 2024). No Banco, isso se traduz na obediência aos fluxos de governança que determinam quando e como a IA pode ser aplicada em processos sensíveis, garantindo que o Banco, enquanto instituição, tenha plena consciência dos riscos tecnológicos assumidos em sua defesa jurídica.
Por fim, a ética do usuário na Instituição Financeira possui uma dimensão social. Sendo o Banco um agente de políticas públicas, o advogado deve estar atento para que a IA não reproduza ou potencialize vieses discriminatórios presentes em bases de dados históricas.
Utilizar uma IA para analisar o perfil de acordos e perceber que o algoritmo sugere termos menos favoráveis a determinados grupos vulneráveis exige uma intervenção ética imediata do profissional. O advogado corporativo deve ser o guardião dos valores centrados no ser humano e do bem-estar social, garantindo que a tecnologia sirva para democratizar o acesso ao direito, e não para criar barreiras automatizadas ou decisões injustas baseadas em padrões algorítmicos opacos (CARINI, 2024).
A ética do advogado-funcionário da Instituição Financeira na era da IA generativa exige mais do que o conhecimento das leis; exige uma postura proativa de vigilância. A inovação deve ser acolhida, mas o escudo da ética profissional — composto pelo sigilo, pela transparência e pela indispensabilidade do fator humano — deve permanecer inquebrável.
4. GESTÃO E RESPONSABILIDADES TRABALHISTAS: O ADVOGADO-EMPREGADO E O DEVER DE CUIDADO NA ERA DIGITAL
A relação de emprego no âmbito de uma Instituição Financeira impõe ao advogado um regime jurídico híbrido. Se, por um lado, goza de autonomia técnica para o exercício da profissão (Art. 18 do EAOAB), por outro, está sujeito à subordinação jurídica e ao poder diretivo da instituição bancária. No contexto da Inteligência Artificial (IA) generativa, essa dualidade cria contornos para o conceito de responsabilidade trabalhista, exigindo que o profissional equilibre a busca por produtividade com o estrito cumprimento das diretrizes de segurança e conformidade do Banco.
O empregador detém o poder de organizar, controlar e disciplinar o trabalho. No caso da Instituição Financeira, esse poder manifesta-se de forma clara. Para o advogado do corpo técnico, o cumprimento destas diretrizes não é apenas uma recomendação ética, mas um dever contratual.
A utilização de ferramentas de IA generativa não homologadas para o tratamento de informações do Banco pode ser interpretada como um ato de ou indisciplina. A segurança da informação é um pilar da atividade bancária; portanto, "atalhos" tecnológicos que expõem dados sensíveis da instituição a modelos de terceiros sem a devida blindagem corporativa violam a confiança necessária para a manutenção do vínculo empregatício.
A desídia, prevista no Art. 482, alínea 'e', da CLT, caracteriza-se pela falta de zelo, desatenção ou desleixo no desempenho das funções. Na advocacia assistida por IA, a desídia assume uma nova face: a aceitação acrítica de resultados automatizados, fenômeno conhecido como "viés de automação" (CARINI, 2024).
O advogado que, para cumprir metas de produtividade, deixa de revisar minuciosamente uma petição gerada por IA — vindo a protocolar peça com jurisprudência falsa ou fatos deturpados — incorre em falta de zelo profissional. Como sublinha Faleiros Júnior (2025), a IA não possui responsabilidade jurídica; esta permanece concentrada no profissional que valida o ato. No ambiente bancário, onde o rigor técnico é um ativo institucional, o erro grosseiro derivado da "preguiça tecnológica" compromete a eficiência do Departamento Jurídico e pode fundamentar sanções disciplinares administrativas, que variam da advertência à rescisão contratual, a depender da gravidade do dano causado à instituição.
A responsabilidade trabalhista do advogado corporativo também envolve o dever de atualização constante. Faleiros Júnior (2025) resgata o primeiro mandamento da advocacia de Eduardo Couture: "Estuda – O direito está em constante transformação. Se não o acompanhas, serás cada dia menos advogado".
A IA generativa pode induzir ao que se chama de "atrofia do raciocínio jurídico" se utilizada como substituta do estudo. A Instituição Financeira remunera seu corpo técnico pela expertise e pelo julgamento humano diferenciado. Se o profissional passa a delegar a lógica jurídica à máquina, ocorre um esvaziamento da função para a qual foi contratado. Portanto, sob a ótica da gestão de pessoas e da responsabilidade funcional, o uso da IA deve servir para liberar o advogado de tarefas mecânicas (como a formatação ou organização de dados), permitindo que ele se dedique com mais profundidade ao estudo das teses complexas e estratégicas do Banco (QUEIROZ; BUENO; LISBINO, 2024).
Um aspecto da responsabilidade trabalhista frequentemente negligenciado é a saúde do trabalhador. A pressão por uma produtividade "em escala industrial", alimentada pela velocidade da IA, pode gerar o chamado estresse tecnológico ou burnout digital.
A instituição bancária, no exercício de sua responsabilidade socioambiental, deve garantir que a introdução da IA não resulte em uma sobrecarga cognitiva ou na desumanização do trabalho jurídico. Por outro lado, o advogado tem o dever de comunicar falhas sistêmicas que possam induzir a erros. A colaboração entre o corpo jurídico e os desenvolvedores de sistemas internos corporativos é essencial para criar um ambiente de trabalho que seja simultaneamente produtivo e saudável, respeitando os "Valores Centrados no Ser Humano".
Outro ponto de relevância trabalhista é a autoria. O trabalho produzido pelo advogado-empregado no exercício de suas funções pertence, em regra, à instituição. Contudo, a utilização de IA generativa levanta questões sobre a autenticidade e a originalidade da peça jurídica.
A ética e a boa-fé contratual exigem que o advogado seja transparente sobre o uso da IA em seus fluxos de trabalho. Ocultar o uso de tecnologia em peças que exigiam análise artesanal pode ser visto como uma quebra de transparência perante o empregador. A "Maturidade Digital", conforme Soares (2025), exige que o profissional saiba declarar o uso da ferramenta como suporte, reafirmando que a curadoria final e o valor intelectual agregado permanecem sendo de sua autoria humana, justificando assim a essencialidade do seu cargo no quadro do Banco.
Em síntese, a responsabilidade trabalhista do advogado da Instituição Financeira frente à IA generativa é pautada por um "Dever de Vigilância Ativa". O profissional deve ser um entusiasta da inovação, desde que essa inovação seja mediada pela diligência, pela segurança de dados e pela inafastável revisão humana, garantindo que a tecnologia sirva ao Banco sem comprometer a integridade da advocacia bancária.
5. RESPONSABILIDADE CIVIL: DA "ALUCINAÇÃO" ALGORÍTMICA AO DANO INSTITUCIONAL
A introdução da Inteligência Artificial (IA) generativa no fluxo de trabalho jurídico não altera os fundamentos da responsabilidade civil, mas expande significativamente o espectro de riscos e as formas de manifestação do dano. No contexto de uma instituição financeira de economia mista, o nexo de causalidade entre um erro gerado por IA e um prejuízo financeiro ou reputacional torna-se mais complexo, exigindo que o advogado do Banco compreenda que a "inovação" não serve como excludente de ilicitude ou de responsabilidade (FALEIROS JÚNIOR, 2025).
O Projeto de Lei nº 2338/2023, que visa estabelecer o Marco Legal da Inteligência Artificial no Brasil, adota uma estrutura de responsabilidade pautada pela classificação de risco. Sistemas de IA que impactam direitos fundamentais ou a administração da justiça são, em regra, classificados como de alto risco (BRASIL, 2023).
Para o corpo técnico corporativo, isso implica um dever qualificado de diligência. De acordo com o projeto, o fornecedor e o operador de sistemas de alto risco respondem objetivamente pelos danos causados, na medida de sua participação no dano (CAVALCANTE, 2025). Embora o advogado individualmente possua uma obrigação de meio, a instituição (como operadora da IA) pode ser compelida a reparar danos de forma objetiva, o que intensifica a necessidade de controle humano interno sobre cada output algorítmico.
A responsabilidade civil processual é, talvez, o risco mais imediato. O Código de Processo Civil (CPC), em seu art. 80, prevê sanções para quem alterar a verdade dos fatos ou agir de modo temerário em qualquer incidente ou ato do processo. A utilização de IA generativa para a confecção de peças sem a devida revisão tem levado a episódios de "conteúdo deturpado", onde precedentes são inventados pela máquina para satisfazer a coerência textual do pedido.
O exemplo paradigmático no cenário brasileiro envolveu a citação de julgados inexistentes atribuídos ao Ministro Athos Gusmão Carneiro, falecido anos antes da "decisão" citada. Conforme analisa Faleiros Júnior (2025), o Poder Judiciário tem sido rigoroso: a falha da ferramenta não exime o profissional, pois a assinatura da peça atesta a veracidade e a fidedignidade do conteúdo. Para a Instituição Financeira, o protocolo de uma peça "contaminada" por alucinações algorítmicas pode resultar não apenas em multas por litigância de má-fé, mas na imediata rejeição do recurso por deficiência de fundamentação, gerando prejuízos vultosos à estratégia de defesa da instituição.
Na responsabilidade civil profissional do advogado, a culpa manifesta-se pela negligência, imprudência ou imperícia. No uso da IA, a negligência ocorre na omissão do dever de conferência (culpa in vigilando sobre a ferramenta). A imperícia, por sua vez, manifesta-se no desconhecimento das limitações técnicas da IA, como o fenômeno das alucinações e os vieses (BARROSO; MELLO, 2024).
O nexo causal é estabelecido quando a aceitação acrítica de uma sugestão da IA leva a um erro material — por exemplo, a perda de um prazo por contagem equivocada da ferramenta ou a formulação de um acordo baseado em cálculos probabilísticos errôneos. Como a Instituição Financeira é uma entidade que lida com processos em escala, o dano derivado de uma falha sistêmica não revisada pode ser multiplicado exponencialmente, configurando o que a doutrina começa a chamar de "dano algorítmico de massa".
Um ponto sensível para o advogado do quadro interno é a possibilidade de ação de regresso. Conforme os preceitos do Direito Civil, se o Banco for condenado a indenizar terceiros ou sofrer sanções judiciais por atos culposos de seus prepostos (advogados), a instituição pode buscar o ressarcimento junto ao profissional se ficar provado que este agiu com negligência ao não observar as diretrizes de segurança e revisão humana.
O cumprimento estrito do Princípio Human-in-the-Loop (humano no controle) é a maior defesa do advogado. Ao demonstrar que seguiu os protocolos de anonimização, verificou as fontes jurisprudenciais e aplicou seu julgamento técnico sobre a minuta da IA, o profissional afasta a caracterização da culpa necessária para a responsabilização pessoal. A IA deve ser usada para potencializar a análise, mas nunca para substituir a responsabilidade que a assinatura funcional carrega.
O PL 2338/2023 e as diretrizes da OAB convergem no sentido de que a transparência é um dever ético e civil. Omitir que uma decisão ou análise jurídica foi influenciada por IA pode ferir o direito do cliente (ou da contraparte) à explicação. Na Instituição Financeira, a transparência deve ser exercida perante o cliente interno e, conforme o caso, perante o juízo (OAB, 2024).
A falta de transparência pode gerar nulidades processuais ou administrativas, pois impede que as partes questionem eventuais vieses discriminatórios contidos no treinamento do modelo (CARINI, 2024). Assim, a responsabilidade civil do advogado corporativo também engloba o dever de garantir que a IA não seja utilizada de forma discriminatória contra consumidores ou grupos vulneráveis, respeitando os "Valores Centrados no Ser Humano" previstos no código de conduta do Banco.
Em suma, a responsabilidade civil na era da IA não é um obstáculo ao progresso, mas um contrapeso necessário. O advogado do Banco deve atuar como um curador de riscos. A eficiência gerada pela IA generativa é bem-vinda, desde que guardada pelo escudo da verificação humana. A responsabilidade não se delega; a IA pode escrever a tese, mas o advogado é quem responde pela justiça e pela verdade nela contidas.
6. RESPONSABILIDADE PENAL: O DIREITO PENAL COMO ULTIMA RATIO NA ERA DOS ALGORITMOS
Embora o Direito Penal atue como a ultima ratio do ordenamento jurídico, incidindo apenas quando as demais esferas de responsabilização se mostram insuficientes, o uso da Inteligência Artificial (IA) generativa na advocacia bancária e pública não está imune ao seu alcance. No contexto da Instituição Financeira, a responsabilidade penal do advogado ganha contornos específicos devido à natureza dos dados processados — muitas vezes envolvendo sigilo bancário e o patrimônio de uma sociedade de economia mista. A fronteira entre o erro tecnológico (escusável) e o ilícito penal (punível) é delimitada pelo dolo e pelo dever de cuidado sobre a integridade da informação (CAVALCANTE, 2025).
A principal interface entre a IA generativa e o Direito Penal reside nos crimes contra a fé pública. O crime de falsidade ideológica (Art. 299 do Código Penal) configura-se pela omissão ou inserção de declaração falsa ou diversa da que devia ser escrita, com o fim de prejudicar direito, criar obrigação ou alterar a verdade sobre fato juridicamente relevante.
Quando um advogado utiliza IA para gerar uma petição e, de forma deliberada ou por negligência temerária, insere fatos que sabe serem inexistentes — ou permite que o sistema crie provas documentais "simuladas" para corroborar uma tese do Banco — ingressa-se no campo da tipicidade penal. A assinatura do advogado no documento eletrônico atesta a veracidade do conteúdo perante o Estado. Como observa Faleiros Júnior (2025), o profissional que protocola um "conteúdo deturpado", ciente de sua falsidade ou agindo com cegueira deliberada perante a evidência de erro do sistema, pode ser sujeito à persecução criminal por comprometer a fé pública dos atos processuais.
Para o corpo jurídico do Banco, o dever de sigilo é uma imposição legal severa. O Art. 154 do Código Penal criminaliza a revelação de segredo, sem justa causa, de que o agente tem ciência em razão de profissão e cuja revelação possa produzir dano a outrem. Complementarmente, a Lei Complementar nº 105/2001 estabelece penas de reclusão para a quebra indevida de sigilo bancário.
A responsabilidade penal surge quando o advogado, ignorando os protocolos de segurança institucional, insere dados sensíveis de correntistas ou estratégias financeiras sigilosas em ferramentas de IA generativa de acesso público. Ao fazer isso, o profissional "revela" o segredo a sistemas de terceiros que podem utilizar tais dados para treinamento de modelos globais, expondo a instituição e seus clientes. Se ficar comprovado que o profissional agiu com dolo de facilitar o acesso a terceiros ou com desrespeito consciente às normas de cibersegurança do Banco, a conduta pode ser tipificada criminalmente (SOARES, 2025).
O Art. 347 do Código Penal tipifica a fraude processual como o ato de inovar artificiosamente, na pendência de processo civil ou administrativo, o estado de lugar, de coisa ou de pessoa, com o fim de induzir a erro o juiz ou o perito. A IA generativa facilita a criação de "evidências sintéticas" (textos, e-mails ou registros simulados) que podem ser apresentadas em juízo.
O advogado corporativo que, valendo-se da capacidade criativa da máquina, produz ou utiliza elementos que alteram a realidade fática do processo para beneficiar a instituição bancária incorre em crime grave contra a administração da justiça. A doutrina contemporânea ressalta que a "alucinação" da IA não pode ser usada como escudo para a fraude; se o profissional utiliza o resultado da máquina para induzir o magistrado a erro, o domínio do fato permanece com o humano que decidiu apresentar aquela informação (CARINI, 2024; CAVALCANTE, 2025).
O uso de técnicas de jailbreaking ou manipulação de prompts (engenharia de prompt) para contornar restrições de segurança de sistemas do Banco ou de terceiros pode atrair a incidência da Lei de Crimes Cibernéticos (Lei 12.737/12). O acesso indevido a dados por meio da exploração de vulnerabilidades de IAs corporativas, visando a obtenção de informações sigilosas ou o controle de fluxos processuais, configura tipo penal específico – Art. 154-A, do Código Penal2 .
Na Instituição Financeira, o advogado tem acesso a bases de dados críticas. O uso da IA para exfiltração de dados ou para o processamento ilícito de informações em desacordo com a finalidade institucional pode resultar em responsabilidade penal por invasão de dispositivo informático ou interrupção de serviço telemático, conforme as atualizações trazidas pela Lei nº 14.155/2021 ao Código Penal brasileiro.
Um ponto de debate na responsabilidade penal algorítmica é o elemento subjetivo. Dificilmente o advogado corporativo agirá com dolo direto de cometer um crime ao usar uma IA. Contudo, a teoria da "cegueira deliberada" (willful blindness) ganha relevo: ocorre quando o agente se coloca voluntariamente em estado de ignorância para não confirmar a ilicitude de um fato (MAGALHÃES, 2025).
O profissional que utiliza IA para tarefas complexas, ignora sistematicamente os alertas de erro (alucinações) e deixa de conferir fontes básicas (como a existência de um acórdão citado), assumindo o risco de inserir informações falsas em documentos oficiais, pode responder por dolo eventual em crimes de falsidade. A responsabilidade penal exige que o advogado do Banco atue com vigilância ativa; a omissão consciente desse dever, diante da alta probabilidade de erro da ferramenta, aproxima a negligência do campo da criminalidade (FALEIROS JÚNIOR, 2025; CAVALCANTE, 2025).
Em última análise, a responsabilidade penal do advogado da Instituição Financeira no uso da IA generativa gravita em torno da ética da verdade e do dever de custódia do sigilo. A inovação tecnológica não cria um espaço de anomia; ao contrário, exige do profissional uma consciência jurídica aguçada.
Para mitigar riscos criminais, o corpo técnico deve:
Rejeitar o Dolo de Simulação: Jamais utilizar IA para criar ou distorcer fatos processuais.
Respeitar a Governança de Dados: Utilizar apenas os canais e ferramentas homologados que garantam a proteção do sigilo bancário.
Romper a Cegueira Deliberada: Tratar toda saída de IA como presuntivamente incerta até que a validação humana confirme sua veracidade documental.
O Direito Penal protege a confiança nas instituições e na justiça. O advogado corporativo, ao zelar pela fidedignidade do que a IA produz, protege não apenas a si mesmo, mas a própria integridade do sistema jurídico brasileiro (CARINI, 2024; SOARES, 2025).
7. CONCLUSÕES
A jornada pela integração da Inteligência Artificial (IA) generativa na advocacia corporativa revela que não estamos diante de uma mera evolução de ferramentas, mas de uma reconfiguração do próprio exercício do Direito. Como explorado nos capítulos anteriores, a tecnologia oferece uma alavanca de produtividade sem precedentes, capaz de processar volumes de dados que superam a capacidade humana. Contudo, essa potência é acompanhada por riscos éticos, civis e penais que exigem do profissional uma nova competência: a maturidade digital.
A principal conclusão deste estudo é que a responsabilidade jurídica e ética é indelegável. Seja sob a ótica da Recomendação nº 001/2024 do CFOAB ou das diretrizes internas do Banco, a supervisão humana (Human-in-the-loop) não é um preciosismo burocrático, mas a garantia da validade do ato jurídico. A IA generativa é um "copiloto" que sugere rotas baseadas em probabilidades estatísticas; cabe ao advogado, como "piloto" da tese, validar se essa rota conduz à justiça e à segurança da instituição (OAB, 2024; BARROSO; MELLO, 2024).
O conceito de "advocacia aumentada" pressupõe que o profissional utiliza a máquina para automatizar o que é mecânico — como a organização de documentos e a primeira triagem jurisprudencial — a fim de dedicar seu tempo ao que é essencialmente humano: o julgamento estratégico, a empatia na mediação de conflitos e a construção de teses inovadoras que protejam os interesses do Banco. Como ressalta Soares (2025), a maturidade digital manifesta-se na capacidade de liderar essa transformação tecnológica com responsabilidade.
Para que o uso da IA generativa ocorra de forma segura no cotidiano do Departamento, o corpo técnico deve adotar um protocolo rigoroso de verificação. A "diligência tecnológica" manifesta-se na observância dos seguintes pontos:
Soberania dos Ambientes Homologados: O advogado deve priorizar as ferramentas desenvolvidas ou licenciadas pela Instituição Financeira que possuam camadas de segurança e não retenção de dados para treinamento externo. O uso de IAs públicas deve ser evitado para qualquer tarefa que envolva dados sensíveis;
Anonimização como Norma: Antes de submeter qualquer conteúdo a um modelo de IA, é imperativo remover nomes de clientes, números de contas, CPFs e valores específicos que possam caracterizar quebra de sigilo bancário ou profissional;
Verificação Tripla (Fatos, Leis e Julgados): Jamais protocolar uma peça sem conferir manualmente se os acórdãos citados pela IA de fato existem e se ainda estão vigentes. A "alucinação" da máquina não serve de escusa para a litigância de má-fé (FALEIROS JÚNIOR, 2025).
Transparência Institucional: O uso da tecnologia deve ser comunicado às instâncias de gestão do Banco, garantindo que o cliente interno esteja ciente do nível de assistência algorítmica aplicada nos processos estratégicos (OAB, 2024).
A análise das responsabilidades trabalhistas, civis e penais demonstra que o sistema jurídico está se adaptando rapidamente para punir a negligência tecnológica. O PL 2338/2023 sinaliza que o rigor sobre os operadores de sistemas de IA será crescente, especialmente em atividades de alto risco como a administração da justiça (BRASIL, 2023).
Para o advogado corporativo, o desafio é ser um entusiasta crítico. A inovação é necessária para manter a competitividade e a eficiência da instituição, mas o escudo do profissional deve ser sempre o Código de Ética e o dever de fidelidade ao Banco. A IA pode escrever o rascunho, mas é o advogado quem garante a integridade da verdade e a proteção do patrimônio institucional.
O sucesso da advocacia corporativa na era digital não será medido pelo número de petições geradas por minuto, mas pela qualidade do filtro humano que impede que a rapidez da tecnologia se transforme em erro judiciário ou dano institucional. O advogado do futuro é, acima de tudo, um guardião da ética em um mundo automatizado (CARINI, 2024).
REFERÊNCIAS BIBLIOGRÁFICAS
ALMEIDA, Rodolfo. Como alucinações de IA foram pegas no flagra em 255 casos jurídicos. In: Núcleo Jornalismo. Disponível em: https://nucleo.jor.br/interativos/2025-08-07-alucinacoes-ia-processos-juridicos/ Acesso em 19 jan. 2026.
BARROSO, Luís Roberto; MELLO, Patrícia Perrone Campos. Inteligência artificial - promessas, riscos e regulação. Algo de novo debaixo do sol. Revista de Direito e Práxis, v. 15, n. 4, p. 1-45, 2024.
BRASIL. Congresso Nacional. Projeto de Lei nº 2338/2023. Dispõe sobre o uso da Inteligência Artificial no Brasil. Brasília: Senado Federal, 2023.
CALLEGARI, Andre Luis. SCARIOT, Daniela. O que é a teoria da cegueira deliberada? Equipara-se ao dolo eventual? Disponível em: https://www.conjur.com.br/2020-ago-28/callegari-scariot-teoria-cegueira-deliberada/. Acesso em 19 jan. 2026.
CARINI, Lucas. Inteligência Artificial e o Poder Judiciário Brasileiro: Críticas, desafios e perspectivas. Seven Editora, Capítulo 4, 2024.
CAVALCANTE, Felipe Mousinho. Responsabilidade Civil e Penal de IA. Disponível em https://www.jusbrasil.com.br/artigos/responsabilidade-civil-e-penal-da-ia/5269784656. Acesso em: 18 dez. 2025.
CHARLOTIN, Damian. AI Hallucination Cases. Disponível em: https://www.damiencharlotin.com/hallucinations/. Acesso em: 11 fev. 2026.
CONSELHO FEDERAL DA OAB. Recomendação n. 001/2024-CFOAB. Brasília: OAB, 11 nov. 2024.
FALEIROS JÚNIOR, José Luiz de Moura. Responsabilidade do advogado pelo uso de conteúdo deturpado gerado por sistema de inteligência artificial. Disponível em http://www.migalhas.com.br. Acesso em 29 jan. 2026.
GORGES, Milena Holz. A teoria da cegueira deliberada e sua (in)utilidade prática no Direito Penal brasileiro. Disponível em: https://www.migalhas.com.br/coluna/informacao-privilegiada/348354/a-teoria-da-cegueira-deliberada--direito-penal-brasileiro. Acesso em 19 jan. 2016.
MAGALHÃES, Bárbara; MATOS, Fátima. Falsas Verdades. O Impacto das Alucinações de IA nos Processos Judiciais Administrativos. Revista Eletrônica de Direito Processual, Rio de Janeiro, v. 26, n. 2, 2025.
ODONNELL, James. Como a IA está introduzindo erros jurídicos nas salas de audiência. In: MIT Technology Review Brasil. Disponível em: https://mittechreview.com.br/alucinacoes-ia-tribunais/. Acesso em 19 jan. 2026.
QUEIROZ, Aíla Marques de et al. O impacto da inteligência artificial na advocacia brasileira: benefícios e desafios no setor jurídico. REASE, São Paulo, v. 10, n. 11, 2024.
SANTOS, Rodrigo Cosme Braga; SANTOS, Ciro Meneses. A aplicação da inteligência artificial na advocacia: os desafios e as oportunidades para o advogado na era digital. Revista PPC, v. 14, n. 4, 2024.
SOARES, Paulo Vinicius de Carvalho. O uso responsável da inteligência artificial generativa na advocacia. Disponível em http://www.conjur.com.br. Acesso em 19 jan. 2026.
THOMSON REUTERS. Como a IA Generativa está transformando a advocacia. São Paulo: Thomson Reuters, 2025.
1 Doutorando em Direito - Faculdade de Direito de São Paulo - FADISP. Mestre em Direito pela Escola Paulista de Direito – EPD. MBA em Administração Gestão e Marketing do Negócio Jurídico e Especialista em LGPD pela Faculdade Legale. Cientista de Dados pela Data Science Academy – DSA. Gerente Jurídico. Advogado
2 Art. 154-A. Invadir dispositivo informático alheio, conectado ou não à rede de computadores, mediante violação indevida de mecanismo de segurança e com o fim de obter, adulterar ou destruir dados ou informações sem autorização expressa ou tácita do titular do dispositivo ou instalar vulnerabilidades para obter vantagem ilícita: