OS DESAFIOS REGULATÓRIOS E A NECESSIDADE DE TUTELA JURÍDICA FRENTE À PROLIFERAÇÃO DE DEEPFAKES
PDF: Clique aqui
REGISTRO DOI: 10.5281/zenodo.15750005
Pedro David Barreto Diniz
RESUMO
A presente pesquisa tem como objetivo analisar os desafios regulatórios e a necessidade de tutela jurídica frente à crescente proliferação de deepfakes, com enfoque na proteção dos direitos da personalidade, notadamente a honra, a imagem, a privacidade e a vida privada. A investigação adota uma abordagem metodológica de natureza qualitativa, com base em revisão bibliográfica de artigos acadêmicos, livros especializados e legislações aplicáveis ao tema, especialmente no contexto do ordenamento jurídico brasileiro. A pesquisa conclui que há uma necessidade urgente de reformulação normativa, com a criação de Leis específicas que contemplem os aspectos técnicos e jurídicos da produção e disseminação de deepfakes, bem como a articulação entre os Poderes Legislativo, Judiciário e os setores tecnológicos.
Palavras-chave: Deepfakes; Tutela Jurídica; Direitos da Personalidade; Regulação Digital.
ABSTRACT
This research aims to analyze the regulatory challenges and the need for legal protection in the face of the growing proliferation of deepfakes, with a focus on the protection of personality rights, notably honor, image, privacy and private life. The investigation adopts a qualitative methodological approach, based on a bibliographic review of academic articles, specialized books and legislation applicable to the subject, especially in the context of the Brazilian legal system. The research concludes that there is an urgent need for regulatory reformulation, with the creation of specific legal frameworks that contemplate the technical and legal aspects of the production and dissemination of deepfakes, as well as the articulation between the Legislative, Judiciary and technology sectors.
Keywords: Deepfakes; Legal Protection; Personality Rights; Digital Regulation.
1 INTRODUÇÃO
A proliferação de deepfakes representa um desafio considerável à regulação jurídica contemporânea, sobretudo em função da complexidade de se estabelecer limites normativos claros diante de uma tecnologia em constante mutação. Silva e Menezes (2024) destacam que o ordenamento jurídico brasileiro ainda não dispõe de marcos legais específicos suficientemente robustos para lidar com os impactos dos deepfakes, especialmente quando estes são utilizados de forma lesiva à honra, à imagem e à privacidade de indivíduos. O contexto de produção e disseminação dessas manipulações digitais exige a construção de soluções normativas que dialoguem com os avanços técnicos, mas que também considerem a proteção de direitos fundamentais. A dificuldade, conforme salientado por Matteu (2024), reside em conciliar a liberdade de expressão nas plataformas digitais com a responsabilização por conteúdos enganosos, sendo essa ambiguidade regulatória um fator de perpetuação de práticas nocivas. A ausência de normatização específica compromete a atuação do Poder Judiciário, que precisa aplicar dispositivos jurídicos genéricos a situações novas e complexas, aumentando o risco de decisões contraditórias e inconsistentes.
A natureza transnacional da internet e a rápida circulação de deepfakes dificultam, adicionalmente, a responsabilização dos autores desse tipo de conteúdo, gerando um problema de efetividade das medidas legais existentes. Matteu (2024) sustenta que a concentração de poder nas mãos de grandes plataformas digitais impõe a necessidade de reconfiguração da lógica regulatória, uma vez que essas empresas operam como verdadeiros mediadores da comunicação pública e detêm os instrumentos tecnológicos capazes de conter a disseminação de deepfakes. Entretanto, a autorregulação das plataformas tem se mostrado insuficiente, revelando uma assimetria entre os interesses econômicos dessas corporações e a proteção dos direitos fundamentais dos usuários. Diante disso, Silva e Menezes (2024) propõem o desenvolvimento de uma governança regulatória híbrida, com participação estatal e colaboração do setor privado, de modo a estabelecer parâmetros de rastreabilidade, transparência algorítmica e sanções proporcionais ao dano causado. Sem esse esforço coordenado, os instrumentos normativos continuarão ineficazes para lidar com os riscos sociais gerados por essas tecnologias.
A necessidade de tutela jurídica eficaz frente à proliferação dos deepfakes também se relaciona com a produção de provas digitais e a segurança jurídica em disputas judiciais. Affonso (2021) destaca que, em contextos de litígio, a existência de deepfakes compromete a credibilidade de registros audiovisuais, o que pode gerar dúvidas sobre a autenticidade de provas e impactar negativamente a busca pela verdade material. Isso exige a elaboração de novos critérios técnicos e jurídicos para a avaliação da veracidade de conteúdos digitais, bem como a capacitação de operadores do direito para o reconhecimento de manipulações geradas por inteligência artificial. Silva et al., (2024) apontam que essa problemática se insere em um cenário de risco tecnológico estrutural, no qual a ausência de mecanismos preventivos de verificação e autenticação amplifica o potencial lesivo dos deepfakes. Assim, a construção de uma resposta normativa eficaz dependerá não apenas da positivação de normas, mas também da articulação de políticas públicas voltadas à educação digital, à conscientização social e à criação de ferramentas tecnológicas de identificação automatizada dessas manipulações.
A justificativa para a realização desta pesquisa fundamenta-se na crescente inserção dos deepfakes no cotidiano digital e nos riscos concretos que essa tecnologia representa à integridade dos direitos da personalidade, à veracidade da informação e à confiança nas provas digitais. A ausência de um marco regulatório específico, aliado à sofisticação dos mecanismos de geração e disseminação dessas manipulações, impõe ao direito o desafio de responder com eficácia a uma realidade tecnológica em rápida transformação. Compreender os limites e possibilidades da tutela jurídica diante dos deepfakes é essencial para fortalecer a proteção de dados pessoais, da imagem e da honra no ambiente virtual, bem como para orientar a formulação de políticas públicas e normativas capazes de enfrentar os impactos sociais e jurídicos provocados por essa prática. Ao abordar criticamente os obstáculos regulatórios e a necessidade de atualização normativa, esta pesquisa contribui para o debate jurídico contemporâneo e para a construção de estratégias de enfrentamento fundamentadas na doutrina e em experiências comparadas.
2 OS DIREITOS DA PERSONALIDADE E A PROTEÇÃO DA IMAGEM
Os direitos da personalidade, no contexto jurídico brasileiro, compõem um conjunto de prerrogativas reconhecidas pela ordem constitucional e infraconstitucional com o objetivo de assegurar a dignidade da pessoa humana, incluindo proteção à honra, à imagem, à intimidade e à vida privada. Esses direitos encontram fundamento explícito no artigo 5º da Constituição Federal de 1988, especialmente nos incisos V e X, que garantem o direito à indenização por dano material ou moral decorrente da violação desses atributos. No plano infraconstitucional, o Código Civil de 2002, particularmente em seus artigos 11 a 21, disciplina tais direitos de maneira sistematizada, enfatizando sua natureza extrapatrimonial e intransmissível. A interpretação desses dispositivos se tornou ainda mais complexa diante das transformações tecnológicas que ampliaram o campo de exposição da vida privada e da imagem dos indivíduos, exigindo releitura desses direitos à luz do ambiente digital. A questão não reside apenas na violação em si, mas nas formas pelas quais essa violação ocorre e nas possibilidades de controle, reparação e responsabilização diante da dinâmica veloz das redes.
O avanço das tecnologias digitais, especialmente os sistemas de inteligência artificial voltados à manipulação de conteúdos audiovisuais, como os deepfakes, tem ampliado a incidência de práticas que violam diretamente a imagem e a privacidade de indivíduos, exigindo uma aplicação mais rigorosa e atualizada do ordenamento jurídico. Affonso (2021) salienta que, embora o Código Civil contemple a proteção da imagem como um bem jurídico tutelado, os mecanismos de reparação ainda se mostram ineficazes para lidar com os efeitos ampliados da exposição digital, como a replicação em larga escala e a dificuldade de remoção definitiva do conteúdo. O Marco Civil da Internet (Lei nº 12.965/2014), por sua vez, introduz o princípio da proteção da privacidade e da inviolabilidade da intimidade nas comunicações online, além de estabelecer diretrizes para a responsabilização dos provedores de serviço. Contudo, Silva e Menezes (2024) apontam que esse marco legal, embora inovador à época de sua promulgação, carece de dispositivos específicos que abranjam a complexidade das violações geradas por conteúdos manipulados por IA, tornando o sistema jurídico vulnerável frente à sofisticação técnica dessas práticas.
Matteu (2024) destaca que a proteção dos direitos da personalidade nas plataformas digitais deve ser compreendida como um problema estrutural de regulação, que envolve não apenas a responsabilização dos indivíduos infratores, mas também a atuação das plataformas como agentes mediadores do discurso público. A autora aponta que o modelo atual de auto regulação adotado por essas empresas é insuficiente para garantir a efetividade da proteção da imagem e da privacidade, especialmente diante da circulação algorítmica de conteúdos potencialmente danosos. Neuber (2025), por sua vez, observa que as ameaças cibernéticas decorrentes do uso de deepfakes desafiam não apenas os marcos jurídicos, mas também os instrumentos de segurança digital e os modelos de cooperação internacional. Em razão disso, o ordenamento jurídico precisa desenvolver parâmetros que articulem o direito à imagem com a governança digital, compreendendo as plataformas como corresponsáveis pela contenção e remoção de conteúdos manipulados que afetem os direitos da personalidade.
A configuração dos danos decorrentes da violação dos direitos da personalidade na internet exige análise específica quanto à honra subjetiva e objetiva, intimidade e vida privada, pois os efeitos dessas lesões extrapolam o indivíduo atingido, afetando sua reputação pública e relações sociais. Fernandes (2024) ressalta que a manipulação da identidade visual, especialmente quando associada a contextos íntimos, compromete a autodeterminação informacional dos sujeitos e promove uma espécie de vigilância não autorizada, com impactos psicológicos e sociais significativos. Essa problemática também revela a insuficiência dos meios tradicionais de responsabilização e reparação, pois a internet favorece a reprodução infinita do conteúdo e a descentralização de sua origem. Schreiber, Ribas e Mansur (2021) alertam que a proteção civil deve ser revista, inclusive quanto aos critérios de reparação moral, considerando a persistência do dano mesmo após eventual remoção do conteúdo ofensivo. Isso implica reconhecer que os direitos da personalidade demandam tutela contínua e adaptativa às mudanças tecnológicas.
A Constituição Federal estabelece o fundamento da dignidade da pessoa humana como vetor hermenêutico para interpretação e aplicação dos direitos da personalidade, o que impõe ao Judiciário o dever de assegurar a proteção contra lesões decorrentes do uso indevido da imagem, da intimidade e da honra, independentemente da existência de norma específica sobre determinada tecnologia. Tavares (2024) assinala que, no contexto eleitoral, os deepfakes configuram ameaça concreta à integridade do processo democrático, pois comprometem a percepção pública da veracidade e manipulam a vontade popular por meio da distorção da imagem de figuras públicas. A reprodução desses conteúdos nas redes sociais, associada à ausência de controle prévio, evidencia a necessidade de medidas jurídicas mais rigorosas, não apenas no campo civil, mas também no penal e eleitoral. Lima, Lima e Santos (2024) reiteram a importância de instrumentos preventivos e repressivos voltados à contenção da desinformação e da manipulação digital, especialmente em períodos sensíveis do processo democrático. A articulação entre esses dispositivos e os direitos da personalidade deve ser central para a resposta institucional à problemática dos deepfakes.
A delimitação do direito à privacidade, como dimensão dos direitos da personalidade, está relacionada à ideia de esfera pessoal inviolável, cuja proteção exige controle sobre os dados, comportamentos e registros vinculados ao sujeito. Fernandes (2024) observa que a inserção das tecnologias de IA na produção de deepfakes compromete a fronteira entre o público e o privado, pois conteúdos gerados artificialmente, embora fictícios, afetam diretamente a vida real do retratado. Essa situação desafia os marcos jurídicos clássicos, que partem da premissa de factualidade das informações veiculadas, e impõe a reinterpretação da privacidade em sentido ampliado. Matos e Sotero (2024) consideram que o conceito de imagem deve ser desdobrado em sua representação visual e em sua projeção simbólica, sendo ambas passíveis de lesão em ambientes digitais. Tal compreensão reforça a necessidade de instrumentos jurídicos que reconheçam a autonomia da imagem digital como categoria jurídica própria, cuja manipulação indevida implica violação específica, independentemente da presença de conteúdo verdadeiro ou falso.
O Marco Civil da Internet, ao estabelecer princípios como a responsabilidade dos provedores e a proteção da privacidade dos usuários, constitui marco relevante para a análise da aplicação dos direitos da personalidade no ciberespaço, mas apresenta limitações no enfrentamento de violações complexas, como as causadas por deepfakes. Silva e Menezes (2024) afirmam que a responsabilização dos provedores ainda depende de notificação formal com identificação inequívoca do conteúdo, o que se mostra ineficaz diante da velocidade de disseminação desses materiais. A ausência de mecanismos ágeis de retirada e de protocolos específicos para o reconhecimento de conteúdo manipulado evidencia a defasagem entre os instrumentos legais e as exigências do contexto digital. Schreiber, Ribas e Mansur (2021) destacam que a responsabilidade civil deve considerar a cadeia de circulação do conteúdo, incluindo plataformas e desenvolvedores de tecnologias de manipulação, para que se atinja maior efetividade na reparação dos danos. Essa compreensão exige revisão doutrinária e legislativa, especialmente no que se refere à definição de culpa, dolo e risco no ambiente de redes.
O tratamento jurídico da honra, especialmente em ambientes digitais, requer distinção entre a honra subjetiva, ligada à autoimagem, e a honra objetiva, vinculada à reputação social, sendo ambas passíveis de lesão por conteúdos manipulados. Affonso (2021) analisa que os deepfakes pornográficos representam violação grave à honra subjetiva, pois desconstroem a imagem pessoal do indivíduo, independentemente de sua veracidade, ao imputarem-lhe condutas não praticadas. Silva et al., (2024) complementam esse entendimento ao afirmar que, mesmo diante da constatação técnica da falsidade do conteúdo, os danos sociais e psicológicos se mantêm, exigindo atuação jurídica imediata. A interpretação extensiva do artigo 5º, inciso X, da Constituição deve incluir os danos gerados por manipulação de imagem como forma de ofensa à honra, ainda que o conteúdo seja virtual. Essa abordagem fortalece a centralidade da dignidade como parâmetro constitucional de proteção e sinaliza a necessidade de aprofundamento teórico sobre os limites da liberdade informacional frente aos direitos da personalidade.
As transformações tecnológicas impõem ao direito o desafio de adaptar seus institutos à nova realidade digital, em que a imagem, a voz e os dados de um indivíduo podem ser produzidos e manipulados sem consentimento. Neuber (2025) sustenta que os deepfakes inserem-se em um contexto de riscos cibernéticos sistêmicos, que transcendem os limites tradicionais do dano individual e atingem a coletividade por meio da desestabilização da confiança social na informação. Matteu (2024) argumenta que a regulação jurídica dos direitos da personalidade deve considerar o papel das plataformas digitais como espaços públicos de interação, cuja arquitetura influencia diretamente a produção e a disseminação de conteúdos lesivos. O reconhecimento dessa arquitetura como elemento normativo exige que os operadores do direito compreendam a complexidade do ecossistema digital e proponham soluções que integrem as dimensões técnicas, jurídicas e sociais do problema. Dessa forma, a proteção dos direitos da personalidade em tempos de deepfakes não pode ser pensada apenas em termos de responsabilização posterior, mas requer medidas estruturantes que articulem prevenção, regulação e reparação de maneira efetiva.
3 A RESPONSABILIZAÇÃO EM FACE DA MANIPULAÇÃO DE CONTEÚDOS AUDIOVISUAIS
A manipulação digital de conteúdos audiovisuais por meio de deepfakes impõe desafios relevantes à responsabilização jurídica, exigindo a análise articulada entre as esferas civil, penal e administrativa. O ordenamento jurídico brasileiro dispõe de fundamentos normativos que permitem a repressão a condutas lesivas, especialmente quando violam direitos da personalidade, como a honra, a imagem e a privacidade. Contudo, a aplicação dessas normas em contextos de manipulação digital enfrenta entraves substanciais, sobretudo pela dificuldade de identificar o agente responsável pela criação e disseminação do conteúdo. A ausência de legislação específica agrava a insegurança quanto à aplicação dos princípios de imputabilidade, nexo causal e dano. Mesmo diante do Código Civil e da Constituição Federal, a estrutura jurídica atual encontra obstáculos para lidar com os efeitos concretos das ofensas provocadas por conteúdos audiovisuais falsificados. A complexidade técnica desses recursos, somada à sua difusão instantânea e à replicação em múltiplas plataformas, limita a efetividade das sanções e amplia a sensação de impunidade no meio digital.
A responsabilização civil tem sido utilizada como principal instrumento para reparação dos danos decorrentes da exposição indevida de imagens e informações, sendo amparada nos artigos 186 e 927 do Código Civil. A jurisprudência, contudo, encontra dificuldades em aplicar essas normas diante da dinamicidade das ofensas e da fragilidade dos meios de rastreio e prova digital. Affonso (2021) destaca que, no caso dos deepfakes, a reprodução artificial de imagens associadas a contextos ofensivos compromete o exercício da identidade individual, sendo necessário adaptar os critérios de avaliação do dano à especificidade do meio digital. Silva (2025) observa que, no caso de mulheres atingidas por manipulações de cunho sexual, a responsabilização deve considerar não apenas o dano moral individual, mas também o impacto social da violência digital de gênero. Tais condutas evidenciam que o dano não decorre exclusivamente da veracidade do conteúdo, mas da aparência de realidade que compromete a percepção pública da vítima. Por isso, a abordagem jurídica deve considerar a extensão dos efeitos sociais da manipulação e não apenas a configuração formal do ilícito.
A responsabilização penal nos casos de deepfakes permanece incipiente, haja vista a inexistência de tipos penais específicos que abranjam a produção e disseminação de conteúdos falsificados por inteligência artificial. As tentativas de enquadramento têm recorrido aos crimes contra a honra, previstos nos artigos 138 a 140 do Código Penal, bem como aos dispositivos da Lei nº 13.718/2018 nos casos de pornografia de vingança. Santos, Cardin e Tena (2025) argumentam que a ausência de previsão legal específica dificulta a atuação penal efetiva, sobretudo quando o conteúdo manipulado possui aparência lícita, mas resulta em constrangimento ilegal ou violência simbólica. A doutrina tem discutido a ampliação do tipo penal para abarcar a manipulação dolosa de imagem como forma de ofensa à dignidade humana. A aplicação analógica, embora possível, encontra limites constitucionais que impõem cautela. Assim, a via penal, enquanto não for atualizada por normas específicas, tende a operar de forma limitada diante da sofisticação e do alcance dos danos promovidos pelos deepfakes.
No campo administrativo, o tratamento das condutas relacionadas a deepfakes envolve a atuação de órgãos reguladores e plataformas digitais, sobretudo no que diz respeito à remoção de conteúdo e à prevenção da reincidência. Soares, Araújo e Santos (2021) analisam o Marco Civil da Internet como ferramenta para obrigar provedores de aplicação a retirarem conteúdos ofensivos mediante notificação judicial, mas apontam que esse procedimento é insuficiente diante da velocidade de disseminação das manipulações. A ausência de mecanismos administrativos específicos que contemplem o uso de inteligência artificial na criação de falsificações dificulta a aplicação de sanções que estejam em consonância com a gravidade dos danos. Jardim (2024) defende a ampliação das competências da administração pública para fiscalizar plataformas e exigir protocolos de detecção automática e remoção célere de conteúdos manipulados. Tal medida não depende apenas de vontade política, mas da articulação normativa que legitime a intervenção regulatória sobre empresas de tecnologia e permita a imposição de deveres preventivos e repressivos.
A multiplicidade de agentes envolvidos no processo de criação, hospedagem, disseminação e replicação de deepfakes torna a atribuição de responsabilidade um processo complexo. Melo et al., (2025) chamam atenção para a impossibilidade de reduzir a responsabilização ao autor direto da manipulação, pois o dano também decorre das plataformas que mantêm o conteúdo online mesmo após ciência da ilicitude. A corresponsabilidade civil dos provedores é frequentemente limitada pela exigência de ordem judicial para retirada, conforme prevê o artigo 19 do Marco Civil da Internet, o que prolonga a permanência do conteúdo ofensivo no ambiente digital. Vasques e Peixoto (2024) consideram que a proteção da dignidade humana deve prevalecer sobre a neutralidade da rede, demandando uma revisão normativa que permita maior proatividade por parte das plataformas. A discussão sobre corresponsabilidade exige a reavaliação do papel das intermediadoras digitais, não apenas como veículos neutros, mas como agentes com deveres de vigilância e cooperação com o sistema de justiça.
O aspecto probatório representa uma das principais barreiras à responsabilização eficaz nos casos de manipulação digital, dada a complexidade técnica envolvida na produção e verificação de deepfakes. Siqueira e Andrade (2024) observam que a constatação da autenticidade da imagem e a identificação do autor requerem ferramentas forenses digitais ainda em desenvolvimento, cuja ausência compromete a formação do convencimento judicial. A comprovação do nexo causal entre a conduta do agente e o dano sofrido pela vítima é dificultada pela natureza volátil dos arquivos digitais, que podem ser apagados, copiados ou alterados rapidamente. Silva e Farbiarz (2024) discutem o caso do comercial da Volkswagen como exemplo das controvérsias jurídicas surgidas da reutilização de imagem por inteligência artificial, indicando que mesmo em situações de caráter publicitário, a prova técnica sobre o consentimento e a manipulação é essencial. A deficiência de mecanismos oficiais de verificação compromete a segurança jurídica e fragiliza a efetividade dos meios processuais tradicionais.
A estrutura normativa atual, mesmo com base nos princípios da dignidade humana e da proteção da imagem, carece de tipificação específica para condutas que envolvem manipulação por inteligência artificial, especialmente quando os danos são de difícil mensuração. Priscilla Vasques e Arnelle Peixoto (2024) apontam que, no contexto dos direitos humanos, a ausência de reconhecimento legal das deepfakes como forma autônoma de violação impede a formulação de políticas públicas adequadas. A reparação civil, embora prevista em termos gerais, tende a ser ineficaz diante da amplitude do dano moral e da impossibilidade de reversão do impacto reputacional. Nesse cenário, torna-se necessário refletir sobre o papel das normas constitucionais, como o artigo 5º, inciso X, da Constituição, como fundamento para a responsabilização ampla. A ausência de normas específicas prejudica não apenas o direito à reparação, mas também a garantia de prevenção e dissuasão de condutas semelhantes. É nesse vácuo legislativo que os agentes ofensores operam com maior liberdade, explorando a lentidão do sistema de justiça e os limites da prova digital.
O papel do consentimento, elemento central para a utilização lícita da imagem, é subvertido nas produções por inteligência artificial, pois os conteúdos criados por deepfake podem ser gerados a partir de bancos de dados públicos, sem qualquer participação da pessoa representada. Melo et al., (2025) discutem que o consentimento post mortem, no caso do uso de imagem de pessoas falecidas, insere outra camada de complexidade na responsabilização, pois desafia a concepção clássica de dano e titularidade. Mesmo diante da impossibilidade de reparação ao titular direto, os familiares ou herdeiros podem ter seus direitos violados, configurando interesse jurídico legítimo. A doutrina ainda não alcançou consenso sobre a aplicabilidade dos direitos da personalidade após a morte, especialmente em se tratando de manipulações que afetam a memória e o legado do falecido. Isso evidencia a necessidade de normatização específica que discipline o uso de dados e imagens de pessoas falecidas, com vistas a proteger a dignidade e a identidade simbólica dos representados. O uso não consentido da imagem, mesmo em sentido não literal, deve ser considerado lesivo.
A manipulação audiovisual por deepfakes representa um campo de colisão entre a liberdade de expressão e os direitos da personalidade, cuja regulamentação ainda não encontra tratamento normativo satisfatório no Brasil. Jardim (2024) entende que, enquanto não houver delimitação legal da responsabilidade de plataformas, desenvolvedores e usuários, a responsabilização será fragmentada e ineficaz. A doutrina tem apontado a necessidade de construção de um marco legal específico sobre inteligência artificial e manipulação digital, que estabeleça parâmetros objetivos para aferição do dano, identificação do autor e repartição da responsabilidade. A consolidação de uma resposta jurídica exige o envolvimento do legislador, do Poder Judiciário e de autoridades administrativas, que devem atuar de maneira coordenada para suprir as lacunas existentes. É nesse contexto que a responsabilização civil, penal e administrativa deve ser revista, ampliando-se os instrumentos jurídicos disponíveis e adaptando-os às novas formas de violação dos direitos fundamentais. O enfrentamento da questão exige o reconhecimento da especificidade dos danos digitais e a reformulação dos institutos jurídicos tradicionais.
4 AS INSUFICIÊNCIAS NORMATIVAS NA REGULAÇÃO DE TECNOLOGIAS VOLTADAS A PRODUÇÃO DE DEEPFAKES
A ausência de legislação específica voltada à regulação de tecnologias de inteligência artificial aplicadas à produção de deepfakes gera um ambiente de insegurança jurídica, no qual direitos fundamentais permanecem vulneráveis à manipulação digital. O ordenamento jurídico brasileiro, ainda baseado em normas gerais de proteção à honra, à imagem e à privacidade, não tem acompanhado a velocidade dos avanços tecnológicos. A complexidade do fenômeno das deepfakes exige normatização própria, capaz de reconhecer a singularidade dos danos causados por conteúdos sintéticos, bem como a dificuldade de identificação dos autores. Fernandes (2024) indica que o paradoxo entre a proteção da privacidade e o desenvolvimento da inteligência artificial escancara uma lacuna normativa que compromete o controle sobre a disseminação de informações falsas. Tal cenário se agrava na ausência de mecanismos eficazes para coibir a criação e circulação desses conteúdos, resultando na multiplicação de práticas lesivas que escapam à repressão jurídica convencional. A deficiência normativa também impede a consolidação de critérios objetivos para responsabilização de plataformas e usuários, limitando a eficácia das decisões judiciais em contextos digitais.
A incapacidade do marco normativo atual em absorver os efeitos jurídicos das deepfakes reflete-se na inefetividade da tutela dos direitos da personalidade em meio digital. Silva e Menezes (2024) ressaltam que os dispositivos atualmente aplicados não conseguem oferecer resposta proporcional à gravidade dos impactos produzidos pela manipulação de imagem e voz por inteligência artificial. A ausência de um estatuto legal específico permite que condutas potencialmente lesivas permaneçam em uma zona de ambiguidade jurídica, o que dificulta a atuação judicial e administrativa. Esse vácuo contribui para a erosão da confiança no sistema de proteção jurídica, especialmente diante da complexidade probatória envolvida na demonstração da falsidade do conteúdo e na identificação dos responsáveis. Além disso, a inexistência de uma abordagem legislativa sistematizada impossibilita a construção de jurisprudência estável e coerente, aumentando a imprevisibilidade nas decisões judiciais e comprometendo a segurança jurídica dos indivíduos expostos.
A normatização insuficiente se revela também no campo da proteção coletiva, onde a ausência de regras claras enfraquece a atuação dos órgãos públicos frente à proliferação de conteúdos manipulados. Tavares (2024) analisa os riscos das deepfakes no processo eleitoral, evidenciando a fragilidade do sistema jurídico diante da manipulação de informações com potencial de influenciar a vontade popular. A inexistência de diretrizes legais específicas impede a atuação preventiva por parte das autoridades eleitorais e limita as possibilidades de sanção às plataformas que hospedam tais conteúdos. A regulação fragmentada existente atualmente não oferece instrumentos suficientes para coibir a prática nem para reparar os danos causados à coletividade. Essa situação revela a urgência da construção de um marco regulatório capaz de disciplinar o uso de tecnologias de síntese audiovisual com base em critérios técnicos e jurídicos bem definidos, assegurando a proteção tanto individual quanto difusa no ambiente digital.
A fragilidade da normatização atual torna-se evidente quando se observa o tratamento jurídico conferido aos provedores de aplicação e hospedagem de conteúdo, cuja responsabilidade ainda depende de mecanismos processuais lentos e ineficazes. Soares, Araújo e Santos (2021) analisam o Marco Civil da Internet e evidenciam que o sistema de responsabilização baseado em notificação judicial é incapaz de conter a propagação de deepfakes em tempo hábil. O problema reside não apenas na lentidão dos meios legais, mas na ausência de deveres objetivos impostos às plataformas no que diz respeito à prevenção e remoção de conteúdos manipulados. A desatualização das normas em relação às novas tecnologias impede a estruturação de um regime jurídico que imponha padrões técnicos mínimos de controle e monitoramento. Essa lacuna favorece a reprodução indefinida de conteúdos prejudiciais e compromete o direito à proteção da imagem e à integridade moral dos indivíduos, resultando em uma forma de impunidade digital amparada na omissão legislativa.
A normatização fragmentária vigente não contempla a complexidade dos danos gerados pelas deepfakes, que frequentemente se manifestam de forma simbólica, reputacional e emocional, sem prejuízo material direto. Vasques e Peixoto (2024) discutem que, no contexto dos direitos humanos, a ausência de dispositivos legais que reconheçam a singularidade do dano causado por manipulações sintéticas impede a aplicação proporcional das medidas de reparação. Essa insuficiência impede que o ordenamento jurídico ofereça respostas à altura da violação, especialmente quando a ofensa atinge valores subjetivos relacionados à identidade pessoal, à honra e à reputação. Além disso, a falta de reconhecimento da especificidade desses danos contribui para a subestimação das consequências das deepfakes, retardando a mobilização institucional necessária para enfrentamento do problema. É nesse vácuo normativo que se consolida a sensação de inefetividade da proteção jurídica em ambientes digitais, especialmente para os grupos mais suscetíveis à manipulação e exposição.
A ausência de normatização específica também compromete a efetividade das ações voltadas à preservação da memória e da identidade post mortem, especialmente em casos em que deepfakes recriam digitalmente a imagem de pessoas falecidas. Melo et al., (2025) discutem os limites da proteção jurídica da imagem de mortos à luz do uso de inteligência artificial em produções audiovisuais, como no caso do comercial da Volkswagen. A inexistência de dispositivos legais que regulem a utilização póstuma da imagem dificulta a defesa dos interesses dos herdeiros e a preservação da dignidade simbólica do falecido. Tal omissão normativa revela que o sistema jurídico ainda não incorporou as implicações éticas e jurídicas das tecnologias emergentes, tampouco criou mecanismos eficazes para coibir práticas que envolvem a simulação da presença de pessoas ausentes. O impacto simbólico e afetivo dessas manipulações exige uma abordagem jurídica que extrapole a noção tradicional de dano e incorpore critérios próprios para o ambiente digital.
O esvaziamento normativo compromete também a formação de padrões técnicos que orientem o reconhecimento e o bloqueio de deepfakes por parte das plataformas digitais. Silva et al., (2024) observam que a ausência de parâmetros regulatórios impede a formulação de exigências técnicas mínimas para os sistemas de detecção e sinalização de conteúdos sintéticos. A carência de normatização compromete o papel das plataformas como agentes reguladores e permite a manutenção de ambientes virtuais permissivos à circulação de materiais manipulados. A falta de normatização técnica também dificulta o diálogo entre operadores do direito e desenvolvedores de tecnologia, comprometendo a formulação de soluções integradas para enfrentamento do problema. A regulação específica das deepfakes deve incluir não apenas normas jurídicas, mas também padrões técnicos de interoperabilidade, transparência e rastreabilidade. Esses elementos são essenciais para a constituição de uma governança digital capaz de proteger os direitos fundamentais diante da crescente autonomia das tecnologias de simulação audiovisual.
A inexistência de norma específica também interfere na interpretação judicial, que recorre a analogias imprecisas e a dispositivos genéricos para julgar casos que envolvem deepfakes. Schreiber, Ribas e Mansur (2021) alertam para o risco de decisões contraditórias que fragilizam a previsibilidade e coerência do sistema jurídico, comprometendo a confiança das vítimas nas instituições. A carência normativa cria uma zona de incerteza, na qual o reconhecimento do dano, a atribuição de responsabilidade e a definição da reparação variam conforme o caso concreto, gerando instabilidade e sensação de desproteção. Esse quadro exige a criação de um regime legal próprio para as deepfakes, capaz de uniformizar os critérios jurídicos aplicáveis e garantir segurança jurídica. A consolidação de tal regime depende de vontade política e de compreensão técnica por parte do legislador, além da articulação entre Poder Judiciário, Ministério Público e entidades da sociedade civil. A omissão legislativa diante da complexidade do tema evidencia o descompasso entre o desenvolvimento tecnológico e a capacidade normativa do Estado.
5 CONCLUSÃO
A análise sobre os desafios regulatórios e a necessidade de tutela jurídica frente à proliferação de deepfakes evidencia a insuficiência do arcabouço normativo atual diante das especificidades dessa tecnologia. O ordenamento jurídico brasileiro ainda se baseia em normas gerais que, embora reconheçam a importância da proteção da imagem, da honra e da privacidade, não conseguem oferecer resposta adequada às condutas complexas viabilizadas pela inteligência artificial. A manipulação audiovisual sintética, ao simular com verossimilhança a presença e a fala de indivíduos, ultrapassa os limites tradicionais da violação de direitos da personalidade e exige uma resposta normativa específica e tecnicamente estruturada. A ausência de definições legais claras, de tipificações penais e de deveres objetivos aplicáveis às plataformas digitais favorece a sensação de impunidade e amplia a insegurança jurídica em ambientes digitais.
A responsabilização civil, penal e administrativa nos casos de deepfakes encontra entraves que decorrem da própria ausência de legislação específica, da complexidade da prova digital e da dispersão dos agentes envolvidos na criação e disseminação dos conteúdos. A exigência de notificação judicial para a retirada de material ofensivo, a dificuldade de identificação de autores e a ausência de parâmetros técnicos de verificação tornam o sistema jurídico inefetivo na proteção das vítimas. A responsabilização das plataformas, muitas vezes vistas como meros intermediários, não encontra respaldo normativo suficiente para a imposição de deveres de vigilância ativa, o que permite a continuidade da circulação de conteúdos lesivos mesmo após o reconhecimento de sua falsidade. A fragmentação entre esferas jurídicas e a ausência de uma abordagem integrada comprometem a eficácia das medidas de repressão e de reparação diante das violações.
A atuação legislativa precisa ser orientada por uma compreensão sistêmica do fenômeno dos deepfakes, reconhecendo suas implicações sociais, políticas e jurídicas. A elaboração de um marco legal específico se apresenta como medida urgente e necessária, devendo abranger desde a definição técnica da prática até a estruturação de mecanismos de responsabilização adaptados à realidade digital. Tal normatização deve incluir parâmetros para a atuação preventiva das plataformas digitais, estabelecendo deveres de rastreabilidade, transparência algorítmica e resposta rápida a denúncias de conteúdo manipulado. Além disso, deve-se considerar a necessidade de mecanismos de proteção especial para grupos vulneráveis, sobretudo quando a manipulação audiovisual implica em violência simbólica, exposição sexual ou discriminação.
Em síntese, os desafios impostos pela proliferação das deepfakes requerem mais do que a adaptação de normas já existentes: exigem a construção de um novo paradigma jurídico que reconheça a singularidade das violações promovidas por tecnologias de simulação audiovisual. A proteção eficaz dos direitos da personalidade no ambiente digital demanda ações legislativas, institucionais e técnicas coordenadas, orientadas pela centralidade da dignidade humana e pela necessidade de controle democrático das tecnologias emergentes. Sem essa reformulação normativa e institucional, a sociedade permanecerá vulnerável a práticas lesivas que corroem a privacidade, a honra e a integridade das pessoas, fragilizando os fundamentos do Estado de Direito no contexto informacional contemporâneo.
REFERÊNCIAS BIBLIOGRÁFICAS
AFFONSO, Filipe José Medon. O direito à imagem na era das deep fakes. Revista Brasileira de Direito Civil, v. 27, n. 01, p. 251-251, 2021.
AFFONSO, Filipe José Medon. O direito à imagem na era das deep fakes. Revista Brasileira de Direito Civil, v. 27, n. 01, p. 251-251, 2021.
FERNANDES, Izabela Alves Drumond. Deepfakes e a proteção da privacidade: o paradoxo entre a privacidade a inteligência artificial. Anais New Science Publishers| Editora Impacto, 2024.
JARDIM, Gustavo Tanger. Fake news, deepfake e outras ameaças virtuais: os desafios da responsabilidade civil na rede mundial de computadores. Revista de Direito da ADVOCEF, v. 20, n. 36, p. 15-28, 2024.
LIMA, Ricardo Grana; LIMA, Helton Carlos Praia; SANTOS, Alyson de Jesus. Contramedidas ao uso de inteligência artificial por meio de deepfakes como ferramenta de desinformação política no processo eleitoral brasileiro. Revista Políticas Públicas & Cidades, v. 13, n. 2, p. e1015-e1015, 2024.
MATOS, Brenda Caires; SOTERO, Ana Paula. Deepfakes e o direito à imagem no ciberespaço: necessidade de uma normatização específica. Cenas Educacionais, v. 7, p. e20107-e20107, 2024.
MATTEU, Ivelise Fonseca. Regulação das plataformas: Fake news, direitos da personalidade e concorrência. Editora Senac São Paulo, 2024.
MELO, Maria Eduarda et al., Direito de imagem post mortem em face do surgimento das deepfakes: análise à luz do comercial da Volkswagen. Caderno de Graduação-Ciências Humanas e Sociais-UNIT-SERGIPE, v. 9, n. 1, p. 42-54, 2025.
NEUBER, Diego. Desinformação e deepfakes como vetores emergentes de ameaças cibernéticas no Brasil. Revista Latino-Americana de Estudos Científicos, p. e48740-e48740, 2025.
SANTOS, Raphael Prieto; CARDIN, Valéria Silva Galdino; TENA, Lucimara Plaza. Responsabilidade civil por revenge porn e image-based sexual abuse por deepfake e os direitos da personalidade da mulher vítima de violência digital. Cuadernos de Educación y Desarrollo, v. 17, n. 4, p. e8116-e8116, 2025.
SCHREIBER, Anderson; RIBAS, Felipe; MANSUR, Rafael. Deepfakes: regulação e responsabilidade civil. Revista Brasileira de Direito Civil–RBDCivil, Belo Horizonte, v. 27, p. 251-277, 2021.
SILVA, Emanuelly Ignez Alves; MENEZES, Filipe Eduardo Macedo. Regulamentação dos deep fakes no brasil: desafios jurídicos e soluções tecnológicas. Revista Mundo em Movimento/World in Movement Journal, v. 1, n. 1, p. 75-89, 2024.
SILVA, Jader Lúcio; FARBIARZ, Alexandre. A imagem imortal: deepfakes e os limites da identidade midiática pós-morte no caso VW Brasil 70. Comunicação Pública, v. 19, n. 37, 2024.
SILVA, Lucas Gonçalves et al., Deepfake pornográfico na sociedade de risco contemporânea: os desafios de regulamentação e controle da inteligência artificial. Interfaces Científicas-Direito, v. 9, n. 3, p. 343-355, 2024.
SILVA, Roberto. A responsabilidade civil por danos causados às mulheres por uso de deepfakes. Direito UNIFACS–Debate Virtual-Qualis A2 em Direito, n. 299, 2025.
SIQUEIRA, Mariana; ANDRADE, Ester Jerônimo. Deepfake e privacidade: uma análise jurídica acerca da manipulação da imagem dos usuários. REVISTA FOCO, v. 17, n. 8, p. e5679-e5679, 2024.
SOARES, Mariana Falcão; ARAÚJO, Denise Maria Teixeira; SANTOS, Thamilles Sousa. Os impactos dos deepfakes sobre a perspectiva do marco civil da internet. Caderno de Graduação-Ciências Humanas e Sociais-UNIT-ALAGOAS, v. 7, n. 1, p. 22-22, 2021.
TAVARES, Cláudio De Mello. Inteligência Artificial e Deepfakes: Desafios Jurídicos e Tecnológicos para a Integridade do Processo Democrático e as Implicações para as Eleições Municipais de 2024. Revista Justiça Eleitoral em Debate, v. 14, n. 1, p. 49-58, 2024.
VASQUES, Priscilla Maria Santana Macedo; PEIXOTO, Arnelle Rolim. Tecnologia e dignidade: direitos humanos no contexto das deepfakes. Revista Interagir, n. 127, p. 42-44, 2024.