AUTOPOIESE E MACHINE LEARNING: A EMERGÊNCIA DE SISTEMAS INTELIGENTES NA TEORIA DOS SISTEMAS DE NIKLAS LUHMANN

AUTOPOIESIS AND MACHINE LEARNING: THE EMERGENCE OF INTELLIGENT SYSTEMS IN NIKLAS LUHMANN'S SYSTEMS THEORY

REGISTRO DOI: 10.70773/revistatopicos/773300751

RESUMO
Este artigo analisa a convergência entre a teoria dos sistemas de Niklas Luhmann e o Machine Learning (ML). Investiga-se se o ML constitui um sistema autopoiético independente ou um acoplamento estrutural de alta densidade no sistema do Direito. Embora mimetize o fechamento operacional e a autorreferência por meio de algoritmos, o ML carece do processamento de sentido (Sinn) social, operando sob o código informação/não informação. O texto alerta para o risco de colonização da comunicação jurídica pela eficiência estatística, o que ameaça a autonomia funcional do sistema legal. Propõe-se o exercício da observação de segunda e terceira ordem para garantir a explicabilidade algorítmica e a soberania do código legal/ilegal. Conclui-se que o ML coevolui com a sociedade, exigindo que o Direito reafirme a decisão humana e a justiça frente ao automatismo técnico.
Palavras-chave: Autopoiese; Machine Learning; Niklas Luhmann; Acoplamento Estrutural.

ABSTRACT
This article examines the convergence between Niklas Luhmann's systems theory and Machine Learning (ML). It investigates whether ML constitutes an independent autopoietic system or a high-density structural coupling within the legal system. While it mimics operational closure and self-reference through algorithms, ML lacks social meaning processing (Sinn), operating under the information/non-information code. The text warns of the risk of legal communication being colonized by statistical efficiency, which threatens the functional autonomy of the legal system. It proposes the exercise of second and third-order observation to ensure algorithmic explainability and the sovereignty of the legal/illegal code. The article concludes that ML co-evolves with society, requiring Law to reaffirm human decision-making and justice in the face of technical automatism.
Keywords: Autopoiesis; Machine Learning; Niklas Luhmann; Structural Coupling.

1. INTRODUÇÃO

A sociedade contemporânea atravessa uma fase de complexificação sem precedentes, onde a mediação técnica deixou de ser um instrumento periférico para se tornar o próprio substrato das operações sociais. No centro desta transformação encontra-se o Machine Learning (Aprendizagem de Máquina), uma subárea da Inteligência Artificial que permite a sistemas computacionais "aprenderem" e evoluírem a partir de dados, sem uma programação exaustivamente linear. Para a ciência jurídica e a sociologia do direito, o desafio não é apenas regulatório, mas epistemológico: como descrever sistemas que parecem exibir comportamentos de autonomia e autorreferência? A resposta pode residir na teoria de Niklas Luhmann, especificamente no conceito de autopoiese.

Niklas Luhmann (1927-1998), cuja trajetória transitou do Direito administrativo para a fundação de uma sociologia sistêmica universal, propôs que os sistemas sociais são sistemas autopoiéticos de comunicação. O conceito de autopoiese, originalmente cunhado pelos biólogos Humberto Maturana e Francisco Varela para descrever o fechamento operacional de seres vivos, foi transposto por Luhmann para o domínio social para explicar como sistemas (como o Direito, a Economia ou a Ciência) produzem os seus próprios elementos e estruturas a partir de suas próprias operações. Em um sistema autopoiético, a rede de operações gera os próprios componentes que sustentam a rede, criando uma distinção clara entre sistema e ambiente (Luhmann, 1995).

A introdução do Machine Learning nesta moldura teórica provoca uma irritação necessária. Tradicionalmente, Luhmann distinguia três tipos de sistemas: biológicos (vida), psíquicos (consciência) e sociais (comunicação). As máquinas eram relegadas ao ambiente dos sistemas sociais, servindo como suporte técnico ou "próteses" para a comunicação humana. Contudo, a natureza do aprendizado algorítmico moderno — que opera mediante a identificação de padrões, autoajuste de parâmetros e geração de saídas que não estavam previstas no código inicial — levanta a questão de se estaríamos diante da emergência de um quarto tipo de sistema, ou se a tecnologia atingiu um nível de acoplamento estrutural tão denso que passou a participar da autopoiese da comunicação (Teubner, 2018).

O problema dialético que se impõe é: pode o Machine Learning ser descrito como um sistema autorreferencial? Conforme discutido por Baecker (2025), a autorreferência implica que o sistema utiliza as suas próprias operações para produzir novas operações. No caso do Machine Learning, o sistema "observa" os dados (ambiente), mas o processamento desses dados ocorre de acordo com uma lógica interna (algoritmo) que se modifica em função do resultado da própria operação anterior. Há, portanto, um fechamento operacional técnico que mimetiza a autonomia dos sistemas sociais.

No âmbito do Direito, essa "autonomia algorítmica" gera tensões fundamentais. O sistema jurídico observa o mundo através do código binário legal/ilegal (Luhmann, 2004). Quando o Direito passa a utilizar o Machine Learning para realizar triagens processuais ou prever decisões, ocorre um acoplamento estrutural entre a lógica jurídica e a lógica da informação/não informação. O risco identificado é que a técnica possa "colonizar" a comunicação jurídica, substituindo a ponderação de valores e normas por uma eficiência estatística que o sistema jurídico não consegue processar integralmente em sua própria linguagem.

Além disso, a teoria de Luhmann nos convida a analisar o Machine Learning sob a ótica da observação de segunda ordem: a observação da observação. Algoritmos preditivos não apenas "veem" dados; eles observam como a sociedade comunica e consome, reagindo a essas observações de modo a retroalimentar o sistema social com novas informações. Como afirmado por Luhmann (2004), quem descreve o mundo hoje não é mais apenas o observador humano, mas os meios de comunicação e a tecnologia. O "ponto cego" desta observação técnica reside no fato de que o algoritmo não consegue perceber a unidade do mundo que ele próprio divide e classifica, gerando o que Teubner (2018) chama de "fragmentação digital" da realidade.

A presente investigação propõe-se a analisar o Machine Learning não como uma ferramenta externa, mas como um fenômeno que desafia a distinção luhmanniana entre sistema e ambiente. Através de uma revisão bibliográfica que une Maturana, Varela, Luhmann e a doutrina contemporânea do Direito Digital, buscaremos compreender se a autopoiese técnica é capaz de gerar um "sistema de inteligência" independente ou se ela permanece subordinada à autopoiese social da comunicação. A tese central é que a IA funciona como um acoplamento estrutural de alta densidade que força o sistema do Direito a reformular os seus próprios conceitos para manter a sua autonomia funcional (Luhmann, 1995).

O objetivo deste artigo é, portanto, fornecer uma lente sociológica para o fenômeno tecnológico, evitando o otimismo tecnocrático e o pessimismo jurídico. Trata-se de entender como a sociedade, com o auxílio da tecnologia, descreve a si mesma e o que se esconde "por detrás" das redes neurais — ou, nas palavras de Luhmann, se resta "absolutamente nada" além da própria operação de comunicação.

2. A AUTOPOIESE LUHMANNIANA: DO ORGANISMO À COMUNICAÇÃO

A teoria dos sistemas contemporânea encontra em Niklas Luhmann o seu maior expoente no campo das ciências sociais. Contudo, para compreender a originalidade de sua proposta, é preciso retroceder à biologia teórica da década de 1970. O conceito de autopoiese não nasce no Direito ou na Sociologia, mas nos laboratórios de Santiago, no Chile, através das investigações de Humberto Maturana e Francisco Varela (1980). Este capítulo explora a transição deste conceito e como Luhmann o reformulou para descrever a sociedade como um sistema autônomo de comunicação.

A palavra "autopoiese" deriva do grego auto (si mesmo) e poiesis (criação, produção). Em sua acepção original, Maturana e Varela (1980) utilizaram o termo para definir a organização do vivo. Um sistema vivo é autopoiético porque ele produz a si mesmo: as operações da célula produzem os componentes (proteínas, lípidos, etc.) que, por sua vez, sustentam a rede de operações que continua a produzir esses mesmos componentes. Existe, portanto, um fechamento circular.

Diferente de uma máquina fabricada por um agente externo (sistema alopoiético), o sistema autopoiético é o seu próprio produto e produtor. Conforme Esposito (2022), a vida não é algo que o organismo "faz", mas algo que o organismo "é" enquanto mantém a sua rede de produção ativa. Essa autonomia biológica fascinou Luhmann, que viu nela a chave para resolver o problema da ordem social sem recorrer ao individualismo metodológico ou ao antropocentrismo.

A grande virada teórica operada por Niklas Luhmann consistiu em desvincular a autopoiese da vida biológica para aplicá-la a sistemas que processam "sentido" (Sinn). Luhmann (1995) percebeu que a sociedade, o Direito e a Economia também exibiam esse comportamento de fechamento operacional. Contudo, as unidades básicas desses sistemas não eram células, mas comunicações.

Esta transição exigiu uma mudança de paradigma. Enquanto Maturana e Varela focavam na autopoiese biológica (vida), Luhmann propôs uma diferenciação entre três tipos de sistemas autopoiéticos:

  • Sistemas Biológicos: Cuja operação básica é a vida (produção de moléculas).

  • Sistemas Psíquicos: Cuja operação básica é a consciência (produção de pensamentos).

  • Sistemas Sociais: Cuja operação básica é a comunicação (produção de comunicações).

Conforme Taekke (2025), essa distinção é radical: o ser humano, enquanto organismo biológico ou consciência psíquica, não faz parte do sistema social. O homem pertence ao ambiente da sociedade. A sociedade é composta exclusivamente por comunicações que se conectam a outras comunicações.

O conceito central para compreendermos a autopoiese luhmanniana é o fechamento operacional. Um sistema é operativamente fechado quando ele utiliza apenas as suas próprias operações para gerar novas operações. No Direito, por exemplo, apenas uma norma jurídica pode validar outra norma jurídica (Luhmann, 2004). O Direito não "importa" justiça ou moral diretamente do ambiente; ele traduz esses estímulos para o seu próprio código (legal/ilegal).

Este fechamento permite a autorreferência. O sistema refere-se a si mesmo para continuar operando. Como ressaltado por Taekke (2022), a operação básica de comunicação determina que os sistemas sociais observem a si mesmos (o ato de comunicar) e também ao outro (a informação). Sem esse fechamento, o sistema se dissolveria no caos do ambiente. Ele seria apenas um reflexo do mundo, perdendo sua identidade funcional.

Luhmann (1995) rompe com a ideia tradicional de que o sistema é uma "parte" do todo. Para ele, o sistema é a diferença entre ele próprio e o ambiente. O ambiente é tudo aquilo que não pertence ao sistema, mas que é essencial para a sua existência. O ambiente é complexo e caótico; o sistema é uma redução de complexidade.

Para que o sistema não fique isolado, Luhmann introduz o conceito de acoplamento estrutural. O sistema e o ambiente não se fundem, mas se "irritam" mutuamente. O Direito está acoplado à Economia através da propriedade e do contrato; ele está acoplado à Ciência através das perícias. No caso da tecnologia, como veremos mais adiante, o Machine Learning atua como um acoplamento estrutural de alta frequência, forçando o sistema social a processar informações em velocidades e volumes que desafiam a sua capacidade tradicional de resposta (Teubner, 2018).

Para Luhmann (1995), a comunicação não é o transporte de uma mensagem de um emissor para um receptor (modelo clássico de Shannon-Weaver). A comunicação é uma operação autopoiética que consiste na síntese de três seleções:

  1. Informação: O conteúdo que é comunicado.

  2. Ato de Comunicar: A forma como a informação é expressa.

  3. Compreensão: A distinção feita pelo sistema entre a informação e o ato de comunicar.

Apenas quando essas três seleções ocorrem, a comunicação se completa e pode se conectar a uma comunicação subsequente. É essa rede incessante de comunicações que constitui a sociedade. Se a comunicação para, o sistema social morre, da mesma forma que um organismo morre se as suas células param de se reproduzir.

Uma das maiores contribuições de Luhmann, (2004), é a Cibernética de Segunda Ordem. Observar não é apenas ver o mundo, mas introduzir uma distinção. A observação de primeira ordem vê "o que" é observado; a observação de segunda ordem vê "como" o outro observa.

Na sociedade moderna, o sistema social descreve a si mesmo através dessa observação de segunda ordem. Quem descreve o mundo hoje? A imprensa, a tecnologia, a sociologia. Contudo, cada observação possui um "ponto cego": a unidade do mundo que a distinção oculta. Ao aplicarmos isso ao Machine Learning, percebemos que os algoritmos são observadores técnicos que fragmentam o mundo em correlações estatísticas, criando novas realidades que os sistemas sociais (como o Direito) precisam aprender a observar e regular.

Niklas Luhmann construiu uma teoria que dispensa o sujeito para salvar a sociedade como objeto de estudo científico. A autopoiese, ao migrar do organismo para a comunicação, permitiu-nos entender a autonomia dos subsistemas sociais (Direito, Ciência, Política) em um mundo hipercomplexo.

Como afirmado por Baecker (2025), ao introduzirmos uma diferença que divide o mundo, tornamos invisível a sua unidade. A teoria dos sistemas não busca "a verdade" absoluta, mas sim descrever como os sistemas sociais, com o auxílio da tecnologia, descrevem a si mesmos. Se por trás disso resta "absolutamente nada", é porque a realidade é o próprio processamento ininterrupto das operações de sentido.

3. MACHINE LEARNING COMO FENÔMENO SISTÊMICO: OPERAÇÃO E FECHAMENTO

Neste terceiro capítulo, avançamos para a análise da tecnologia de Machine Learning (ML) não como uma ferramenta externa, mas como um fenômeno que mimetiza as propriedades dos sistemas sociais descritos por Niklas Luhmann. A pergunta central que orienta este ponto é: em que medida a aprendizagem de máquina pode ser descrita como um sistema operativamente fechado e autorreferencial? Para responder a isso, utilizaremos os conceitos de operação, fechamento e irritação, confrontando a lógica algorítmica com a teoria sistêmica.

A inclusão da Inteligência Artificial, especificamente do Machine Learning, no debate sociológico e jurídico exige a superação da visão instrumentalista. Se, para a cibernética clássica, a máquina era um sistema de entradas e saídas (inputs/outputs), para a teoria luhmanniana a complexidade do ML sugere um modelo de fechamento operacional que desafia a distinção tradicional entre técnica e sociedade. Como assevera Teubner (2018), estamos diante de "agentes algorítmicos" que não apenas executam ordens, mas produzem uma normatividade técnica própria.

Para Luhmann (1995), um sistema só existe enquanto realiza operações. No sistema social, a operação é a comunicação; no sistema psíquico, é o pensamento. No caso do Machine Learning, a operação básica pode ser definida como a distinção estatística entre dados. O algoritmo não "lê" o mundo; ele processa sinais e os converte em pesos matemáticos internos.

Conforme Taekke (2022), a operação de observação resulta sempre em sistemas sociais quando se trata de comunicação. Contudo, o ML realiza uma observação técnica: ele seleciona certas características dos dados (informação) e ignora outras (ruído). Esta seleção não é aleatória, mas orientada por um código interno que busca a redução de incerteza. O aprendizado ocorre quando o resultado de uma operação anterior é utilizado para ajustar a próxima operação, criando uma cadeia autorreferencial de processamento.

O fechamento operacional significa que o sistema opera exclusivamente com seus próprios meios. No Machine Learning, isso se manifesta na autonomia do treinamento. Uma rede neural profunda (Deep Learning) cria "camadas ocultas" de processamento que são inescrutáveis para o observador humano. O sistema está "cego" para o ambiente externo (a realidade social); ele vê apenas as representações numéricas que lhe são fornecidas (Luhmann, 1995).

Este isolamento é o que permite a eficiência. O algoritmo não se "importa" com a justiça, a moral ou o contexto político de um dado; ele opera segundo o seu próprio código de informação/não informação. Quando os dados do ambiente (como processos judiciais ou padrões de consumo) entram no sistema de ML, eles perdem o seu sentido social original e são convertidos em vetores. O sistema técnico, portanto, fecha-se em sua lógica matemática, produzindo resultados que, embora impactem o ambiente, derivam inteiramente de suas operações internas.

A autorreferência é a capacidade de um sistema de se referir a si mesmo para produzir novos elementos. No ML, o conceito de "retropropagação" (backpropagation) é o exemplo mais nítido de autorreferência operacional. O sistema compara sua saída com o objetivo desejado, calcula o erro e volta sobre si mesmo para ajustar os seus parâmetros internos.

Como ressaltado por Teubner (2018), esse processo confere à máquina uma "autonomia operacional" que se assemelha à autopoiese social. O algoritmo não precisa de intervenção externa constante para evoluir; ele evolui a partir do processamento de suas próprias falhas. No entanto, resta a dúvida luhmanniana: essa autorreferência gera "sentido"? Para Luhmann (1995), o sentido é a unidade da diferença entre atualidade e potencialidade. No ML, a potencialidade é puramente estatística, o que sugere que estamos diante de uma autopoiese técnica, desprovida de consciência, mas capaz de irritar profundamente os sistemas sociais de sentido.

Embora o ML seja operativamente fechado, ele é ambientalmente aberto. Ele depende dos dados do ambiente para existir. Luhmann (2004) utiliza o termo irritação para descrever como o ambiente afeta o sistema sem ditar as suas operações. Os dados são as "irritações" que forçam o algoritmo a se reconfigurar.

Na sociedade moderna, o Machine Learning tornou-se um acoplamento estrutural de alta densidade entre o sistema tecnológico e os demais subsistemas sociais (Direito, Economia, Ciência). Como afirmado por Esposito (2022) , "não é propriamente a técnica enquanto tal que realiza essas seleções, mas sim um sistema social com um código de informação/não informação". Isso significa que, embora a máquina opere matematicamente, o valor que atribuímos ao seu resultado é puramente social. O problema surge quando o Direito, por exemplo, aceita as seleções algorítmicas como se fossem "fatos neutros", ignorando que a máquina opera sob um código que não conhece a distinção legal/ilegal.

Toda observação possui um ponto cego (ESPOSITO, 2022). O ponto cego do Machine Learning é a incapacidade de perceber a unidade do mundo que ele fragmenta em correlações. O algoritmo pode prever que um réu tem 80% de chance de reincidir, mas ele não pode compreender o que significa a "liberdade" ou a "reincidência" como fenômenos humanos.

Essa fragmentação digital, como alerta Teubner (2018), pode levar a um "fascismo algorítmico", onde a coordenação social é feita por máquinas que observam o comportamento humano apenas como padrões de dados, sem qualquer compromisso com a unidade do sistema jurídico ou com a dignidade da pessoa humana. Ao introduzir uma diferença que divide o mundo (em categorias preditivas), a IA torna invisível a complexidade social que deveria estar sob o controle do Direito.

O Machine Learning manifesta-se como um fenômeno sistêmico de fechamento operacional. Ele não é uma mera extensão da vontade humana, mas um sistema que opera segundo uma autorreferência técnica. Se, como dizia Luhmann (2004), quem descreve o mundo hoje é a tecnologia, devemos estar atentos ao fato de que essa descrição é feita por um observador que, por definição, está operativamente fechado às consequências éticas de suas seleções.

O desafio para o Direito e para a Sociologia é manter a sua própria autopoiese frente a essa irritação tecnológica constante. Se permitirmos que a lógica da informação algorítmica substitua a comunicação jurídica, o sistema do Direito perderá a sua autonomia funcional, dissolvendo-se em uma gestão tecnocrática de fluxos de dados.

4. O ACOPLAMENTO ESTRUTURAL ENTRE ALGORITMOS E O SISTEMA DO DIREITO

A Teoria dos Sistemas de Niklas Luhmann postula que os sistemas autopoiéticos são operativamente fechados, mas ambientalmente abertos. Esse fechamento operacional significa que o Direito, por exemplo, só reconhece o que é "jurídico" através de seu próprio código binário (legal/ilegal). No entanto, para não se tornar autista, o sistema precisa de canais de comunicação com o seu ambiente. O conceito de acoplamento estrutural descreve exatamente essa relação de interdependência onde um sistema pressupõe certas características do seu ambiente para realizar as suas próprias operações, sem que haja uma fusão de lógicas (Luhmann, 1995).

Na era digital, assistimos à emergência de um acoplamento estrutural de alta densidade entre o sistema do Direito e o sistema da tecnologia (representado pelo Machine Learning). Conforme Zonnchen (2025), a técnica não é apenas um "meio", mas um fator que seleciona informações e gera novas irritações sistêmicas que o Direito é forçado a processar.

O acoplamento estrutural é o mecanismo que permite a coexistência de sistemas autônomos. De acordo com Maturana e Varela (1980), as raízes desse conceito estão na biologia, onde o organismo e o meio ambiente se ajustam mutuamente ao longo do tempo. Para Luhmann (1995), no plano social, o acoplamento estrutural não significa que a informação passe de um sistema para o outro, mas que um sistema serve de "irritação" para o outro.

No Direito tradicional, os exemplos clássicos de acoplamento estrutural são a Constituição (que acopla o Direito à Política) e o Contrato (que acopla o Direito à Economia). No cenário atual, os Algoritmos e os Termos de Uso das plataformas digitais surgem como novos instrumentos de acoplamento. Eles estabelecem uma ponte técnica onde a lógica da informação algorítmica e a lógica da norma jurídica se encontram, obrigando o Direito a traduzir "dados" em "fatos jurídicos" e "vulnerabilidades técnicas" em "responsabilidade civil".

Um sistema só reage ao ambiente se for irritado por ele. O Machine Learning fornece ao Direito irritações de uma natureza inédita: velocidade, volume e opacidade. Conforme apontado por Teubner (2018), o Direito está acostumado a lidar com a ação humana deliberada, mas os algoritmos operam em uma "zona de penumbra" onde a agência humana é diluída em processamentos automatizados.

Quando um sistema de IA no Poder Judiciário realiza a triagem de milhares de recursos, ele está provocando uma irritação no sistema jurídico. O Direito não pode ignorar essa seleção técnica; ele deve incorporá-la. A questão crítica reside no fato de que o código binário da tecnologia é informação/não informação (ou 0/1), enquanto o do Direito é legal/ilegal. O acoplamento estrutural ocorre quando o Direito utiliza a saída do algoritmo para fundamentar uma decisão legal. O risco, contudo, é a submissão do código jurídico ao código técnico: a decisão passa a ser "legal" simplesmente porque foi "informada" de forma eficiente pela máquina.

O sistema jurídico reage às irritações do ambiente digital criando novas estruturas internas. A Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet são exemplos de como o Direito tenta "domesticar" a técnica. Sob a ótica de Luhmann (2004), essas leis não são apenas regulações, mas formas de o Direito manter sua autopoiese frente à invasão tecnológica.

Ao estabelecer princípios como a "explicabilidade" e a "revisão humana de decisões automatizadas", o Direito está reafirmando que, apesar do acoplamento estrutural com os algoritmos, a última palavra sobre a validade da operação deve ser jurídica. Conforme Esposito (2022), o Direito utiliza a sociologia e a tecnologia para descrever a si mesmo, mas deve garantir que essa descrição não apague a unidade do sistema jurídico — ou seja, a proteção das garantias fundamentais.

Um dos pontos mais sensíveis da teoria de Gunther Teubner (2018) é o risco de os acoplamentos estruturais se transformarem em vetores de colonização. Se o sistema jurídico passar a depender excessivamente da eficiência do Machine Learning para operar (o chamado Judiciário 4.0), ele pode começar a sacrificar seus próprios ritos e valores em prol da celeridade algorítmica.

Nesse cenário, a "autonomia do Direito" (LUHMANN, 2004) ficaria comprometida. Se o juiz não consegue mais "observar" como o algoritmo chegou a um resultado devido ao fechamento operacional técnico (opacidade), o acoplamento estrutural deixa de ser um diálogo entre sistemas para ser uma imposição da técnica sobre a norma. A "observação de segunda ordem" — observar como o algoritmo observa — torna-se, então, o principal dever do jurista contemporâneo para preservar a integridade do sistema.

A discussão final deste ponto questiona se a intensidade do acoplamento entre algoritmos e Direito está gerando um novo subsistema. Alguns autores sugerem que estamos assistindo ao nascimento de um "Direito da Informação" que possui sua própria autopoiese, mediada por códigos de programação que funcionam como "leis automáticas" (Code is Law).

Entretanto, conforme a base luhmanniana (LUHMANN, 2004), os sistemas sociais são sistemas de comunicação. Enquanto a máquina processar apenas sinais e não "sentido" social, ela permanecerá no ambiente do Direito, ainda que como uma irritação constante e de alta frequência. O desafio é garantir que o acoplamento estrutural sirva para aumentar a complexidade do Direito (capacidade de lidar com o novo) sem destruir o seu fechamento operacional (capacidade de decidir conforme a lei).

O acoplamento estrutural entre algoritmos e o sistema do Direito é o fenômeno que define a justiça na era digital. Ele representa a necessária adaptação do Direito a um mundo onde a comunicação é acelerada por máquinas. O sucesso deste acoplamento depende da capacidade do Direito de manter o seu código (legal/ilegal) soberano sobre a lógica da informação técnica.

Como dizia Luhmann (1995), ao introduzirmos uma diferença que divide o mundo (a distinção entre o humano e o algorítmico), tornamos invisível a unidade. O papel do jurista é ser o observador de segunda ordem que olha para esse acoplamento e garante que, por detrás da tecnologia, não reste "absolutamente nada" além do compromisso com a justiça e a dignidade humana.

5. A OBSERVAÇÃO DE SEGUNDA ORDEM: MÁQUINAS QUE OBSERVAM OBSERVADORES

A teoria de Niklas Luhmann (1995) define a observação como uma operação que utiliza uma distinção para indicar um lado e não o outro. Observar não é um ato passivo de espelhar a realidade, mas uma operação ativa de marcação. Na evolução da teoria dos sistemas, a transição da cibernética de primeira ordem para a de segunda ordem marca a passagem da observação de objetos para a observação de observadores. No contexto do Machine Learning, este conceito ganha uma materialidade técnica sem precedentes: os algoritmos são desenhados especificamente para observar como os sistemas psíquicos (indivíduos) e sociais (comunicação) operam, reagindo a essas observações para gerar novas distinções.

A observação de primeira ordem foca-se no "quê" do mundo. O observador olha para um objeto e distingue-o do seu fundo. Já a observação de segunda ordem, conforme discutido por Baecker (2025), foca-se no "como". Ela observa as distinções que outro observador utiliza para descrever a realidade. Para Luhmann, a sociedade moderna é caracterizada por essa recursividade: vivemos num mundo onde observamos como a ciência, a política e o direito observam os problemas sociais.

Ao transpor este conceito para o Machine Learning, percebemos que a "aprendizagem" da máquina é, essencialmente, uma operação de segunda ordem. O algoritmo não observa a "realidade" em si; ele observa os rastros das observações humanas contidos nos grandes volumes de dados (Big Data). Quando um sistema de recomendação sugere um conteúdo, ele está a observar as seleções (observações) anteriores do utilizador para prever distinções futuras. A máquina torna-se um observador de observadores.

Conforme ressaltado por Zonnchen (2025), "é evidente que não é propriamente a técnica enquanto tal que realiza essas seleções, mas sim um sistema social com um código de informação/não informação". Contudo, quando essa técnica é dotada de Machine Learning, ela passa a realizar seleções que não foram explicitamente programadas, mas que derivam da sua própria rede de operações autorreferenciais.

O ML observa o mundo através de distinções matemáticas (correlações estatísticas). Ao fazê-lo, ele divide o mundo em categorias (interesses, riscos, perfis). Como afirma Luhmann (2004), ao introduzirmos uma diferença que divide o mundo, tornamos invisível a unidade. O ponto cego da observação algorítmica é precisamente a incapacidade de ver o que a sua distinção oculta: a complexidade e a imprevisibilidade da contingência humana. A máquina descreve um mundo fragmentado onde o observador humano é reduzido a um padrão de comportamento previsível.

Se a sociedade é comunicação e a comunicação é uma síntese de informação, ato de comunicar e compreensão, o Machine Learning interfere diretamente nesta síntese. Ao observar os observadores sociais, a IA passa a filtrar o que pode ser informado e como essa informação deve ser compreendida.

Este fenómeno é o que Gunther Teubner (2018) descreve como a "constitucionalização algorítmica". Os algoritmos de segunda ordem criam uma infraestrutura invisível que condiciona a autopoiese do sistema social. No Direito, por exemplo, sistemas preditivos observam a jurisprudência (observações anteriores dos juízes) e geram expectativas sobre o "legal/ilegal". Se o sistema jurídico começa a decidir com base na observação técnica da máquina, ocorre uma substituição da observação jurídica pela observação algorítmica. O Direito deixa de observar a justiça para observar o que a máquina diz que os juízes costumam observar.

Um dos temas centrais de é a questão do "ponto cego". Todo o observador tem um ponto cego, que é a própria distinção que ele utiliza para observar. O observador de segunda ordem pode ver o ponto cego do observador de primeira ordem, mas não consegue ver o seu próprio.

As máquinas de Machine Learning, ao observarem a sociedade, criam pontos cegos sistémicos. Elas podem identificar um "risco de reincidência" observando dados históricos, mas não conseguem "observar" as causas sociais ou as mudanças subjetivas que os dados não capturam. Quando a sociedade confia cegamente na descrição do mundo feita pela tecnologia (imprensa, redes sociais, algoritmos), ela aceita um mundo onde a unidade está invisível. A unidade do mundo — aquilo que liga o legal ao justo, ou o indivíduo à sua dignidade — desaparece por detrás do código de informação/não informação.

Perante máquinas que observam observadores, o papel do Direito Digital e da sociologia jurídica é elevar-se à observação de terceira ordem. É necessário observar como o algoritmo observa os cidadãos. Este é o fundamento do dever de transparência e da explicabilidade algorítmica.

Não se trata apenas de saber "o quê" a IA decidiu, mas "como" ela decidiu — que distinções utilizou, que pesos atribuiu e que pontos cegos criou. Conforme Luhmann (2004), se a sociedade, com o auxílio da tecnologia, descreve a si mesma, o que se esconde por detrás dessa descrição é "absolutamente NADA", a menos que o sistema jurídico mantenha a sua capacidade de introduzir o sentido e a responsabilidade humana nas operações técnicas. O controle humano sobre a IA é, em termos luhmannianos, o esforço de reintegrar a unidade do mundo (a justiça) numa realidade fragmentada por distinções binárias algorítmicas.

O Machine Learning representa a institucionalização da observação de segunda ordem no ambiente técnico. Temos máquinas que aprendem observando como nós aprendemos, decidem observando como nós decidimos e comunicam observando como nós comunicamos.

Como asseverado por Luhmann (2004), a realidade é o processamento ininterrupto de operações. O desafio do Direito é garantir que o processamento algorítmico não asfixie a autopoiese da comunicação jurídica. A máquina pode observar o observador, mas ela não pode substituir a responsabilidade ética da decisão. Observar a máquina é, portanto, o imperativo para garantir que o Direito continue a ser um sistema de sentido e não um subproduto de uma rede neural cega para a humanidade.

6. CONCLUSÃO

O percurso analítico trilhado ao longo deste artigo permitiu uma convergência entre a sociologia sistêmica de Niklas Luhmann e a fronteira tecnológica do Machine Learning. A pergunta fundamental que norteou nossa investigação — se os algoritmos de aprendizagem de máquina poderiam ser compreendidos como sistemas autopoiéticos — encontra uma resposta matizada: embora a IA manifeste um fechamento operacional técnico e uma autorreferência recursiva, ela permanece, para a Teoria dos Sistemas, no domínio da técnica, atuando como um acoplamento estrutural que redefine as condições de possibilidade da comunicação social.

Em primeiro lugar, restou demonstrado que a transposição do conceito de autopoiese de Maturana e Varela para o domínio da tecnologia exige cautela. O Machine Learning, através de redes neurais e processamento paralelo, mimetiza a circularidade da vida e da consciência, mas carece do processamento de sentido (Sinn) que define os sistemas sociais e psíquicos luhmannianos. A "aprendizagem" da máquina é uma operação matemática de redução de incerteza, governada por um código de informação/não informação que, embora autônomo em sua execução, não gera a síntese de compreensão necessária para a comunicação.

Contudo, o fechamento operacional do Machine Learning é real. A opacidade dos algoritmos de "caixa-preta" revela que o sistema técnico opera sob suas próprias distinções, tornando-se inescrutável para o ambiente. Essa autonomia operacional irrita os demais sistemas da sociedade, especialmente o Direito, que se vê forçado a processar seleções técnicas cujos critérios não são jurídicos, mas estatísticos.

A análise do acoplamento estrutural entre algoritmos e o Direito revelou que o sistema jurídico está em um processo de adaptação profunda. Instrumentos como a LGPD e o Marco Civil da Internet são tentativas do sistema jurídico de manter seu fechamento operacional (decidir conforme o código legal/ilegal) enquanto tenta "domesticar" a lógica da informação técnica. Concluímos que o risco de colonização do Direito pela técnica é a maior ameaça à diferenciação funcional da sociedade moderna.

Se o Direito abdicar de sua função de observador de segunda ordem e passar a aceitar as predições algorítmicas como "fatos neutros", ele perderá sua autopoiese. A justiça, enquanto fórmula de contingência do sistema jurídico, não pode ser substituída por métricas de eficiência. O acoplamento estrutural deve servir para aumentar a complexidade do Direito, permitindo-lhe lidar com o novo volume de dados, sem, contudo, permitir que a lógica do 0 e 1 suplante a ponderação normativa e a dignidade humana.

A discussão sobre a observação de segunda ordem foi o ponto culminante deste trabalho. Verificamos que o Machine Learning atua como uma máquina de observação que monitora os observadores sociais. Ao fragmentar o mundo em correlações, a IA cria um "ponto cego" massivo: a invisibilidade da unidade social e da responsabilidade ética. Ao introduzirmos uma diferença que divide o mundo (a distinção algorítmica), tornamos invisível a unidade (o humano).

O futuro da governança algorítmica depende da nossa capacidade de exercer uma observação de terceira ordem. Cabe ao jurista e ao sociólogo observar como as máquinas observam. Somente através da explicabilidade e da transparência — que são, em última análise, exigências de comunicação — poderemos garantir que a autopoiese social não seja sufocada por um "fechamento técnico" absoluto.

Ao final deste artigo, retomamos a provocação de Luhmann: se a sociedade, com o auxílio da tecnologia, descreve a si mesma, o que estaria por detrás? A resposta, "absolutamente NADA", não é um niilismo, mas a afirmação de que a realidade é o próprio processar ininterrupto das operações.

O Machine Learning é agora parte indissociável desse processar. Ele não é uma "ferramenta" que usamos, mas um sistema que co-evolui com a sociedade. O desafio do Direito Digital é garantir que, nesse fluxo incessante de operações, a distinção entre homem e máquina não apague o que há de mais essencial na comunicação jurídica: a busca pela justiça no caso concreto. A autopoiese do Direito deve resistir à tentação do automatismo, reafirmando que a decisão jurídica é, e deve continuar sendo, um ato de sentido humano.

REFERÊNCIAS BIBLIOGRÁFICAS

ESPOSITO, Elena. Artificial Communication: How Algorithms Produce Social Intelligence. Cambridge: MIT Press, 2022.

LUHMANN, Niklas. Social Systems. Stanford: Stanford University Press, 1995.

LUHMANN, Niklas. Law as a Social System. Oxford: Oxford University Press, 2004.

LUHMANN, Niklas. Introduction to Systems Theory. Cambridge: Polity Press, 2013.

LUHMANN CONFERENCE, 2025, Cambridge. The Matrix Reloaded: algorithms and social systems. Cambridge: Cambridge University Press, 2025.

MATURANA, Humberto; VARELA, Francisco. Autopoiesis and Cognition: The Realization of the Living. Dordrecht: Reidel, 1980.

TEUBNER, Gunther. Digitaler Faschismus? Verfassungsfragen der algorithmischen Steuerung. Berlim: Duncker & Humblot, 2018.

BAECKER, Dirk. Distinguishing Next Society. In: Current Sociology, v. 73, n. 3. Disponível em: https://journals.sagepub.com/toc/csia/73/4. Acesso em 15 nov. 2025.

ZÖNNCHEN, Bendikt. et al. From intelligence to autopoiesis: rethinking artificial intelligence through systems theory. In: Frontiers in Communication. Disponível em: https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1585321/full. Acesso em 15 nov. 2025.

TAEKKE, Jan. Algorithmic Differentiation of Society – a Luhmann perspective on the societal impact of digital media. In. Journal of Sociocybernetics, v. 18. 2022. Disponível em: https://papiro.unizar.es/ojs/index.php/rc51-jos/en/article/view/6225. Acesso em 15 nov. 2025.


1 Doutorando em Direito - Faculdade de Direito de São Paulo - FADISP.Mestre em Direito pela Escola Paulista de Direito – EPD. MBA em Administração Gestão e Marketing do Negócio Jurídico e Especialista em LGPD pela Faculdade Legale. Cientista de Dados pela Data Science Academy – DSA. Gerente Jurídico. Advogado