IMPLICAÇÕES PEDAGÓGICAS, SUBJETIVAS E EPISTEMOLÓGICAS DO CHAT GPT NA EDUCAÇÃO

PDF: Clique aqui


REGISTRO DOI: 10.5281/zenodo.18779059


Evandro Carlos Salermo1
Luciano Rodrigues Santos2


RESUMO
O presente artigo analisa os efeitos da incorporação de inteligências artificiais generativas ao campo educativo, com ênfase no ChatGPT, entendido como expressão de uma nova racionalidade técnica. Sustenta-se a hipótese de que tais dispositivos para além de reorganizar mediação pedagógica, reconfiguram a própria experiência formativa ao automatizar a linguagem, antecipar respostas e modificar os processos de subjetivação. Ancorado na filosofia da técnica, o texto se estrutura em três eixos: uma problematização das relações entre técnica, linguagem e formação; uma análise dos impactos da predição algorítmica sobre a autoria e a escuta pedagógica; e uma leitura de experiências institucionais que evidenciam os riscos ético-formativos da adesão irrefletida a essas tecnologias. Os achados sustentam a emergência desse novo regime técnico, cujo enfrentamento demanda práticas educativas capazes de preservar o trabalho da elaboração subjetiva frente à homogeneização expressiva, à neutralização do erro e ao enfraquecimento do vínculo formativo.
Palavras-chave: Educação. Chat Gpt. Subjetividade.

ABSTRACT
This article analyzes the effects of incorporating generative artificial intelligences into the educational field, with an emphasis on ChatGPT, understood as an expression of a new technical rationality. It argues that such systems, beyond reorganizing pedagogical mediation, reconfigure the formative experience itself by automating language, anticipating responses, and modifying the subjectivation processes. Grounded in the philosophy of technology, the text is structured around three axes: a conceptual problematization of the relations between technique, language, and education; an analysis of the impacts of algorithmic prediction on authorship and pedagogical listening; and an examination of institutional experiences that reveal the ethical and formative risks of uncritical adherence to these technologies. The findings support the emergence of this new technical regime, which demands educational practices capable of preserving subjective elaboration in the face of expressive homogenization, the neutralization of error, and the weakening of formative bonds.
Keywords: Education. ChatGpt. Subjectivity.

1. INTRODUÇÃO

A incorporação acelerada de inteligências artificiais generativas ao cotidiano escolar, processo ainda em curso, reconfigura os modos como o conhecimento é produzido e mediado, afetando diretamente a subjetividade discente, forçando a uma reavaliação das perspectivas sobre a aprendizagem. No centro desse movimento, destacam-se modelos interativos como o ChatGPT, lançado em 2022 pela OpenAI e rapidamente difundido em versões subsequentes como GPT-4 e GPT-4.0, que segue figurando como artefato paradigmático de uma nova racionalidade técnica aplicada ao campo educacional.

À luz dessa conjuntura, o presente estudo tem por objetivo investigar os efeitos dessa presença tecnológica sobre os modos de ensinar e aprender, mormente as transformações subjetivas que emergem da adoção do ChatGPT em contextos educacionais. Ainda que não se restrinja a um nível específico de ensino, o trabalho dedica atenção especial aos impactos que se manifestam nos ambientes escolares e acadêmicos, espaços nos quais a adesão a esses dispositivos tende a desencadear mudanças estruturais. Situando o ChatGPT como expressão de uma nova lógica de organização do saber, o artigo busca contribuir para o debate crítico sobre a apropriação da inteligência artificial pelo campo da educação, destacando os riscos de sua institucionalização acrítica e seus efeitos sobre a dimensão formativa do ato pedagógico.

A reflexão teórica desenvolvida adota uma abordagem qualitativa, de natureza filosófico-analítica, sustentada em revisão interpretativa da literatura e ancorada em contribuições da filosofia da técnica. Parte-se da hipótese de que a incorporação de inteligências artificiais generativas às práticas escolares opera transformações que permeiam os modos de aprender e ensinar, produzindo efeitos diretos sobre a constituição subjetiva dos estudantes. Ao submeter a experiência formativa à lógica da antecipação algorítmica, tais tecnologias comprimem o tempo da elaboração interior, reduzem a abertura ao imprevisto e tendem a reconfigurar o papel do sujeito no processo educativo, subordinando-o a esquemas preditivos que tendem a esboroar a densidade reflexiva e o vínculo relacional típico da aprendizagem.

A articulação conceitual estrutura-se em três eixos interligados: uma problematização filosófica da técnica enquanto fundamento do ato educativo; uma análise crítica das transformações da subjetividade operadas pela mediação tecnológica no processo de formação; e, por fim, o exame de experiências empíricas recentes que evidenciam os riscos e dilemas pedagógicos decorrentes da adesão institucional a essas tecnologias

2. ENQUADRAMENTO TEÓRICO-METODOLÓGICO

Este estudo situa-se no campo das pesquisas de natureza básica, voltadas à análise e ao aprofundamento crítico de objetos sociotécnicos. A investigação adota o método filosófico-interpretativo em um percurso teórico estruturado por revisão de literatura analítica e fundamentado em categorias como subjetividade, técnica, linguagem e educação. Não se configura como levantamento empírico nem como revisão sistemática regida por protocolos replicáveis. A proposta aqui desenvolvida segue uma via interpretativa, orientada por inquietações conceituais e pela intenção de compreender as camadas menos visíveis da introdução da linguagem automatizada nas práticas formativas, nas quais se entrelaçam processos tecnológicos e pedagógicos.

Para alcançar seu intento, ancora-se em um referencial adrede selecionado, evitando assim, a dispersão bibliográfica comum em revisões de escopo amplo, optando por uma curadoria teórica que permita apreender as transformações nos modos de subjetivação provocadas pela incorporação da inteligência artificial generativa ChatGPT na seara educacional. Tal opção metodológica se insere no escopo da pesquisa qualitativa, que, segundo Minayo (2011), visa compreender a complexidade dos fenômenos em seu contexto, reconhecendo a importância das interpretações e experiências na construção do conhecimento.

A seleção bibliográfica privilegiou autores cuja obra permitiu atritar criticamente os efeitos do chatbot sobre a subjetividade do alunado. A análise combina aportes clássicos da filosofia da técnica com contribuições contemporâneas sobre mediação algorítmica e práticas educativas digitais. Também foram incorporadas referências atuais que tematizam diretamente o impacto do ChatGPT no campo educacional.

Em tempo: os exemplos de uso do ChatGPT apresentados ao longo do texto cumprem função ilustrativa, como sintomas de um processo mais amplo de transposição educacional para regimes automatizados de textualidade. Foram selecionados conforme sua capacidade de evidenciar efeitos perceptíveis cuja implicação esteja relacionada à utilização dessas ferramentas em contextos escolares e acadêmicos. Outrossim, foram incluídos estudos que contém situações que explicitam tensões em torno da autoria, da mediação docente e da elaboração subjetiva. Excluíram-se registros meramente instrumentais, voltados à eficiência ou à aplicabilidade pragmática, por não contribuírem à problematização crítica proposta neste trabalho.

3. CHAT GPT E A TÉCNICA COMO PROBLEMA PEDAGÓGICO

Em nenhum outro sentido, senão aquele em que Napoleão falava da política há 150 anos, e Marx falava da economia há 100 anos, a técnica é agora o nosso destino histórico. E embora talvez não possamos guiar a mão desse destino ou enxergar seus limites, não devemos abrir mão desse esforço. (Anders, 2025, p.56)

A expansão de inteligências artificiais generativas no campo educacional, como o ChatGPT, suscita questionamentos que vão além de critérios como inovação tecnológica ou eficiência pedagógica, uma vez que, mais do que uma novidade funcional, essas ferramentas apontam para a tecnificação do ato educativo. Logo, a problemática reside nas mutações quase imperceptíveis que elas operam no modo como nos constituímos e, por consequência, nos próprios fundamentos do aprender. Em última instância, é a própria lógica formativa que se reconfigura.

A técnica, nos termos de Heidegger, está longe de ser neutra; ela configura o horizonte a partir do qual percebemos, compreendemos e nos relacionamos com o mundo. Em A Questão da Técnica, o filósofo alemão propõe o conceito de Gestell, que pode ser traduzido como "estrutura de enquadramento", a fim de descrever o modo específico como aquela funciona. A saber, como um estoque de recursos prontos a serem usados. Todavia, o que move a investigação não é a técnica enquanto tal, mas o perigo de ela se tornar o unívoco meio de desvelamento do ser, substituindo outras formas de abertura e relação com o mundo (Heidegger, 2001).

Esse modo de revelação, ao enquadrar o mundo como um conjunto de recursos disponíveis e previsíveis, modela também a maneira como o indivíduo se relaciona com a experiência, consigo mesmo e com os outros. Nesse horizonte, o ChatGPT, para além de responder, antecipa, estrutura e padroniza a relação do sujeito com o saber. Com isso, instaura-se uma lógica de eficiência que enfraquece os processos formativos baseados na dúvida, na abertura e na elaboração singular. Como aponta Bernard Stiegler (2010), tal dinâmica conduz a uma “proletarização da cognição” na qual o sujeito se vê despossuído da capacidade de pensar por si ao delegar aos aparatos técnicos a mediação da experiência. No campo educacional, em vez de ser convocado à reflexão, o estudante é absorvido por uma temporalidade marcada por retornos imediatos, que dissolve o intervalo necessário para a formação.

A antecipação organizada segundo padrões probabilísticos e não experienciais, tende a cristalizar uma lógica de produtividade comunicacional que desconsidera regimes próprios do pensamento. O fazer pedagógico, historicamente associado à escuta, ao silêncio e à elaboração subjetiva, é substituído pela prontidão. Decorre disso que a lógica da IA despotencializa a pedagogia de sua tensão constitutiva oriunda da incerteza.

Escrevendo no contexto da Guerra Fria, Herbert Marcuse denunciava o predomínio de uma racionalidade que sufocava a criticidade. Para o filósofo, a techné moderna não se limita a organizar a produção ou o mundo exterior, mas impõe uma forma específica de consciência, orientada à funcionalidade e à repetição. Estendendo-se a diversas esferas da vida social, o cálculo automático tende a substituir o processo formativo pela eficiência operacional. A linguagem deixa de ser gesto subjetivo e torna-se produto de sistemas, enquanto a reflexão é substituída por respostas programadas. Marcuse ilustra esse fenômeno a partir da análise da dominação:

A dinâmica incessante do progresso técnico se tornou permeada de conteúdo político, e o Logos da técnica tem sido transformado no Logos da servidão contínua. A força libertadora da tecnologia – a instrumentalização das coisas – se transforma em um grilhão da libertação; a instrumentalização do homem. (Marcuse, 2015, p. 165)

No que diz respeito ao fazer pedagógico, esse diagnóstico mantém sua pertinência. O estudante da escola atual, integrado ao mecanismo da IA, submete sua produção textual às lógicas algorítmicas da performance, comprometendo sua autonomia formativa. A racionalidade da máquina organiza o ensino, reconfigurando assim o próprio modo de aprender, e ainda obscurecendo as zonas de hesitação e conflito que constituem o cerne da experiência pedagógica.

Andrew Feenberg (2002) contribui para reflexão ao compreender a tecnologia como fenômeno historicamente situado e socialmente configurado. Recusando tanto o otimismo tecnocrático quanto os determinismos tecnológicos, propõe uma abordagem crítica, entendendo a definição e os usos dos dispositivos como um terreno em disputa no qual estão inscritos interesses específicos associados à lógica do capital. Sobrepostos ao aparato técnico, tais valores estão inscritos em sua própria constituição e operação, conformando formas de ação. As instituições educacionais, ao se adaptarem ao avanço tecnológico, participam de um processo especular no qual a tecnologia se transforma em contrapartida das condições sociais e, ao mesmo tempo, as influencia (Feenberg, 2002, p. 143).

Faz-se necessário, ainda, trazer à discussão Yuk Hui (2020), que propõe uma “cosmotécnica” desafiadora da universalização ocidental, ilustrando assim outro ponto de contato com o tema. Para Hui, a técnica não é neutra nem universal; é atravessada por imaginários culturais, por modos de ser e de habitar o mundo. A hegemonia dos sistemas técnicos contemporâneos, especialmente os algoritmos baseados em redes neurais, padroniza a produção de sentido, e, plus ultra, globaliza um modelo de pensamento maquínico fundado na predição e na aceleração.

Por escamotear a pluralidade, os dispositivos globalizados impõem um modelo hegemonizante de pensar e a linguagem, por conseguinte, tende à homogeneização. A produção textual automatizada por IA, como no caso do ChatGPT, opera a partir de bancos de dados majoritariamente em inglês e com forte viés anglo-americano, o que conduz à repetição de padrões sintáticos e argumentativos alinhados a um imaginário tecnocientífico dominante. A consequência é dupla. Por um lado, marginalizam-se formas alternativas de expressão, ligadas a outras cosmologias, a outros ritmos, a outras epistemologias; por outro, promove-se uma forma de linguagem codificada, previsível e autorreferencial.

Critérios de coerência, clareza e pertinência são estabilizados segundo parâmetros tecnicamente quantificáveis por tais tecnologias, o que contribue para a delimitação do que pode ser reconhecido como conhecimento legítimo. Logo, epistemes que operam por aproximação, silêncio, metáfora ou complexidade relacional, características marcantes de diversas tradições não ocidentais, passam a ser vistas como ruído. A inteligência artificial, nesse caso, atua como vetor de apagamento epistêmico. Não nega explicitamente outras formas de saber, mas impede sua emergência ao não as reconhecer como computáveis.

No mais, essa lógica se reforça com a aparência de neutralidade programada. O ChatGPT, em sua tentativa de oferecer informações seguras e imparciais, termina por condicionar a uma linguagem “não conflitiva”, higienizada, que evita zonas de ambiguidade e dissenso. A polidez algorítmica, longe de ser inofensiva, apresenta o consenso como padrão comunicativo e inibe a emergência da confrontação produtiva. A pretensa imparcialidade técnica atua engessando o discurso, reforçando valores dominantes sob a aparência de neutralidade. Eis uma nova forma de conformismo; não imposto pela repressão, mas por meio da suavização do conflito.

Noutro giro, sabe-se que essas inteligências generativas são treinadas a partir de vastos corpos textuais, tais como livros, artigos, sites, fóruns que, longe de representarem um retrato neutro da cultura, carregam consigo as marcas de suas origens: crenças dominantes, exclusões sistemáticas, estereótipos persistentes. Como consequência, os vieses presentes nesses dados tendem a ser reproduzidos, podendo se manifestar em formas sutis ou explícitas de apagamento ou mesmo deslegitimação de vozes.

Como observa James Bridle, é fundamental, pois, reconhecer que

A tecnologia não emerge do vácuo. É, isso sim, a reificação de um conjunto particular de crenças e desejos: as disposições congruentes, mesmo que inconscientes, de seus criadores. A qualquer momento ela é montada a partir de uma caixa de ferramentas de ideias e fantasias desenvolvidas ao longo de gerações, através da evolução e da cultura, da pedagogia e da discussão, infinitamente emaranhada e envolvente. (Bridle, 2022, p.156)

As decisões envolvidas no desenvolvimento dessas tecnologias, como a seleção de dados, a definição de objetivos e a configuração de filtros, são atravessadas por valores, interesses e epistemologias dominantes. Quando transpostos para ambientes educacionais, há risco de amplificar desigualdades já existentes, pois consolidam uma arquitetura que privilegia determinados modos de falar e pensar. O ambiente escolar, que deveria ser espaço de multiplicidade de perspectivas, pode, assim, ser tensionado por aparatos sociotécnicos que reduzem o dissenso à disfunção e a diferença ao erro.

4. O APAGAMENTO DA SUBJETIVIDADE E A CRISE DA FORMAÇÃO

Quando se inventa o navio, também se inventa o naufrágio; quando se inventa o avião, inventa-se o acidente aéreo; e quando se inventa a eletricidade, inventa-se a eletrocução. Cada tecnologia carrega consigo sua própria negatividade, que é inventada ao mesmo tempo que o progresso técnico. (Virilio, 1999, p. 89)

O deslocamento da técnica como instrumento para condição ontológica de horizonte agudiza a problemática da formação. A essa altura, a indagação já não pode se limitar ao que se faz com a tecnologia, mas ao que a tecnologia faz com aqueles que a utilizam. Como advertiu McLuhan (2002), o meio é a mensagem. O impacto das tecnologias se faz sentir no modo como reconfiguram os próprios processos perceptivos e cognitivos. Se todo ferramental é uma extensão do corpo e da mente, como sugeriu o autor, então a interação com sistemas generativos como o ChatGPT atua diretamente sobre a constituição da subjetividade.

Nesse registro, Guattari (1988) propõe o conceito de sujeição maquínica para pensar as formas pelas quais o sujeito se vê engendrado por agenciamentos técnicos. A subjetividade, nesse contexto, não precede a máquina; ao contrário, constitui-se na e pela relação com ela. O exemplo oferecido pelo autor é ilustrativo: ao dirigir um carro, o indivíduo não atua a partir de uma interioridade autônoma, mas se integra ao mecanismo técnico por meio de uma articulação servo-mecânica (Guattari, 2005). De modo análogo, na interação com inteligências artificiais, o sujeito participa de um circuito em que a individuação tende a ser dissolvida pela automatização da experiência.

Ao se habituar aos feedbacks gerados pelo modelo, o usuário gradativamente adapta seu estilo comunicativo para se alinhar à razão da máquina. Tal adaptação implica mudanças na clareza, na concisão e mesmo na maneira de exteriorizar pensamentos e emoções, configurando, assim, uma transformação da subjetividade humana no contexto da interação comunicativa. Nesse sentido, é pertinente recordar a reflexão de Han (2022), que destaca como qualidade constituinte da inteligência artificial a apatia, já que é desprovida de pathos (paixão), reduzida a um cálculo frio, sem envolvimento afetivo.

Na mesma toada, essa relação com autômatos implica um risco de atrofia na capacidade humana de captar as sutilezas inerentes à comunicação interpessoal. Como observa Berardi (2020), à medida que se interage com máquinas, perdem-se progressivamente a sensibilidade para nuances como a ironia e a sedução, dimensões da linguagem que dependem de pistas contextuais e paralinguísticas complexas. Tais elementos, que desafiam a compreensão plena das arquiteturas de IA (no que se inclui o Chat GPT), tendem a ser marginalizados na comunicação humano-máquina, cedendo espaço a um predomínio da linguagem robotizada que o usuário, por sua vez, acaba por assimilar.

Nesse sentido, no que toca ao tema, há uma inflexão significativa na natureza do discurso escolar/acadêmico, especialmente no que diz respeito à constituição da autoria e da enunciação, emergindo daí um novo regime discursivo, no qual a produção textual se desvincula de um sujeito historicamente situado. Embora Barthes (1971), no campo da crítica literária, tenha proposto a “morte do autor” como crítica à soberania autoral e ao privilégio da intenção sobre a interpretação, a lógica das inteligências artificiais promove outro tipo de deslocamento. Opera-se não a transferência da centralidade do sentido para o leitor, mas a supressão da própria figura do enunciante humano.

Não obstante, a autoria, enquanto operação epistemológica e ética, exige mais do que articulação sintática; pressupõe a presença de um sujeito que assume a responsabilidade pelo dizer, inscrevendo-se temporal e simbolicamente no mundo. Segundo Ricoeur (1994), a linguagem narrativa e argumentativa constitui um modo de projeção de si, por meio do qual o indivíduo constrói significado e elabora sua identidade. Quando a escrita é delegada a uma plataforma automatizada, esse processo é interrompido e o dizer dá espaço à geração automática.

De forma análoga, a alienação manifesta-se como expropriação da autoria subjetiva. Como já apontava Marx (2011), em sua análise clássica sobre a alienação no trabalho, o operário se distancia do resultado de sua ação, que passa a existir como algo externo e autônomo, uma força estranha e independente. Nesse processo de dissociação ocorre a perda do domínio sobre o objeto produzido e a fragmentação do vínculo entre o sujeito e sua própria capacidade produtiva. O trabalhador alienado não se reconhece naquilo que cria e sua atividade deixa de ser a expressão de seu engenho humano para converter-se em mercadoria.

Situando essa crítica no campo da inteligência artificial aplicada à educação, o estudante, ao delegar a elaboração do texto a um chatbot, vivencia uma modalidade contemporânea de desconexão. O texto que ele “assina” deixa de ser resultado de sua reflexão para transformar-se em um artefato externo, gerado por uma máquina que segue padrões probabilísticos e pré-determinados. Assim como o trabalhador alienado descrito por Marx, o aluno se torna estranho diante do produto de sua atividade, nesse caso um texto que, embora formalmente lhe pertença, não traduz sua cosmovisão.

A linguagem, nesse quadrante, opera como uma ponte instável entre o eu que se maquiniza e a máquina que emula o humano. Nesse entrelaçamento que se fragiliza a autoria, pois o sujeito, ao se acomodar à lógica da predição, delega o dizer de modo a reformular a si mesmo segundo os parâmetros dos retornos automatizados. A formação, longe de ser processo de elaboração, passa a ser assimilação de padrões.

Ademais, Berardi (2019), amplia essa perspectiva ao enfatizar como a semiose digital captura a subjetividade, convertendo a linguagem em mero instrumento técnico e comunicacional, destituído de profundidade existencial. A autoria, que outrora representava a expressão de uma interioridade, é transformada em uma operação mecânica, reduzida a uma função algorítmica que simula a criação, mas sem a presença efetiva do sujeito. Nessa dinâmica, o aprendizado deixa de ser um processo de construção de significado e de elaboração para se transformar em um consumo passivo de conteúdos prontos e acabados.

Em continuidade a essa reconfiguração, a formação acadêmica tende a ser organizada em torno de um imperativo do desempenho imediato. A temporalidade característica dos processos educativos, marcada por elaboração progressiva, erro, revisão e amadurecimento, é comprimida pela instantaneidade do oráculo automatizado. Conforme argumenta Benjamin (1985), a experiência formativa implica memória, transmissão e transformação subjetiva, elementos que não encontram lugar na instantaneidade da IA. A preempção operada por pelo ChatGPT, dissolve o intervalo entre a dúvida e a construção de sentido, eliminando o tempo necessário à formação educacional.

Adorno (1995) já havia advertido que o pensamento exige conflito e trabalho. Ele se forma na tensão entre o sujeito e a negatividade do real. Em contraste, os textos produzidos por inteligência artificial oferecem soluções formais que, longe da experiência vivida, emergem combinação estatística de sequências textuais previamente codificadas. Como efeito da mediação técnica, o sujeito é alijado do esforço cognitivo necessário à construção do saber, instaurando-se uma forma de alienação cognitiva. A individualidade é substituída por uma performance de competência, a aparência de domínio sem experiência. A linguagem, transformada em output técnico, já não intermedeia a relação entre o eu e a realidade, mas apenas simula comunicação.

Acrescenta-se a esse quadro a erosão de uma dimensão central da formação: o lugar do erro. Na pedagogia tradicional, este não é um desvio a ser corrigido sumariamente, mas um operador epistêmico fundamental, uma experiência que tensiona o saber instituído, convocando o sujeito à elaboração ativa. Como sublinha Edgar Morin (2000, p. 85), "o erro não é um acidente no caminho do conhecimento, é um de seus motores". É justamente na fratura da certeza que o conhecimento se reorganiza. O apagamento desse momento formativo pela IA, com suas soluções polidas e livres de hesitação, elimina o intervalo produtivo entre a pergunta e sua formulação, lixiviando o percurso de aprendizagem. Perde-se, assim uma oportunidade pedagógica. Como bem lembra Canguilhem (2002), errar não é apenas não acertar, mas explorar o possível, desbravar territórios ainda não codificados. Recuperar o valor formativo do erro implica, portanto, resistir à racionalidade da correção imediata e reinstaurar o lugar de experimentação.

Ainda mais, as relações entre professor e aluno, outrora marcadas por temporalidade, escuta e reconhecimento mútuo, são redimensionadas por interações com sistemas que não escutam e não se comovem. Para Larrosa (2017), a escuta pedagógica exige presença real, não apenas capacidade de interlocução; ela é acontecimento, não operação. Ao responder instantaneamente, a IA não somente oferece conteúdos, ela silencia a espera, a dúvida e a presença. E nesse movimento, esvazia-se a pedagogia como processo dialógico. Arendt (2000) já apontava que educar é ocupar-se do mundo diante de outros, comprometendo-se com a transmissão e com o cuidado. Um dispositivo, por mais avançado que seja, não assume tal responsabilidade, somente executa.

Por outro lado, o empobrecimento da relação educativa não é apenas afetivo, mas também epistemológico. A produção do conhecimento não ocorre em abstração, mas na trama da linguagem compartilhada. Quando o vínculo pedagógico se torna transacional, compromete-se a construção coletiva do sentido. Como Charlot (2000) argumenta, aprender é sempre também fazer algo de si: não há conhecimento fora do vínculo com o outro.

Diante disso, a figura do professor, por sua vez, tende a ser redesenhada como operador de plataformas ou curador de conteúdos produzidos por IA, mutação que compromete sua função, pois reduz sua presença a um ponto de mediação técnica. A escuta ativa perde espaço para um modelo de intervenção baseado na previsibilidade e na correção automática. A singularidade e o imprevisto do diálogo, o silêncio como forma de elaboração, todos esses elementos, fundamentais ao processo formativo, são escanteados.

Ainda a previsibilidade algorítmica, característica dos modelos de linguagem artificial, impõe um regime de produção textual que privilegia a repetição estatística em detrimento da invenção. Simondon (2005) lembra que a individuação (processo constitutivo da subjetividade) nasce da emergência de instabilidades, do confronto com o inédito. Uma vez que o discurso educativo é antecipado por padrões de linguagem codificados, esvazia-se a possibilidade de criação e se bloqueia a emergência do singular. A IA transforma a linguagem num dispositivo de conservação, e não de problematização ao reiterar formas consagradas. Nesse horizonte, o saber não advém da ruptura com o instituído, mas da adaptação ao previsível.

Mais do que uma transformação nos instrumentos pedagógicos, o que se presencia é uma reconfiguração das próprias condições de possibilidade do vínculo educativo. Lévinas (1993) concebia a ética como relação com o rosto do outro, encontro que nos desestabiliza, que nos convoca. Substituindo o rosto pelo código, a escuta pela filtragem e o diálogo pela réplica programada, a inteligência artificial desfaz o terreno da formação como alteridade, ruptura que não compromete somente a relação com o outro, também prejudica o que Gumbrecht (2004) denomina produção de presença, a dimensão corporal, afetiva e temporal da experiência, que não se reduz ao sentido. Para este, a tradição ocidental privilegiou excessivamente a hermenêutica, esquecendo que o conhecimento também se funda em modos de estar no mundo, de compartilhar o tempo e o espaço. Na pedagogia, isso implica reconhecer que aprender não é apenas decodificar significados, mas participar de um acontecimento que envolve corpos, ritmos, silêncios e afetos. O estudante, diante de uma linguagem sem corpo, não encontra ali um interlocutor, mas uma superfície operacional; e o professor, por sua vez, perde a chance de instaurar o espaço do encontro, transformando-se em operador de interfaces.

Finalmente, a palavra é entendida por Merleau-Ponty (2006) como desvinculação entre expressão e experiência. Reduzida à superfície digital sem corpo, sem entoação, sem silêncio, não é uma ação que incorpora presença, mas uma função lógica de geração. A IA nesse sentido esboroa as marcas da existência que caracterizam a enunciação humana. Isso compromete não a própria constituição subjetiva, pois é na linguagem que o eu se reconhece, se afirma e se transforma.

5. MAPEAMENTO DE EVIDÊNCIAS SOBRE A CRISE DA SUBJETIVIDADE NA APRENDIZAGEM

As seções anteriores trataram das transformações na constituição da subjetividade que o uso de inteligências artificiais generativas como o ChatGPT opera, com ênfase na formação educacional. No entanto, para que essa avaliação não permaneça encerrada no plano da filosofia da técnica, é mister submetê-la à prova avaliando seus efeitos concretos nos espaços institucionais de aprendizagem. A relação entre teoria e pesquisa é de interdependência, vez que sem pesquisa empírica, a teorização corre o risco de se tornar especulativa, enquanto a pesquisa sem amparo teórico pode se tornar mero colecionamento de dados (Bourdieu et al., 2007).

Como propõe Biesta (2013), a educação não pode se restringir às funções de qualificação e socialização; ela deve alcançar a dimensão de subjetivação, que implica a constituição de sujeitos capazes de responder por seus juízos e atos. Logo, a análise precisa encontrar desdobramento empírico, revelando como suas implicações se traduzem em alterações estruturais nos modos de aprendizagem.

Assim, esta seção visa mapear estudos, experiências docentes e investigações recentes que ajudam a delimitar o impacto formativo da inteligência artificial generativa na seara educacional. Opta-se, neste ponto, por não incluir experiências de resistência ativa ou de apropriação crítica da IA por parte de educadores ou estudantes de modo a manter o foco analítico sobre os efeitos daquela e os riscos de adesão irrefletida que têm se manifestado com maior recorrência nas investigações recentes. Cabe sublinhar que este mapeamento possui caráter ilustrativo e não exaustivo.

Assim, foram selecionados estudos empíricos publicados entre 2023 e 2025, com diversidade metodológica, cobertura de distintos níveis educacionais e contextos geográficos diversos, de modo a garantir representatividade contextual sem diluir o foco analítico; estudos estes cujos achados permitiram tensionar diretamente a hipótese teórica central, a despeito da extensa literatura existente sobre o tema.

Primeiramente, o artigo conduzido por Forero e Herrera Suárez (2023), intitulado ChatGPT in the Classroom: Boon or Bane for Physics Education, oferece dados empíricos particularmente elucidativos sobre os efeitos pedagógicos da inserção de inteligências artificiais generativas no ambiente universitário. A pesquisa envolveu duas turmas de estudantes de engenharia: uma delas teve acesso à plataforma como ferramenta de apoio às atividades de uma disciplina de Física II; a outra seguiu o currículo tradicional, sem uso da ferramenta. Os resultados apontam para um desempenho inferior entre os estudantes que utilizaram o ChatGPT, tanto em termos de notas obtidas quanto de ganhos conceituais medidos ao longo do curso.

Os autores atribuem esse resultado a uma combinação de fatores: a passividade induzida pelo uso da IA, o enfraquecimento do raciocínio autônomo e a confiança excessiva nos feedbacks oferecidos pela ferramenta, mesmo quando incorretas. Foi constatado, ademais, que o grupo experimental interagia com o conteúdo de modo mais superficial, demonstrando menor retenção conceitual e menos disposição para resolver problemas sem apoio externo.
A pesquisa finda com o diagnóstico de que, embora o chatbot ofereça respostas rápidas e sintaticamente claras, seu uso não mediado compromete a qualidade do aprendizado, favorecendo um estilo de estudo centrado no binômio consulta/reprodução. Em vez de estimular a elaboração própria, o recurso induz à dependência da ferramenta, reduzindo o engajamento cognitivo necessário à formação conceitual sólida (Forero & Herrera Suárez, 2023).

Outro estudo, conduzido no contexto brasileiro por Barreto Hygino Machado et al. (2024), sedimenta a constatação anterior ao investigar a percepção e o uso do ChatGPT por estudantes do Ensino Médio no interior do Rio Grande do Norte. Os participantes relataram empregar a ferramenta como suporte escolar, em tarefas extracurriculares, organização pessoal e atividades de lazer. A pesquisa delineia a priori que, mesmo em realidades escolares marcadas por limitações de infraestrutura e recursos, a inteligência artificial generativa já se faz presente de modo significativo no cotidiano educacional dos discentes.

O que chama atenção, no entanto, é que, embora os estudantes demonstrassem entusiasmo e otimismo quanto ao potencial da inteligência artificial generativa em questão, não deixaram de manifestar inquietações quanto à perda de autonomia no processo de aprendizagem. Alguns reconheceram a sensação de que o uso contínuo da IA reduziu sua própria capacidade de escrever, interpretar e pensar de maneira independente, o que retoma diretamente os diagnósticos críticos das seções anteriores. Em outras palavras, a percepção empírica dos próprios sujeitos em formação já intui, ainda que de forma não sistematizada, os efeitos da alienação cognitiva provocados pela imediatidade. A pesquisa também expressa que, ao contrário do que se poderia supor, o uso da IA não elimina as dúvidas nem resolve integralmente os problemas acadêmicos, agindo apenas de modo a reconfigurá-los. Não obstante possa fomentar a elaboração de raciocínios próprios, tende a induzir formas de consulta sucessiva, em que o estudante retorna repetidamente à ferramenta em busca de validação ou simplificação. Os pesquisadores objetam que tal padrão de uso sugere uma crescente dependência epistêmica que desestimula a perseverança diante de dificuldades.

De modo revelador, o estudo também aponta que muitos estudantes, ao utilizarem o ChatGPT para redigir trabalhos escolares, o fizeram com certo desconforto ético, percebendo que o texto gerado não expressou suas experiências, suas ideias ou suas vozes. Ou seja, ainda que o texto gerado possa atender às exigências formais das instituições, ele não se inscreve no processo de significação pessoal, evidenciando uma cisão entre o produto final e o percurso subjetivo que deveria sustentá-lo (Barreto Hygino Machado et al., 2024).

Prosseguindo, o levantamento de percepção realizado no Rio Grande do Sul por Silva, Vidotto e Tarouco (2024) lança luz sobre como a presença do ChatGPT no ensino médio e técnico reverbera de forma concreta nas práticas escolares. A pesquisa, realizada com docentes e alunos de uma escola pública, dispõe que, embora a maioria reconheça o potencial da plataforma para contribuir na elaboração de recursos didáticos e no apoio à pesquisa, sobressai também uma apreensão recorrente: o uso sistemático da ferramenta tende a encorajar o consumo de explicações prontas, sem que alunos vivenciem o processo cognitivo da construção do sentido.

Demonstrou-se assim que muitos estudantes recorrem ao assistente virtual para formatar redações e resolver exercícios, mas reconhecem que esse apoio, frequentemente direcionado ao encaixe sintático correto, não se traduz em apreensão do conteúdo nem na capacidade de argumentar com independência A dependência do recurso tecnológico analisado, segundo os entrevistados, fragiliza o vínculo subjetivo com o saber, pois as tarefas passam a ser objetos de engenharia textual e não de construção reflexiva.

Para os professores da instituição, o chatbot serve como ferramenta de planejamento, sobretudo na produção de exemplos e recursos visuais, mas suscita preocupação quanto à perda de protagonismo dos alunos. Nesse sentido, aparece como facilitador e, ao mesmo tempo, como fator de evasão da própria aprendizagem, porquanto ao terceirizar a escrita ou a resolução, o estudante se distancia daquilo que deveria ser o cerne da formação (Silva, Vidotto & Tarouco, 2024).

Outra contribuição ao debate provém da República Dominicana, país marcado por sucessivas camadas de colonialidade e dependência estrutural. O estudo de Ovalle (2023), ao invés de assumir a IA generativa como instrumento de acesso educacional, investiga seus impactos sob a perspectiva crítica da colonialidade digital. Tomando como ponto de partida o conceito de fukú, entendido como uma maldição histórica associada à opressão colonial na ilha, os autores examinam como o uso acrítico de ferramentas digitais pode reatualizar formas de subalternização epistêmica.

A análise identifica que, embora o ChatGPT seja recepcionado com entusiasmo por educadores e formuladores de política pública dominicanos, dada sua capacidade de fornecer tutoria personalizada e expandir o acesso a materiais didáticos, gera riscos de aprofundamento de assimetrias. A principal preocupação recai sobre o fato de que modelos de linguagem são treinados majoritariamente com textos oriundos do AI Global North, ou seja, como os Estados Unidos e outros países ocidentais, os quais possuem um grande volume de conteúdo em inglês, que é a língua predominante em muitos dos bancos de dados usados para treinar a inteligência artificial. E com a linguagem, vem atrelados marcadores epistemológicos anglo-saxões. Assim, o conteúdo gerado tende a invisibilizar modos de enunciação não hegemônicos e contextos históricos periféricos. O resultado é uma espécie de epistemicídio algorítmico, em que formas de conhecimento enraizadas na história e cultura dominicanas são marginalizadas em favor de uma textualidade neutra apenas em aparência, mas colonial em sua estrutura de dados.

Ademais, o estudo alerta para os riscos dessa nova forma de colonialismo que mina a soberania intelectual dos países do Sul Global. Enfatiza-se que, ao depender de como for incorporado ao aparelho educacional, o ChatGPT pode produzir uma desprotagonização da função docente e da autoria estudantil. O que está em jogo, para além da utilização de uma tecnologia, é a adoção de um modelo de subjetividade despossuída, funcional, privada de historicidade.

Ao final, os autores defendem que qualquer tentativa de incorporação da IA no sistema educacional dominicano deve ser acompanhada de estratégias de capacitação crítica, formação digital cidadã e processos participativos de avaliação contextualizada.

Por fim, um estudo experimental conduzido por Kosmyna et al. (2025), com o uso de EEG (eletroencefalograma) e análise textual, fornece dados sobre os efeitos cognitivos da escrita mediada pelo dispositivo digital. Nele, os pesquisadores monitoraram a atividade cerebral dos participantes enquanto eles realizavam tarefas de escrita, com ou sem a mediação da plataforma digital. De acordo com os dados obtidos, participantes que utilizaram a IA para redigir ensaios demonstraram menor engajamento neural em áreas associadas à organização de ideias, à memória de trabalho e à elaboração crítica, em comparação com aqueles que escreveram sem suporte tecnológico. Os textos gerados, ainda que formalmente corretos, apresentaram padrão de homogeneidade estrutural e escassez de marcas subjetivas, o que se refletiu em avaliações qualitativas inferiores por professores humanos, que os consideraram “sem alma” e desprovidos de nuances pessoais.

Os ensaios escritos com o apoio da inteligência artificial apresentaram menor diversidade de vocabulário, além de repetirem estruturas de frase padronizadas e revelarem pouca evidência de uma intenção autoral clara. A análise dos textos mostrou que o grupo que utilizou o ChatGPT recorreu com frequência a termos técnicos e expressões prontas, enquanto os participantes que escreveram por conta própria produziram textos mais originais em suas escolhas temáticas, mais sofisticados no que diz respeito à construção dos argumentos.

De modo geral, os participantes que haviam se habituado ao uso de IA demonstraram em sessões subsequentes sem a ferramenta queda no desempenho cognitivo e dificuldades na retomada de processos criativos autônomos. Segundo os pesquisadores, tal fenômeno indica o surgimento de uma “dívida cognitiva”, uma espécie de dependência da máquina que fragiliza o pensamento próprio, isto é, a elaboração pessoal de sentido.

Além do aspecto individual, os dados do estudo indicam que a própria função pedagógica está sendo reconfigurada. Os professores participantes relataram que, ao identificar textos gerados por IA, perceberam que, apesar de sua estrutura impecável, eles eram desprovidos de profundidade. A percepção de que tais textos eram 'vazios' em termos de conteúdo sugere uma ruptura no processo formativo, pois, mesmo tecnicamente adequados, falham em refletir um sujeito em processo de formação, algo essencial no contexto pedagógico.

De modo a sistematizar os resultados empíricos apresentados e demonstrar como convergem na hipótese do apagamento da subjetividade pela mediação algorítmica, apresenta‑se a seguir o Quadro 1. Nele, estão condensados os estudos selecionados, seus contextos, os achados centrais e a correspondência analítica com a tese defendida no presente artigo, permitindo visualizar, em perspectiva sinóptica, o padrão de impactos pedagógicos/formativos identificado.

Quadro 1 – Síntese dos estudos analisados e sua relação com a hipótese da tese

ESTUDO

CONTEXTO

ACHADOS PRINCIPAIS

CONEXÃO COM A TESE

Forero e Herrera Suárez (2023)

Ensino superior (Colômbia)

Redução do desempenho e raciocínio autônomo; uso superficial do conteúdo

Indica deslocamento da subjetividade e enfraquecimento do engajamento cognitivo

Barreto, Huyano, Machado et al. (2024)

Ensino Médio (RN, Brasil)

Perda de autonomia, desconforto coautoria, uso instrumentalizado

Demonstra a alienação e a erosão da voz subjetiva na escrita

Silva, Vidotto, & Tarouco (2024)

Ensino técnico (RS, Brasil)

Redação funcionalizada e empobrecimento da mediação pedagógica

Aponta para a perda de densidade e redução do aprendizado reflexivo

Ovale (2023)

República Dominicana

Invisibilização de saberes locais; epistemicídio algorítmico

Reafirma o risco de homogeneização cultural e apagamento de singularidades

Kosmyna et al. (2025)

Estudo experimental com EEG

Redução da criatividade e intencionalidade autoral; textos tecnicamente corretos, mas vazios

Oferece evidência neurocognitiva da “dívida subjetiva” gerada pela dependência da IA

Fonte: Elaboração própria com base nos estudos empíricos discutidos

A partir da análise sintética supra-apresentada, torna-se possível observar um padrão recorrente nos estudos empíricos examinados: a interdição progressiva da experiência formativa como gesto subjetivo, relacional e situado. Ainda que em contextos variados, os efeitos apontam para uma aprendizagem desinvestida de intencionalidade, reduzida à dependência instrumental de uma linguagem automatizada.

Nesse esteio, o estudo experimental conduzido por Kosmyna et al. (2025) adquire valor singular ao oferecer uma evidência neurocognitiva robusta que confirma, por outra via, os efeitos anteriormente discutidos. A queda mensurável no engajamento neural e na criatividade argumentativa entre usuários habituais do ChatGPT são evidências de que o apagamento da subjetividade não encarna apenas uma metáfora crítica, e sim de que se trata de um fenômeno verificável no próprio funcionamento cognitivo. A formação mediada por IA, nesses termos, compromete a aprendizagem em suas bases, um diagnóstico que impõe à pesquisa educacional o desafio de construir novos instrumentos de resistência capazes de reconduzir à centralidade o gesto humano de educar.

6. CONCLUSÃO

O que me parece fundamental para nós, hoje, mecânicos ou físicos, pedagogos ou pedreiros, marceneiros ou biólogos, é a assunção de uma posição crítica, vigilante, indagadora, em face da tecnologia. Nem, de um lado, demonizá-la, nem, de outro, divinizá-la. Se as tecnologias digitais abrem e fundam um mundo, elas não podem reduzir‑se a um simples instrumento novo, mas precisam penetrar no mundo pedagógico e entrar em diálogo com outras perspectivas, o que nos obriga a modificá‑la e aprofundá‑la. (Freire, 1992, p. 133)

A análise desenvolvida ao longo deste texto possibilita afirmar que a incorporação acrítica de inteligências artificiais generativas no campo educativo consubstancia uma nova racionalidade formativa na qual a educação tende a perder sua densidade temporal, sua abertura ao erro, sua exigência de elaboração, substituindo o percurso pelo atalho, a escuta pela entrega, a autoria pela geração probabilística. Essa hipótese, sustentada ao longo do artigo, encontrou ressonância nas evidências empíricas discutidas.

Não obstante, tais constatações não justificam a adoção de um tecnopessimismo estéril. Ao contrário, demandam a fortiori uma postura de vigilância epistemológica que reconheça tanto os riscos quanto as possibilidades implicadas na inserção das IAs nas práticas pedagógicas. Recusar o encantamento automático não implica rejeição das tecnologias, mas abertura ao questionamento de seus efeitos. Se a incorporação do referido chatbot à educação tende a moldar o sujeito, cabe à pedagogia reinventar lugares outros nos quais a subjetividade possa resistir à automatização.

Para (não) finalizar, é necessário reafirmar a formação como um modo de habitar o mundo. Quando a técnica coloniza os tempos da escuta, os gestos da linguagem e os ritmos da aprendizagem, o acontecimento e a experiência educativa são ameaçados em sua gênese. Educar é sustentar o inacabado. O que se impõe, portanto, é preservar o humano como aquilo que escapa à tecnificação.

REFERÊNCIAS BIBLIOGRÁFICAS

Anders, G. (2025) The Obsolescence of the Human: Volume 1. Minneapolis: University of Minnesota Press.

Adorno, T. W. (2008) Minima Moralia. Rio de Janeiro: Beco do Azougue.

Barreto Hygino Machado, C., Baptista Filho, M., Admiral, T. D., & de Souza Marcelino, V. (2024). Uso do ChatGPT por estudantes do Ensino Médio e graduação: Hábitos, percepções e desafios éticos. Com a Palavra, o Professor, 9(25), 170–194. http://revista.geem.mat.br/index.php/CPP/article/view/1080

Barthes, R. (1971) La mort de l’auteur. In: Essais critiques. Paris: Seuil.

Benjamin, W. (1985) Sobre o Conceito de História. São Paulo: Editora Brasiliense.

Berardi F. (2020). Asfixia: capitalismo financeiro e a insurreição da linguagem. São Paulo: Ubu Editora.

Biesta, G. (2013) Theories of Education and Learning: A philosophical approach. New York: Routledge.

Bridle, J. (2019). A nova idade das trevas: a tecnologia e o fim do futuro. São Paulo, SP: Todavia.

Bourdieu, P., Chamboredon, J.-C., & Passeron, J.-C. (2007). O ofício de sociólogo: Metodologia da pesquisa social (M. C. da Silva, Trad.). Petrópolis: Vozes. (Original publicado em 1968)

Canguilhem, G. (2002) O normal e o patológico. São Paulo: Forense Universitária.

Feenberg, A. (2002) Transforming Technology: A Critical Theory Revisited. Oxford: Oxford University Press.

Freire, P. (1992) Pedagogia do Oprimido. Rio de Janeiro: Paz e Terra.

Forero, M. G., & Herrera‑Suárez, H. J. (2023). ChatGPT in the Classroom: Boon or Bane for Physics Students’ Academic Performance? [Preprint]. ResearchGate. https://www.researchgate.net/publication/376480907_ChatGPT_in_the_Classroom_Boon_or_Bane_for_Physics_Students'_Academic_Performance

Guattari, F. (1988). O inconsciente maquínico: ensaios de esquizo-análise. Campinas: Papirus.

Guattari, F., & Rolnik, S. (2005). Micropolítica: cartografias do desejo. Petrópolis: Vozes

Gumbrecht, H. U. (2004). Produção de Presença: O que o discurso não pode mais fazer. São Paulo: Ed. 34.

Han, B. C. (2022). Não Coisas. Petropolis: Vozes

Heidegger, M. A. (2001) Questão da Técnica. Tradução de Jorge A. P. L. Coutinho. São Paulo: Editora Vozes.

Hui, Y. (2020). Tecnodiversidade. São Paulo: Ubu.

Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (arXiv preprint arXiv:2506.08872). arXiv. https://arxiv.org/abs/2506.08872

McLuhan, M. (1964). Os meios de comunicação como extensões do homem. São Paulo: Cultrix.

McLuhan, M. (1972). A galáxia de Gutenberg: A formação do homem tipográfico. São Paulo: EDUSP.

Marcuse, H. (2015) O Homem Unidimensional: Estudos da Ideologia da Sociedade Industrial Avançada. São Paulo: EDIPRO.

Minayo, M. C. de S. (2011). O desafio do conhecimento: pesquisa qualitativa em saúde (13ª ed.). São Paulo: Hucitec.

Morin, E. (2000) Os Sete Saberes Necessários à Educação do Futuro. São Paulo: Cortez Editora.

Ovalle, A. A. (2023). Decoding the digital Fukú: Deciphering colonial legacies to critically assess ChatGPT in Dominican education (arXiv preprint arXiv:2310.17533v2). arXiv. https://arxiv.org/abs/2310.17533

Ricoeur, P. (1994). A Hermenêutica e a Filosofia. São Paulo: Editora Vozes.

Silva, T., Vidotto, K., & Tarouco, L. (2024). Investigando as percepções de estudantes e professores do ensino médio e técnico sobre o uso do ChatGPT em suas atividades escolares. In Anais do XXXV Simpósio Brasileiro de Informática na Educação (pp. 1851–1864). Porto Alegre: SBC. https://doi.org/10.5753/sbie.2024.242584

Virilio, P. (1999) Politics of the Very Worst. New York: Semiotext(e).


1 Professor da Rede Estadual de Ensino do Mato Grosso. Doutorando em Educação. E-mail: [email protected].

2 Doutorando em história pelo PPGH-UFG. E-mail: [email protected].