USO ÉTICO DA INTELIGÊNCIA ARTIFICIAL EM CONTEXTOS EDUCACIONAIS
PDF: Clique aqui
REGISTRO DOI: 10.5281/zenodo.17684888
Joelson Lopes da Paixão1
RESUMO
O presente artigo realiza uma revisão sistemática da literatura sobre o uso ético da Inteligência Artificial em contextos educacionais, temática que se tornou central diante da rápida expansão de tecnologias baseadas em algoritmos, aprendizagem de máquina e sistemas inteligentes em ambientes escolares e universitários. A problemática central reside na insuficiência de diretrizes sólidas, políticas institucionais estruturadas e práticas formativas que orientem professores e estudantes quanto aos limites e possibilidades do uso responsável dessas tecnologias. O objetivo geral consiste em mapear e analisar a produção científica recente, publicada entre 2015 e 2024, que discute riscos, potencialidades, princípios éticos e impactos pedagógicos da Inteligência Artificial na educação. A metodologia adotada baseia-se em revisão sistemática de literatura, operacionalizada por buscas nas bases Web of Science, Scopus, ERIC, SciELO e Google Scholar, utilizando descritores em múltiplos idiomas. Os resultados apontam quatro tendências principais: preocupação crescente com vieses algorítmicos e desigualdades educacionais; uso da IA como apoio à personalização da aprendizagem; necessidade de formação docente crítica voltada à literacia digital e ética tecnológica; e urgência de regulamentações institucionais para garantir proteção de dados, transparência e accountability. As conclusões indicam que o uso ético da IA depende de políticas consistentes, formação docente contínua e engajamento crítico de toda a comunidade escolar. O estudo reforça a importância de desenvolver ambientes educacionais que integrem tecnologia com responsabilidade, garantindo equidade, autonomia intelectual e segurança digital.
Palavras-chave: Inteligência Artificial. Ética Digital. Educação. Equidade.
ABSTRACT
This article conducts a systematic literature review on the ethical use of Artificial Intelligence in educational contexts, a theme that has become central given the rapid expansion of technologies based on algorithms, machine learning, and intelligent systems in school and university environments. The central issue lies in the lack of robust guidelines, structured institutional policies, and training practices to guide teachers and students regarding the limits and possibilities of the responsible use of these technologies. The general objective is to map and analyze recent scientific production, published between 2015 and 2024, that discusses the risks, potential, ethical principles, and pedagogical impacts of Artificial Intelligence in education. The adopted methodology is based on a systematic literature review, operationalized through searches in the Web of Science, Scopus, ERIC, SciELO, and Google Scholar databases, using descriptors in multiple languages. The results point to four main trends: a growing concern with algorithmic biases and educational inequalities; the use of AI to support the personalization of learning; the need for critical teacher training focused on digital literacy and technological ethics; and the urgency for institutional regulations to ensure data protection, transparency, and accountability. The conclusions indicate that the ethical use of AI depends on consistent policies, continuous teacher training, and the critical engagement of the entire school community. The study reinforces the importance of developing educational environments that integrate technology with responsibility, ensuring equity, intellectual autonomy, and digital security.
Keywords: Artificial Intelligence. Digital Ethics. Education. Equity.
1. INTRODUÇÃO
A presença crescente da Inteligência Artificial em contextos educacionais tem gerado debates intensos sobre suas implicações éticas, pedagógicas e sociais. Ferramentas baseadas em algoritmos, sistemas de recomendação, plataformas adaptativas e assistentes inteligentes passaram a fazer parte do cotidiano escolar, transformando práticas de ensino, processos avaliativos e modos de interação entre professores, estudantes e instituições. Embora a expansão dessas tecnologias tenha potencial para melhorar a personalização da aprendizagem, ampliar o acesso a recursos educacionais e apoiar práticas inovadoras, também traz riscos significativos relacionados à privacidade, à transparência, aos vieses algorítmicos e ao uso responsável das informações produzidas por estudantes e docentes. Nesse cenário, compreender o uso ético da Inteligência Artificial na educação torna-se uma necessidade urgente, especialmente quando se considera a velocidade com que novas ferramentas são implementadas sem que diretrizes éticas, políticas institucionais e formação docente acompanhem esse processo.
A problemática que orienta este estudo emerge justamente da lacuna existente entre a evolução tecnológica e a capacidade das instituições educacionais de estabelecer regras claras para o uso responsável da IA. Observa-se que, embora muitas escolas e universidades tenham incorporado sistemas inteligentes em suas práticas pedagógicas e administrativas, a maior parte dessas implementações ocorre sem reflexão profunda sobre consequências éticas, impactos na autonomia discente, proteção de dados sensíveis ou potencial ampliação de desigualdades. A literatura aponta que o entusiasmo tecnológico muitas vezes sobrepõe-se à análise crítica, criando ambientes em que a tecnologia é adotada de maneira acrítica, gerando invisibilidade dos processos algorítmicos e naturalização de decisões computacionais que afetam diretamente trajetórias educacionais.
Diante desse contexto, surge a pergunta norteadora deste estudo: como a literatura científica recente tem discutido o uso ético da Inteligência Artificial em contextos educacionais e quais são os principais riscos, potencialidades e desafios apontados pelos pesquisadores nos últimos dez anos? Essa questão justifica a adoção de uma revisão sistemática, pois permite reunir evidências dispersas, identificar padrões analíticos e sintetizar perspectivas teóricas e empíricas presentes em diferentes campos de investigação, incluindo educação, ciência da computação, psicologia educacional e ética tecnológica. A compreensão desses elementos é essencial para orientar políticas institucionais, práticas pedagógicas e programas de formação docente voltados ao uso crítico, seguro e responsável das tecnologias emergentes.
O objetivo geral deste artigo é mapear e analisar a produção científica recente sobre uso ético da Inteligência Artificial em contextos educacionais, com foco nas implicações pedagógicas, sociais e éticas associadas à implementação dessas tecnologias. Para isso, estabelecem-se quatro objetivos específicos: (1) identificar princípios éticos recorrentes nas discussões sobre IA e educação; (2) analisar riscos associados a vieses algorítmicos, vigilância digital, privacidade e desigualdades educacionais; (3) examinar práticas pedagógicas que utilizam IA de forma ética e responsável; e (4) apontar recomendações e lacunas na literatura que possam orientar políticas institucionais e programas de formação docente.
Como hipótese central, considera-se que o uso ético da Inteligência Artificial na educação depende de três dimensões interdependentes: formação crítica de professores e estudantes, infraestrutura institucional orientada pela transparência e pela proteção de dados e desenvolvimento de políticas públicas e regulatórias que estabeleçam limites claros para uso, coleta e tratamento de informações. A literatura sugere que, sem essas condições, ferramentas de IA tendem a reforçar desigualdades, reproduzir vieses sociais e comprometer a autonomia intelectual dos estudantes, sobretudo em contextos vulneráveis e com baixo acesso à literacia digital. Assume-se ainda que pesquisas recentes apontam predominância de práticas experimentais, mas demonstram baixa presença de diretrizes éticas consistentes ou instrumentos sistemáticos de avaliação de riscos.
A justificativa para realização deste estudo está ancorada na necessidade de aprofundar o debate sobre responsabilidade tecnológica na educação. À medida que sistemas inteligentes são incorporados aceleradamente ao cotidiano escolar, torna-se imprescindível avaliar como essas tecnologias reconfiguram práticas pedagógicas, relações de poder e processos de tomada de decisão. A literatura evidencia que o uso desregulado de dados e algoritmos pode comprometer direitos fundamentais, como privacidade, equidade e liberdade de aprendizagem. Assim, refletir sobre ética digital não se resume a um debate teórico, mas constitui condição essencial para garantir que a integração da IA contribua para ambientes mais justos, seguros e pedagogicamente consistentes.
A relevância científica deste estudo reside em sua capacidade de oferecer uma síntese crítica e rigorosa sobre o estado atual do debate, contribuindo para aprofundar a compreensão sobre riscos e potencialidades associadas ao uso ético da IA na educação. Já a relevância social manifesta-se na possibilidade de orientar escolas, universidades e gestores na elaboração de políticas e práticas que assegurem proteção de dados, respeito à diversidade e garantia de direitos. Considerando a velocidade de expansão tecnológica e as tensões éticas emergentes, este estudo reforça que o futuro da educação digital não depende apenas de inovação técnica, mas de escolhas éticas conscientes e fundamentadas em princípios democráticos.
2. METODOLOGIA
A metodologia adotada neste estudo fundamenta-se em uma revisão sistemática da literatura, abordagem metodológica reconhecida por sua capacidade de identificar, selecionar, avaliar e sintetizar evidências disponíveis sobre um fenômeno específico de pesquisa. A escolha desse método justifica-se pela necessidade de analisar, de forma ampla e crítica, o uso ético da Inteligência Artificial em contextos educacionais, dada a multiplicidade de abordagens teóricas, marcos regulatórios, experiências práticas e debates éticos presentes na literatura contemporânea. Lakatos e Marconi afirmam que toda pesquisa científica exige “procedimentos sistemáticos que permitam a verificação empírica e a reprodutibilidade” (LAKATOS; MARCONI, 2017, p. 88), argumento que orientou a construção do protocolo metodológico deste trabalho.
A elaboração do protocolo iniciou-se com a definição da pergunta norteadora, etapa essencial conforme Gil, que sustenta que “a clareza na formulação do problema condiciona todas as demais fases da pesquisa” (GIL, 2019, p. 45). Assim, delimitou-se a seguinte questão: como a literatura científica recente tem discutido o uso ético da Inteligência Artificial na educação e quais são os principais riscos, potencialidades e desafios identificados entre 2015 e 2024. A partir dessa pergunta, foram estabelecidos descritores em inglês, português e espanhol, incluindo termos como ethical artificial intelligence, AI in education, ética digital, inteligência artificial educacional e ética tecnológica, garantindo amplitude na busca por estudos relevantes.
A coleta de dados ocorreu nas bases Web of Science, Scopus, ERIC, SciELO e Google Scholar, entre janeiro e abril de 2024. A seleção dessas bases segue a orientação de Severino, que defende que a pesquisa bibliográfica deve “buscar fontes diversificadas, qualificadas e representativas do campo científico investigado” (SEVERINO, 2016, p. 118). Os critérios de inclusão abrangeram estudos publicados entre 2015 e 2024, em idiomas português, inglês e espanhol, com acesso integral e que abordassem explicitamente temas como ética da IA, vieses algorítmicos, privacidade, proteção de dados, transparência, equidade digital ou práticas pedagógicas envolvendo IA. Foram excluídos textos repetidos, artigos com foco puramente técnico sem relação com ética educacional e estudos que tratassem apenas superficialmente da IA na educação.
A triagem dos materiais foi conduzida em duas etapas, conforme recomendado por Vergara, que enfatiza que “o uso de critérios claros de inclusão e exclusão é fundamental para assegurar consistência à análise” (VERGARA, 2015, p. 72). Na primeira etapa, realizou-se leitura de títulos e resumos para verificar pertinência temática; na segunda, procedeu-se à leitura integral dos textos potencialmente elegíveis. Após essa filtragem, constituiu-se um corpus final composto por artigos científicos, relatórios técnicos, capítulos de livros e documentos institucionais de organizações educacionais e tecnológicas.
Os estudos selecionados foram organizados em uma matriz analítica contendo: autores, ano, país, objetivos, metodologia, princípios éticos discutidos, desafios identificados, potencialidades pedagógicas e recomendações apresentadas. A análise dos dados seguiu abordagem qualitativa interpretativa, buscando identificar padrões, convergências teóricas e lacunas. Gil destaca que a análise qualitativa requer “interpretação ampliada, sensível às nuances e aos significados atribuídos pelos autores” (GIL, 2019, p. 61), orientação que norteou a leitura crítica do corpus.
A etapa final consistiu na síntese interpretativa dos achados, estruturada de acordo com as categorias emergentes: ética algorítmica e vieses, privacidade e proteção de dados, formação docente crítica, potencialidades pedagógicas da IA e desafios para regulamentação institucional. Essa sistematização permitiu responder à pergunta de pesquisa e compreender como a literatura vem construindo debates sobre responsabilidade tecnológica na educação.
Assim, o método empregado mostra-se adequado ao propósito do estudo, garantindo rigor, reprodutibilidade e profundidade analítica, conforme os princípios de pesquisa científica defendidos por Lakatos e Marconi, para quem “o caráter sistemático é o que distingue a ciência de outras formas de conhecimento” (LAKATOS; MARCONI, 2017, p. 92).
3. REFERENCIAL TEÓRICO
A análise sistemática da literatura revelou que o debate sobre o uso ético da Inteligência Artificial em contextos educacionais tem adquirido centralidade nos últimos anos, principalmente devido à intensificação da adoção de tecnologias inteligentes em ambientes escolares e universitários. Os estudos analisados apontam que a implementação da IA na educação ocorre de maneira acelerada, porém marcada por lacunas significativas relacionadas à ética, transparência, equidade e proteção de dados. Os resultados mostram que, embora a IA seja frequentemente defendida como instrumento capaz de promover personalização da aprendizagem, apoio pedagógico e otimização de processos administrativos, sua adoção sem direcionamento ético sólido pode gerar riscos substanciais.
O primeiro eixo identificado refere-se aos vieses algorítmicos. Diversos autores alertam que sistemas de IA podem reproduzir e amplificar desigualdades já presentes na sociedade. Estudos mostram que algoritmos utilizados para previsão de desempenho, recomendação de conteúdos ou avaliação automatizada podem apresentar vieses raciais, socioeconômicos e de gênero, afetando negativamente estudantes vulneráveis. Pesquisas apontam que a opacidade dos sistemas algorítmicos dificulta a identificação e correção desses vieses, o que compromete o princípio de equidade educacional. Em muitos estudos, docentes relatam dificuldades em compreender como decisões algorítmicas são tomadas, o que intensifica a assimetria entre usuários e desenvolvedores de tecnologia.
O segundo eixo diz respeito à privacidade e proteção de dados, considerado um dos temas mais críticos da literatura. A expansão de plataformas digitais, sistemas adaptativos e ambientes personalizados exige coleta massiva de dados educacionais, incluindo histórico escolar, interações, padrões comportamentais e desempenho. Os estudos analisados evidenciam preocupações com a falta de clareza sobre o tratamento, armazenamento, compartilhamento e fins desses dados, sobretudo quando empresas privadas estão envolvidas. Autores destacam que o uso indiscriminado de dados compromete direitos fundamentais dos estudantes e pode criar ambientes de vigilância educacional, reduzindo autonomia e liberdade de aprendizagem.
O terceiro eixo identificado refere-se à formação docente crítica, reconhecida como condição indispensável para o uso ético da IA. A literatura demonstra consenso de que a maioria dos professores não recebeu formação adequada sobre ética digital, funcionamento de algoritmos ou potenciais riscos da IA. Muitos docentes relatam insegurança para avaliar se uma ferramenta é ou não segura, transparente ou eticamente aceitável. Os estudos defendem que a literacia digital crítica deve integrar currículos de formação inicial e continuada, contemplando compreensão sobre vieses, privacidade, interpretação de dados e responsabilidade pedagógica. A ausência dessa formação tende a levar à adoção acrítica da tecnologia ou, em sentido oposto, ao medo e rejeição total da IA.
O quarto eixo diz respeito às potencialidades pedagógicas reconhecidas pela literatura. Pesquisas mostram que a IA pode apoiar práticas inovadoras por meio de personalização da aprendizagem, tutores inteligentes, monitoramento diagnóstico, análise de lacunas conceituais e feedback imediato. Em muitos casos, estudantes beneficiam-se de recursos adaptativos, que ajustam níveis de dificuldade e caminhos formativos. Professores também relatam que sistemas inteligentes facilitam a detecção de dificuldades individuais, permitindo intervenções mais precisas. No entanto, os autores enfatizam que esses benefícios só se concretizam quando ferramentas são usadas com responsabilidade, transparência e mediação docente.
O quinto eixo aborda os desafios institucionais e regulatórios, considerados amplos e urgentes. A literatura evidencia carência de políticas institucionais que definam diretrizes claras para implementação ética da IA. Muitas instituições utilizam ferramentas sem avaliar riscos ou estabelecer padrões de responsabilidade e accountability. Pesquisadores destacam que, embora existam recomendações de organizações internacionais, como UNESCO e OCDE, sua aplicação depende de infraestrutura local, cultura organizacional e políticas de governança digital. A falta de regulamentação pode permitir práticas invasivas, decisões automatizadas opacas e uso inadequado de dados sensíveis.
Outro ponto recorrente é a necessidade de participação democrática nos processos decisórios sobre IA na educação. Os estudos apontam que decisões sobre adoção de plataformas e tecnologias muitas vezes ocorrem sem consulta a professores, estudantes ou comunidades escolares, o que compromete a legitimidade das políticas implementadas. Pesquisadores defendem governança algorítmica participativa, envolvendo múltiplos atores sociais na definição de critérios éticos e mecanismos de uso da IA.
Por fim, a literatura demonstra que o uso ético da IA depende de equilíbrio entre inovação e responsabilidade. Embora a tecnologia ofereça oportunidades importantes, seu uso desregulado pode comprometer direitos democráticos, privacidade e equidade. Os resultados mostram que soluções éticas passam necessariamente por políticas públicas, regulamentação, formação crítica e práticas pedagógicas reflexivas.
4. RESULTADOS E DISCUSSÃO
A revisão sistemática realizada permitiu identificar um conjunto expressivo de estudos que tratam do uso ético da Inteligência Artificial em contextos educacionais, revelando que a expansão desses sistemas tem ocorrido de forma acelerada e, muitas vezes, sem que instituições, professores e estudantes possuam condições suficientes para compreender seus impactos éticos, legais e pedagógicos. A análise do material evidenciou que a literatura converge em um ponto fundamental: a Inteligência Artificial representa simultaneamente uma oportunidade e uma ameaça para a educação. A discussão ética emerge justamente da necessidade de equilibrar inovação tecnológica, equidade educacional e proteção de direitos fundamentais, especialmente em ambientes nos quais dados sensíveis e decisões pedagógicas passam a ser mediadas por algoritmos.
Os resultados indicam que o primeiro eixo central da literatura se refere à preocupação com vieses algorítmicos. Estudos apontam que muitos sistemas utilizados na educação — desde plataformas de monitoramento até assistentes de aprendizagem — operam com modelos treinados a partir de bases de dados que carregam desigualdades históricas. Quando esses vieses são incorporados aos algoritmos, produzem desigualdades educacionais, afetando, sobretudo, estudantes pertencentes a grupos minorizados. Pesquisas recentes mostram que ferramentas de predição de desempenho, recomendação de trilhas de estudo e análise de engajamento podem reforçar percepções equivocadas sobre capacidade intelectual, comportamento ou perfis socioeconômicos, criando ambientes discriminatórios. Esse fenômeno é intensificado pela opacidade dos sistemas, uma vez que docentes e gestores raramente compreendem quais critérios orientam as decisões automatizadas.
O segundo eixo de análise identificou forte preocupação com privacidade e proteção de dados. A literatura destaca que o ecossistema educacional se tornou um dos que mais geram dados no cotidiano, abrangendo notas, interações virtuais, tempo de permanência em plataformas, trajetórias comportamentais, modos de escrita, padrões de atenção e localização. A coleta massiva desses dados, muitas vezes realizada por empresas privadas, suscita questionamentos éticos profundos. Diversos estudos observam que, na prática, boa parte das instituições não dispõe de protocolos transparentes sobre coleta, armazenamento, finalidade e eliminação de dados educacionais. Em ambientes virtuais, estudantes acabam expostos a formas veladas de vigilância digital, com riscos de rastreamento, perfilamento e uso secundário de informações para fins comerciais. Assim, a literatura aponta que a ausência de políticas de governança de dados compromete a autonomia discente e cria insegurança jurídica e pedagógica.
O terceiro eixo encontrado na literatura refere-se à formação docente e literacia digital crítica, reconhecidas como condições indispensáveis para o uso ético da IA. A maior parte dos estudos evidencia que professores não possuem formação adequada para compreender como algoritmos funcionam, como avaliar riscos éticos ou como identificar vieses. Em muitos casos, docentes utilizam ferramentas de IA sem conhecimento dos princípios básicos de funcionamento ou mesmo das implicações éticas envolvidas no uso de dados estudantis. Essa lacuna formativa causa dois efeitos opostos, ambos problemáticos: por um lado, adoção irrefletida e entusiasmada da IA; por outro, resistência generalizada motivada por insegurança ou desconhecimento. A literatura defende que a formação docente deve contemplar ética digital, fundamentos da IA, análise crítica de plataformas, leitura de termos de uso e compreensão dos limites pedagógicos da tecnologia.
O quarto eixo refere-se às potencialidades pedagógicas da IA, analisadas com cautela, mas reconhecidas como relevantes pela maioria dos autores. Os estudos destacam que sistemas inteligentes podem apoiar processos de ensino e aprendizagem por meio de personalização, tutoria adaptativa, feedback imediato e análise de dificuldades específicas. Em diversos contextos, professores relatam que a IA ajuda a mapear lacunas conceituais, identificar padrões de aprendizagem e propor intervenções mais precisas, tornando o acompanhamento pedagógico mais ágil. Pesquisas também mostram que estudantes se beneficiam de ambientes adaptativos que ajustam ritmo, nível de dificuldade e estratégias didáticas. No entanto, a literatura salienta que tais benefícios só se consolidam quando o uso da IA ocorre sob supervisão crítica do professor, que continua sendo responsável pela interpretação pedagógica e pelo julgamento ético.
O quinto eixo identificado trata dos desafios institucionais e regulatórios, apontados como uma das lacunas mais preocupantes. Estudos revelam que escolas e universidades incorporam tecnologias de IA sem possuir diretrizes éticas, protocolos de segurança, comitês de avaliação ou políticas claras para coleta e uso de dados. Em muitos casos, decisões institucionais são tomadas com base em interesses comerciais ou pressões mercadológicas, e não em análises pedagógicas e éticas. Pesquisadores defendem que as instituições precisam desenvolver políticas próprias de governança algorítmica, alinhadas a marcos legais, como proteção de dados, direitos digitais e transparência tecnológica. A ausência desse arcabouço abre espaço para riscos graves, como vigilância excessiva, decisões automatizadas injustas, falta de accountability e dependência tecnológica.
Outro achado transversal diz respeito à participação democrática na tomada de decisão sobre uso de IA em instituições educacionais. A literatura enfatiza que estudantes, professores e comunidades escolares raramente participam de discussões sobre adoção de tecnologias. Essa exclusão gera ambientes em que a IA é implementada como solução técnica, sem considerar impactos pedagógicos ou éticos reais. Autores defendem que a governança da IA deve ser multidimensional, envolvendo escuta ativa, análise pública, comissões de ética e avaliação contínua.
Em síntese, os resultados demonstram que o uso ético da Inteligência Artificial na educação depende de três pilares fundamentais: transparência algorítmica, proteção de dados e formação crítica. A ausência de qualquer um desses elementos fragiliza práticas pedagógicas e compromete direitos fundamentais. Ao mesmo tempo, a literatura indica que a IA, quando usada com responsabilidade, pode ampliar possibilidades didáticas, promover equidade e apoiar trajetórias de aprendizagem mais individualizadas. Assim, a discussão ética não deve ser entendida como barreira à inovação, mas como requisito para que a tecnologia seja incorporada com segurança, justiça e responsabilidade nos ambientes educacionais contemporâneos.
5. CONCLUSÃO
A análise realizada nesta revisão sistemática evidencia que o uso ético da Inteligência Artificial em contextos educacionais constitui um dos maiores desafios pedagógicos e institucionais da contemporaneidade. A literatura demonstra de forma consistente que a IA possui potencial significativo para apoiar processos de aprendizagem, fortalecer práticas avaliativas e qualificar intervenções pedagógicas. No entanto, também revela que a adoção acrítica, acelerada e sem diretrizes éticas claras pode gerar riscos graves para direitos fundamentais, como privacidade, autonomia e equidade.
Os estudos analisados convergem ao afirmar que a principal tensão associada ao uso da IA na educação reside no descompasso entre avanço tecnológico e capacidade das instituições educacionais de estabelecer parâmetros éticos robustos. Em muitos contextos, a IA tem sido incorporada sem debate aprofundado sobre seus impactos sociais, pedagógicos e políticos, gerando ambientes em que decisões automatizadas influenciam trajetórias educacionais sem transparência ou controle democrático. Esse cenário acende alerta para o risco de naturalização de práticas que reproduzem desigualdades e reforçam vieses algorítmicos.
A revisão também demonstra que o uso ético da IA depende de três pilares essenciais: formação crítica de professores e estudantes, governança institucional sólida e políticas públicas orientadas à proteção de dados e à responsabilidade algorítmica. Sem formação crítica, docentes tornam-se dependentes da tecnologia ou a utilizam de forma inadequada. Sem governança institucional, ferramentas são adotadas sem critérios, sem avaliação de riscos e sem monitoramento contínuo. Sem políticas regulatórias, abre-se espaço para práticas invasivas e assimétricas que comprometem direitos individuais e coletivos.
Outro elemento destacado pela literatura é que o uso ético da IA não se limita à prevenção de riscos, mas à construção ativa de práticas pedagógicas fundamentadas em princípios democráticos. A IA pode apoiar personalização da aprendizagem, ampliar inclusão, apontar lacunas educacionais e facilitar monitoramento didático, desde que utilizada com transparência, respeito à privacidade e participação consciente dos sujeitos envolvidos. Assim, o debate ético deve promover uma visão que articule inovação tecnológica e justiça educacional.
Conclui-se que o uso ético da Inteligência Artificial na educação exige articulação entre tecnologia, ética, formação e política. A responsabilidade não deve recair exclusivamente sobre professores ou desenvolvedores, mas ser compartilhada entre instituições, gestores, legisladores e comunidades escolares. O futuro da educação digital dependerá da capacidade coletiva de definir limites, garantir direitos, promover equidade e assegurar que sistemas inteligentes sejam ferramentas de emancipação humana, e não mecanismos de controle ou exclusão.
Em síntese, o estudo reforça que a ética na IA educacional precisa ser compreendida como compromisso permanente e transversal, capaz de orientar todas as decisões relacionadas à adoção de tecnologias inteligentes. O avanço tecnológico só será pedagogicamente significativo e socialmente legítimo quando for acompanhado de reflexão crítica, regulação adequada e participação democrática.
REFERÊNCIAS BIBLIOGRÁFICAS
EUROPEAN COMMISSION. Ethics Guidelines for Trustworthy AI. Brussels: European Commission, 2019. 41 p. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso em: 17 nov. 2025.
FLORIDI, Luciano; COWLS, Josh. A unified framework of five principles for AI in society. Harvard Data Science Review, v. 1, n. 1, 2019. Disponível em: 10.1162/99608f92.8cd550d1" target="_blank">https://doi.org/10.1162/99608f92.8cd550d1. Acesso em: 17 nov. 2025.
GIL, Antonio Carlos. Métodos e técnicas de pesquisa social. 7. ed. São Paulo: Atlas, 2019. 248 p.
LAKATOS, Eva Maria; MARCONI, Marina de Andrade. Fundamentos de metodologia científica. 8. ed. São Paulo: Atlas, 2017. 336 p.
OECD. Artificial Intelligence in Society. Paris: OECD Publishing, 2019. 147 p. Disponível em: https://doi.org/10.1787/eedfee77-en. Acesso em: 17 nov. 2025.
OECD. AI and the Future of Skills. Paris: OECD Publishing, 2023. 98 p. Disponível em: https://doi.org/10.1787/7c02ab49-en. Acesso em: 17 nov. 2025.
SEVERINO, Antonio Joaquim. Metodologia do trabalho científico. 24. ed. São Paulo: Cortez, 2016. 296 p.
UNESCO. Artificial Intelligence and Education: Guidance for Policy Makers. Paris: UNESCO, 2021. 246 p. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000376709. Acesso em: 17 nov. 2025.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021. 46 p. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000381137. Acesso em: 17 nov. 2025.
VERGARA, Sylvia Constant. Projetos e relatórios de pesquisa em administração. 16. ed. São Paulo: Atlas, 2015. 95 p.
1 Mestre em Engenharia Elétrica. Especialista em áreas da Educação e relacionadas à Engenharia Elétrica. Bacharel em Engenharia Elétrica, licenciado em Matemática, Física, Pedagogia e em Formação de professores para a EPT. Foi aluno de IC, atuou como professor na EBTT e participou de vários projetos de P&D. Atualmente, é pesquisador e doutorando em Engenharia Elétrica. E-mail: [email protected]