DA EFICIÊNCIA À RESPONSABILIDADE: COMO A INTELIGÊNCIA ARTIFICIAL REDEFINE O COMPORTAMENTO ORGANIZACIONAL

PDF: Clique aqui


REGISTRO DOI: 10.5281/zenodo.17872685


Anderson Roberto de Lacerda Menezes1
Letícia Gomes dos Santos2


RESUMO
Este artigo investiga o impacto da inteligência artificial (IA) no comportamento organizacional, destacando tanto as oportunidades quanto os desafios éticos e sociais associados à sua aplicação. A IA tem se consolidado como uma ferramenta capaz de transformar profundamente os processos organizacionais, ao automatizar tarefas, ampliar a capacidade analítica e redefinir as habilidades necessárias no ambiente de trabalho. Nesse contexto, compreender como a tecnologia influencia as dinâmicas entre indivíduos, grupos e estruturas organizacionais torna-se essencial para preparar empresas para um futuro cada vez mais digital. Utilizando uma metodologia baseada em revisão bibliográfica, este estudo reúne e examina artigos, revistas e publicações científicas para identificar o impacto da inteligência artificial no comportamento humano e suas projeções para o futuro. A análise evidenciou que a adoção da IA possibilita ganhos expressivos de eficiência, inovação e competitividade, ao mesmo tempo em que suscita preocupações legítimas sobre privacidade, transparência nos processos decisórios automatizados e vieses algorítmicos. Além disso, o estudo enfatiza o papel central dos líderes organizacionais, que não apenas facilitam a implementação da IA, mas também são responsáveis por conduzir a transformação cultural necessária para sua adoção ética e sustentável.
Palavras-chave: Inteligência artificial. Comportamento organizacional. Desafios éticos. Liderança. Inovação. Eficiência Organizacional

ABSTRACT
This article investigates the impact of artificial intelligence (AI) on organizational behavior, highlighting both the opportunities and the ethical and social challenges associated with its application. AI has consolidated itself as a tool capable of profoundly transforming organizational processes by automating tasks, expanding analytical capacity, and redefining the skills required in the workplace. In this context, understanding how technology influences the dynamics among individuals, groups, and organizational structures becomes essential to prepare companies for an increasingly digital future. Using a methodology based on a literature review, this study gathers and examines articles, journals, and scientific publications to identify the impact of artificial intelligence on human behavior and its projections for the future. The analysis revealed that the adoption of AI enables significant gains in efficiency, innovation, and competitiveness, while at the same time raising legitimate concerns regarding privacy, transparency in automated decision-making processes, and algorithmic biases. Furthermore, the study emphasizes the central role of organizational leaders, who not only facilitate the implementation of AI but are also responsible for driving the cultural transformation required for its ethical and sustainable adoption. 
Keywords: Artificial Intelligence. Organizational behavior. Ethical challenges. Leadership. Innovation. Organizational efficiency

1. INTRODUÇÃO

A revolução tecnológica permanece como um fenômeno determinante na transformação da forma como as organizações funcionam e se relacionam com o ambiente em que estão inseridas. Nesse contexto, a inteligência artificial (IA) destaca-se como uma das inovações mais influentes da atualidade, capaz de redefinir processos internos, alterar a dinâmica do comportamento organizacional e reconfigurar o papel exercido pelos líderes. A habilidade da IA em processar grandes volumes de dados com rapidez e precisão abre oportunidades inéditas para otimizar operações, ampliar a capacidade de análise e desenvolver novas estratégias de atuação.

O comportamento organizacional, enquanto campo de estudo, dedica-se a compreender como indivíduos e grupos interagem dentro das organizações e de que maneira esses processos influenciam o desempenho coletivo. A inserção da IA nesse cenário não apenas desafia as práticas já consolidadas, mas também potencializa novas formas de compreender e gerenciar comportamentos, ao oferecer instrumentos que ampliam a capacidade de observação, previsão e tomada de decisão.

Apesar de seus avanços, a incorporação da IA ao ambiente corporativo traz consigo dilemas que exigem reflexão crítica. Transparência nos processos automatizados, privacidade dos dados e vieses algorítmicos emergem como preocupações centrais, capazes de comprometer a equidade e a confiança, caso não sejam tratados com responsabilidade, uma vez que o risco de desalinhamento entre tecnologia e ética aponta para a necessidade de desenvolver mecanismos que assegurem uma aplicação justa e inclusiva da IA nas organizações. Dessa forma, o atual cenário aponta para um papel crucial da liderança, mais do que incorporar novas ferramentas tecnológicas, cabe aos líderes promover mudanças estruturais e culturais que favoreçam a adoção ética e estratégica da IA. Essa atuação envolve criar condições para que a inovação seja integrada de forma responsável, assegurando não apenas ganhos de eficiência, mas também a preservação do valor humano e da coesão organizacional.

Com a ascensão da IA, delineia-se um novo paradigma organizacional, no qual tecnologia e humanidade se entrelaçam de maneira cada vez mais intensa. Observar e compreender esse movimento é essencial para preparar organizações para um futuro em que a inovação tecnológica esteja a serviço de princípios éticos, responsabilidade social e desenvolvimento humano.

Neste estudo, adotou-se uma abordagem de pesquisa qualitativa com foco em revisão bibliográfica. A escolha por essa metodologia se justifica pela necessidade de compreender a complexidade das interações entre a inteligência artificial e o comportamento organizacional, bem como os desafios éticos e sociais envolvidos. A primeira parte da pesquisa explora o impacto da inteligência artificial no comportamento organizacional. As seções seguintes abordam os desafios éticos e sociais da IA e o papel dos líderes nesse processo, projetando caminhos possíveis para o futuro das organizações.

Diante desse panorama, este artigo busca analisar como a IA está transformando o comportamento organizacional e de que forma a liderança pode contribuir para conduzir esse processo de modo eficaz. Pretende-se examinar os impactos da IA nas dinâmicas de trabalho, explorar os desafios éticos e sociais decorrentes de sua utilização e discutir estratégias de liderança que possibilitem maximizar benefícios e mitigar riscos, portanto, adota-se como metodologia uma revisão de literatura, a fim de oferecer uma análise crítica fundamentada em estudos existentes e evidências práticas.

2. REVISÃO DA LITERATURA

2.1. Inteligência Artificial e Seu Impacto nas Organizações: As Transformações e os Principais Desafios

A literatura recente indica que a inteligência artificial (IA) atua como vetor estruturante de mudança nas organizações, afetando processos, estruturas, relações de trabalho e estilos de liderança (SANT’ANNA; OLIVEIRA; DINIZ, 2025). Os estudos convergem ao mostrar que a IA deixa de ser um artefato periférico para compor o núcleo das estratégias organizacionais, o que reforça a necessidade de compreender seus efeitos não apenas em termos técnicos, mas também culturais e políticos. Nessa perspectiva, faz sentido tratá-la como infraestrutura sociotécnica que reorganiza fluxos de informação, redistribui poder decisório e redefine o que é considerado desempenho aceitável, exigindo revisões nos modelos tradicionais de controle e coordenação.

Uma das transformações mais evidentes refere-se à automação de tarefas operacionais e repetitivas, assumidas por sistemas capazes de executar atividades com rapidez e baixa taxa de erro (SILVA; AZRAK; BRÍGAMO, 2024). Tal movimento, embora frequentemente descrito apenas em termos de ganho de eficiência, também produz um deslocamento simbólico do valor do trabalho humano, privilegiando atividades analíticas, criativas e relacionais em detrimento de funções padronizadas. Concordando com essa interpretação, a automação não deve ser vista apenas como substituição de postos, mas como reconfiguração da divisão de trabalho, na qual o potencial emancipador, liberação de tempo para tarefas de maior complexidade, só se concretiza quando acompanhado de políticas efetivas de requalificação e redesenho de cargos.

A capacidade da IA de processar grandes volumes de dados em tempo real coloca a análise preditiva no centro da tomada de decisão baseada em evidências (SILVA; AZRAK; BRÍGAMO, 2024). Autores que defendem a primazia dos dados argumentam que tais ferramentas aumentam a racionalidade das decisões ao reduzir a dependência da intuição e da experiência isolada dos gestores (ALVES; ANDRADE, 2021). Contudo, os mesmos trabalhos que destacam ganhos de precisão também revelam riscos de opacidade algorítmica e reprodução de vieses quando modelos são treinados em bases históricas marcadas por desigualdades. Diante disso, parece mais adequado compreender a IA não como substituto da deliberação humana, mas como dispositivo que amplia a capacidade analítica, desde que submetido a critérios explícitos de governança, revisão crítica e responsabilização.

No plano estrutural, a adoção de IA é frequentemente associada à construção de ambientes de trabalho mais conectados, baseados em plataformas digitais que integram comunicação, gestão de tarefas e monitoramento de desempenho (SILVA; AZRAK; BRÍGAMO, 2024; SANT’ANNA; OLIVEIRA; DINIZ, 2025). Essa leitura otimista ressalta o potencial de fortalecimento da colaboração, da transparência informacional e da coordenação em tempo real. Todavia, análises mais críticas chamam atenção para o risco de intensificação da vigilância, da padronização de comportamentos e da pressão por produtividade contínua, o que pode fragilizar relações de confiança e aumentar tensões em torno da autonomia no trabalho (PAULO; JACOBSEN, 2023). A experiência recente sugere que o efeito predominante – cooperativo ou coercitivo – dependerá menos da tecnologia em si e mais dos arranjos normativos, das práticas de liderança e dos espaços de participação concedidos aos trabalhadores.

Essas mudanças repercutem diretamente sobre o perfil de competências valorizado nas organizações, com aumento da demanda por habilidades digitais, alfabetização em dados e flexibilidade cognitiva, além da capacidade de atuar em equipes híbridas compostas por humanos e sistemas inteligentes (SANT’ANNA; OLIVEIRA; DINIZ, 2025; OLIVEIRA, 2025). Ao mesmo tempo, estudos sobre mercado de trabalho alertam para a polarização entre ocupações altamente qualificadas e postos rotineiros mais vulneráveis à automação, o que tende a intensificar desigualdades já existentes (OLIVEIRA, 2025). Em vez de assumir que a “meritocracia digital” resolverá tais assimetrias, os dados reforçam a necessidade de políticas estruturadas de formação continuada, de apoio às transições de carreira e de mecanismos institucionais que evitem a concentração dos benefícios da IA em grupos com maior capital educacional.

Os impactos da IA também se manifestam na esfera psicossocial, influenciando a experiência subjetiva do trabalho e o bem‑estar dos colaboradores. Enquanto parte da literatura enfatiza oportunidades de enriquecimento de tarefas e de maior autonomia em atividades complexas, outros estudos destacam o aumento do estresse, da ansiedade e da sensação de precariedade diante da velocidade das mudanças tecnológicas (OLIVEIRA, 2025). Essa ambivalência indica que a IA funciona como intensificador de dinâmicas pré-existentes: em contextos de comunicação clara, suporte organizacional e participação, tende a ser percebida como recurso de desenvolvimento; em contextos opacos e hierárquicos, aparece como ameaça à estabilidade e à identidade profissional.

No campo ético e jurídico, há consenso quanto ao crescimento das preocupações com privacidade, proteção de dados, transparência e responsabilização por decisões automatizadas (ALVES; ANDRADE, 2021; PAULO; JACOBSEN, 2023). Casos documentados de vieses algorítmicos demonstram que a promessa de neutralidade técnica não se sustenta quando modelos reproduzem padrões discriminatórios presentes nos dados de treinamento, com impactos concretos em decisões de crédito, recrutamento e políticas públicas (ALVES; ANDRADE, 2021). A resposta proposta por diferentes autores – uso de inteligência artificial explicável, auditorias independentes, comitês multidisciplinares e marcos regulatórios robustos – aponta para uma visão em que a IA precisa ser permanentemente contestável e sujeita a escrutínio social, e não apenas mais eficiente.

Nesse cenário, a liderança organizacional ganha centralidade como instância de mediação entre capacidades tecnológicas e valores humanos (SANT’ANNA; OLIVEIRA; DINIZ, 2025). Trabalhos sobre “liderança na era da IA” destacam que gestores eficazes são aqueles que combinam fluência digital e leitura de dados com sensibilidade ética, empatia e habilidade de construir significados compartilhados em contextos de alta incerteza. Mais do que aderir a um discurso de modernização inevitável, cabe à liderança definir limites para a delegação algorítmica, garantir espaços de deliberação humana em decisões sensíveis e proteger dimensões do trabalho que não podem ser reduzidas a métricas de desempenho.

A IA amplia possibilidades de personalização nas práticas de gestão de pessoas, como trilhas de aprendizagem adaptativas, recomendações de carreira e mecanismos de feedback contínuo, frequentemente apresentados como instrumentos de aumento de engajamento e de alinhamento entre expectativas individuais e metas organizacionais (SILVA; AZRAK; BRÍGAMO, 2024; SANT’ANNA; OLIVEIRA; DINIZ, 2025). Embora tais recursos possam, de fato, fortalecer o sentimento de reconhecimento e pertencimento, sua eficácia depende de transparência, opção real de consentimento e proteção contra usos punitivos ou discriminatórios dos dados. Quando essas condições não são observadas, a mesma infraestrutura que promete personalização pode ser percebida como instrumento de controle excessivo, gerando desconfiança e minando a legitimidade das iniciativas de transformação digital.​

2.2. Desafios Éticos e Sociais da Inteligência Artificial

A introdução da inteligência artificial (IA) no ambiente organizacional, embora usualmente associada a eficiência e inovação, evidencia um conjunto de dilemas éticos e sociais que não pode ser tratado como efeito colateral da transformação digital (PEREIRA, 2020). Em linha com essa autora, é possível afirmar que a complexidade desses dilemas acompanha a sofisticação das aplicações tecnológicas, o que desloca o foco da pergunta “o que a IA é capaz de fazer?” para “em nome de quem, para quem e a que custo a IA está sendo utilizada?”. Nessa perspectiva, o debate ético deixa de ser meramente normativo e passa a envolver disputas sobre distribuição de riscos, benefícios e poder de decisão dentro e fora das organizações.

Entre os problemas mais recorrentes estão privacidade e segurança de dados, uma vez que a IA depende de grandes volumes de informações pessoais e sensíveis para operar com eficácia (PAULO; JACOBSEN, 2023). Ao mesmo tempo em que se reconhece o potencial produtivo do uso intensivo de dados, torna-se necessário confrontar a tendência de naturalizar práticas de vigilância e de exploração econômica de informações sem transparência ou consentimento adequado. A leitura que vê a privacidade apenas como obstáculo à inovação mostra-se limitada; à luz da LGPD, faz mais sentido tratá-la como indicador de maturidade institucional, pois organizações que integram proteção de dados, minimização e segurança desde o desenho dos sistemas tendem a construir relações de confiança mais estáveis com seus públicos.

Outro desafio central reside na transparência e explicabilidade das decisões automatizadas. A crítica de que muitos modelos funcionam como “caixas‑pretas” é pertinente, mas insuficiente se não vier acompanhada de uma discussão sobre quais decisões exigem, por natureza, justificativas compreensíveis por não especialistas. A defesa de abordagens de inteligência artificial explicável (XAI) aponta para a necessidade de equilibrar desempenho técnico e direito à contestação, e parece razoável admitir que, em decisões que afetam direitos e oportunidades, a exigência de rastreabilidade e auditabilidade deva prevalecer sobre a mera eficiência algorítmica.

A discussão sobre vieses algorítmicos reforça esse argumento ao demonstrar que a IA não é neutra, mas espelha e, por vezes, amplifica desigualdades históricas presentes nas bases de dados utilizadas. Em consonância com a literatura crítica, a constatação de que sistemas podem discriminar por raça, gênero ou origem social indica que o problema não é apenas “corrigir” modelos, mas questionar as estruturas e critérios que definem quais dados são coletados, como são rotulados e que métricas de sucesso orientam os algoritmos. Sob essa ótica, políticas de governança de dados, auditorias independentes e participação de grupos afetados deixam de ser recomendações opcionais e passam a compor o núcleo da responsabilidade ética na adoção de IA.

No plano social, a automação mediada por IA reabre o debate sobre substituição de postos de trabalho e desemprego tecnológico, com maior impacto em funções repetitivas e de baixa complexidade (OLIVEIRA, 2025). Ainda que se reconheça, como defende essa autora, a criação de novas ocupações em áreas de alta qualificação, a transição entre empregos destruídos e empregos criados não é automática nem justa, penalizando sobretudo trabalhadores com menor acesso a educação e requalificação. Em vez de assumir que o mercado corrigirá essas assimetrias, os dados sugerem a necessidade de articular políticas ativas de formação continuada, proteção social e incentivo à inovação que considere não apenas produtividade, mas também coesão social e redução de desigualdades.

Esses desafios indicam que respostas éticas não podem se limitar a declarações de princípios, mas devem se materializar em práticas organizacionais de governança da IA. Propostas como diretrizes internas, comitês multidisciplinares, avaliações de impacto algorítmico e canais de contestação sinalizam um movimento de aproximação entre o discurso sobre ética e as rotinas concretas de projeto, implementação e monitoramento de sistemas. Em sintonia com análises sobre liderança na era da IA, ganha força a ideia de que gestores precisam combinar fluência digital e leitura de dados com julgamento ético, disposição para estabelecer limites à automação e compromisso em manter decisões sensíveis sob responsabilidade humana (SANT’ANNA; OLIVEIRA; DINIZ, 2025).

Nesse cenário, a convergência entre políticas públicas, inovação tecnológica e liderança organizacional torna-se condição para que a IA contribua para inclusão e equidade, e não para exclusão ou fragmentação social. Estudos sobre mercado de trabalho e regulação de dados sugerem que, sem investimentos consistentes em educação, infraestrutura de inovação e proteção de grupos vulneráveis, os ganhos econômicos da IA tenderão a se concentrar em segmentos já privilegiados, reforçando clivagens existentes (OLIVEIRA, 2025; PAULO; JACOBSEN, 2023). Assim, o êxito da IA no contexto corporativo deve ser avaliado não apenas por indicadores de produtividade, mas também pela capacidade de organizações e sociedades orientarem seu desenvolvimento em direção à valorização do capital humano, ao alargamento de oportunidades e à preservação de direitos fundamentais.

2.3. O Papel da Liderança na Era da Inteligência Artificial

No cenário contemporâneo, marcado por inovações tecnológicas aceleradas e pela incorporação crescente da inteligência artificial (IA) nas rotinas de trabalho, a liderança assume papel estruturante na forma como essas tecnologias são compreendidas, utilizadas e legitimadas dentro das organizações (SANT’ANNA; OLIVEIRA; DINIZ, 2025). Em vez de atuar apenas como patrocinadora da implementação técnica, a liderança passa a mediar tensões entre eficiência e dignidade do trabalho, entre automação e autonomia, revelando que as decisões sobre IA são, antes de tudo, escolhas políticas e éticas, e não meramente operacionais.

Uma responsabilidade central da liderança consiste em formular e comunicar uma visão clara sobre os objetivos estratégicos associados à adoção da IA, articulando-os com a missão, os valores institucionais e os compromissos públicos assumidos pela organização. Essa visão não pode se restringir ao discurso de competitividade, sob pena de obscurecer riscos ligados à exclusão, à vigilância e à desigualdade; ela precisa explicitar quais problemas a IA deve resolver, quais limites não podem ser ultrapassados e como serão tratados impactos sobre pessoas e comunidades.

A literatura também enfatiza o papel da liderança na construção de uma cultura voltada à aprendizagem contínua e à inovação, condição necessária para que trabalhadores consigam se adaptar a contextos de automação intensa (OLIVEIRA, 2025). Concordando com essa perspectiva, a simples introdução de ferramentas de IA, sem estratégias de desenvolvimento de competências, tende a ampliar ansiedades e desigualdades internas, sobretudo entre grupos com menor acesso prévio à educação formal. Líderes comprometidos com uma transição justa priorizam investimentos em capacitação técnica, mas também em competências analíticas, criativas e socioemocionais, reconhecendo que a complementaridade entre humanos e sistemas inteligentes depende mais da qualidade da formação do que da tecnologia em si (DE JESUS, 2025).

Outro eixo crucial do papel da liderança diz respeito à salvaguarda da ética e dos direitos fundamentais na adoção da IA. Ao contrário de delegar integralmente tais preocupações a departamentos jurídicos ou de compliance, cabe à liderança definir parâmetros de aceitabilidade para o uso de dados, estabelecer critérios para mitigação de vieses e zelar para que decisões automatizadas permaneçam contestáveis e auditáveis (PEREIRA, 2020). Essa postura vai além da conformidade regulatória: envolve assumir que nem toda aplicação tecnicamente possível é socialmente desejável, e que recusar certos usos de IA pode ser sinal de robustez ética, e não de atraso tecnológico.

A promoção de espaços de diálogo aberto com as equipes constitui outra dimensão importante da liderança na era da IA. Em contextos de incerteza tecnológica, silenciar dúvidas e temores tende a alimentar resistências veladas e narrativas de ameaça; ao contrário, canais estruturados de escuta e participação permitem transformar preocupações em insumos para soluções mais ajustadas às necessidades reais do trabalho, reforçando o engajamento e o senso de segurança psicológica nas equipes (DE JESUS; SANTOS; CAIRES, 2025). Nessa linha, compreender a IA como suporte ao julgamento humano – e não como substituto absoluto – depende da capacidade dos líderes de traduzir decisões tecnológicas em linguagem acessível, reconhecer impactos concretos sobre rotinas e negociar ajustes de forma transparente, articulando resultados e bem-estar organizacional (SANT’ANNA; OLIVEIRA; DINIZ, 2025).

Destaca-se a importância de uma liderança visionária, capaz de antecipar tendências tecnológicas e avaliar criticamente seus impactos sobre operações, relações de poder e cultura organizacional (SANT’ANNA; OLIVEIRA; DINIZ, 2025). Essa visão não se confunde com entusiasmo acrítico pela “novidade”, mas com a habilidade de combinar leitura de cenários, evidências empíricas e valores institucionais para decidir quando acelerar, quando frear e quando redesenhar o rumo da transformação digital (OLIVEIRA, 2025). Em síntese, na era da inteligência artificial, os líderes mais eficazes tendem a ser aqueles que conseguem articular fluência tecnológica, compromisso ético e sensibilidade às dinâmicas humanas, orientando a adoção da IA de modo a promover inovação, fortalecer a coesão cultural e contribuir para formas mais inclusivas e equitativas de organização do trabalho.

3. METODOLOGIA

Este estudo caracteriza-se como uma pesquisa de natureza qualitativa, com abordagem descritiva e explicativa, uma vez que busca compreender de que modo a inteligência artificial influencia o comportamento organizacional, ao mesmo tempo em que explicita implicações éticas, sociais e gerenciais associadas a esse processo. A opção pela pesquisa bibliográfica permite integrar diferentes perspectivas teóricas sobre IA, liderança e comportamento humano nas organizações, ampliando a compreensão do fenômeno e oferecendo um quadro analítico consistente para interpretação dos resultados.

O processo de estudo e investigação foi conduzido por meio de revisão de literatura em bases de dados acadêmicas nacionais e internacionais, privilegiando artigos científicos, livros e documentos institucionais publicados principalmente a partir de 2018, período em que se intensificam as discussões sobre IA e gestão. Foram utilizados descritores combinados, tais como “inteligência artificial”, “comportamento organizacional”, “liderança na era da IA”, “ética algorítmica” e “vieses em modelos de IA”, permitindo o mapeamento de contribuições recentes e relevantes para o tema.

Os critérios de inclusão consideraram publicações que abordassem diretamente o impacto da IA em práticas de gestão de pessoas, processos decisórios, dinâmicas de poder e cultura organizacional, bem como estudos que discutissem riscos relacionados a vieses algorítmicos, transparência e explicabilidade. Trabalhos que tratavam de IA apenas sob uma perspectiva estritamente técnica, sem conexão com o comportamento organizacional ou com a dimensão ética, foram excluídos do corpus analítico.

Após a seleção do material, procedeu-se à leitura exploratória e, em seguida, à leitura analítica, com categorização temática em quatro eixos: a eficiência, inovação e desempenho organizacional mediados por IA; os impactos da IA sobre o trabalho humano e as competências requeridas dos colaboradores; os dilemas éticos, vieses algorítmicos e questões de transparência; e o papel da liderança na mediação entre tecnologia, pessoas e cultura. Esses eixos orientaram a organização da fundamentação teórica e a discussão dos resultados, favorecendo a identificação de convergências, divergências e lacunas na literatura.

Por se tratar de estudo bibliográfico, não houve coleta de dados empíricos em campo, o que constitui uma limitação quanto à generalização direta dos achados para contextos organizacionais específicos. Entretanto, a sistematização crítica da produção científica existente oferece subsídios teóricos robustos para a compreensão do fenômeno e para a formulação de recomendações a gestores e pesquisadores interessados na interface entre inteligência artificial, comportamento organizacional e liderança responsável.

4. RESULTADOS E DISCUSSÕES

Os resultados da revisão da literatura indicam que a inteligência artificial (IA) já atua como elemento estruturante das transformações organizacionais, afetando simultaneamente processos, relações de trabalho e formas de exercício da liderança. Os estudos analisados convergem em apontar que a IA não é apenas mais uma tecnologia de apoio, mas um fator que redefine a própria configuração do comportamento organizacional, exigindo reposicionamentos estratégicos, culturais e éticos por parte das empresas.

No que se refere aos impactos sobre o trabalho, os achados confirmam um movimento ambivalente: ao mesmo tempo em que a IA e a automação substituem tarefas rotineiras e de baixa complexidade, criam-se novas funções intensivas em conhecimento e habilidades digitais (OLIVEIRA, 2025). Essa dinâmica aprofunda a polarização entre trabalhadores altamente qualificados e aqueles com menor escolaridade, ampliando o risco de exclusão de segmentos mais vulneráveis quando não há políticas contínuas de requalificação e aprendizagem ao longo da vida. Os resultados sugerem, assim, que programas de capacitação organizacional devem ser tratados como eixo estratégico da adoção de IA, e não como ação pontual ou compensatória.

Em relação aos desafios éticos e sociais, a literatura evidencia que privacidade, segurança de dados e vieses algorítmicos permanecem como pontos de tensão mesmo em ambientes regulados pela Lei Geral de Proteção de Dados (LGPD) (PAULO; JACOBSEN, 2023). Mostra-se insuficiente a adesão meramente formal à legislação quando persistem práticas de coleta excessiva, uso opaco de informações ou reprodução automatizada de discriminações, o que demanda modelos de governança que combinem conformidade regulatória com responsabilidade substantiva. Nesse sentido, decisões sobre critérios de treinamento de algoritmos, seleção de bases de dados e exigência de explicabilidade são compreendidas como escolhas normativas que definem quem será mais protegido ou mais exposto aos riscos tecnológicos.

Os estudos analisados também reforçam o papel central da liderança na mediação entre capacidades técnicas da IA e valores humanos (SANT’ANNA; OLIVEIRA; DINIZ, 2025). A liderança eficaz na era da IA não se limita a patrocinar projetos tecnológicos, mas envolve equilibrar o poder preditivo dos algoritmos com o discernimento humano, estabelecendo limites claros para a delegação de decisões e preservando espaços de deliberação em temas sensíveis. Quando esse equilíbrio não é alcançado, observam-se dois extremos problemáticos: a adesão acrítica às recomendações algorítmicas, de um lado, e a recusa generalizada da tecnologia, de outro, ambos prejudiciais à aprendizagem organizacional e à inovação.

Outro resultado relevante diz respeito à influência da cultura organizacional na forma como a IA é percebida e vivenciada pelos trabalhadores. Evidências apontam que, em ambientes caracterizados por comunicação transparente, participação e suporte institucional, a IA tende a ser vista como recurso de apoio ao desempenho e ao desenvolvimento profissional; em contextos marcados por autoritarismo e opacidade, a mesma tecnologia é associada a vigilância, controle e ameaça ao emprego (OLIVEIRA, 2025; PAULO; JACOBSEN, 2023). Esses achados reforçam a interpretação de que os efeitos da IA não derivam exclusivamente de suas características técnicas, mas das práticas de gestão, dos estilos de liderança e dos arranjos institucionais que enquadram seu uso.

A síntese dos estudos analisados permite afirmar que o sucesso da IA no contexto corporativo deve ser avaliado em múltiplas dimensões, incluindo desempenho econômico, qualidade das relações de trabalho, proteção de direitos fundamentais e impacto sobre desigualdades sociais (SANT’ANNA; OLIVEIRA; DINIZ, 2025; OLIVEIRA, 2025; PAULO; JACOBSEN, 2023). Os resultados convergem para a ideia de que a IA pode atuar tanto como vetor de inclusão, inovação e fortalecimento do capital humano quanto como mecanismo de intensificação de assimetrias de poder e vulnerabilidades, a depender das escolhas normativas, políticas e gerenciais realizadas por organizações e governos. Nesse cenário, destaca-se a importância de uma liderança comprometida com governança ética, participação e justiça social, capaz de orientar a transformação tecnológica em direção a formas mais justas, sustentáveis e alinhadas aos princípios de dignidade e equidade no trabalho (SANT’ANNA; OLIVEIRA; DINIZ, 2025).

5. CONSIDERAÇÕES FINAIS

A análise desenvolvida evidencia que a inteligência artificial (IA) vem se consolidando como uma das forças mais transformadoras no cenário organizacional contemporâneo. Seu impacto se manifesta em diferentes dimensões: desde a automatização de processos até a redefinição de papéis profissionais, a promoção de ambientes colaborativos e a personalização de práticas internas. Contudo, esses avanços não podem ser compreendidos apenas pela ótica da eficiência e da produtividade. Eles exigem uma reflexão mais ampla, que considere o equilíbrio entre inovação tecnológica e preservação do valor humano, reconhecendo que o verdadeiro diferencial competitivo das organizações está na integração entre tecnologia, ética e cultura.

Ao mesmo tempo, emergem desafios éticos e sociais que não podem ser negligenciados. Privacidade de dados, vieses algorítmicos, desemprego tecnológico e a necessidade de lideranças responsáveis são elementos centrais nesse debate. Navegar por tais dilemas demanda não apenas políticas públicas e marcos regulatórios, mas também líderes visionários e comprometidos, capazes de promover uma cultura de confiança, diálogo e aprendizagem contínua. Assim, a adoção da IA deve ser entendida como um processo coletivo, que, quando conduzido de forma ética e estratégica, tem o potencial de não apenas impulsionar a competitividade organizacional, mas também de contribuir para uma sociedade mais justa e inclusiva.

REFERÊNCIAS BIBLIOGRÁFICAS

ALVES, M. A. S.; ANDRADE, O. M. de. Da “caixa-preta” à “caixa de vidro”: o uso da Explainable Artificial Intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos. Direito Público, v. 18, n. 100, 2021. Disponível em: https://doi.org/10.11117/rdp.v18i100.5973. Acesso em: 2 out. 2025.

CARVALHO, A. C. P. L. F. Inteligência artificial: riscos, benefícios e uso responsável. Estudos Avançados, v. 35, n. 101, p. 21-36, 2021. Disponível em: https://doi.org/10.1590/s0103-4014.2021.35101.003. Acesso em: 29 set. 2025.

DE JESUS, L. S.; SANTOS, C. R.; CAIRES, N. O. Gestão de pessoas na era da inteligência artificial e automação. Revista Multidisciplinar do Nordeste Mineiro, v. 9, n. 1, 2025. Disponível em: https://doi.org/10.61164/rmnm.v9i1.3985. Acesso em: 29 set. 2025.

OLIVEIRA, T. S. de. Impacto da inteligência artificial e da automação no mercado de trabalho. Revista Científica ACERTTE, v. 5, n. 1, e51216, 2025. Disponível em: https://doi.org/10.63026/acertte.v5i1.216. Acesso em: 30 set. 2025.

PAULO, M. A.; JACOBSEN, G. Desafios à Lei Geral de Proteção de Dados na era da inteligência artificial: entre o direito à privacidade e as robocalls. Revista de Direito, Inovação, Propriedade Intelectual e Concorrência, v. 8, n. 2, 2022. Disponível em: https://doi.org/10.26668/IndexLawJournals/2526-0014/2022.v8i2.9105. Acesso em: 2 out. 2025.

SANT’ANNA, A. S.; OLIVEIRA, F. B. de; DINIZ, D. M. Liderança na era da IA. GV Executivo, v. 24, n. 3, e93002, 2025. Disponível em: https://doi.org/10.12660/gvexec.v24n3.2025.93002. Acesso em: 28 set. 2025.

SILVA, G. H. M. da. Inteligência artificial na gestão empresarial: oportunidades e tendências. Revista Acadêmica Online, v. 43, n. 12, p. 1-14, 2024. Disponível em: https://revistaacademicaonline.com/index.php/rao/article/view/108. Acesso em: 2 out. 2025.

YU, A. S. O. et al. Tomada de decisão nas organizações: o que muda com a inteligência artificial? Estudos Avançados, v. 38, n. 111, p. 327-348, 2024. Disponível em: https://doi.org/10.1590/s0103-4014.202438111.017. Acesso em: 30 set. 2025.


1 Discente do Mestrado em Administração pela MUST University. E-mail: [email protected]

2 Docente do Mestrado em Administração da MUST University. Doutora em Administração pela UniversidadeFederal de Santa Maria (2021). E-mail: [email protected]