INTELIGÊNCIA ARTIFICIAL NO DIAGNÓSTICO PRECOCE DA DOENÇA DE ALZHEIMER: REVISÃO BIBLIOGRÁFICA COMPLETA

PDF: Clique aqui


REGISTRO DOI: 10.5281/zenodo.17968947


Fernanda Cristina Galerani Gualtieri Parpinelli


RESUMO
O diagnóstico precoce da doença de Alzheimer (DA) é fundamental para intervenções terapêuticas, estratificação em ensaios clínicos e planejamento do cuidado. A inteligência artificial (IA), especialmente métodos de aprendizagem profunda, tem se destacado na análise de neuroimagem, biomarcadores plasmáticos e sinais digitais, identificando alterações sutis associadas aos estágios pré-clínicos e ao comprometimento cognitivo leve (MCI). Esta revisão narrativa sintetizou as evidências publicadas entre 2019 e 2025, abrangendo estudos multicêntricos, revisões sistemáticas e meta-análises. Modelos de IA aplicados a RM estrutural e funcional, PET, biomarcadores sanguíneos e dados comportamentais demonstraram alta acurácia (frequentemente 85–95%) em coortes de pesquisa, com desempenho superior em abordagens multimodais. Entretanto, a generalização clínica ainda é limitada por vieses populacionais, heterogeneidade metodológica, falta de validação externa robusta e desafios de interpretabilidade. A integração de IA com biomarcadores plasmáticos aprovados e fluxos diagnósticos tradicionais desponta como caminho promissor para o uso clínico seguro e efetivo dessas tecnologias.
Palavras-chave: Doença de Alzheimer; Inteligência artificial; Aprendizagem de máquina; Diagnóstico precoce; Neuroimagem; Biomarcadores; Deep learning.

ABSTRACT
Abstract: Early diagnosis of Alzheimer’s disease (AD) is essential for therapeutic planning, clinical trial stratification, and timely interventions. Artificial intelligence (AI), particularly deep learning methods, has emerged as a powerful tool for analyzing neuroimaging, blood-based biomarkers, and digital signals to detect subtle changes associated with preclinical stages and mild cognitive impairment (MCI). This narrative review synthesized evidence published between 2019 and 2025, including multicenter studies, systematic reviews, and meta-analyses. AI models applied to structural and functional MRI, PET imaging, plasma biomarkers, and behavioral digital data demonstrated high accuracy (often 85–95%) in research cohorts, with multimodal approaches consistently outperforming single-modality models. However, clinical translation remains limited by population biases, methodological heterogeneity, insufficient external validation, and interpretability challenges. The integration of AI tools with recently approved blood biomarkers and established diagnostic workflows represents a promising direction toward safe and effective clinical deployment.
Keywords: Alzheimer’s disease; Artificial intelligence; Machine learning; Early diagnosis; Neuroimaging; Biomarkers; Deep learning.

Introdução

A doença de Alzheimer (DA) é a principal causa de demência no mundo, caracterizada por um processo neurodegenerativo progressivo que compromete memória, função executiva e autonomia. A identificação precoce da doença — incluindo seus estágios pré-clínicos e o comprometimento cognitivo leve (MCI) de etiologia amiloide — é considerada essencial para ampliar janelas terapêuticas, otimizar o manejo clínico, aprimorar o aconselhamento familiar e selecionar adequadamente participantes para ensaios clínicos de terapias modificadoras da doença.

Nas últimas décadas, avanços substanciais em biomarcadores, como PET amiloide/tau, ressonância magnética estrutural e funcional, líquido cefalorraquidiano e, mais recentemente, biomarcadores plasmáticos (por exemplo, p-tau217), ampliaram a capacidade de detecção de alterações neuropatológicas associadas à DA. Paralelamente, cresce o interesse pela utilização de inteligência artificial (IA) — especialmente modelos de aprendizagem de máquina (ML) e aprendizagem profunda (deep learning, DL) — na análise automatizada e de alta precisão desses dados. Tais modelos conseguem identificar padrões sutis não perceptíveis por avaliadores humanos, oferecendo potencial para revolucionar o diagnóstico precoce.

Publicações recentes têm demonstrado que algoritmos aplicados a neuroimagem, biomarcadores sanguíneos e até sinais digitais (fala, escrita, padrão motor, uso de dispositivos móveis) podem distinguir sujeitos saudáveis de indivíduos com MCI ou DA com elevada acurácia. Contudo, a aplicabilidade clínica dessas tecnologias ainda é limitada por fatores como heterogeneidade metodológica, ausência de validação externa robusta, vieses populacionais e desafios de interpretabilidade.

Diante desse cenário, torna-se fundamental revisar criticamente as principais abordagens de IA utilizadas na detecção precoce da DA, bem como suas potencialidades e limitações, a fim de compreender o real impacto dessas ferramentas no campo diagnóstico e os passos necessários para sua implementação segura na prática clínica.

Métodos — sintese das abordagens na literatura

Este estudo consiste em uma revisão narrativa da literatura, com foco nas aplicações de inteligência artificial (IA) para o diagnóstico precoce da doença de Alzheimer (DA). A revisão buscou sintetizar evidências recentes, tendências tecnológicas e limitações metodológicas de pesquisas publicadas entre 2019 e 2025.

Estratégia de busca

A busca bibliográfica foi realizada nas bases PubMed, SciELO, ScienceDirect, ArXiv, IEEE Xplore e Frontiers, complementada pela análise de documentos técnicos, relatórios regulatórios e artigos de acesso aberto disponíveis em repositórios como PMC. Foram utilizados descritores em português e inglês, combinados com operadores booleanos, incluindo:

  • “Alzheimer”, “early diagnosis”, “inteligência artificial”,

  • “machine learning”, “deep learning”,

  • “MRI”, “PET imaging”,

  • “blood biomarkers”, “digital biomarkers”,

  • “multimodal fusion”, “predictive models”.

Critérios de inclusão

Foram incluídos estudos que:

  1. Aplicassem IA, machine learning ou deep learning ao diagnóstico precoce da DA ou ao comprometimento cognitivo leve (MCI).

  2. Avaliassem modalidades diagnósticas como RM estrutural/funcional, PET amiloide/tau, biomarcadores plasmáticos, dados clínicos ou sinais digitais.

  3. Relatassem métricas de desempenho (acurácia, sensibilidade, especificidade, AUC-ROC).

  4. Utilizassem bases consolidadas (ex.: ADNI, OASIS, UK Biobank, NACC) ou coortes clínicas próprias.

  5. Publicados entre 2019 e 2025, em inglês ou português.

Critérios de exclusão

Foram excluídos:

  • estudos focados apenas em classificação tardia da DA já estabelecida;

  • trabalhos sem validação estatística mínima;

  • artigos puramente conceituais sem dados empíricos;

  • estudos que não utilizassem IA ou não abordassem diagnóstico precoce;

  • duplicatas entre bases de dados.

Extração e síntese dos dados

Os estudos incluídos foram categorizados em cinco eixos principais:

  1. Ressonância magnética estrutural e funcional

  2. PET amiloide/tau e outras modalidades de imagem molecular

  3. Biomarcadores sanguíneos e modelos preditivos combinados

  4. Biomarcadores digitais e comportamentais

  5. Modelos multimodais baseados em fusão de dados

A análise seguiu abordagem interpretativa, considerando:

  • desempenho declarado dos modelos,

  • características das coortes utilizadas,

  • limitações metodológicas e riscos de viés,

  • aplicabilidade clínica,

  • estágio de desenvolvimento regulatório.

Por se tratar de uma revisão narrativa, não houve registro de protocolo, e não foram aplicados métodos de metanálise. A síntese buscou integrar resultados, tendências e lacunas existentes na literatura contemporânea.

Principais modalidades e evidência

Modelos de deep learning tridimensionais (CNNs 3D, arquiteturas híbridas CNN-transformer e modelos volumétricos avançados) têm apresentado desempenho elevado na diferenciação entre indivíduos cognitivamente saudáveis, pacientes com comprometimento cognitivo leve (MCI) e DA.

As imagens ponderadas em T1 permitem extrair padrões morfológicos precoces relacionados à atrofia hipocampal, alterações na espessura cortical e padrões globais de neurodegeneração. Trabalhos recentes (2023–2025) mostram que arquiteturas híbridas, especialmente modelos que incorporam transformers, otimizam a detecção de assinaturas morfológicas sutis, aumentando a acurácia e sensibilidade.

Meta-análises e benchmarks de bases como ADNI e OASIS indicam que a IA supera abordagens tradicionais de extração manual de features, apresentando AUC frequentemente superior a 0,85 em coortes de pesquisa.

1. Tomografia por Emissão de Pósitrons (PET) – Amiloide e Tau

A aplicação de IA na análise de PET de amiloide e tau ampliou a sensibilidade para identificar padrões de deposição proteica, inclusive em estágios pré-clínicos.

Modelos de IA têm permitido:

  • detectar padrões espaciais complexos de agregados de Aβ e tau;

  • analisar múltiplos traçadores em combinação;

  • integrar PET com RM para melhorar a acurácia diagnóstica.

Estudos recentes relatam ganhos significativos na predição de conversão de MCI para DA quando PET é utilizado em pipelines multimodais. A interpretação automatizada também reduz variabilidade interobservador e pode apoiar a padronização diagnóstica.

2. Biomarcadores Plasmáticos e Modelos Preditivos Combinados

O avanço dos biomarcadores sanguíneos, como p-tau217, p-tau181 e a razão Aβ42/40, tem sido um dos marcos científicos mais importantes no diagnóstico de DA nos últimos anos.

Ferramentas de IA que integram valores plasmáticos com dados clínicos, genéticos (por exemplo, APOE ε4) e neuroimagem apresentam desempenho comparável aos resultados obtidos com PET ou líquor em algumas coortes.

Estudos de 2024–2025 indicam que modelos multimodais incorporando biomarcadores plasmáticos podem prever conversão de MCI com alta sensibilidade, oferecendo uma alternativa menos invasiva e de menor custo.

A convergência entre testes sanguíneos aprovados e modelos automatizados abre caminho para fluxos diagnósticos híbridos e escaláveis.

3. Biomarcadores Digitais e Dados Comportamentais

A análise de fala, escrita, padrões motores, teclado, navegação digital e dados de sensores vestíveis tem emergido como área promissora devido à alta escalabilidade e ao baixo custo.

Modelos de IA conseguem identificar:

  • hesitações de fala,

  • alterações na prosódia e velocidade,

  • padrões de digitação associados ao declínio cognitivo,

  • variabilidade motora e alterações no sono e atividade física.

Embora essas abordagens apresentem bom desempenho em estudos controlados, carecem de padronização, validação externa em populações amplas e protocolos clínicos bem definidos.

4. Fusão Multimodal de Dados

Os melhores desempenhos relatados na literatura provêm de modelos multimodais, que integram simultaneamente RM, PET, dados plasmáticos, informações clínicas e sinais digitais.

Tais frameworks, baseados em redes neurais profundas ou modelos de ensemble, conseguem capturar sinais complementares entre modalidades, melhorando:

  • acurácia global,

  • capacidade de predição de conversão de MCI para DA,

  • detecção de alterações pré-clínicas.

Estudos recentes mostram que a fusão multimodal pode superar significativamente modelos unimodais, aproximando-se de desempenho clínico robusto — embora ainda limitado pela disponibilidade de coortes completas com múltiplos tipos de dados.

Desempenho e limites relatados

Estudos recentes que aplicam inteligência artificial (IA) ao diagnóstico precoce da doença de Alzheimer (DA) relatam desempenhos elevados, especialmente em ambientes controlados de pesquisa. Em bases amplamente utilizadas como ADNI, OASIS e UK Biobank, algoritmos de deep learning frequentemente atingem métricas superiores a 0,85 de AUC, com alguns modelos ultrapassando 90–95% de acurácia na classificação entre controles, comprometimento cognitivo leve (MCI) e DA estabelecida.

Esses resultados são particularmente expressivos em modelos multimodais, que integram diferentes fontes de dados (RM, PET, biomarcadores plasmáticos e dados digitais). A combinação de sinais complementares melhora a sensibilidade para detectar alterações pré-clínicas e predizer conversão de MCI para DA em janelas de acompanhamento de 1 a 5 anos.

Entretanto, a literatura ressalta que esses desempenhos devem ser interpretados com cautela, pois apresentam limitações importantes:

1. Sobreajuste e dependência de bases específicas

Muitos estudos utilizam subconjuntos homogêneos e altamente padronizados de bases públicas, o que aumenta o risco de overfitting e reduz a generalização para populações reais e heterogêneas.

2. Falta de validação externa robusta

Grande parte dos trabalhos carece de:

  • validação em coortes clínicas independentes,

  • avaliação prospectiva,

  • replicação em diferentes centros e populações.

Essa lacuna compromete a translação dos modelos para o uso clínico.

3. Heterogeneidade metodológica

Há grande variabilidade entre estudos quanto a:

  • métodos de pré-processamento,

  • arquiteturas de rede,

  • critérios diagnósticos utilizados como referência (clínico vs. PET/LCR),

  • formas de balanço das classes,

  • tamanho das amostras.

Essa heterogeneidade dificulta comparações diretas e impede metanálises rigorosas.

4. Vieses populacionais

Muitas coortes são compostas majoritariamente por indivíduos:

  • brancos,

  • com alto nível educacional,

  • procedentes de países de alta renda.

Isso gera risco de viés de representatividade, limitando a aplicabilidade dos modelos a contextos diversos, especialmente em países de média e baixa renda.

5. Interpretabilidade limitada

Modelos complexos, como CNNs 3D e transformers, frequentemente funcionam como caixas-pretas, dificultando:

  • explicação do raciocínio diagnóstico,

  • aceitação clínica,

  • aprovação regulatória,

  • avaliação de segurança e vieses.

Embora técnicas como Grad-CAM ou attention maps ofereçam indícios sobre regiões de interesse, sua utilidade clínica ainda é limitada.

6. Publicação seletiva

Revisões recentes observam tendência de publicação preferencial de modelos com alto desempenho, podendo levar a:

  • superestimação da eficácia,

  • invisibilidade de modelos que falharam na validação,

  • distorções no panorama científico.

Considerações regulatórias e integração clínica

Os avanços em inteligência artificial (IA) para o diagnóstico precoce da doença de Alzheimer (DA) têm ocorrido paralelamente ao desenvolvimento de marcos regulatórios e à evolução dos biomarcadores aprovados para uso clínico, configurando um cenário de convergência tecnológica. Embora a IA apresente grande potencial como ferramenta de apoio à decisão clínica, sua implementação segura exige conformidade com diretrizes éticas, validação rigorosa e compatibilidade com fluxos diagnósticos já estabelecidos.

1. Cenário regulatório atual

Nos últimos anos, algumas ferramentas de IA para análise de neuroimagem receberam autorizações regulatórias em determinados países, especialmente na Europa e nos Estados Unidos. Essas aprovações, porém, concentram-se majoritariamente em softwares destinados à quantificação automatizada de atrofia cerebral ou análise de PET, e não em modelos generalistas de predição baseados em deep learning.

Para que um algoritmo de IA seja aprovado, espera-se:

  • evidência robusta de segurança e eficácia,

  • documentação clara da metodologia,

  • validação externa em múltiplos centros,

  • explicabilidade mínima das decisões,

  • transparência nos conjuntos de dados utilizados.

A crescente preocupação de agências reguladoras com vieses, impacto ético e reprodutibilidade tem elevado o nível de exigência para aprovação de softwares baseados em IA.

2. Integração com biomarcadores plasmáticos aprovados

Recentemente, testes sanguíneos para marcadores como p-tau217 e a razão Aβ42/40 receberam aprovações ou recomendações clínicas em alguns países, representando um marco significativo no diagnóstico da DA. Esses avanços têm implicações diretas para a IA, uma vez que:

  • fornecem dados padronizados e clínicos de alta relevância,

  • facilitam a criação de pipelines diagnósticos híbridos que integrem IA e biomarcadores,

  • ampliam o acesso a métodos menos invasivos e mais econômicos.

A IA, nesse contexto, pode desempenhar papel estratégico na interpretação combinada de exames plasmáticos, neuroimagem e dados clínicos.

3. Integração nos fluxos diagnósticos da prática clínica

Para que algoritmos de IA sejam incorporados ao diagnóstico de DA em ambientes clínicos reais, é necessário que eles se integrem de forma efetiva aos fluxos tradicionais, incluindo:

  • avaliação clínica e neuropsicológica,

  • análise de biomarcadores,

  • exames de neuroimagem estruturais ou moleculares.

A adoção clínica depende de fatores como:

  • usabilidade por profissionais,

  • compatibilidade com sistemas PACS e prontuários eletrônicos,

  • treinamento adequado das equipes,

  • redução de tempo e custo sem comprometer qualidade.

4. Desafios para adoção regulatória e clínica

Apesar do avanço tecnológico, algumas barreiras ainda precisam ser superadas:

  • ausência de estudos prospectivos que avaliem impacto clínico real,

  • variabilidade dos datasets usados no treinamento,

  • insuficiente explicabilidade dos modelos,

  • risco de vieses que podem comprometer decisões médicas,

  • necessidade de padronização internacional para validação.

Assim, a translação da IA para a prática clínica requer um arcabouço regulatório sólido, integração técnica adequada e comprovação de que essas ferramentas realmente aumentam a acurácia diagnóstica e beneficiam pacientes.

Fragilidades metodológicas e desafios éticos/práticos

Grande parte das bases de dados utilizadas para treinar algoritmos de IA é composta majoritariamente por indivíduos:

  • brancos,

  • com alta escolaridade,

  • provenientes de países de alta renda,

  • participantes de coortes de pesquisa altamente controladas.

Essa composição limita a generalização dos algoritmos para populações mais diversas, podendo gerar vieses raciais, socioeconômicos e culturais. Modelos treinados em amostras homogêneas podem apresentar desempenho inferior em grupos sub-representados, reforçando disparidades em saúde.

1. Opacidade dos Modelos e Baixa Interpretabilidade

Modelos complexos como deep neural networks, CNNs tridimensionais e transformers apresentam natureza de “caixa-preta”, dificultando:

  • a explicação do raciocínio diagnóstico,

  • a confiança dos profissionais de saúde,

  • a auditabilidade regulatória,

  • a identificação de vieses internos.

Embora técnicas como Grad-CAM, saliency maps e mecanismos de atenção possam indicar regiões de interesse, sua utilidade clínica ainda é limitada, e não há consenso sobre sua confiabilidade.

2. Inconsistências na Rotulagem Diagnóstica

A literatura mostra significativa variabilidade nos critérios utilizados como padrão de referência:

  • diagnóstico clínico convencional,

  • confirmação por PET amiloide ou tau,

  • biomarcadores de líquor,

  • combinações híbridas.

Essa heterogeneidade compromete comparações diretas entre modelos, influencia métricas de desempenho e introduz vieses metodológicos que dificultam metanálises rigorosas.

3. Falta de Padronização de Pipelines e Protocolos

Os estudos diferem amplamente quanto a:

  • estratégias de pré-processamento,

  • normalização e segmentação de imagens,

  • técnicas de balanceamento de classes,

  • métricas utilizadas,

  • validação cruzada versus validação externa.

A ausência de padronização dificulta a reprodutibilidade e a replicação dos achados, um requisito essencial para implementação clínica.

4. Ausência de Avaliação de Impacto Clínico Real

Apesar de muitos estudos apresentarem métricas impressionantes, poucos:

  • avaliam o impacto na tomada de decisão médica,

  • testam seus sistemas em fluxos de trabalho reais,

  • analisam custo-efetividade,

  • avaliam a percepção de profissionais e pacientes.

Sem essas etapas, não é possível afirmar que a IA melhora o cuidado ou reduz erros diagnósticos.

5. Considerações Éticas e de Privacidade

Modelos de IA dependem de grandes volumes de dados sensíveis, incluindo:

  • imagens cerebrais,

  • perfis genéticos,

  • biomarcadores sanguíneos,

  • dados comportamentais e digitais.

Isso levanta questões críticas de:

  • privacidade,

  • governança de dados,

  • consentimento informado,

  • uso secundário de informações,

  • risco de reidentificação.

Além disso, existe o risco de que interpretações automatizadas substituam avaliação clínica qualificada, caso não haja regulamentação rigorosa.

6. Interoperabilidade e Barreiras Tecnológicas

Para adoção em larga escala, modelos de IA precisam se integrar a:

  • sistemas PACS,

  • prontuários eletrônicos,

  • ferramentas diagnósticas já padronizadas.

Entretanto, muitos algoritmos são desenvolvidos em ambientes acadêmicos que não refletem as limitações tecnológicas do mundo real, dificultando sua implementação.

Discussão

Os avanços recentes em inteligência artificial (IA) aplicados ao diagnóstico precoce da doença de Alzheimer (DA) demonstram um potencial significativo para transformar a prática clínica, especialmente na identificação de indivíduos em estágios pré-clínicos ou com comprometimento cognitivo leve (MCI). A literatura analisada evidencia que métodos de deep learning aplicados a neuroimagem, biomarcadores plasmáticos e sinais digitais alcançam alto desempenho em coortes de pesquisa, indicando forte capacidade de detecção de padrões sutis associados à neurodegeneração. No entanto, a translação desse potencial para o mundo real ainda enfrenta importantes barreiras.

Em primeiro lugar, destaca-se a incerteza sobre a generalização dos modelos. Embora muitos algoritmos atinjam AUC superiores a 0,85 em bases como ADNI ou OASIS, essas coortes apresentam composição demográfica limitada, alto controle experimental e padronização rigorosa — condições que não refletem a diversidade observada na prática clínica. A ausência de validação externa robusta permanece como um dos maiores entraves à adoção clínica da IA, especialmente em populações de baixa renda, minorias étnicas e idosos com múltiplas comorbidades.

Adicionalmente, o desalinhamento entre critérios diagnósticos utilizados como referência nos estudos (baseados em clínica, PET, líquor ou combinações híbridas) introduz heterogeneidade significativa nos modelos e dificulta a comparação direta entre trabalhos. A falta de padronização de pipelines de pré-processamento e treinamento também contribui para variações metodológicas, prejudicando reprodutibilidade e impedindo metanálises de maior rigor científico.

Outro ponto essencial refere-se à interpretabilidade dos modelos. Apesar de avanços em técnicas de explicabilidade, muitos algoritmos continuam a operar como “caixas-pretas”, limitando sua aceitação por profissionais de saúde e dificultando a aprovação regulatória. A interpretação automatizada de neuroimagem, por exemplo, precisa ser transparente o suficiente para que médicos possam confiar nas decisões propostas e identificar possíveis erros ou vieses.

Por outro lado, a integração de biomarcadores plasmáticos aprovados clinicamente, como p-tau217 e p-tau181, representa uma oportunidade importante. Esses testes, menos invasivos e mais acessíveis, podem complementar modelos de IA e fortalecer pipelines diagnósticos híbridos, ampliando o alcance a populações que não têm acesso a PET ou RM de alta resolução. A fusão multimodal de dados, que integra imagem, sinais moleculares e comportamento digital, surge como a abordagem mais promissora para elevar acurácia e sensibilidade, especialmente na predição de conversão de MCI para DA.

No entanto, desafios éticos e práticos persistem. Questões relacionadas à privacidade de dados, risco de reidentificação, necessidade de governança adequada e potenciais impactos na autonomia clínica exigem atenção cuidadosa. Além disso, a falta de interoperabilidade com sistemas de saúde, prontuários eletrônicos e fluxos diagnósticos existentes limita a aplicabilidade imediata dessas tecnologias.

Assim, embora a IA demonstre alto potencial para aprimorar o diagnóstico precoce da DA, sua adoção clínica dependerá de avanços metodológicos, padronização, validação externa, clareza regulatória e infraestrutura tecnológica compatível. O futuro da área aponta para soluções híbridas, interpretáveis e integradas, capazes de fornecer suporte real à tomada de decisão médica, sem substituir o julgamento clínico.

Conclusão

A inteligência artificial (IA) tem se destacado como uma das ferramentas mais promissoras para o diagnóstico precoce da doença de Alzheimer (DA), especialmente pela capacidade de identificar padrões sutis em neuroimagem, biomarcadores plasmáticos e dados digitais que escapam à avaliação humana tradicional. Os avanços recentes demonstram que modelos baseados em deep learning, sobretudo aqueles que integram múltiplas modalidades de dados, alcançam desempenho elevado em coortes de pesquisa, contribuindo para a detecção precoce da neurodegeneração e para a predição de conversão de comprometimento cognitivo leve (MCI) para DA.

No entanto, o entusiasmo gerado pelos resultados experimentais deve ser equilibrado pela compreensão das limitações ainda existentes. A ausência de validação externa robusta, a heterogeneidade metodológica, os vieses populacionais e a baixa interpretabilidade dos modelos continuam sendo barreiras significativas para a translação dessas tecnologias à prática clínica. Além disso, o contexto regulatório ainda está em desenvolvimento, exigindo maior transparência, padronização e estudos prospectivos que demonstrem impacto clínico real, segurança e aplicabilidade em cenários diversos.

A convergência entre IA e biomarcadores plasmáticos recentemente aprovados, aliada ao avanço de métodos multimodais e às melhorias nos fluxos de dados clínicos, representa um caminho particularmente promissor para a construção de soluções diagnósticas mais acessíveis, escaláveis e integradas ao cotidiano dos serviços de saúde. Entretanto, a consolidação dessa transformação dependerá de esforços colaborativos entre pesquisadores, clínicos, órgãos reguladores e a indústria tecnológica, com foco em equidade, reprodutibilidade e governança responsável dos dados.

Dessa forma, embora a IA ainda não esteja plenamente madura para substituir métodos diagnósticos tradicionais, ela já se apresenta como um componente estratégico de um futuro ecossistema de diagnóstico híbrido e altamente preciso. Investimentos contínuos em pesquisa, validação e infraestrutura serão fundamentais para que essas tecnologias possam, de fato, melhorar o cuidado, ampliar o acesso e contribuir para um manejo mais eficaz e oportuno da doença de Alzheimer.

REFERÊNCIAS BIBLIOGRÁFICAS

  1. Bazarbekov I, et al. A review of artificial intelligence methods for Alzheimer's disease detection. Neurocomputing. 2024.

  2. Zhou J, et al. A deep learning model for early diagnosis of Alzheimer's disease using 3D-CNN and Video Swin Transformer. Sci Rep / Nature? 2025. (artigo de 2025 descrevendo 3D-CNN-VST para RM).

  3. Marongiu A, et al. Artificial Intelligence in PET Imaging for Alzheimer's Disease. Eur J Nucl Med Mol Imaging / Frontiers / PMC article 2025.

  4. Wang L, et al. Deep learning MRI meta-analysis: diagnostic performance for AD and MCI. Arq Neuropsiquiatr. 2024.

  5. Nagarajan I, et al. A comprehensive review on early detection of Alzheimer's with deep learning. Frontiers in Computer Science / AI. 2025.

  6. Jasodanand VH, et al. AI-driven fusion of multimodal data for Alzheimer's disease. Nat Commun. 2025

  7. Reuters. US FDA clears first blood test to detect Alzheimer's disease. 2025 May 16.

  8. Mmadumbu AC, et al. Early detection of Alzheimer's disease using deep learning—results on ADNI/NACC datasets. 2025.

  9. Rabinovici GD, et al. Updated Appropriate Use Criteria for Amyloid and Tau PET. J Nucl Med. 2025.

  10. AIRAmed / AIRAscore FDA clearance report (neurologylive coverage). 2023–2024.