G12|ATLAS – ANALISADOR FILOSÓFICO E GÖDELIANO
PDF: Clique aqui
REGISTRO DOI: 10.5281/zenodo.17095695
Atila Barros1
RESUMO
O G12|ATLAS – Analisador Filosófico e Gödeliano (v. 1.1.1, BETA) é um software gratuito, modular e multiplataforma, desenvolvido em Python com interface Tkinter, que integra lógica formal, filosofia crítica e ciência de dados para a interpretação rigorosa de textos complexos. Destina-se a pesquisadores, estudantes e profissionais, permitindo validar hipóteses, avaliar a estrutura dissertativo-argumentativa, verificar originalidade e produzir relatórios automatizados (DOCX, PDF, HTML). A arquitetura reúne módulos como Análise Estatística de Texto, Rubrica Científica, Análise de Plágio/Similaridade, Protocolo ABNT e Núcleo Visual, oferecendo gráficos, redes semânticas, nuvens de palavras e modelos tridimensionais. Metodologicamente, utiliza TF/TF-IDF, probabilidades condicionais, correlações, métricas de similaridade (cosseno, Jaccard, Euclidiana/Manhattan), teoria dos grafos e lógica modal S5, além de técnicas de aprendizado de máquina (SVM, Random Forest, regressão logística, K-Means, hierárquica e DBSCAN) e embeddings para proximidade semântica. Os resultados alimentam um medidor de veracidade, que exibe percentuais de verdade, falsidade e nível de confiança em tempo real. Ao democratizar métodos antes restritos a especialistas e oferecer um fluxo analítico reprodutível, o G12|ATLAS se consolida como ambiente acadêmico robusto, apoiando pesquisa, direito, jornalismo, políticas públicas e educação com maior rigor, clareza e profundidade interpretativa.
Palavras-chave: análise textual; lógica modal S5; TF-IDF; aprendizado de máquina; grafos semânticos; detecção de plágio; visualização 3D.
ABSTRACT
The G12|ATLAS – Philosophical and Gödelian Analyzer (v. 1.1.1, BETA) is a free, modular, cross-platform software developed in Python with a Tkinter interface, integrating formal logic, critical philosophy, and data science for the rigorous interpretation of complex texts. Designed for researchers, students, and professionals, it enables hypothesis validation, argumentative structure assessment, originality checking, and automated report generation (DOCX, PDF, HTML). Its architecture includes modules such as Statistical Text Analysis, Scientific Rubric, Plagiarism/Similarity Analysis, ABNT Protocol, and Visual Core, providing charts, semantic networks, word clouds, and three-dimensional models. Methodologically, it applies TF/TF-IDF, conditional probabilities, correlations, similarity metrics (cosine, Jaccard, Euclidean/Manhattan), graph theory, and S5 modal logic, along with machine learning techniques (SVM, Random Forest, logistic regression, k-means, hierarchical clustering, DBSCAN) and embeddings for semantic proximity. The results feed a truth meter, displaying percentages of truth, falsehood, and confidence levels in real time. By democratizing methods once limited to specialists and offering a reproducible analytical workflow, G12|ATLAS establishes itself as a robust academic environment, supporting research, law, journalism, public policy, and education with enhanced rigor, clarity, and interpretive depth.
Keywords: textual analysis; S5 modal logic; TF-IDF; machine learning; semantic graphs; plagiarism detection; 3D.
INTRODUÇÃO
O G12|ATLAS – Analisador Filosófico e Gödeliano é um software que estabelece uma nova forma de leitura e interpretação de textos complexos. Combinando lógica formal, filosofia crítica e inteligência artificial, a plataforma possibilita uma análise profunda e multidimensional, revelando padrões ocultos, contradições e potenciais interpretações inovadoras. Desenvolvido para pesquisadores, estudantes e profissionais, o G12|ATLAS oferece recursos essenciais para:
Validar hipóteses e fortalecer argumentos;
Aprimorar dissertações, relatórios e artigos;
Verificar originalidade e clareza em discursos acadêmicos e institucionais;
Apoiar áreas práticas, como o jornalismo investigativo, o direito e as políticas públicas, garantindo análises consistentes e confiáveis.
Mais do que uma simples ferramenta, o G12|ATLAS constitui um ambiente de investigação crítica, projetado para democratizar métodos avançados de análise que antes estavam restritos a especialistas. Ele representa uma verdadeira ponte entre conhecimento, rigor metodológico e inovação tecnológica, abrindo novas possibilidades de pesquisa e reflexão. Com a versão 1.1.1 (BETA), o projeto se consolida como um software gratuito que une acessibilidade e sofisticação analítica, colocando nas mãos do usuário um instrumento capaz de levar suas análises a um novo patamar de profundidade e qualidade.
A aplicação G12|ATLAS – Analisador Filosófico e Gödeliano constitui-se como um software acadêmico multidisciplinar destinado ao exame rigoroso de textos complexos, integrando métodos da lógica formal, da filosofia crítica e da ciência de dados. Desenvolvido em linguagem Python, com interface gráfica baseada em Tkinter e dotado de diversos módulos especializados, o programa oferece um ambiente de investigação textual que extrapola a leitura linear, produzindo relatórios, análises estatísticas e representações visuais capazes de revelar padrões ocultos, contradições e graus de confiabilidade das proposições avaliadas.
O G12|ATLAS (v. 1.1.1 — BETA) está disponível gratuitamente para download no site oficial: https://g12atlas.com.br/. Na página de distribuição, o usuário encontra os arquivos de instalação e as instruções de uso, além de documentação introdutória. O software é oferecido sem custo para fins acadêmicos e profissionais, mantendo a proposta de democratizar métodos avançados de análise textual.
PROCESSO DE PRODUÇÃO DO SOFTWARE
O desenvolvimento do G12|ATLAS – Analisador Filosófico e Gödeliano decorreu da observação sistemática de dificuldades enfrentadas por alunos e professores no contexto acadêmico. Durante atividades de ensino, pesquisa e orientação, constatou-se que grande parte dos estudantes apresentava limitações significativas na geração e análise de dados estatísticos provenientes de entrevistas, questionários e revisões de literatura. Esse cenário comprometeu a qualidade dos trabalhos de conclusão de curso, relatórios de estágio e projetos de pesquisa, revelando a necessidade de um instrumento capaz de integrar, de forma acessível e rigorosa, técnicas quantitativas e qualitativas de análise textual.
No campo da Pedagogia, verificou-se que os estudantes, embora aptos a realizar a coleta de informações em pesquisas de campo, encontravam barreiras metodológicas ao processar e interpretar estatisticamente os resultados obtidos. Essa fragilidade reduzia a confiabilidade dos achados e dificultava a elaboração de relatórios científicos consistentes. No âmbito do Direito, a demanda se manifestava de maneira distinta: havia carência de ferramentas que possibilitassem a análise crítica da coerência argumentativa, bem como a verificação de originalidade e a conformidade estrutural de textos acadêmicos e jurídicos. Já na Ciência da Computação, a problemática identificada relacionava-se ao hiato entre o conhecimento teórico dos algoritmos de análise e aprendizado de máquina e a ausência de um ambiente aplicado que permitisse a utilização prática desses recursos diretamente em corpora textuais.
A partir dessa triangulação de demandas, a produção do software foi orientada por três eixos centrais. O primeiro consistiu na adoção da linguagem Python, escolhida pela sua versatilidade e pela ampla disponibilidade de bibliotecas voltadas à estatística, ao processamento de linguagem natural e à visualização de dados. O segundo eixo correspondeu ao desenvolvimento de módulos funcionais específicos, tais como: Análise Estatística de Texto, Rubrica Científica, Núcleo Visual, Protocolo ABNT e Análise de Plágio/Similaridade, todos voltados a suprir lacunas observadas nas práticas acadêmicas. Por fim, o terceiro eixo baseou-se na validação interdisciplinar, realizada por meio da aplicação experimental do sistema em situações reais de ensino e pesquisa, assegurando que o software atendesse de forma simultânea às necessidades pedagógicas, jurídicas e computacionais.
Como resultado desse processo, o G12|ATLAS consolidou-se como um ambiente acadêmico multidisciplinar que traduz em soluções computacionais as dificuldades observadas no cotidiano das práticas formativas. Ao disponibilizar relatórios automatizados em múltiplos formatos (DOCX, PDF e HTML), representações visuais interativas e instrumentos de análise estatística e lógica, o software contribui para democratizar metodologias antes restritas a especialistas, elevando o nível de rigor e transparência das pesquisas. Assim, a produção do G12|ATLAS ilustra um movimento de escuta ativa e integração interdisciplinar, no qual demandas pedagógicas foram transformadas em ferramentas computacionais robustas, capazes de apoiar a formação acadêmica e profissional em diferentes áreas do conhecimento.
OBJETIVOS E FINALIDADE
A finalidade central do G12|ATLAS é apoiar a pesquisa acadêmica e profissional em campos que demandam análise crítica, verificabilidade e clareza estrutural de textos. Entre seus objetivos específicos, destacam-se:
Validação de hipóteses em dissertações, artigos e relatórios.
Análise de originalidade e plágio, com integração de módulos específicos para detecção de similaridades e uso de inteligência artificial.
Avaliação estrutural de textos dissertativo-argumentativos, assegurando a conformidade com métodos acadêmicos.
Produção automática de relatórios em formatos variados (DOCX, PDF, HTML), organizados na pasta de saída denominada /relatorios.
Suporte metodológico a áreas aplicadas como jornalismo investigativo, direito, políticas públicas e ensino superior, permitindo análises textuais robustas e transparentes.
Estrutura e Funcionalidades
A aplicação integra múltiplos módulos especializados, entre os quais:
Análise Estatística de Texto (AET): gera relatórios quantitativos e gráficos sobre frequência de termos, redes semânticas e padrões de uso da linguagem.
Rubrica Científica: avalia criticamente textos acadêmicos segundo parâmetros metodológicos e critérios de cientificidade.
Núcleo Visual: converte dados textuais em representações gráficas e interativas (nuvens de palavras, cones de luz, cubos tridimensionais), oferecendo uma dimensão visual da análise.
Protocolo ABNT: automatiza a geração de artigos no padrão normativo brasileiro, ampliando a praticidade para estudantes e pesquisadores.
Análise de Plágio e Similaridade: compara documentos para identificar trechos suspeitos de reprodução indevida ou dependência excessiva de fontes.
Verificação de Estrutura Argumentativa: utiliza lógica formal e modelos inspirados em Gödel para avaliar a consistência e a coerência dos textos.
Medidor de Veracidade: por meio de barras gráficas e relatórios probabilísticos, estima a confiabilidade do discurso, atribuindo percentuais de verdade, falsidade e nível de confiança.
METODOLOGIA E TECNOLOGIA EMPREGADA
A arquitetura do G12|ATLAS é desenvolvida em linguagem Python, escolhida por sua versatilidade, extensa biblioteca científica e ampla adoção no meio acadêmico. Python constitui o núcleo de processamento do sistema, permitindo integrar técnicas de linguística computacional, estatística matemática, lógica formal e visualização gráfica em um único ambiente.
Linguagem de Programação
Python é utilizado como base, com suporte a bibliotecas de análise de linguagem natural (como spaCy e nltk), estatística (scikit-learn, scipy, pandas), visualização (matplotlib, networkx), e geração de documentos (FPDF, ReportLab).
A interface gráfica é implementada em Tkinter, garantindo acessibilidade multiplataforma (Windows, Linux e macOS).
O sistema também utiliza mecanismos de paralelismo e controle de instância única, fundamentais para garantir estabilidade na execução em ambientes de pesquisa.
Métricas Matemáticas Empregadas
O G12|ATLAS aplica um conjunto diversificado de métricas matemáticas e estatísticas para processar e interpretar textos. Entre as principais, destacam-se:
Métricas de Frequência e Probabilidade
TF (Term Frequency): mede a frequência absoluta e relativa de termos em um corpus textual.
TF-IDF (Term Frequency – Inverse Document Frequency): avalia a relevância de um termo em relação a todo o conjunto de textos, reduzindo a influência de palavras muito comuns.
Probabilidade Condicional: empregada para verificar dependências entre termos ou proposições.
Métricas Estatísticas e de Distribuição
Média, variância e desvio padrão de ocorrências lexicais e sintáticas.
Análise de correlação (Pearson, Spearman, Kendall) para identificar relações entre termos e categorias semânticas.
Modelos probabilísticos bayesianos, aplicados em módulos de veracidade e confiabilidade discursiva.
Métricas de Similaridade e Distância
Distância de Coseno: avalia a similaridade entre vetores de palavras ou documentos, útil na detecção de plágio e proximidade semântica.
Distância de Jaccard: mede a interseção entre conjuntos de palavras, empregada em análises comparativas.
Distância Euclidiana e Manhattan: aplicadas em representações geométricas de textos em espaços multidimensionais.
Métricas de Redes e Estruturas Lógicas
Teoria dos Grafos: uso de métricas como centralidade, grau e modularidade em redes semânticas.
Lógica Modal (S5) e Análise Gödeliana: avaliação de consistência lógica, incluindo operadores □ (necessário) e ◊ (possível).
Modelos de probabilidade de verdade e falsidade: expressos em percentuais, calculados a partir de análises semânticas e comparativas com bases referenciais.
Técnicas de Aprendizado de Máquina
Classificação supervisionada (SVM, Random Forest, Regressão Logística) para distinguir padrões de autoria ou estilo textual.
Clusterização (K-Means, Hierárquica, DBSCAN) para agrupar textos ou frases semanticamente próximas.
Modelos baseados em embeddings (vetorização de palavras) que transformam termos em representações numéricas de alta dimensionalidade, facilitando análises de contexto e semântica.
Todos os cálculos matemáticos convergem para a geração de relatórios automatizados. Esses relatórios podem conter gráficos estatísticos, mapas conceituais, núcleos visuais tridimensionais e dashboards interativos, tornando os resultados acessíveis e inteligíveis tanto para especialistas quanto para usuários iniciantes.
MÉTRICAS MATEMÁTICAS DO G12|ATLAS
A tabela a seguir sintetiza as principais métricas estatísticas, lógicas e computacionais empregadas pelo G12|ATLAS para quantificar padrões textuais, avaliar consistência argumentativa e produzir evidências reprodutíveis. Cada linha apresenta: (i) a métrica, (ii) uma descrição funcional dentro do pipeline da aplicação e (iii) a fórmula simplificada usada para cálculo ou referência teórica. Em conjunto, essas medidas alimentam os módulos de Análise Estatística de Texto, Similaridade/Plágio, Núcleo Visual, Rubrica Científica e Medidor de Veracidade.
Resumo interpretativo por métrica
TF (Term Frequency) – mede a frequência de um termo em um documento; captura saliência local e serve de base para visualizações (nuvens de palavras) e redes semânticas.
TF-IDF – pondera a frequência pelo “caráter distintivo” no corpus; destaca termos informativos ao reduzir o peso de palavras muito comuns.
Probabilidade condicional – estima dependências entre eventos/termos (p.ex., ocorrência de B dado A); usada em verificações de coocorrência e no medidor probabilístico de veracidade.
Correlação de Pearson (r) – mede associação linear entre variáveis (−1 a 1); útil para relacionar frequências/índices contínuos.
Correlação de Spearman (ρs) – correlação por postos; robusta a não linearidades e outliers, aplicada a rankings e séries monotônicas.
Distância do Cosseno – similaridade entre vetores (texto–documento/embeddings); central na detecção de proximidade semântica e suspeitas de plágio.
Distância de Jaccard – similaridade entre conjuntos (0–1); compara vocabulários/trechos únicos sem considerar multiplicidade de termos.
Distância Euclidiana – distância geométrica em espaços de atributos; usada em projeções e agrupamentos quando a escala é homogênea.
Distância Manhattan – soma de diferenças absolutas; preferível em dados esparsos/alto número de dimensões.
Centralidade em grafos – quantifica a importância de nós em redes semânticas (grau, closeness, betweenness); a fórmula exibida corresponde à proximidade (inversa das distâncias).
Lógica Modal S5 (Gödel) – operadores □ (necessidade) e ◊ (possibilidade) para checar coerência modal; no S5 vale o princípio ◇□φ → □φ, usado para testar consistência de padrões argumentativos.
Modelos bayesianos – atualizam a probabilidade de hipóteses via likelihood e prior (P(H|E) ∝ P(E|H)P(H)); compõem o cálculo do nível de confiança do discurso.
Clusterização (k-means) – particiona textos/vetores em k grupos minimizando a soma das distâncias intra-cluster; apoia a descoberta de temas/estilos.
Notas de uso e interpretação
Métricas de similaridade (cosseno/Jaccard) variam entre 0 e 1 (quanto maior, mais semelhante); correlações variam de −1 a 1.
A escolha entre Euclidiana e Manhattan depende da escala e esparsidade dos vetores; normalizações (L1/L2) são recomendadas.
Em k-means, k é determinado por critérios como elbow ou silhouette; resultados alimentam mapas e cubos semânticos no Núcleo Visual.
As medidas lógicas e bayesianas não substituem a leitura crítica: elas qualificam a força explicativa e a confiabilidade do texto, compondo o Medidor de Veracidade e os relatórios automatizados.
O conjunto de métricas descrito constitui o arcabouço quantitativo que sustenta o G12|ATLAS. Em complementaridade, elas capturam desde a saliciência local (TF/TF-IDF) e dependências probabilísticas (P(B|A)) até relações estruturais (correlações, distâncias e centralidades em grafos) e consistência lógico-modal (S5), culminando em estimativas bayesianas de confiança. Essa triangulação permite transitar do termo ao argumento, do vetor ao grafo, do indício ao padrão, produzindo evidências reprodutíveis e auditáveis que alimentam o Medidor de Veracidade, as visualizações e os relatórios automatizados.
A interpretação dos resultados, todavia, requer prudência metodológica: escolhas de normalização, da métrica de distância (Euclidiana vs. Manhattan), de k em k-means e de limiares de similaridade impactam diretamente as conclusões. Por isso, correlações devem ser lidas à luz do contexto e da hipótese de pesquisa; similaridades indicam proximidade, não equivalência; e os modelos bayesianos expressam graus de crença condicionados ao corpus e aos priors. Em síntese, as métricas potencializam—mas não substituem—o juízo crítico. Quando combinadas a boas práticas de validação e à leitura hermenêutica, elas elevam o rigor, a transparência e a confiabilidade das análises textuais, consolidando o G12|ATLAS como um ambiente técnico-científico robusto para investigação e tomada de decisão.
Métricas Matemáticas Empregadas
O software incorpora um conjunto diversificado de métricas matemáticas e estatísticas, capazes de realizar desde análises básicas de frequência até modelagens complexas de semântica, lógica modal e aprendizado de máquina. A tabela abaixo resume as principais métricas:
POR QUE OPTAR POR UMA ARQUITETURA EM PYTHON PARA O G12|ATLAS?
Aderência ao problema (NLP + lógica + estatística)
Python concentra as melhores bibliotecas para o escopo do projeto: spaCy/nltk (NLP em PT), scikit-learn/Scipy/NumPy/pandas (estatística e ML), NetworkX (grafos semânticos), SymPy (simbólico), matplotlib (visualização) e python-docx/FPDF/ReportLab (relatórios DOCX/PDF/HTML). Isso reduz “cola” entre camadas e acelera P&D.Produtividade e manutenção
Sintaxe concisa, tipagem gradual (type hints) e ecossistema maduro (PyPI) diminuem o custo de evolução. A modularização por “scripts especializados” orquestrados pela UI permite alterar um módulo sem quebrar o restante.Multiplataforma com UI simples
Com Tkinter, a aplicação roda em Windows, Linux e macOS sem dependências pesadas; a distribuição é facilitada via PyInstaller (incluindo recursos estáticos e modelos). Isso atende o objetivo de acessibilidade acadêmica.Integração transparente de pipelines
É trivial acionar e isolar etapas com runpy/subprocess, compartilhar artefatos em relatorios/ e priorizar a “melhor saída recente”. O padrão favorece reprodutibilidade e auditoria do fluxo analítico.Desempenho suficiente com rotas de aceleração
Os trechos intensivos usam vetorização (NumPy) e implementações já compiladas em C/C++ sob as bibliotecas. Se necessário, há caminhos de otimização (multiprocessing, caching, Numba/Cython) e interoperabilidade com Rust/C++.Confiabilidade e UX
A linguagem facilita logs estruturados, tratamento robusto de exceções e mecanismos de instância única, garantindo estabilidade (crítica em ambientes educacionais e de pesquisa).Escalabilidade futura
A mesma base pode expor APIs (FastAPI) ou incorporar modelos mais recentes (embeddings, transformers via Hugging Face), preservando a UI desktop para uso offline.Custo e comunidade
Ferramentas gratuitas e uma comunidade ampla reduzem barreiras para estudantes e grupos de pesquisa, alinhando-se à proposta de democratização metodológica do G12|ATLAS.
Em síntese: Python oferece o melhor equilíbrio entre alcance científico, rapidez de desenvolvimento, portabilidade e reprodutibilidade — requisitos centrais do G12|ATLAS para entregar análises rigorosas, auditáveis e acessíveis.
Arquitetura em Python
1) Arquitetura geral em Python
O G12|ATLAS é implementado como uma aplicação Python modular, com interface gráfica Tkinter e um conjunto de helpers que desacoplam a UI do motor de análise. Essa arquitetura combina: (i) funções de integração que acionam scripts especializados via runpy/subprocess, (ii) helpers de robustez para localizar recursos e modelos, e (iii) componentes visuais personalizados (barras de progresso e de “veracidade”) que refletem, em tempo real, os resultados analíticos. Exemplos dessas integrações aparecem na rotina que lê resultados probabilísticos de relatórios HTML e atualiza a UI, incluindo o rótulo de Confiança ao lado da barra vertical de veracidade.
2) Camada de UI (Tkinter) e componentes visuais
A UI adota o Tkinter como toolkit, com widgets próprios para experiência moderna. O componente RoundedProgressbar (Canvas) oferece uma barra de progresso com cantos arredondados, drawing customizado e atualização animada do valor — tudo encapsulado para uso “estilo-ttk”, porém com visual refinado (cores, padding, rótulo embutido). Em paralelo, há uma barra vertical de veracidade e helpers que exibem dinamicamente percentuais e o rótulo de Confiança: NN% quando o relatório recente contiver essa métrica. A criação e posicionamento do rótulo (sem alterar a arquitetura principal) é feita por ensure_confidence_label(), que descobre a barra, prepara fonts e injeta o label no layout atual (grid/pack/place) de modo resiliente.
3) Motor de análise e integração com scripts especializados
A aplicação atua como orquestradora de análises: captura o texto na UI, seleciona idioma, salva insumos em relatorios/ e delega a execução a scripts especializados (estatística textual, rubrica científica, núcleo visual, ABNT, resumo expandido).
Em Análise Estatística de Texto (AET), o pipeline grava o texto em arquivo, identifica o script analtexto.py, executa-o (via runpy ou subprocess), registra logs e detecta artefatos recém-gerados (DOCX/PDF/HTML) para abrir a melhor saída conforme prioridade/recência. Tudo com mensagens de status na UI e tolerância a SystemExit dos scripts chamados. O fluxo contempla também um dashboard analítico opcional e verificação de dependências em modo frozen (PyInstaller).
Em Análise Textual Avançada (autorun), há um worker thread que configura sys.argv, muda o cwd e executa o script alvo (analise_textual_avancada_autorun.py), sempre restaurando contexto ao final (robustez).
Em Resumo Expandido e Protocolo ABNT, o padrão é semelhante: localizar arquivo próximo (ver #4), isolar I/O, e abrir o produto (DOCX/PDF) conforme heurísticas de “melhor artefato recente”.
Para Rubrica Científica e Núcleo Visual, o texto é salvo em temporários, o script específico é localizado e executado, e a UI sinaliza progresso e término com status labels e barras.
4) Localização de recursos e tolerância a empacotamento (PyInstaller)
O projeto usa helpers para localizar recursos e scripts no ambiente dev e no executável (PyInstaller).
resource_path() e _find_nearby_file_ci() buscam arquivos ao lado do app, no _MEIPASS (diretório temporário do PyInstaller), ou no cwd, aceitando variações de nome/caixa e extensões alternativas. Isso viabiliza encontrar, por exemplo, analtexto.py, Nucleo_Visual.py ou modelos de linguagem, mesmo após mudanças de empacotamento ou em ambientes heterogêneos.
O carregamento robusto do spaCy tenta: (1) pacote instalado (pt_core_news_sm), (2) diretórios _MEIPASS/exe/cwd, (3) download dinâmico, e (4) fallback spacy.blank("pt") — evitando que o EXE quebre por ausência do modelo. A lógica de tentativas e fallbacks está explicitamente codificada.
5) Gestão de instância única e estabilidade de execução
Para evitar múltiplas janelas (e race conditions com arquivos), o app usa duas camadas de guarda de instância: (i) um lock por PID em arquivo temporário com detecção de stale lock (12h) e restauração da janela se já houver instância; e (ii) um lock alternativo por file locking/socket em outro ponto do código. Na prática, isso impede a abertura duplicada e melhora a UX em Windows e Unix-like.
6) Leitura de resultados e atualização reativa da UI
Após as análises, os relatórios (HTML/DOCX/PDF) são varridos; o sistema escaneia o HTML mais recente que contenha a seção “Análise Baseada em Probabilidade de Verdade” e extrai Probabilidade de Verdade, Probabilidade de Falsidade e Nível de Confiança. Esses valores são então enviados para a barra de veracidade e para o label de confiança, de forma reativa (com after de Tkinter para polling suave).
7) Padrões de robustez, UX e logs
O código privilegia mensagens de status (ex.: “Executando Análise…”, “Concluído.”), tratamento de exceções sem travar a UI, isolamento de sys.argv/cwd, limpeza de temporários e priorização de artefatos por extensão/idade ao abrir saídas — boas práticas essenciais em aplicações acadêmicas que rodam ora no VS Code, ora empacotadas como EXE. Há ainda contingências para gerar PDFs compatíveis via FPDF quando módulos externos falham, assegurando que o usuário receba um relatório mínimo em modo compatível .
O desenvolvimento em Python do G12|ATLAS combina UI Tkinter moderna, orquestração de scripts analíticos, busca resiliente de dependências e recursos, e reflexo imediato dos resultados na interface. A ênfase está na robustez em ambientes empacotados, na modularidade para evolução incremental e na transparência do fluxo (logs, barras e rótulos de veracidade/confiança) — requisitos centrais para um software acadêmico confiável.
Usos Potenciais
A amplitude do G12|ATLAS permite sua aplicação em diversas áreas:
Acadêmica: auxílio na redação, revisão e avaliação de teses, dissertações, artigos e relatórios técnicos.
Jurídica: exame da consistência lógica e da coerência argumentativa em peças jurídicas.
Jornalística: verificação de confiabilidade de fontes, detecção de vieses e análise discursiva.
Políticas Públicas: suporte na elaboração de documentos oficiais e relatórios de impacto, garantindo maior clareza e transparência.
Educação: ferramenta didática para ensinar lógica, metodologia científica e práticas de redação acadêmica.
Fragmentos de Código do G12|ATLAS
Nesta sessão, apresento trechos representativos do código-fonte do G12|ATLAS, com o objetivo de ilustrar a lógica empregada na elaboração dos relatórios mais importantes da aplicação. Cada listagem é acompanhada de uma breve descrição metodológica, demonstrando como o software integra boas práticas de programação à produção de evidências científicas.
Listagem 1 — Heurística de seleção do relatório mais adequado
def _preferido(caminhos, janela_segundos=3600):
agora = time.time()
def score(p):
p = Path(p)
ext = p.suffix.lower()
prio = {".docx": 3, ".pdf": 2, ".html": 1}.get(ext, 0)
mt = p.stat().st_mtime if p.exists() else 0
recent = 1 if (agora - mt) <= janela_segundos else 0
return (prio, recent, mt)
caminhos = [c for c in caminhos if Path(c).is_file()]
if not caminhos: return None
return sorted(caminhos, key=score, reverse=True)[0]
Este fragmento demonstra o critério de priorização automática dos relatórios gerados pela análise estatística de texto, adotando como regra a ordem DOCX > PDF > HTML. Além disso, considera a recência temporal do arquivo para selecionar o artefato mais adequado ao pesquisador.
Listagem 2 — Abertura do relatório preferido com fallback
if relatorio and Path(relatorio).exists():
os.startfile(relatorio)
else:
messagebox.showinfo("Análise concluída", f"Nenhum arquivo encontrado automaticamente. Verifique a pasta:\n{out_dir}")
Complementando a heurística, esta rotina garante que o relatório selecionado seja aberto de forma imediata. Caso não exista, o sistema informa ao usuário a pasta de saída, promovendo transparência e reprodutibilidade.
Listagem 3 — Geração de artigo no padrão ABNT
if alvo and Path(alvo).exists():
abrir = messagebox.askyesno("Prot. Artigo", f"Arquivo criado em:\n{alvo}\n\nDeseja abrir agora?")
if abrir:
os.startfile(alvo)
else:
messagebox.showinfo("Prot. Artigo", f"Execução finalizada.\nVerifique as pastas:\n{saida_dir}\n{relatorios_dir}")
Este trecho representa a lógica do Protocolo ABNT, responsável por estruturar relatórios acadêmicos conforme a norma brasileira. O software solicita confirmação ao usuário antes de abrir o arquivo final, fortalecendo a interação homem-máquina.
Listagem 4 — Execução da Rubrica Científica com arquivos temporários
fd, tmp_path = tempfile.mkstemp(prefix="rubrica_", suffix=".txt")
with open(tmp_path, "w", encoding="utf-8") as f:
f.write(texto)
sys.argv = [script_path, "--arquivo", tmp_path, "--formato", "html", "pdf"]
with contextlib.redirect_stdout(buf_out), contextlib.redirect_stderr(buf_err):
runpy.run_path(script_path, run_name="__main__")
A Rubrica Científica avalia a conformidade metodológica do texto. O uso de arquivos temporários e redirecionamento de logs garante robustez, isolamento de entrada e saída, além da preservação do ambiente de execução.
Listagem 5 — Relatório Dissertativo-Argumentativo com timestamp
ts = datetime.now().strftime("%Y%m%d_%H%M%S")
out_txt = rel_dir / f"Relatorio_Dissertativo_{ts}.txt"
ENV_NAME = "METODO_DISSERT_TEXTO"
os.environ[ENV_NAME] = texto
sys.argv = [script, "--env", ENV_NAME, "--saida", str(out_txt.resolve()), "--no-abrir"]
runpy.run_path(script, run_name="__main__")
Este código mostra a geração do relatório de validação dissertativo-argumentativa, utilizando timestamp no nome do arquivo e variáveis de ambiente para transporte de texto. Essa abordagem fortalece a auditoria, rastreabilidade e versionamento dos resultados.
Listagem 6 — Extração de percentuais para o Medidor de Veracidade
prob_v_pat = re.compile(r"Probabilidade\s*de\s*Verdade\s*[:\-]?\s*"+num, re.IGNORECASE)
prob_f_pat = re.compile(r"Probabilidade\s*de\s*Falsidade\s*[:\-]?\s*"+num, re.IGNORECASE)
conf_pat = re.compile(r"N[ií]vel\s*de\s*Confian[çc]a\s*[:\-]?\s*"+num, re.IGNORECASE)
...
return {"verdade": pv, "falsidade": pf, "confianca": nc}
Ilustra a lógica empregada para ler relatórios HTML e extrair percentuais de verdade, falsidade e confiança, que alimentam o Medidor de Veracidade exibido na interface. Este processo integra análise estatística e visualização interativa.
Listagem 7 — Verificação de dependências e logging
faltantes = []
for mod in ("docx","nltk","sklearn","pandas","matplotlib","scipy","networkx"):
try: __import__(mod)
except Exception: faltantes.append(mod)
if faltantes:
messagebox.showerror("Análise Estatística", msg); return
Este trecho garante a presença das bibliotecas essenciais antes de executar a análise estatística de texto. Caso faltem dependências, o sistema registra o erro e informa ao usuário, reforçando a confiabilidade do ambiente acadêmico.
Os fragmentos apresentados evidenciam a lógica central da aplicação G12|ATLAS, demonstrando como o software articula seleção automatizada de relatórios, conformidade normativa, análise metodológica, rastreabilidade e integração com indicadores probabilísticos. Tais práticas comprovam o compromisso do sistema com a robustez técnica, a transparência acadêmica e a democratização do acesso a metodologias avançadas de análise textual.
CONSIDERAÇÕES FINAIS
O G12|ATLAS – Analisador Filosófico e Gödeliano constitui um marco no campo dos softwares acadêmicos voltados à análise crítica de textos, ao integrar metodologias complexas em um ambiente acessível e de fácil utilização. Sua proposta vai além da simples automatização de relatórios: trata-se de uma ferramenta que articula lógica formal, estatística aplicada, ciência de dados e representações visuais interativas, oferecendo ao usuário um instrumento capaz de revelar padrões, inconsistências e potenciais interpretações que seriam dificilmente alcançados apenas pela leitura tradicional.
A principal contribuição do sistema reside em democratizar metodologias analíticas avançadas, anteriormente restritas a especialistas ou a laboratórios com alta capacidade técnica. Ao disponibilizar, em um único ambiente, recursos como a Análise Estatística de Texto, a Rubrica Científica, o Núcleo Visual tridimensional, o Protocolo ABNT e os mecanismos de detecção de similaridade e plágio, o G12|ATLAS viabiliza que pesquisadores em formação e profissionais de diferentes áreas alcancem um nível elevado de rigor metodológico. Essa característica o torna não apenas uma ferramenta de apoio técnico, mas um verdadeiro ambiente de investigação crítica que promove a autonomia do pesquisador e a confiabilidade dos resultados obtidos.
Outro aspecto relevante é a sua aplicabilidade multidisciplinar. No campo da Educação, auxilia estudantes na elaboração de relatórios, artigos e trabalhos de conclusão de curso, reduzindo as dificuldades relacionadas ao tratamento estatístico de dados coletados em campo. No âmbito do Direito, favorece a verificação de consistência lógica e argumentativa em peças jurídicas, contribuindo para maior clareza e segurança textual. Para a Ciência da Computação, constitui um ambiente de aplicação prática das técnicas de estatística, aprendizado de máquina e visualização de dados, aproximando teoria e prática. Já em áreas como jornalismo investigativo e políticas públicas, torna-se um aliado estratégico para análise de discursos, validação de informações e detecção de vieses ou contradições.
Assim, o G12|ATLAS não deve ser compreendido apenas como uma inovação tecnológica, mas como uma ponte entre filosofia, ciência de dados e prática social, capaz de potencializar o processo de produção e validação do conhecimento. Sua existência evidencia a importância da interdisciplinaridade no desenvolvimento de ferramentas acadêmicas, mostrando que soluções robustas surgem da articulação entre diferentes áreas do saber e da escuta atenta às necessidades concretas de alunos e professores.
Em síntese, o G12|ATLAS consolida-se como uma aplicação inovadora e estratégica, ao mesmo tempo rigorosa, transparente e acessível. Ao elevar os padrões de análise e interpretação textual, contribui para o fortalecimento da pesquisa científica, para a melhoria da qualidade da produção acadêmica e para o exercício crítico em diversas áreas do conhecimento. Dessa forma, representa não apenas um avanço tecnológico, mas também um passo fundamental no processo de democratização do acesso às ferramentas de investigação crítica e metodológica, fortalecendo a formação acadêmica e a prática profissional em múltiplos contextos.
REFERÊNCIAS BIBLIOGRÁFICAS
ANDERSON, C. A. (1990). Some Emendations of Gödel’s Ontological Proof. Faith and Philosophy.
DAWSON, John W. Logical dilemmas: the life and work of Kurt Gödel. Wellesley, MA: A K Peters, 1997.
GÖDEL, Kurt. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, Wien, v. 38, n. 1, p. 173–198, 1931.
NAGEL, Ernest; NEWMAN, James R. Gödel's proof. Revised edition. Prefácio de Douglas R. Hofstadter. New York: New York University Press, 2001.
PENROSE, Roger. Shadows of the mind: a search for the missing science of consciousness. Oxford: Oxford University Press, 1994.
SCOTT, D. (1972/2004). Notes in Philosophical Logic.
SOBEL, J. H. (2004). Logic and Theism.
TURING, Alan M. On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, London, v. 2, n. 42, p. 230–265, 1937. Disponível em: https://doi.org/10.1112/plms/s2-42.1.230. Acesso em: 24 jul. 2025.
1 Docente dos Cursos de Pedagogia, Análise e Desenvolvimento de Sistemas e Ciências da Computação (UNESA-RJ). Doutorando em Educação pela Universidade Nacional de Rosário (UNR-ARG). Mestrado em Educação, Linhas de pesquisa, Representações Sociais e Práticas Educativas (UNESA-RJ). MBA em Data Warehouse e Business Intelligence (FI - PR). Pós-Graduado em Engenharia de Software, Antropologia, Psicopedagogia, Neuropsicopedagogia, Educação no Campo, Filosofia e Ciência da Religião. Historiador pela Centro Universitário das Faculdades Metropolitanas Unidas (FMU-SP). Revisor dos periódicos; Desde el Sur, revista de Ciencias Humanas y Sociales (Diretoria de Inovação, Pesquisa e Desenvolvimento da Universidade Científica do Sul (Lima, Peru) e Revista de Economia e Agronegócio (Departamento de Economia Rural da Universidade Federal de Viçosa (UFV-MG). Integra os grupos de pesquisa do Projeto Laboratório de Transformação Digital – LTD e Projeto de Mobilidade Urbana em Teresópolis-RJ. E-mail: [email protected]