REGISTRO DOI: 10.70773/revistatopicos/774071256
RESUMO
A avaliação de programas de educação integral no Brasil enfrenta um paradoxo estrutural: o principal indicador disponível, o Índice de Desenvolvimento da Educação Básica (IDEB), foi concebido para mensurar qualidade por meio do desempenho em Língua Portuguesa e Matemática e das taxas de aprovação, dimensões que representam apenas parcialmente as finalidades formativas da jornada ampliada. Este artigo analisa criticamente os limites e as possibilidades do IDEB como instrumento de avaliação de programas de ampliação da jornada escolar, com ênfase no contexto de Fortaleza e no Programa Aprender Mais. Trata-se de revisão narrativa interpretativa, fundamentada em fontes teóricas, normativas e empíricas. O estudo evidencia que o IDEB, embora relevante como indicador de monitoramento, não captura dimensões socioemocionais, culturais e cidadãs que definem a educação integral. Como alternativa, discute-se a avaliação em profundidade proposta por Rodrigues (2008), que integra análise de conteúdo, contexto, trajetória institucional e espectro temporal-territorial, além de perspectivas participativas defendidas por Sordi e Ludke (2009). Conclui-se pela necessidade de sistemas de avaliação multidimensionais que articulem dados quantitativos e qualitativos, superando a redução da qualidade educacional a um único número.
Palavras-chave: educação integral; IDEB; avaliação educacional; jornada ampliada; avaliação em profundidade.
ABSTRACT
The evaluation of integral education programs in Brazil faces a structural paradox: the main available indicator, the Basic Education Development Index (IDEB), was designed to measure quality through performance in Portuguese Language and Mathematics and approval rates — dimensions that only partially represent the formative purposes of extended school time. This article critically discusses the limits and possibilities of IDEB as an evaluation instrument for programs expanding school hours, with emphasis on the context of Fortaleza and the Aprender Mais Program. It is an interpretative narrative review, grounded in theoretical, normative, and empirical sources. The study shows that IDEB, while relevant as a monitoring indicator, fails to capture socio-emotional, cultural, and civic dimensions that define integral education. As an alternative, the in-depth evaluation proposed by Rodrigues (2008) is discussed, which integrates content analysis, context, institutional trajectory, and temporal-territorial spectrum, alongside participatory perspectives advocated by Sordi and Ludke (2009). The study concludes that multidimensional evaluation systems are needed to articulate quantitative and qualitative data, overcoming the reduction of educational quality to a single number.
Keywords: integral education; IDEB; educational evaluation; extended school time; in-depth evaluation.
1. INTRODUÇÃO
A centralidade dos indicadores de desempenho nas políticas educacionais brasileiras tem sido crescentemente debatida nas últimas duas décadas. Desde a criação do Índice de Desenvolvimento da Educação Básica (IDEB), em 2007, o Brasil estabeleceu um padrão de accountability calcado na mensuração do desempenho escolar por meio de provas padronizadas e taxas de aprovação, o que conferiu ao indicador papel decisivo na formulação, no monitoramento e na avaliação de políticas públicas educacionais (Fernandes, 2007). A lógica que sustenta esse modelo associa qualidade à elevação contínua do índice, orientando a alocação de recursos, a definição de metas e o julgamento do desempenho de redes e escolas (Castro, 2009). O estado avaliador, como descrevem Schneider e Ribeiro (2021), articula avaliação em larga escala, regulação e prestação de contas alinhado a reformas que subordinam a lógica pedagógica à lógica gerencial de resultados.
Paralelamente, o Brasil tem expandido programas de educação em tempo integral, impulsionados pelo Programa Mais Educação, instituído pela Portaria Normativa Interministerial nº 17/2007; pelo Programa Novo Mais Educação, regulamentado pela Portaria MEC nº 1.144/2016; pela Meta 6 do Plano Nacional de Educação, aprovado pela Lei nº 13.005/2014, que determina a oferta de educação em tempo integral em, no mínimo, 50% das escolas públicas; e, mais recentemente, pela Lei nº 14.640/2023, que institui o Programa Escola em Tempo Integral. Em Fortaleza, o Programa Aprender Mais representa a principal experiência local de ampliação da jornada escolar, inserida nesse conjunto de marcos normativos federais e municipais. Esses programas preconizam uma concepção de formação que extrapola o domínio das competências básicas em Língua Portuguesa e Matemática, abrangendo dimensões socioemocionais, culturais, artísticas e de formação para a cidadania (Moll, 2012).
Emerge, nesse contexto, um paradoxo avaliativo: o principal instrumento nacional de aferição da qualidade educacional foi construído para medir exatamente aquelas dimensões que a educação integral visa superar como únicas referências de qualidade. Avaliada predominantemente por um índice que não contempla sua multidimensionalidade, a educação integral corre o risco de ser reduzida à função de elevar notas e aprovar mais alunos, subvertendo seus fundamentos filosóficos e pedagógicos (Cavaliere, 2007). Dourado, Oliveira e Santos (2007) alertam que a qualidade da educação é conceito multidimensional que abrange condições de oferta, processos pedagógicos, desenvolvimento dos estudantes e impactos sobre a comunidade, dimensões que não se resumem a indicadores padronizados.
Este artigo analisa criticamente essa tensão, discutindo os limites e as possibilidades do IDEB como instrumento de avaliação de programas de ampliação da jornada escolar e propondo alternativas avaliativas mais coerentes com a natureza multidimensional da educação integral. O estudo é conduzido como revisão narrativa interpretativa, ancorando-se em fontes teóricas seminais sobre o IDEB, críticas à avaliação estandardizada, fundamentos da educação integral e propostas de avaliação em profundidade, além das normativas vigentes que regulam a matéria. O exame da literatura permite identificar lacunas significativas nos sistemas avaliativos vigentes e apontar caminhos para a construção de modelos mais adequados ao monitoramento de programas de jornada ampliada, como o Aprender Mais em Fortaleza.
2. O IDEB: CONTEXTUALIZAÇÃO, METODOLOGIA E IMPACTOS
O Índice de Desenvolvimento da Educação Básica (IDEB) foi criado em 2007 pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (INEP), no contexto do Plano de Desenvolvimento da Educação (PDE), como resposta à necessidade de estabelecer um padrão de medida e monitoramento da qualidade da educação básica nacional (Fernandes, 2007). Sua formulação respondeu a uma demanda de simplificação comunicativa: sintetizar em um único número informações complexas sobre o sistema educacional, tornando-as acessíveis a gestores, educadores e à sociedade em geral.
O IDEB combina dois componentes interdependentes. O primeiro é o desempenho dos estudantes nas avaliações do Sistema de Avaliação da Educação Básica (Saeb) ou da Prova Brasil, aplicadas no 5º e no 9º anos do Ensino Fundamental e na 3ª série do Ensino Médio, com foco em Língua Portuguesa e Matemática. O segundo é o indicador de rendimento escolar, representado pela taxa média de aprovação dos estudantes em cada etapa de ensino. A fórmula resultante é IDEB = N x P, onde N representa a média padronizada de proficiência, em escala de 0 a 10, e P representa o indicador de fluxo, correspondente à taxa de aprovação, de 0 a 1 (Fernandes, 2007). O índice é calculado bienalmente, o que permite acompanhar efeitos de políticas de curto prazo sobre a qualidade educacional (Maia, Bueno e Sato, 2021).
O Sistema de Avaliação da Educação Básica, criado em 1990, constituiu o precursor direto do IDEB, estabelecendo as bases para a avaliação em larga escala no país. A Prova Brasil, implementada em 2005, ampliou a abrangência das avaliações para todas as escolas públicas urbanas com mais de 20 alunos nas séries avaliadas, criando as condições técnicas para o surgimento de um indicador composto de abrangência nacional (Fernandes, 2007; Alves e Ferrão, 2020). Segundo Fernandes (2011), o índice foi pensado para ser um indicador de qualidade educacional que combinasse informações de desempenho em exames padronizados com informações sobre rendimento escolar.
Desde sua implementação, o IDEB passou a ocupar posição central na governança educacional brasileira. Tornou-se instrumento de accountability, promovendo a responsabilização de gestores e educadores pelos resultados mensurados (Schneider e Nardi, 2014). Os resultados do índice passaram a orientar a formulação de políticas educacionais, a alocação de recursos e o direcionamento de programas de intervenção, com atenção especial às escolas e regiões com baixo desempenho (Castro, 2009). Programas de educação integral e ampliação da jornada escolar emergiram, nesse cenário, como estratégias recorrentes para a melhoria dos indicadores educacionais, o que impõe reflexão sobre as relações entre jornada, aprendizagem e qualidade (Cavaliere, 2007).
Estudos empíricos mostram forte correlação positiva entre o IDEB e variáveis de bem-estar social municipal, nível de escolaridade de professores e outros indicadores socioeconômicos, evidenciando que o índice reflete tanto intervenções pedagógicas quanto condições estruturais dos territórios (Maia, Bueno e Sato, 2021; Silva et al., 2024). O panorama histórico dos resultados nacionais revela avanços desiguais entre etapas: os anos iniciais do Ensino Fundamental apresentaram crescimento mais expressivo desde 2005, ao passo que o Ensino Médio registra os patamares mais baixos e o menor ritmo de evolução (Maia, Bueno e Sato, 2021). Povedano et al. (2021) demonstram, por meio de análise em dois estágios, que indicadores de gestão escolar, como a adoção de metas pedagógicas e práticas de liderança instrucional, associam-se positivamente ao desempenho no IDEB, sugerindo que a qualidade não é apenas função do tempo, mas também das práticas institucionais.
Essa heterogeneidade reforça a necessidade de análise contextualizada dos resultados, para além da simples comparação de índices entre escolas, municípios e redes de ensino (Alves e Soares, 2013). A modelagem por dados abertos e aprendizado de máquina, empregada por Silva et al. (2024), evidencia que fatores estruturais e contextuais são determinantes na variação do IDEB, o que reafirma os limites de leituras unidimensionais do índice como medida direta de eficácia pedagógica.
3. CRÍTICAS E LIMITAÇÕES DO IDEB
A centralidade do IDEB na política educacional brasileira não ocorreu sem contestação. A literatura especializada identifica um conjunto robusto de limitações que comprometem a adequação do índice como medida única e suficiente da qualidade educacional. A crítica mais estrutural reside na redução da complexidade formativa da escola a dois componentes (proficiência em Língua Portuguesa e Matemática e fluxo escolar) que representam apenas uma fração das finalidades que o sistema educacional deve cumprir (Dourado, Oliveira e Santos, 2007; Gatti, 2006).
Gatti (2006) oferece contribuição crítica fundamental ao alertar que indicadores numéricos, quando considerados produtores diretos e únicos de informação avaliativa, reduzem o escopo da avaliação ao que é passível de ser medido, deixando de lado características importantes do processo educativo que não se traduzem em escalas padronizadas. Nessa mesma direção, Barbosa e Mello (2015) argumentam que a centralidade do IDEB nas políticas educacionais pode levar a uma visão reducionista da educação, priorizando resultados mensuráveis em detrimento de aspectos qualitativos da formação integral dos estudantes.
Alves e Soares (2013) demonstram que o índice não leva em conta fatores socioeconômicos e culturais que influenciam de modo determinante o desempenho escolar, podendo reforçar desigualdades educacionais ao comparar redes e escolas situadas em condições estruturais muito diferentes. A ausência de mecanismos de contextualização socioeconômica significa que escolas situadas em territórios de alta vulnerabilidade são frequentemente penalizadas simbolicamente por condições que escapam ao controle pedagógico da instituição. Santos et al. (2019) corroboram esse diagnóstico ao mostrar que programas de transferência de renda, como o Bolsa Família, exercem influência sobre indicadores educacionais, o que evidencia que resultados no IDEB refletem condições sociais amplas, e não apenas a qualidade do ensino.
A pressão por metas produz efeitos documentados sobre o currículo escolar. Bonamino e Sousa (2012) identificam o fenômeno do estreitamento curricular: o foco nas disciplinas avaliadas conduz gestores e professores a negligenciar outras áreas do conhecimento e habilidades relevantes para a formação integral, como artes, educação física, ciências humanas e dimensões éticas e socioemocionais. Alves e Ferrão (2020) mostram que, ao longo de uma década da Prova Brasil, o acoplamento entre aprovação e desempenho no IDEB induziu estratégias institucionais que privilegiam a aprovação como variável de controle, o que não necessariamente se traduz em aprendizagem efetiva.
A pressão por resultados é agravada por políticas de bonificação e cobrança de gestores atreladas ao desempenho nas avaliações, que geram clima de pressão e induzem práticas pedagógicas voltadas exclusivamente à preparação para os testes (Freitas, 2012). Bernado (2020) aprofunda a crítica ao argumentar que políticas guiadas por metas e indicadores quantitativos podem subordinar o currículo a agendas de competitividade econômica, distorcendo as funções emancipatórias da escola. Nessa perspectiva, a avaliação estandardizada não apenas simplifica a realidade educacional; ela a reconfigura, induzindo comportamentos institucionais orientados pela métrica e não pela formação.
Machado e Alavarse (2014) sustentam a necessidade de incorporar aspectos qualitativos na avaliação, como o desenvolvimento socioemocional dos estudantes e a formação para a cidadania. Sordi e Ludke (2009) complementam esse argumento ao defender que envolver a comunidade escolar na discussão e na interpretação dos resultados promove uma cultura de avaliação comprometida com a melhoria efetiva dos processos educativos, e não apenas com a gestão de índices. Essa convergência crítica indica que o problema não é a existência de indicadores padronizados, mas a exclusividade que o IDEB assume como medida de qualidade, sem que sistemas complementares sejam desenvolvidos.
4. IDEB E EDUCAÇÃO INTEGRAL: TENSÕES E LACUNAS
A relação entre o IDEB e os programas de educação integral é marcada por uma tensão constitutiva: ao mesmo tempo em que esses programas precisam demonstrar resultados nos indicadores oficiais para obter legitimidade política e garantir continuidade de financiamento, os fundamentos teóricos da educação integral apontam para dimensões da formação humana que escapam ao que o IDEB é capaz de capturar. Essa assimetria entre proposta formativa e instrumento avaliativo configura um desafio central para a sustentabilidade pedagógica dos programas de jornada ampliada (Moll, 2012; Cavaliere, 2007).
A ampliação da jornada escolar pode, em condições favoráveis, contribuir para a melhoria dos indicadores educacionais. Cavaliere (2007) reconhece esse potencial, ao argumentar que a educação integral proporciona mais tempo e oportunidades de aprendizagem, o que pode se refletir positivamente no IDEB. Contudo, a mesma autora alerta para o risco de uma visão simplista da relação entre tempo escolar e qualidade da educação, enfatizando que o simples aumento da carga horária não garante melhoria dos indicadores se não for acompanhado de qualidade das atividades oferecidas e de formação adequada dos profissionais envolvidos. A presença de professores qualificados, de projetos político-pedagógicos coerentes e de infraestrutura adequada são condições incontornáveis para que a jornada ampliada se traduza em formação integral e não em mera extensão do tempo escolar (Cavaliere, 2007; Moll, 2012).
Moll (2012) destaca que a educação integral vai além da simples ampliação do tempo escolar, envolvendo uma concepção de formação mais ampla e integrada, que articula dimensões cognitivas, socioemocionais, culturais, artísticas e de formação para a cidadania. Nesse sentido, a autora argumenta que o IDEB, por si só, não é capaz de captar todos os aspectos da qualidade proporcionada pela educação integral, sendo necessário desenvolver outros instrumentos de avaliação que considerem as múltiplas dimensões do desenvolvimento dos estudantes. Dourado, Oliveira e Santos (2007) reforçam que o IDEB deve ser visto como ponto de partida para reflexões mais amplas sobre a melhoria da educação, e não como um fim em si mesmo.
A literatura empírica sobre a relação direta entre tempo integral e resultados no IDEB permanece escassa e inconclusiva. Estudos que associam indicadores de qualidade a variáveis de gestão e infraestrutura escolar raramente avaliam programas de educação integral de forma isolada (Maia, Bueno e Sato, 2021; Povedano et al., 2021). Há pouca articulação, nos estudos disponíveis, entre carga horária ampliada, currículo integral em suas dimensões socioemocionais e culturais, e resultados em IDEB ou em outros indicadores sistêmicos. Lichand et al. (2022) demonstraram, no contexto da pandemia, como abordagens quasi-experimentais podem isolar efeitos de mudanças no tempo e no formato do ensino sobre a aprendizagem e a evasão, um modelo metodológico que poderia inspirar pesquisas sobre impactos do tempo integral. Contudo, essa agenda permanece pouco desenvolvida no Brasil.
No contexto do Programa Aprender Mais, em Fortaleza, essa tensão se apresenta de forma concreta. O programa preconiza a formação integral dos estudantes, articulando atividades pedagógicas, culturais, esportivas e de acompanhamento socioemocional, mas é monitorado predominantemente pelos resultados do IDEB municipal. Essa assimetria cria o risco de que o programa seja operado, na prática, como reforço escolar em Português e Matemática, reduzindo sua proposta integral à lógica do índice. Silva (2024) aponta, com base na análise do Aprender Mais, que a ausência de instrumentos avaliativos complementares ao IDEB dificulta a apreensão dos efeitos do programa sobre dimensões como o desenvolvimento socioemocional, a participação cultural e a formação cidadã dos estudantes.
O marco normativo federal reconhece essa multidimensionalidade. A Meta 6 do PNE (Brasil, 2014) associa a expansão do tempo integral a finalidades que extrapolam o desempenho em testes, e a Resolução CNE/CEB nº 7/2025, que institui as Diretrizes Operacionais Nacionais para a Educação Integral em Tempo Integral, inclui equidade, inclusão, diversidade, articulação intersetorial e gestão democrática como dimensões estratégicas da modalidade. A Base Nacional Comum Curricular (CNE, 2017) articula competências gerais que abrangem dimensões cognitivas, socioemocionais, éticas e estéticas, fornecendo base curricular para propostas de tempo integral que transcendem os limites do IDEB. Contudo, esses princípios normativos carecem de operacionalização em sistemas de avaliação equivalentes que capturem suas múltiplas dimensões.
5. AVALIAÇÃO EM PROFUNDIDADE COMO ALTERNATIVA
Diante das limitações identificadas no IDEB para avaliar programas de educação integral, a literatura aponta para a necessidade de abordagens avaliativas mais amplas, que articulem dimensões quantitativas e qualitativas em uma perspectiva multidimensional e participativa. Rodrigues (2008) propõe a avaliação em profundidade como alternativa metodológica rigorosa para a análise de políticas públicas, em contraposição aos modelos de avaliação que tomam como questões centrais apenas aquelas que orientaram a formulação das políticas, desconsiderando os efeitos não previstos, as trajetórias institucionais e os contextos de implementação.
[...] quanto mais nos aprofundamos na situação estudada, mais ampliamos o campo de investigação. Observamos o que está à frente, aos lados, acima e abaixo, pois a compreensão focada, direcionada, certamente a mais fácil, com certeza será sempre limitada. (Rodrigues, 2008, p. 10)
Essa perspectiva estabelece uma ruptura epistemológica com modelos tradicionais de avaliação hegemônicos na história das políticas públicas, que tendem a concentrar-se em verificar o cumprimento de metas pré-definidas sem examinar processos, contradições e efeitos secundários (Rodrigues, 2008). Arretche (2001) corrobora esse argumento ao sustentar que uma adequada metodologia de avaliação de políticas públicas não deve se concentrar em concluir pelo sucesso ou fracasso de um programa por meio de indicadores simplificados, mas investigar rigorosamente os diversos pontos de estrangulamento que influenciam os processos e resultados da política.
A proposta de Rodrigues (2008, 2011) organiza-se em quatro dimensões analíticas complementares. A primeira, a análise de conteúdo, concentra-se no exame do material institucional (leis, portarias, documentos orientadores e dados estatísticos), permitindo compreender o arcabouço normativo e as intenções declaradas da política. A segunda, a análise de contexto, considera o momento político, as condições socioeconômicas e as articulações nas esferas local, regional, nacional e internacional, compreendendo o programa avaliado como parte de um conjunto de ações com implicações sociais, políticas, culturais e econômicas sobre a população atingida (Rodrigues, 2011). A terceira dimensão, a trajetória institucional, acompanha o caminho percorrido pela política desde sua criação até sua operacionalização, buscando averiguar a coerência ou a dispersão do programa ao longo do tempo. A quarta dimensão, o espectro temporal e territorial, aborda os deslocamentos da política pelos espaços políticos, econômicos, sociais e culturais, considerando as interferências de fatores externos e forças políticas locais sobre os resultados do programa (Rodrigues, 2011).
A avaliação em profundidade define-se, ainda, como extensa, detalhada, densa, ampla e multidimensional, o que coloca a multi e a interdisciplinaridade como condição primeira da tarefa de pesquisa (Rodrigues, 2008, p. 11). Essa característica é especialmente relevante para a avaliação de programas de educação integral, que mobilizam dimensões pedagógicas, culturais, socioemocionais, institucionais e territoriais que nenhum indicador único é capaz de capturar. Aplicada ao Programa Aprender Mais, essa abordagem permitiria, por exemplo, examinar a coerência entre os documentos normativos municipais e as práticas efetivas nas escolas (conteúdo), os efeitos do contexto socioeconômico de Fortaleza sobre a implementação (contexto), as descontinuidades administrativas ao longo dos anos do programa (trajetória institucional) e a variação dos resultados entre diferentes territórios da cidade (espectro temporal-territorial).
Complementarmente, Sordi e Ludke (2009) defendem a avaliação participativa e democrática como contraponto à cultura avaliativa centrada em resultados externos e impositivos. Envolver estudantes, professores, famílias e gestores na discussão e na interpretação dos resultados promove uma cultura de avaliação comprometida com a melhoria efetiva dos processos educativos, e não apenas com a gestão de índices. Esse princípio dialoga diretamente com a gestão democrática afirmada pela Resolução CNE/CEB nº 7/2025 como dimensão estratégica da educação integral em tempo integral.
Para a construção de um sistema multidimensional de avaliação da educação integral, Dourado, Oliveira e Santos (2007) propõem o desenvolvimento de indicadores mais amplos e diversificados, que contemplem diferentes dimensões da qualidade educacional. A experiência da educação especial oferece subsídios nessa direção: Freitas et al. (2021) demonstram o potencial de instrumentos diversificados, como portfólios, entrevistas e projetos, que captam trajetórias individuais e processos não mensuráveis por testes padronizados. Schneider e Ribeiro (2021) reforçam que a qualidade deve manter sentido emancipatório, considerando a diversidade local e a participação da comunidade como critérios avaliativos substantivos.
A proposta de indicadores de valor agregado, já experimentada no ensino superior por Fernandes et al. (2021), poderia inspirar métricas específicas para programas de educação integral na educação básica, hoje inexistentes. Ao ajustar os resultados pelo perfil socioeconômico de entrada dos estudantes, indicadores de valor agregado permitem avaliar a contribuição efetiva do programa sobre a aprendizagem e o desenvolvimento, separando-a das vantagens e desvantagens estruturais dos territórios. Essa perspectiva permitiria superar a crítica de Alves e Soares (2013) sobre a descontextualização dos resultados do IDEB e oferecer uma base mais equitativa para o monitoramento de programas como o Aprender Mais.
6. CONSIDERAÇÕES FINAIS
Este artigo demonstrou que o IDEB, embora constitua instrumento indispensável para o monitoramento básico da qualidade educacional no Brasil, apresenta limitações estruturais que o tornam insuficiente para avaliar a integralidade das finalidades dos programas de educação em tempo integral. A tensão entre a lógica da mensuração padronizada e a multidimensionalidade da formação integral configura desafio central para gestores, pesquisadores e formuladores de políticas. O estreitamento curricular, a desconsideração do contexto socioeconômico e a invisibilidade das dimensões socioemocionais e culturais são consequências documentadas da exclusividade do IDEB como parâmetro avaliativo.
O conjunto de evidências analisado aponta para a necessidade de construção de sistemas avaliativos complementares, que articulem o IDEB como ponto de partida com abordagens qualitativas, participativas e de profundidade. A proposta metodológica de Rodrigues (2008), com suas quatro dimensões (conteúdo, contexto, trajetória institucional e espectro temporal-territorial), oferece arcabouço robusto e coerente com a complexidade da educação integral. A avaliação participativa proposta por Sordi e Ludke (2009) reforça a centralidade dos sujeitos escolares nesse processo, deslocando a avaliação da esfera exclusivamente técnica para a esfera democrática.
Conclui-se que superar o reducionismo avaliativo não implica rejeitar o IDEB, mas contextualizá-lo, complementá-lo e situá-lo em sistemas de avaliação que capturem as múltiplas dimensões do desenvolvimento humano que a educação integral preconiza. Pesquisas futuras devem investir na construção e validação de indicadores específicos para programas de jornada ampliada, incorporando dimensões socioemocionais, culturais, institucionais e territoriais ao arsenal avaliativo disponível, articulando rigor científico e compromisso com a formação integral dos estudantes brasileiros.
REFERÊNCIAS BIBLIOGRÁFICAS
ALVES, M. T. G.; FERRÃO, M. E. Uma década da Prova Brasil: evolução do desempenho e da aprovação. Estudos em Avaliação Educacional, v. 30, n. 75, p. 688-720, 2020. https://doi.org/10.18222/eae.v0ix.6298
ALVES, M. T. G.; SOARES, J. F. Contexto escolar e indicadores educacionais: condições desiguais para a efetivação de uma política de avaliação educacional. Educ. Pesqui., v. 39, n. 1, p. 177-194, 2013.
ARRETCHE, M. Uma contribuição para fazermos avaliações menos ingênuas. In: BARREIRA, M. C. R. N.; CARVALHO, M. C. B. (org.). Tendências e perspectivas na avaliação de políticas e programas sociais. São Paulo: IEE/PUC-SP, 2001. p. 43-55.
BARBOSA, A.; MELLO, G. Qualidade da educação: o dilema dos indicadores. Cad. Pesqui., v. 45, n. 155, p. 22-40, 2015.
BERNADO, E. Educação em tempo integral: alguns desafios para a gestão escolar. Rev. Ibero-Am. Estud. Educ., v. 15, n. 1, p. 66-82, 2020. https://doi.org/10.21723/riaee.v15i1.12116
BONAMINO, A.; SOUSA, S. Z. Três gerações de avaliação da educação básica no Brasil: interfaces com o currículo da/na escola. Educ. Pesqui., v. 38, n. 2, p. 373-388, 2012.
BRASIL. Lei nº 9.394, de 20 de dezembro de 1996. Estabelece as diretrizes e bases da educação nacional. Diário Oficial da União, Brasília, 23 dez. 1996.
_______. Lei nº 13.005, de 25 de junho de 2014. Aprova o Plano Nacional de Educação e dá outras providências. Diário Oficial da União, Brasília, 26 jun. 2014.
_______. Lei nº 14.640, de 31 de julho de 2023. Institui o Programa Escola em Tempo Integral. Diário Oficial da União, Brasília, 1 ago. 2023.
_______. Portaria Normativa Interministerial nº 17, de 24 de abril de 2007. Institui o Programa Mais Educação. Diário Oficial da União, Brasília, 26 abr. 2007.
_______. Portaria MEC nº 1.144, de 10 de outubro de 2016. Institui o Programa Novo Mais Educação. Diário Oficial da União, Brasília, 11 out. 2016.
CASTRO, M. H. G. Sistemas de avaliação da educação no Brasil: avanços e novos desafios. São Paulo em Perspectiva, v. 23, n. 1, p. 5-18, 2009.
CAVALIERE, A. M. Tempo de escola e qualidade na educação pública. Educ. Soc., v. 28, n. 100, p. 1015-1035, 2007.
CNE - Conselho Nacional de Educação. Resolução CNE/CP nº 2, de 22 de dezembro de 2017. Institui e orienta a implantação da Base Nacional Comum Curricular. Diário Oficial da União, Brasília, 22 dez. 2017.
CNE - Conselho Nacional de Educação. Resolução CNE/CEB nº 7, de 1º de agosto de 2025. Institui as Diretrizes Operacionais Nacionais para a Educação Integral em Tempo Integral na Educação Básica. Diário Oficial da União, Brasília, ago. 2025.
DOURADO, L. F.; OLIVEIRA, J. F.; SANTOS, C. A qualidade da educação: conceitos e definições. Brasília: INEP, 2007.
FERNANDES, R. Índice de Desenvolvimento da Educação Básica (IDEB). Brasília: INEP, 2007.
_______. Índice de Desenvolvimento da Educação Básica: metas intermediárias para a trajetória do Brasil, estados, municípios e escolas. Brasília: INEP, 2011.
FERNANDES, V. et al. Value-added in Higher Education: a new methodology for undergraduate programs in Brazil. Avaliação: Rev. Aval. Educ. Super., Campinas, v. 26, p. 606-628, 2021. https://doi.org/10.1590/s1414-40772021000200014
FREITAS, L. C. Crítica da organização do trabalho pedagógico e da didática. Campinas: Papirus, 2012.
FREITAS, T. et al. Avaliação Escolar na Educação Especial: um mapeamento na Revista Brasileira de Educação Especial no período de 2006-2020. Research, Society and Development, v. 10, n. 6, 2021. https://doi.org/10.33448/rsd-v10i6.16334
GATTI, B. A. Avaliação institucional: processo descritivo, analítico ou reflexivo? Estudos em Avaliação Educacional, v. 17, n. 34, p. 1-18, 2006.
LICHAND, G. et al. The impacts of remote learning in secondary education during the pandemic in Brazil. Nat. Hum. Behav., v. 6, p. 1079-1086, 2022. https://doi.org/10.1038/s41562-022-01350-6
MACHADO, C.; ALAVARSE, O. M. Qualidade das escolas: tensões e potencialidades das avaliações externas. Educ. Real., v. 39, n. 2, p. 413-436, 2014.
MAIA, J. S. Z.; BUENO, A.; SATO, J. Assessing the educational performance of different Brazilian school cycles using data science methods. PLoS One, v. 16, 2021. https://doi.org/10.1371/journal.pone.0248525
MOLL, J. A agenda da educação integral: compromissos para sua consolidação como política pública. In: MOLL, J. (org.). Caminhos da educação integral no Brasil: direito a outros tempos e espaços educativos. Porto Alegre: Penso, 2012. p. 129-146.
POVEDANO, R. et al. Indicators and goals for school performance evaluation: a two-stage DEA analysis of the Ideb of municipal public schools. Ensaio: Aval. Polít. Públicas Educ., 2021. https://doi.org/10.1590/s0104-40362021002902760
RODRIGUES, L. C. Análises de conteúdo e trajetórias institucionais na avaliação de políticas públicas sociais: perspectivas, limites e desafios. CAOS: Rev. Eletrôn. Ciênc. Soc., João Pessoa, n. 16, p. 55-73, mar. 2011.
RODRIGUES, L. C. Propostas para uma avaliação em profundidade de políticas públicas sociais. Rev. Aval. Polít. Públicas, Fortaleza, ano 1, v. 1, n. 1, p. 7-15, jan./jun. 2008.
SANTOS, M. et al. The Bolsa Família Program and educational indicators of children, adolescents, and schools in Brazil: a systematic review. Ciênc. Saúde Colet., v. 24, n. 6, p. 2233-2247, 2019. https://doi.org/10.1590/1413-81232018246.19582017
SCHNEIDER, M.; NARDI, E. L. O IDEB e a construção de um modelo de accountability na educação básica brasileira. Rev. Port. Educ., v. 27, n. 1, p. 7-28, 2014.
SCHNEIDER, M.; RIBEIRO, E. Contornos do Estado Avaliador no Brasil. Estudos em Avaliação Educacional, v. 31, n. 78, p. 723-741, 2021. https://doi.org/10.18222/eae.v31i78.7096
SILVA, M. et al. A new perspective for longitudinal measurement and analysis of public education in Brazil based on open data and machine learning. In: PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON THEORY AND PRACTICE OF ELECTRONIC GOVERNANCE, 17., 2024. Anais [...]. 2024. https://doi.org/10.1145/3680127.3680216
SILVA, S. A. V. Educação integral e avaliação: o Programa Aprender Mais no município de Fortaleza. 2024. Dissertação (Mestrado em Educação) – Universidade Federal do Ceará, Fortaleza, 2024.
SORDI, M. R. L.; LUDKE, M. Da avaliação da aprendizagem à avaliação institucional: aprendizagens necessárias. Avaliação: Rev. Aval. Educ. Super., v. 14, n. 2, p. 313-336, 2009.
1 Graduado em Pedagogia (UFC), Mestre em Avaliação de Políticas Públicas (UFC). Doutorando em Ciências da Educação pela Universidade Tecnológica Intercontinental – UTIC, Paraguai. E-mail: [email protected]. ORCID: https://orcid.org/0009-0006-2188-2032.
2 Doutor pelo Programa fundamentado em Formación General, Formación Especializada y Formación Investigativa (UTIC).Docente da Universidade Tecnológica Intercontinental, Paraguay. E-mail: [email protected].