Baixe o app para aproveitar ainda mais
Prévia do material em texto
PROGRAMA DE APERFEIÇOAMENTO PARA CARREIRAS 2015 AVALIAÇÃO DE PROGRAMAS E POLÍTICAS PÚBLICAS Professor: Armando A. Simões Brasília, 2015 2 TEXTOS DE APOIO SUMÁRIO 1. Breve histórico da avaliação de programas e políticas públicas. .................................. 3 2. Avaliação do que? Programas e políticas como intervenções na realidade. ................ 8 3. O ciclo da intervenção e as modalidades de avaliação ............................................... 12 3.1. Classificações da avaliação ...................................................................................... 12 3.2. As fases dos programas e as modalidades de avaliação ......................................... 15 4. Tipologias de Avaliação e Técnicas de Análise ............................................................ 18 4.1. Avaliação Normativa ............................................................................................... 18 4.2. Pesquisa Avaliativa .................................................................................................. 18 4.2.1. Avaliação de Diagnóstico (Análise Estratégica e Análise Lógica) ........................ 18 4.2.2. Avaliação de Processo (Análise da Produção e Análise da Implementação) ...... 18 4.2.3. Avaliação de Utilidade (Análise dos Efeitos e Análise da Eficiência) ................... 18 5. Projeto de Avaliação ................................................................................................... 19 5.1. DESENHO DA AVALIAÇÃO ....................................................................................... 19 5.2. GESTÂO DA AVALIAÇÃO .......................................................................................... 30 5.3. DISSEMINAÇÃO DE RESULTADOS ............................................................................ 32 6. Institucionalização da Avaliação ................................................................................. 35 6.1. A avaliação na Constituição Federal e no Plano Plurianual .................................... 35 7. Problemas e desafios da avaliação de programas e políticas ..................................... 45 7.1. Dificuldades do processo de avaliação de programas ............................................ 45 7.2. Atores e conflitos de interesse ................................................................................ 45 7.3. Objetivos implícitos e usos da avaliação ................................................................. 46 8. A fronteira da avaliação: o desafio da complexidade ................................................. 47 3 1. Breve histórico da avaliação de programas e políticas públicas Há várias tentativas de periodizar a história da avaliação de políticas públicas. Uma perspectiva teórica que analisa a evolução do que os autores chamam de “teoria da avaliação” é desenvolvida no clássico livro Foundations of Program Evaluation (Shadish,Cook and Leviton, 1991). Os autores descrevem e analisam sete teorias da avaliação que foram construídas entre 1965 e 1990 por sete acadêmicos de diferentes campos do conhecimento que se dedicaram ao campo teórico e prático da avaliação de políticas. Esses teóricos e suas abordagens são organizados em 3 estágios de evolução da teoria da avaliação como mostra a Tabela 1. Tabela 1: Estágios de evolução da teoria da avaliação segundo Shadish, Cook and Leviton (1991) Estágio Teóricos Perspectiva Teórica Ênfase 1960s – “Trazer a verdade científica para a solução de problemas sociais” Michael S. Scriven Donald T. Campbell Avaliação como ciência da valoração da ação (com base em fatos, não em opiniões) Metodologista da “Sociedade Experimental”. Busca da verdade científica a respeito da efetividade das soluções para os problemas sociais. 1970s – “Gerar alternativas enfatizando o uso e o pragmatismo” Carol H Weiss Joseph S. Wholey Robert E. Stake Vinculação da avaliação com a pesquisa em políticas públicas. Avaliação para o aperfeiçoamento dos programas Avaliação responsiva e métodos qualitativos Entender como as organizações do setor público e seus tomadores de decisão operam de modo a oferecer alternativas úteis do ponto de vista político e social para a apropriação do conhecimento avaliativo (uso) visando à melhoria do desempenho das organizações e de suas ações. 1980-90 – “Tentar integrar o passado” Lee J. Cronbach Peter H. Rossi Desenho funcional da avaliação para um mundo sujeito à acomodação política Avaliação global (desenho, implementação e utilidade), customizada e com base na teoria do programa. Integrar diferentes perspectivas teóricas anteriores de modo a reconhecer a legitimidade de diferentes abordagens em função das circunstâncias e propósitos da avaliação. O primeiro estágio teve como expoentes teóricos o filósofo Michael S. Scriven e o psicólogo Donald T. Campbell, que nos anos 60 vão marcar o campo teórico da avaliação de programas de forma definitiva respectivamente com as publicações The methodology of education (Scriven, 1967) e Experimental and Quase-Experimental Designs for Research (Campbell & Stanley, 1963). Conceitos como avaliação somativa e formativa introduzidos por Scriven e validade interna e externa introduzidos por Campbell vão passar a fazer parte do vocabulário da avaliação até os dias de hoje. Esta fase teria sido marcada, segundo Shadish, Cook and Leviton (1991), pela busca de soluções efetivas para os problemas sociais, o que só poderia ser alcançado a partir do uso de métodos científicos rigorosos na avaliação dos programas e políticas públicas que fossem capazes de expurgar da análise de resultados toda e qualquer possibilidade de viés provocado por falhas metodológicas de desenho das investigações. O pressuposto dessa fase era o de uma racionalidade técnica estrita, a partir da qual se entendia que os resultados da avaliação, uma vez comprovado seu rigor metodológico, seriam capazes de determinar a melhor escolha de política e que os tomadores de decisão adotariam esses resultados tão logo fosse possível. Parte da tarefa do avaliador, segundo Scriven, seria atribuir 4 valor às intervenções sociais, julgando o seu mérito perante os gestores com base em “fatos científicos”, livrando a tomada de decisão de opiniões desinformadas sobre o que funciona, o que precisa mudar e o que precisa ser descontinuado. Nessa fase se preconiza a experimentação como método “padrão ouro” da avaliação de programas, por sua pretensa capacidade em isolar os reais efeitos das intervenções de ruídos provocados por falhas no desenho das avaliações. Desse modo, a análise comparativa de intervenções a partir da estimativa experimental de seus resultados poderia iluminar o processo de decisão sobre qual programa adotar. Campbell formula a ideia de uma “sociedade experimental” guiada pela razão científica na formulação de políticas, promovendo inovações e avaliações constantes para a solução de seus principais problemas (Campbell, 1998). A segunda fase descrita por Shadish, Cook and Leviton (1991) representou um período crítico de produção de abordagens alternativas de avaliação de políticas que buscaram contornar as dificuldades do projeto avaliativo da primeira fase. A questão chave aqui é a utilidade do conhecimento produzido pela avaliação e quem irá utilizá-la. O uso dos resultados avaliativos do período anterior se demonstrou problemático. Mesmo quando os métodos eram aplicados com rigor e geravam resultados robustos, os tomadores de decisão não pareciam usar os resultados dos experimentos na tomada de decisão. Carol Weiss foi uma das primeiras autoras a chamar atenção para a subutilização da avaliação e seus resultados reconhecendo que os resultados da avaliação não vinham exercendo grande influência nas decisõessobre programas. Alguns fatores podiam, em parte, explicar o baixo uso das avaliações como propostas na primeira fase: (i) as condições concretas em que se propunha avaliar os programas, em geral, não permitiam que os cânones do projeto experimental fossem aplicados tal e qual se preconizava na utopia experimentalista; (ii) o tempo para geração dos resultados das avaliações experimentais era, em geral, incompatível com a necessidade dos tomadores de decisão; (iii) os custos associados ao experimento social eram considerados elevados; (iii) informações e análises disponíveis aos gestores, ainda que dotadas de baixo grau de rigor científico, pareciam mais úteis à tomada de decisão simplesmente por estarem disponíveis a tempo. Focar a avaliação na necessidade de informação dos potenciais usuários (gestores de políticas, cidadãos, implementadores locais etc.), bem como identificá-los ex-ante e trabalhar próximo a eles seria a estratégia para promover um maior uso da avaliação. Preocupar-se com o uso da avaliação e com as partes interessadas em seus resultados desde o início do processo avaliativo passou a ser considerado fundamental para que qualquer empreendimento avaliativo pudesse galgar sucesso. Weiss, Wholey e Stake vão adotar a perspectiva pragmática da avaliação, mas enfatizando diferentes escalas de tempo do uso. Weiss está mais preocupada em gerar conhecimento novo sobre as políticas públicas, sobre as causas dos problemas sociais e a melhor forma de intervir para modificar o curso dos fenômenos sociais, lançando um olhar de longo prazo para a utilidade da avaliação. Já Wholey vai enfatizar o uso mais instrumental da avaliação no curto prazo para o aperfeiçoamento incremental dos programas. Dentre os autores citados na Tabela 1, Wholey é o que mais atuou no front line da avaliação de programas, tendo ocupado vários cargos, na administração pública norte-americana, vinculados à avaliação de políticas. Ele acredita que os programas públicos não são modificados, substituídos ou abandonados de forma radical e com base apenas em resultados de avaliações. A maior possibilidade de uso da avaliação estaria associada ao uso incremental, melhorando o processo de implementação, aperfeiçoando os 5 mecanismos da intervenção, preparando melhor os seus implementadores etc. Stake vai levar essa perspectiva para o nível mais baixo da escala de implementadores. Fazendo uso de métodos qualitativos, vai buscar entender os processos locais de implementação e como afetam os resultados almejados pelas políticas nacionais. À semelhança de Wholey, Stake adota a perspectiva instrumental e incremental do uso da avaliação, mas com ênfase no que ocorre na base do sistema de implementação das políticas e nos atores locais como os principais articuladores da solução para os problemas sociais. Nesta segunda fase negocia-se o melhor conhecimento possível sobre uma política (“verdade” científica) pelo conhecimento suficiente para o uso na orientação da política. A “autoridade” científica da avaliação não é vista mais como a pedra de toque para o seu uso pelos tomadores de decisão como na primeira fase, embora se reconheça ainda que a maior qualidade científica da avaliação possa fazer diferença para o seu uso. Em parte, essa mudança de perspectiva é reflexo de uma menor ênfase no conhecimento da causalidade entre intervenção e resultado e de uma maior atenção à descrição da implementação e de seus condicionantes que acabariam por afetar os resultados pretendidos. Há uma menor ênfase na busca por causalidade e generalizações sobre as políticas e maior atenção em como elas funcionam localmente, em contextos concretos, e em como melhorá-las. A ampliação do foco da avaliação de resultados para a implementação e seu contexto abre o debate metodológico quantitativo-qualitativo que vai estar presente até os nossos dias. A pluralidade de conhecimentos necessários à tomada de decisão sobre políticas e programas vai engendrar a pluralidade metodológica no campo da avaliação e reconhecer a insuficiência do método experimental como preconizado pelos teóricos da primeira fase. Reduzir a avaliação de programas à avaliação de seus impactos passa a ser vista como uma forma pouco rigorosa de considerar as intervenções. O método avaliativo deve estar adequado à pergunta que se quer responder e são os stakeholders que devem fazer as perguntas fundamentais e não os avaliadores. Do mesmo modo, o critério de mérito da intervenção deve ser construído a partir dos valores e objetivos dos stakeholders e avaliado enquanto tal, e não a partir de uma noção ideal de valor teórico estabelecido pelo avaliador. Vê-se que na segunda fase a centralidade está colocada não no método, mas nos interessados pela avaliação, nas suas perguntas e critérios de julgamento aos quais cabe aos avaliadores buscar responder da forma mais rigorosa e suficiente possível. A terceira fase descrita por Shadish, Cook and Leviton (1991) inclui principalmente os trabalhos de Lee Cronbach e Peter Rossi, cuja perspectiva é “integracionista“, ou seja, representa a tentativa de resgatar das teorias de avaliação propostas desde os anos 60 os elementos necessários para a constituição de uma teoria completa da avaliação de programas. Essa abordagem da avaliação de programas se pretende holística, ou seja, oferecer uma visão integral do programa desde o seu desenho até os sues resultados e utilidade social, passando por sua implementação, na busca em responder a todas as dimensões avaliativas que possam interessar aos stakeholders. As práticas avaliativas se justificam e ganham legitimidade a depender das circunstâncias em que são demandadas e dos propósitos aos quais respondem. Os problemas sociais são múltiplos, as intervenções são diversas e contextuais e, portanto, a avaliação deve ser plural em suas práticas e métodos, sendo legitimada pelo contexto. Os autores expoentes desta terceira fase atribuem importância à avaliação com vistas à melhoria incremental dos programas, mas entendem que mudanças estruturais também 6 ocorrem e que a avaliação deve contribuir para futuros e novos programas gerando conhecimento sobre os problemas sociais e as políticas públicas. Cronbach entende que a avaliação com propósitos incrementais deve estar condicionada à relevância do programa quanto aos recursos envolvidos, ao número de pessoas afetadas, à possibilidade de haver efeitos colaterais fruto das intervenções e a relevância dos resultados da avaliação para outros programas semelhantes. Rossi vai reconhecer a avaliação para a mudança incremental quando se trata de programas já em andamento, mas atesta a relevância da avaliação para a geração de conhecimento novo, em especial quando aplicada a projetos-piloto, reconhecendo a importância de avaliações experimentais nesse caso. A avaliação deve servir a esses dois propósitos, instrumentalizar o gestor para a tomada de decisão no curto prazo, mas também produzir conhecimento que amplie a compreensão dos problemas sociais e das formas de intervenção. Os autores nessa terceira fase não atribuem supremacia a um método particular de avaliação. Ao contrário, associam a relevância do método ao tipo de conhecimento necessário sobre o programa e às necessidades dos stakeholders. Os avaliadores devem estudar os programas a partir de múltiplas perspectivas analíticas e reconhecer a pluralidade metodológica na construção de conhecimento sobre a realidade e as políticas. Se por um lado, os estudos de caso são capazes de descrever em profundidade uma realidade social, um programa e seu contexto de implementação, identificando relações, percepções e comportamentos capazes de alterar a sua efetividade e levantar hipóteses sobre possíveis efeitos não previstos, de outro, são pouco eficazes em gerar conhecimento sobre impactos que sejam generalizáveis. Por sua vez, avaliaçõesexperimentais são testes de hipóteses de impacto específicas que, por construção, ignoram outras hipóteses de impactos e têm seus resultados limitados também por contextos específicos. Contudo, são bons instrumentos para testar relações de causalidade entre intervenções e efeitos. Rossi e Cronbach vão concordar que múltiplos métodos são necessários na avaliação de intervenções, pois nenhum método isoladamente é capaz de prover um quadro completo de respostas não enviesadas sobre um programa ou política. Rossi reconhece a relevância dos stakeholders no processo de atribuição de mérito e julgamento dos programas com base na avaliação, mas entende que os avaliadores também têm o papel de educadores dos stakeholders, de chamar atenção para aspectos não considerados sobre os programas, valores não percebidos no processo de atribuição de mérito e para atores que possam estar sendo ignorados no processo de avaliação da política. A definição de mérito do programa para Rossi e Conbrach é construída a partir de informações sobre: (a) o que declaram os usuários, servidores e gestores sobre os efeitos do programa e fatores intervenientes para a produção desses efeitos; (b) fatores que alimentam o processo decisório de gestores; (c) mecanismos de funcionamento do programa que traduzem inputs em resultados; (d) o grau de satisfação das necessidades dos usuários; e (e) efeitos intencionais ou não, positivos ou negativos (Shadish,Cook and Leviton, 1991, p.320). O balanço do mérito de um programa, segundo Cronbach e Rossi, não deve ser feito por síntese de conclusões parciais. O peso de cada aspecto avaliado pode diferir para os stakeholders e sínteses necessariamente carregam a importância relativa dada pelos avaliadores sobre diferentes aspectos do programa. Os resultados das múltiplas avaliações realizadas devem se sustentar de forma independente e serem oferecidos em conjunto aos tomadores de decisão para que possam ponderar sobre o valor do programa a partir das várias perspectivas 7 oferecidas. Essa posição difere dos teóricos da primeira fase, que entendiam ser tarefa dos avaliadores oferecer uma síntese conclusiva sobre o mérito do programa a partir da avaliação de efetividade e custo do mesmo. Já os teóricos da segunda fase, entendiam que não cabia ao avaliador oferecer uma síntese de valor sobre o programa, mas sim aos stakeholders, fazendo uso dos elementos de avaliação oferecidos pelos avaliadores. As práticas de avaliação para os teóricos da terceira fase devem ser ajustadas à fase em que se encontra o programa e a suas circunstâncias. Rossi, por exemplo, trata de programas em fase de desenho, em experimentação-demonstração e em implementação plena. Na fase de planejamento (desenho) dos programas as técnicas usadas na avaliação devem estar mais focadas na análise de necessidades, estudos de caso sobre estratégias de implementação e análise quantitativa de indicadores sociais capazes de serem afetados pela intervenção. Em fase experimental (projeto-piloto) cabe a análise de causa-efeito com estimação de impacto em situações controladas experimentalmente ou quase-experimentais, assim como técnicas de modelagem de cadeias causais. Já para os programas de cobertura total em fase plena de implementação o mais ajustado seria o monitoramento desenhado para o aperfeiçoamento incremental e contínuo do programa. Esses autores desejam, antes de tudo, especificar as condições em que determinado tipo de avaliação faz sentido e reconhecer que sua utilidade é circunstancial, depende das contingências do presente em que a avaliação tem lugar. Os estágios de evolução teórica da avaliação de políticas, a partir dos autores examinados acima, não são mutuamente excludentes. Teóricos de fases posteriores absorvem e utilizam aspectos conceituais, metodológicos e práticos de trabalhos anteriores, rejeitam outros e inventam novos. Segundo Vedung (2014) as diversas fases ou “ondas” da avaliação deixaram sedimento no setor público que vemos hoje. São como camadas depositadas de ideias, conceitos, práticas, técnicas e valores que se encontram hoje, com diferentes graus de intensidade e dominância, nos diversos setores da administração pública dos países ocidentais. Uma tendência não substituiu a outra por completo, mas adicionou uma linha de inovação no pensamento avaliativo que marcou uma época mais que outra. Podemos vê-las simultaneamente sendo praticadas, convivendo juntas, alimentando o debate contemporâneo sobre avaliação e suscitando novos desafios teóricos e práticos ao campo da avaliação de políticas. 8 2. Avaliação do que? Programas e políticas como intervenções na realidade. A avaliação pressupõe um “quem” avalia e um “quê” avaliado. Aqui tratamos das políticas, programas ou projetos como o “quê” da avaliação. Em toda a discussão neste curso políticas, programas e projetos serão genericamente entendidos como intervenções. Uma intervenção é “um sistema organizado de ação que visa, em uma determinado ambiente e durante um determinado período, a modificar o curso previsível de um fenômeno para corrigir uma situação problemática.” (Champagne et al., 2011, p.45). Figura 1: Intervenção e seus componentes Um intervenção é composta de uma estrutura, atores, processos, finalidades e um ambiente onde ocorrem (Champagne et al., 2011). A estrutura de uma intervenção compreende os recursos financeiros (crédito, fundo público, doações), técnicos (tecnologia, conhecimento técnico, informação), físicos (pessoal, equipamentos, mobiliários, instalações) e organizacionais (normas e regulamentos, poder, valores, cultura de trabalho) com os quais contam os atores responsáveis pelo seu desenho e implementação. Os atores operam na estrutura, mobilizando recursos na produção de bens e serviços por meio de processos de trabalho visando alcançar objetivos de mudança (finalidades). As características, intenções, interesses e convicções dos atores moldam as intervenções na interação com o contexto. A ação desencadeada pela intervenção modifica situações ou tendências indesejáveis produzindo um efeito de mudança de trajetória que transforma a situação problemática em situação objetivo. As intervenções ocorrem sempre em contexto, ou seja, em um ambiente físico, social, econômico e cultural que possui uma história e um ordenamento institucional que condicionam a eficácia da intervenção. Como destaca Guba e Lincoln (1989) a própria avaliação é uma intervenção passível de ser tomada como o “quê” de uma pesquisa avaliativa. Nota: Adaptação da Figura 2, pag.46 do livro Astrid Brousselle, François Champagne, André-Pierre Contandriopoulos, Zulmira Hartz (Orgs) (2011), Avaliação: conceitos e métodos, Editora FioCruz. 9 As intervenções se dão em geral em estruturas hierárquicas ou multinível, nas quais as ações são aninhadas em diferentes níveis da organização social ou de suas instituições assumindo denominações específicas a depender do nível em que são observadas: política, plano, programa, ação, projeto, atividade etc. O exemplo da Figura 2 ilustra a estrutura hierárquica de intervenção no contexto do sistema educacional. Uma política nacional, por exemplo, é implementada visando modificar o sistema educacional, a partir de um conjunto de programas que incidem sobre os sistemas de ensino (municipais e estaduais) a partir dos quais ações são desencadeadas cujo foco é a mudança da realidade escolar, de suas práticas e resultados, para o que concorrem projetos e atividades desenvolvidos por professores e equipe pedagógica da escola afetando o que ocorre na sala de aula na relação de aprendizagem. Figura 2: Exemplo de estrutura hierárquica de intervenções As intervenções variam em escala e complexidade, a depender se tratam de problemas “convergentes” ou “divergentes” (Champagne et al., 2011, capítulo 2). Os problemassão ditos convergentes na medida em que sendo analisados de modo mais rigoroso, geram respostas que convergem para uma solução única e aceita pela maioria dos atores sociais. Nesse caso estamos possivelmente diante de uma intervenção simples. Por exemplo, poucos discordariam de um programa de aplicação de flúor nas escolas para se combater a cárie ou um programa de vacinação para combater a mortalidade infantil ou, ainda, de um programa de saneamento básico para se combater a diarreia infantil e outras doenças sociais derivadas da falta de saneamento. Os problemas convergentes são afiançados por um conhecimento técnico-científico já consolidado e de reconhecimento social amplo. Nesses casos há uma ideia social compartilhada sobre causas e efeitos (falta de saneamento diarreia infantil) e a forma de intervir é, em geral, de conhecimento comum e aceita como solução eficaz pela grande maioria dos atores sociais. Nesse caso, os atores e suas convicções pouco interferem nas estratégias de intervenção. Algumas vezes se confunde o caráter múltiplo de uma intervenção (muitos componentes) com a ideia de complexidade. A linguagem vulgar e o senso comum ajudam a reforçar essa ideia. Ter muitos componentes faz da intervenção uma intervenção complicada, mas não necessariamente complexa. Se ela puder ser decomposta em elementos simples e relativamente independentes entre si ela pode ser analisada utilizando-se os métodos 10 analíticos clássicos e se “reduz” a um conjunto de intervenções simples. Mesmo que interconectadas temporalmente na lógica de sua execução, são “lineares” no sentido lógico, sequenciais, com etapas previsíveis e monitoráveis de forma relativamente independente, pois não há interação que transforme os componentes (embora haja conexão), ou seja, não há interdependência dinâmica entre as partes. Por exemplo, o projeto de missão tripulada a Marte é complicado, a construção de uma solução aqui é única e pioneira, mas as bases técnicas e científicas estão dadas e o desafio advém da novidade do empreendimento (nunca foi feito). Mas o fato mesmo de existir tal projeto indica que as condições de realização estão dadas e o nível de divergência sobre a finalidade e em como atingi-la é pouco significativo. Uma imagem metafórica que ilustra as intervenções simples e complicadas é dada na Figura 3(a e b). Um palito é considerado um mecanismo muito simples (a), é capaz de realizar trabalho e intervir na “realidade” de nossos dentes após a refeição. O mesmo palito pode servir de elemento em uma estrutura como a escultura de palitos (b). A função é outra, é artística e representativa de várias obras arquitetônicas em cidades importantes do mundo. A escultura de palitos nessa metáfora representa uma intervenção complicada. Ela pode ser analisada e decomposta em seus elementos constitutivos. Os palitos não deixam de ser palitos por estarem compondo uma estrutura nova. Os passos dados para erguer a escultura podem ser conhecidos, mapeados e repetidos de modo a se repetir a mesma estrutura em outro lugar e tempo. A maioria dos projetos de infraestrutura tem essa natureza. Já os problemas divergentes quanto mais são analisados com rigor mais as soluções que se apresentam são divergentes, contraditórias ou opostas. Os atores sociais empreendem disputas políticas acirradas em torno das estratégias de intervenção que entendem ser as mais adequadas e que melhor espelhem seu entendimento do problema, seus valores e sua visão de mundo. Mesmo quando a disputa se resolve em uma determinada direção as próprias estratégias que se apresentam moldam intervenções de natureza complexa. Uma metáfora ilustrativa das intervenções de natureza complexa é a educação de uma criança (Figura 4) (a) (b) Figura 3: Intervenções simples e complicadas (metáfora do palito). Figura 4: Intervenção complexa (metáfora da criança) 11 As intervenções complexas se caracterizam por (Champagne et al., 2011, pag. 49): 1) Múltiplas finalidades com possíveis contradições entre si, com baixo grau de acordo (divergência) entre os atores. 2) Caráter difuso das relações de autoridade quando implementadas. 3) Mobilizam diversos atores interdependentes que agem de forma relativamente autônoma e com lógicas diferentes. 4) Imprecisão do horizonte temporal. 5) Abertas ao contexto (são afetadas) político, econômico, social, cultural, institucional, etc. 6) Dinâmica de autorreorganização (sua forma depende do contexto). 7) Complexa relação causal. 8) Existência de paradoxos (algo não pode ser ao mesmo tempo que é). 9) Possibilidade de se obter o mesmo resultado a partir de diversos agenciamentos de recursos. As seguintes políticas ilustram intervenções de natureza complexa: política de combate à pobreza, política de combate às mudanças climáticas, política de combate à violência. O tipo e metodologia avaliativa devem ser adequados ao nível de complexidade da intervenção. Trataremos da complexidade no campo da avaliação no último módulo deste curso. 12 3. O ciclo da intervenção e as modalidades de avaliação 3.1. Classificações da avaliação A avaliação de programas e políticas encontra diferentes formas de classificação na literatura a depender da perspectiva que se adota. a) Quanto à pergunta avaliativa (o que se avalia) Quando o foco é o tipo de pergunta que se quer responder a avaliação se classifica como diagnóstica, de processo ou de utilidade. A avaliação diagnóstica tem o propósito de subsidiar o planejamento e desenho dos programas/políticas. Avalia-se o escopo e extensão do problema que se quer atacar, que aspectos se quer modificar (objetivos de mudança), qual a melhor forma de enfrentá-lo (tipo de política), quem deve ser assistido pela intervenção (público-alvo), qual deve ser o modelo de intervenção e a estratégia de implementação (lógica de operação). O plano de avaliação, ou seja, a forma como se planeja avaliar o programa também deve ocorrer durante a fase de desenho do programa e, portanto, faz parte da avaliação de diagnóstico. A avaliação de processo é entendida por alguns autores como o monitoramento do programa (Rossi, Lipsey e Freeman, 2004) e incide sobre a gestão do programa. Tem o propósito de verificar a correspondência entre o desenho do programa e sua implementação, de avaliar a eficácia da gestão em executar os recursos previstos e em alcançar o público-alvo. A implementação segue a estratégia prevista? Essa estratégia está sendo eficaz em atingir o público-alvo? Há problemas de focalização do programa? Os recursos são aplicados como previstos? Há eficiência nessa aplicação? As metas estão sendo cumpridas? Há desperdícios? Essas são algumas perguntas que em geral norteiam o monitoramento dos programas. A avaliação de utilidade busca avaliar qual o valor que o programa agrega para a sociedade, a economia, o meio-ambiente etc. Há dois tipos de avaliação: avaliação de impacto e avaliação de eficiência. A avaliação de impacto avalia se os objetivos do programa foram alcançados, em que medida as mudanças esperadas ocorreram (se são substantivas) e se efeitos não esperados (positivos ou negativos) ocorreram como consequência do programa. Já a avaliação de eficiência avalia os resultados do programa vis a vis os seus custos. Os custos compensam os benefícios gerados? Esses benefícios podem ser alcançados a custos menores? Os conhecimentos gerados pela avaliação de impacto e de eficiência permitem o julgamento da utilidade real do programa para a sociedade que deseja efetividade e eficiência dos investimentos públicos realizados pelo governo. b) Quanto à fase da política avaliada (com que finalidade se avalia) Neste caso a avaliação é classificada como formativa ou somativa. A avaliação formativa busca gerar conhecimento para a estruturação do programa e identificação das melhores estratégias para sua implementação.Pode ser realizada durante a implementação do 13 programa ou em estágio piloto do programa. As informações geradas ajudam os que estão diretamente envolvidos com o programa a realizar correções de procedimentos para melhorá- lo seja em relação ao desenho ou a forma de implementação. A avaliação somativa cuida de apurar os resultados do programa, avaliar se está sendo efetivo em alcançar os objetivos para os quais foi criado. A pergunta aqui é quanto ao valor que o programa agrega para a sociedade, enfim o que ele “soma” ou “adiciona” ao estoque de valor social. c) Quanto à metodologia de avaliação (como se avalia) As metodologias empregadas na avaliação de programas e políticas derivam das ciências sociais e compreendem modelos qualitativos e quantitativos. As análises quantitativas adotam métodos estatísticos e econométricos na descrição da situação problema, da evolução dos indicadores de metas e resultados do programa e da evolução do quadro social, econômico e ambiental no tempo. Esses métodos também são utilizados para se estimar o impacto dos programas, realizar simulações, projetar tendências e analisar cadeias causais. Também são usados em meta-análises sobre programas ou políticas, que buscam sintetizar os resultados de vários estudos de impacto. Os métodos quantitativos possuem forte apelo na discussão das políticas públicas e estão muito presentes nas análises feitas por órgãos de pesquisa federais (Ipea, Inep, IBGE etc). A maior limitação da abordagem quantitativa é o reducionismo da realidade produzido pelos modelos de análise e seus pressupostos, nem sempre revelados. Os estudos qualitativos adquirem relevância e são insubstituíveis quando o objetivo é conhecer os processos sociais, relações e subjetividades, culturas e comportamentos de indivíduos e grupos em contextos específicos, percepções sociais sobre intervenções públicas e a forma como diferentes grupos interagem com os programas e seus agentes implementadores. Também são chave na análise da gestão dos programas e das instituições que os executam. Ainda, são indicados na análise histórica e documental das políticas públicas com objetivo de sintetizar o aprendizado organizacional. Os métodos qualitativos embora menos visíveis para o público em geral estão muito presentes nas avaliações feitas por alguns órgãos federais (TCU, SAGI/MDS, Inep). A dicotomia entre métodos quantitativos e qualitativos vem perdendo espaço no mundo acadêmico e métodos combinados são cada vez mais presentes na análise social. No contexto da avaliação das políticas e programas públicos essa combinação é não só presente mas fortemente necessária na maioria dos casos. d) Quanto ao tempo de sua realização (quando se avalia) Se a avaliação é realizada anteriormente à decisão de implementá-lo ou do programa ganhar escala e alcançar o público-alvo para o qual foi planejado (projeto piloto) diz-se que se trata de uma avaliação ex-ante. Esta avaliação serve ao diagnóstico do problema e das alternativas de política para enfrentá-lo. Permite que os gestores comparem programas alternativos a partir de análises de custo-benefício ou de custo-efetividade e possam tomar decisão informada sobre a alternativa de desenho que melhor responda aos objetivos ao menor custo possível. A avaliação realizada após o programa ter iniciado (durante sua execução) ou ao final do programa é chamada de avaliação ex-post. Nesta avaliação julga-se durante a execução do 14 programa se há evidências que deem suporte a continuidade do programa ou se ele deve ser descontinuado, se deve ser mantido no formato original ou sofrer alterações. Se o programa tiver sido concluído avalia-se a pertinência de reproduzir a experiência futuramente. No contexto da Administração Pública avaliações ex-ante são raras e tendem a ser vistas com ceticismo pelos gestores que tendem a resistir à ideia de projetos piloto e implementam programas em escala plena. Duas razões podem ajudar a entender tal comportamento: (i) o tempo dos governos pressionam para que as ações não fiquem suspensas a espera de respostas da avaliação; (ii) os resultados e conclusões das avalições de projetos piloto não necessariamente são válidas para o programa implementado em escala plena (os contextos podem variar dramaticamente); (iii) o programa a ser implementado já tem efetividade testada em vários contextos ou estudos anteriores que mostram sua efetividade (ex. programa de vacinação contra a poliomielite, educação infantil, Programas de Transferência Condicionada de Renda etc). e) Quanto à posição do avaliador (quem avalia) Considerando o agente que a realiza a avaliação é classificada como externa ou interna. Avaliação externa – é realizada por pessoas que não fazem parte da instituição que executa o programa. Há dois graus de “externalidade” do agente: (i) o avaliador pode ser um órgão público distinto do que executa o programa e que detém a função avaliadora (ex. TCU (Brasil), GAO (EUA), CONEVAL (México)); (ii) o avaliador é um agente contratado pelo órgão executor do programa para avalia-lo. Algumas vantagens são associadas à avaliação externa: (i) maior isenção do avaliador em relação ao programa (maior “objetividade”); (ii) maior expertise em metodologias de avaliação; (iii) maior liberdade para reunir equipes técnicas especializadas ad hoc. Algumas desvantagens: (i) maior dificuldade em obter dados do programa; (ii) menor conhecimento dos processos de implementação que afetam a avaliação do programa; (iii) menor adequação do enfoque da avaliação às necessidades do gestor (abordagem mais acadêmica); (iv) maior resistência dos executores do programa em relação à avaliação. Avaliação interna – é realizada por pessoas que fazem parte da instituição que executa o programa. As vantagens associadas são: (i) menor resistência do que a um avaliador externo1; (ii) maior apropriação e aprendizagem do processo de avaliação e de seus resultados; (iii) maior conhecimento sobre o processo de implementação e as bases de dados existentes do programa; (iv) maior flexibilidade em adaptar o curso da avaliação para ajustar novas demandas. Algumas desvantagens associadas são: (i) menor imparcialidade em função do envolvimento com o programa; (ii) menor diversidade de especialidades técnicas disponíveis na área de avaliação; (iii) risco da demanda da avaliação ser pouco estruturada (inexistência de projeto). Quanto maior a proximidade e cooperação entre gestores, avaliadores internos e externos no empreendimento avaliativo, mais as vantagens de cada tipo de avaliação se somam e mais se reduzem as desvantagens de cada modalidade. Nesse sentido fala-se em “avaliação mista” na qual as atividades são compartilhadas entre agentes internos e externos no esforço da 1 Embora aqui as relações internas afetem o grau de confiança e cooperação entre setores da administração pública. 15 avaliação. Não se pode ignorar também o papel que a avaliação participativa vem ganhando na avaliação das políticas públicas. Nesta vertente os beneficiários participam do planejamento e do processo de avaliação. 3.2. As fases dos programas e as modalidades de avaliação A crescente importância que vem adquirindo a avaliação no espaço das políticas públicas no Brasil acompanha a tendência de maior exigência, por parte da sociedade, de qualidade, eficiência e equidade nos resultados dos projetos, programas e políticas implementadas pelos agentes públicos. Se por um lado o processo de consolidação do regime democrático avança para um maior controle social das ações de governo e uma maior exigência sobre os resultados dessas ações, por outro, o cenário de escassez de recursos face à demanda cada vez maior por prestação de serviços e produção de bens públicos, vem exigindo que as escolhas governamentais recaiamsobre políticas e programas que demonstrem eficácia no alcance de objetivos e bons graus de focalização sobre a população alvo dessas políticas. O acerto nas opções de políticas é cada vez mais exigido e necessário. Nesse sentido, o conhecimento acumulado no campo da avaliação de programas e políticas deve ser referência para todo agente público envolvido na gestão de programas. O desenvolvimento de um programa ou política pública tem, em todas as suas fases, relação com diferentes dimensões de avaliação que instruem e contribuem com o processo de sua construção e execução. Programas e políticas nascem da identificação e seleção de problemas, demandas ou oportunidades de desenvolvimento, se propõem na fase de planejamento e desenho, entram em execução e são avaliados quanto aos seus impactos e custos de implementação. Em todas essas etapas do ciclo de vida dos programas e políticas a avaliação é parte fundamental, devendo ser permanente, e assume diferentes propósitos, tendo sempre a finalidade de aperfeiçoar os programas e políticas em todos os seus aspectos potencializando os seus resultados. Se, por um lado, a identificação e seleção de problemas relevantes socialmente parte das condições objetivas, cujos indicadores reclamam ações mitigadoras, por outro depende também de um processamento político que seja capaz de elevar à condição de prioridade nas ações governamentais os problemas identificados. Sendo a realidade social arena permanente de disputa de interesses conflitantes, cabe ao Estado papel mediador que garanta o desenvolvimento do bem-estar social de todos para além do campo dos interesses específicos. O planejamento e desenho de programas compreendem: o processamento da realidade (problema) sobre a qual se quer intervir (descrição, análise causal, simulações, projeções etc); análise das opções de intervenção e desenho preliminar de intervenções alternativas com a definição das finalidades e objetivos, do público-alvo, dos meios para implementação (adotando-se a eficiência como critério de escolha) e do plano de avaliação que presidirá as atividades avaliativas em todas as fases do programa; por fim, a definição política de qual intervenção adotar. 16 A implementação tem início com a mobilização dos recursos necessários (insumos) para a execução do programa e se orienta para gerar os resultados esperados a partir do desenho do programa. A avaliação, parte integrante de todo o ciclo de vida do programa tem, após a implementação da intervenção, a função de verificar se os resultados sociais pretendidos pelo programa foram atingidos. Por meio dos impactos e custos implicados na execução do programa pode-se avaliar a utilidade real do programa na solução ou intercâmbio dos problemas selecionados. Figura 5: Modelo Linear do Ciclo da Política Pública Todas as fases descritas acima comportam dimensões específicas da avaliação com questões próprias a serem respondidas por meio de instrumentos adequados. Qual a natureza e escopo do problema que se quer enfrentar? Onde se localiza e quem é afetado? Como se explica o problema no contexto em que ocorre? Que intervenções (projetos, programas, políticas) podem contribuir para a redução do problema identificado? Qual a população-alvo para uma proposta de intervenção? Que atores precisam ser mobilizados para que a intervenção logre êxito? Em que medida a intervenção proposta está atingindo a população-alvo? Até que ponto a intervenção proposta está sendo implementada conforme o desenho proposto? Está sendo eficaz na mitigação do problema selecionado? Quanto custa? Qual a relação custo-efetividade e custo-benefício da intervenção proposta? Estas são questões que os avaliadores e stakeholders dos programas em geral procuram e desejam responder. As questões acima se desdobram em questões específicas em cada modalidade da avaliação e são ajustadas ao escopo do programa que é avaliado. Rossi e Freeman (1993) propõem quatro grandes tipos ou modalidades que encerram as principais dimensões relevantes para a avaliação de programas conforme descrito na Tabela 2. 17 Tabela 2: Avaliação de Programas (Quadro Geral) Um marco de referência para compreendermos a relação da avaliação como as etapas do processo de uma política é apresentado na Figura 6. Este modelo recentemente adotado pela União Europeia é organizado em três níveis. No nível 1 situam-se os problemas identificados e selecionados, bem como é o espaço onde se poderão observar os resultados da intervenção e seus impactos mais gerais (é o espaço da sociedade e do meio ambiente). No nível 2 situa-se a intervenção sob escrutínio, decomposta em categorias analíticas que permitem estruturar o processo de intervenção em objetivos, insumos, atividades, produtos (entregas) e resultados. No nível 3 situa-se o espaço da avaliação. O modelo permite identificar as diferentes dimensões da avaliação presentes nas interfaces dos elementos do modelo. A produtividade das atividades é avaliada na relação entre insumos e produtos (entregas). A eficiência da intervenção é avaliada na relação entre insumos e resultados imediatos (resultados diretos), em geral com base em análises de custo-efetividade ou custo-benefício. A avaliação de efetividade centra-se no cumprimento dos objetivos, situa-se na relação entre objetivos e resultados alcançados (imediatos e finais). Por último, o modelo trata ainda da relevância da intervenção, ou seja, da relação entre o objetivo e o problema selecionado e da relevância/sustentabilidade, ou seja, avalia os resultados realmente alcançados em relação ao problema fundamental e a sustentabilidade no sentido da longevidade dos resultados. Figura 6: Modelo de Avaliação (União Europeia) 18 4. Tipologias de Avaliação e Técnicas de Análise 4.1. Avaliação Normativa 4.2. Pesquisa Avaliativa 4.2.1. Avaliação de Diagnóstico (Análise Estratégica e Análise Lógica) 4.2.2. Avaliação de Processo (Análise da Produção e Análise da Implementação) 4.2.3. Avaliação de Utilidade (Análise dos Efeitos e Análise da Eficiência) Obs: O conteúdo desta seção terá por base os slides apresentados durante as aulas e as referências indicadas no Plano de Aula. 19 5. Projeto de Avaliação Toda avaliação pode ser concebida como um projeto que, como qualquer projeto, deve ser desenhado e possui um ciclo de vida próprio, como mostra a Figura 7. Figura 7: Ciclo de vida do projeto de avaliação Cada uma das etapas apresentadas na Figura 7 devem produzir resultados práticos e objetivos que impulsionam e subsidiam as etapas subsequentes. Para garantir tais resultados, alguns procedimentos são recomendados: 5.1. DESENHO DA AVALIAÇÃO a) Levantamento de Informações A atividade de levantamento de informações é etapa preliminar fundamental para todo o processo avaliativo. Ela tem três objetivos básicos: (i) conhecer o programa/política e seu contexto; (2) conhecer a equipe gerencial do programa/política; (3) coletar informações para o desenho da avaliação. É nessa etapa que em geral o avaliador entra em contato pela primeira vez com a equipe gestora do programa. É o início de uma relação de trabalho que, para ser bem sucedida, deve gerar confiança entre as partes e espírito colaborativo. Esta etapa orientará os desdobramentos das atividades da equipe de avaliação e as informações obtidas servirão como base para a elaboração do Termo de Referência – TOR para contratação dos serviços de avaliação2. Um diálogo preliminar dessa etapa pode seguir perguntas prévias (preparatórias) que devem ser feitas ao decisor estratégico e à equipe gerencial do programa para se conhecer o contexto, os interesses, as finalidades e os meios disponíveis para que uma avaliação possa ter lugar. 2 Mesmo no caso em que a avaliação é interna (conduzidapor equipes de avaliação do próprio órgão) o TOR ou documento equivalente servirá como base de definição do projeto de avaliação. 20 1. Qual a situação problema e a intervenção? (O que?) 2. Qual a finalidade da avaliação? (Para que?) 3. Quem são os interessados? (Para quem?) 4. Qual o contexto da intervenção? (Em que ambiente?) 5. Qual a fase da intervenção? (Em que momento?) 6. Quais os recursos disponíveis? (Com que meios?) Quanto mais consistente e abrangente em escopo forem as informações obtidas, maior será a chance de se desenvolver um bom projeto de avaliação. Para o levantamento de informações é necessário o envolvimento dos principais interessados na avaliação, priorizando sempre a coleta feita através de um processo participativo entre executores, avaliadores e interessados. As principais fontes de coleta para o Levantamento de Informações incluem: Aspectos legais e normas – legislação existente sobre o programa ou projeto; Documentos do programa ou projeto; Literatura sobre o programa ou projeto Avaliações anteriores; Entrevistas com gestores e implementadores; Banco de dados já existentes do programa; O levantamento de informações não se esgota nessa fase, pois o fluxo de informação sobre um programa/política é contínuo durante a sua existência. O contato permanente com a equipe gerencial do programa permite que fatos novos, como alterações no programa, venham ao conhecimento dos avaliadores, mantendo-se assim um alinhamento das informações entre gestores e avaliadores. b) Planejamento da Avaliação Uma vez que as informações sobre o programa/política são consideradas suficientes, inicia-se a fase de desenho da avaliação (planejamento3). Essa etapa pode gerar um documento específico (projeto básico, documento de referência para avaliação (DRA) etc.), de caráter interno, que sirva para que os gestores do programa deem o seu de acordo sobre a avaliação proposta. Este projeto básico tem o propósito de “vender” a avaliação como projeto para os interessados e os patrocinadores e obter o seu “de acordo”. Aspectos que não necessariamente serão incorporados ao Termo de Referência (mas que são relevantes para o desenho da avaliação) são registrados neste documento interno. Firma-se o acordo sobre o que será avaliado, com que finalidade, com base em quais perguntas, a partir de quais métodos e com que recursos. Este registro serve, ainda, como memória institucional e 3 A rigor o planejamento da avaliação se dá no contínuo da ação avaliativa, portanto já está presente desde a etapa de levantamento de informações, mas por razões didáticas o tratamos aqui como uma etapa específica. 21 elemento informativo para novos gestores e membros das equipes técnicas de avaliação que venham a fazer parte da unidade de avaliação. O modelo de documento de referência para avaliação composto por cinco elementos é sugerido a seguir: I – A Descrição do Programa ou Projeto II – O Marco Lógico do programa III – As Perguntas Avaliativas IV – A Matriz de Avaliação V – O Cronograma de Execução Na sequência são discutidos os objetivo e conteúdos esperados para cada um desses elementos: I – A Descrição do Programa ou Projeto Para realizar uma avaliação é necessário conhecer o programa ou projeto a ser avaliado. O primeiro passo é identificar e descrever o programa com base nos seguintes itens: Problema – tema ou uma situação que motivou o programa/política. Explicação – identificação das causas que contribuem para geração do problema, como também as consequências que o problema produz. Justificativa – O que justifica a intervenção. Objetivos – situação que se deseja obter ao final do programa ou projeto, mediante a aplicação dos recursos e da realização das ações previstas. Metas – é o objetivo temporal, espacial e quantitativamente dimensionado. Público alvo – determina o conjunto de beneficiários a que se destina o programa ou projeto. Área de atuação (abrangência) – localização geográfica a onde o programa ou projeto irá atuar. Fatores de contexto que condicionam a implementação do programa. Estratégia de implementação – opções adotadas para efetivação do programa ou projeto. Prazo de execução – período para executar um programa ou projeto. Recurso previsto – valores alocados para a execução do programa ou projeto. Esses elementos devem ser somados a outros que se façam necessários e suficientes para que a equipe avaliadora tenha uma boa compreensão do programa. II – O Marco Lógico do programa Um recurso adicional útil para o planejamento e gestão de programas ou projetos que facilita o processo de avaliação é compreendê-los a partir do marco lógico. O marco lógico é uma ferramenta para facilitar o processo de concepção, desenho, execução e avaliação de programas e projetos. O principal objetivo é oferecer uma estrutura lógica comum e possibilitar uma síntese das informações sobre o programa ou projeto. Ele fornece uma síntese 22 da estrutura do programa e seus componentes principais, com indicação do objetivo geral; propósito (objetivo específico do projeto); componentes (produtos esperados); atividades; recurso e insumos; indicadores e metas; fontes de verificação e; pressupostos. A matriz do Marco Lógico com seus elementos básicos se assemelha ao modelo seguinte: Tabela 3: Matriz do Marco Lógico do Programa Descrição Indicadores Meios de verificação Pressupostos Objetivo Geral Os impactos/finalidades do programa mostram como a intervenção contribuirá para a solução de um problema. Medem o impacto final do programa. Devem especificar quantidade, qualidade e prazos. São as fontes de informação que podem ser utilizadas para verificar se os objetivos foram alcançados. Podem incluir publicações, pesquisas, levantamentos etc. Propósitos (objetivos específicos) Resultados diretos a serem alcançados com a implementação dos componentes do programa. São hipóteses sobre os benefícios diretos que se espera obter a partir dos componentes do programa. Descrevem os resultados alcançados pelo programa. Devem incluir metas que reflitam a situação ao final do projeto. São as fontes de informação que podem ser utilizadas para verificar se os objetivos estão sendo alcançados. Pode indicar a existência de problemas e/ou a necessidade de ajustes ou mudanças nos componentes do programa. Indicam acontecimentos, condições ou decisões que devem ocorrer para que o programa contribua significativamente para os impactos desejados. Componentes São os serviços e/ou produtos desenvolvidos no âmbito do programa. Ex.: curso de capacitação, produção de apostila, campanha de vacinação. São descrições breves e claras sobre quantidade, qualidade dos componentes do programa e seus prazos de execução. Onde encontrar informações sobre os componentes produzidos. Condições que devem ocorrer para que os componentes do programa levem aos resultados desejados. Atividades São as tarefas que devem ser executadas para completar cada um dos componentes do programa. Elas implicam em custos e devem ser organizadas cronologicamente para cada componente. Um exemplo de marco lógico de programa é apresentado na Tabela 4 abaixo: 23 Tabela 4: Exemplo de Marco Lógico de um programa Descrição Indicadores Meios de verificação Pressupostos e riscos Objetivo Geral: Aumentar as oportunidades de inserção futura no mercado de trabalho dos jovens oriundos de família de baixa renda. Propósito: Aumentar o nível de aprendizagem das crianças oriundas de famílias pobres. Crescimento de 10% no número de alunos do 9º ano com proficiência satisfatória em leitura e escrita na ProvaBrasil. Crescimento de 20% no número de alunos que ingressam anualmente no ensino médio até o censo escolar de 2016. Prova Brasil Censo Escolar A economia do país cresce e oferta oportunidades de trabalho. Componentes 1. Aumento da participação da comunidade local na gestão da escola; 2. Fortalecimento da gestão escolar nas áreas de atendimento do projeto; 3. Capacitação de professores em metodologias alternativas de ensino-aprendizagem; 4. Escolas equipadas com materiais pedagógicos e recursos didáticos inovadores; 5. Secretarias de educação fortalecidas na sua capacidade de apoiar as escolas na organização da ação pedagógica. Há um aumento de 50% no número de pais de alunos que participam das reuniões da APM. Ao final do projeto, 85% dos professores estarão capacitados em metodologias alternativas. Ao final do projeto, todas as escolas dos municípios envolvidos no projeto estarão equipadas. Pelo menos 70% dos técnicos que trabalham nas Secretarias terão participado de processos de capacitação. Relatórios de Execução do Projeto Relatórios de Auditoria Pesquisas e levantamentos de campo. A demanda por educação é alta nas camadas mais pobres da população. Atividades: 1.a) Conscientizar a comunidade local para a importância da gestão escolar nos resultados de rendimento dos alunos; 1.b) Mobilizar a comunidade local para participar nos conselhos escolares; 1.c) Capacitar conselhos escolares para atuarem na gestão da escola. 24 III – As Perguntas Avaliativas As perguntas ou questões avaliativas são a “alma” da avaliação. Não existe boa avaliação sem uma boa pergunta, contudo uma boa pergunta não garante uma boa avaliação. As perguntas avaliativas são a base para as definições metodológicas que orientarão todo o projeto de avaliação. O tipo de avaliação que será conduzido, o desenho adotado, os métodos de análise, os indicadores que serão utilizados e mesmo as fontes de informação necessárias para produzir as avaliações, todas essas dimensões de um projeto de avaliação são definidas a partir das perguntas que se quer responder. Na seção sobre os tipos de avaliação vimos como as modalidades de avaliação e as técnicas de análise variam em função da natureza da pergunta avaliativa. Por ora é importante registrar que não há avaliação sem pergunta avaliativa, assim como não a pesquisa sem questão de pesquisa. Portanto ter claro de partida quais as questões avaliativas é fundamental para que a avaliação tenha lugar. IV – A Matriz de Avaliação A matriz de avaliação é um instrumento que auxilia a equipe responsável pela gestão de um projeto de avaliação a ter, de forma sintética, uma rápida perspectiva dos vários elementos que constituem e fundamentam o trabalho que está sendo desenvolvido. Tendo como ponto de partida os potenciais usuários e os possíveis usos que esses atores farão do resultado gerado pela avaliação, a matriz permite descreve de forma sintética as questões avaliativas mais pertinentes para satisfazer as expectativas de uso desses atores interessados. Assim como o modelo lógico fornece uma visão sintética do programa, a matriz de avaliação fornece uma visão sintética do projeto de avaliação (Tabela 5). Tabela 5: Modelo de Matriz de Avaliação Usuários da Avaliação. Usos Previstos para a Avaliação Perguntas Avaliativas Tipo da Avaliação Desenho da Avaliação Indicadores Fonte da Informação A primeira tarefa a ser realizada consiste em identificar o(s) usuário(s) das avaliações que serão realizadas e os seus interesses. A partir daí que se pode começar a estruturar uma avaliação. Cada usuário pode ter um ou mais usos para a avaliação, em função de seus interesses. Podem ser: avaliar resultados; julgar propostas; selecionar entre alternativas; melhorar processos ou outros usos que contribuam para uma melhor gestão do projeto. São perguntas que vão orientar a estruturação da avaliação. Uma vez identificado o principal usuário da avaliação, as questões avaliativas devem ser construídas tendo como referência o tipo de respostas necessárias para que o usuário da avaliação possa utilizá-la em seu proveito. Cada questão avaliativa pode ensejar diferentes aspectos a avaliar e diferentes tipos de avaliação a considerar. A avaliabilidade, a pertinência, os impactos, a eficiência ou a eficácia, o progresso. A definição do tipo de avaliação deve considerar os contextos em que os projetos se inserem e os interesses dos atores envolvidos. Diz respeito à definição das diretrizes para a realização da avaliação, com requisitos sobre universo a ser considerado; parâmetros e indicadores a adotar; aspectos a serem tratados etc. Devem ser pertinentes com as questões a serem respondidas e com o tipo de avaliação proposto. São os referenciais que permitem medir o alcance de resultados e demais aspectos considerados para a avaliação do projeto, devendo auxiliar o avaliador a responder as questões avaliativas propostas. Origem das informações necessárias os indicadores e/ou para subsidiar as análises que serão realizadas no processo avaliativo. Indicam as entidades e organizações que produzem dados e informações ou as pessoas e organizações que devem ser objeto de levantamentos e coletas de dados. 25 V – O Cronograma de Execução Elaboração de um cronograma é ponto crucial em gerenciamento de projetos. Cada projeto de avaliação deverá ter um cronograma da execução de suas atividades, descrevendo-as e especificando o tempo previsto para executá-las e em que período (dia, mês e ano) será executado. Tabela 6: Modelo de cronograma Etapa da Avaliação Atividades / Produtos Ano 1 Ano 2 Ano 3 I II III IV I II III IV I II III IV c) O Termo de Referência Uma vez que o projeto básico de avaliação esteja definido e acordado entre as partes interessadas, a decisão de realizar a avaliação pode implicar a necessidade de contratação externa de pessoa física ou jurídica. Neste caso, o projeto deve ser traduzido em um Termo de Referência (TOR) que definirá o objeto a ser contratado. O TOR visa apresentar as diretrizes conceituais e operacionais para o estudo avaliativo, além de ser imprescindível para o controle contratual das atividades de avaliação a serem executadas por avaliadores externos. O TOR deverá ser o instrumento básico e padrão para definição dos produtos da avaliação proposta e de controle sobre a qualidade dos produtos apresentados. A participação na elaboração do TOR dos interessados na avaliação é condição para uma visão compartilhada do que se pretende executar, tornando-se o ponto de partida para o diálogo e a negociação com os contratados. Na elaboração do TOR particular atenção deve ser dada aos seguintes aspectos: 1) Quais são as questões mais importantes que a avaliação proposta no TOR pretende responder; 26 2) Onde se situa a avaliação proposta no escopo do Plano de Avaliação do programa (é relevante caso a avaliação contratada seja apenas um componente de um plano de avaliação mais abrangente); 3) Qual o contexto, limites e condições em que será realizada a avaliação proposta; 4) Quem são os demandantes dessa avaliação; 5) Quais são os prazos para a execução do projeto; 6) Quais os critérios para a seleção das agências e/ou agentes avaliadores; 7) Quais os formatos e padrões para apresentação dos resultados da avaliação. Os modelos de TOR variam e não há um formato único. Contudo, um conjunto básico de conteúdos para o TOR relativo a um projeto de avaliação é apresentado a seguir (um exemplar de TOR está disponível na pasta de trabalho desta unidade): Quadro 1: Modelo de Termo de Referência A. Resumodescritivo do projeto de avaliação Descrever brevemente o projeto de avaliação e situá-lo no contexto do programa/política. Algumas das perguntas preliminares levantadas no item 1 deste módulo (“Levantamento de Informações”) compõem um bom roteiro para o conteúdo da descrição. É importante destacar as principais perguntas avaliativas que se quer responder. Deve ficar clara e de forma sintética a motivação para o trabalho que será realizado. B. Objeto da Contratação Deve-se especificar aqui qual é o objeto do TOR, mencionando de forma precisa e sintética os serviços a serem realizados. As questões avaliativas também deverão estar descritas neste item em maior detalhe. C. Justificativa Esclarecer porque o tema foi escolhido, ressaltar sua importância, os trabalhos realizados na área e as contribuições que poderão advir da realização da avaliação. Considerar as razões que justificam o TOR apresentado face às demandas de avaliação do programa. Em que medida e de que modo a avaliação proposta responde àquelas demandas. Descrevem-se aqui os benefícios que a instituição/organização espera conseguir utilizando os produtos gerados pela avaliação. D. Interessados/Usuários Apontar os principais usuários interessados no desenvolvimento da avaliação proposta. A quem os resultados a serem obtidos interessarão e por quais razões. E. Escopo e limites do projeto (Atividades) Este é o ponto chave de um termo de Referência. Aqui se descreve as atividades a serem desenvolvidas para o alcance dos objetivos propostos pelo projeto, e os produtos resultantes 27 de cada uma das atividades. Deverão ser mencionadas: reuniões a serem realizadas, viagens, pesquisas, e outras atividades necessárias ao atendimento do objeto da contratação. F. Resultados e Produtos Esperados Os produtos previstos devem ser descritos e/ou quantificados conforme a sua natureza. Deve-se deixar bem especificado, de forma bastante precisa, a quantidade, qualidade e características de apresentação de todos os produtos e resultados esperados pelo trabalho de consultoria durante e ao final do trabalho de avaliação. g. Cronograma Apresentar previsão de datas limite de conclusão e tempo de duração para todas as atividades planejadas para execução da avaliação. Define-se aqui o período de tempo para realização das tarefas e apresentação dos resultados e produtos da contratada. Os produtos a serem entregues devem ter descrição e prazos destacados no TOR: Produto Descrição Responsável Data de Entrega 1 X dias após a assinatura do contrato 2 3 ... G. Orçamento Apresentar uma estimativa de custos para cada atividade e para o conjunto do Termo de Referência – TOR proposto. Indica-se o custo estimado por insumo (serviços da consultoria, passagens, diárias, materiais, equipamentos e etc...). Esta estimativa serve de referência para a contratação, não é publicada com o TOR. H. Qualificação Especificar as qualificações requeridas para as agências e agentes proponentes, indicando o perfil da empresa/consultor, a formação técnica ou acadêmica das equipes, a experiência anterior, número de pessoas necessárias, funções a serem exercidas na execução da proposta etc. I. Condições Gerais Aqui serão descritas as normas a serem observadas e as exigências e/ou fatores importantes a serem considerados para a apresentação de propostas por parte dos proponentes. J. Responsáveis Identificar o responsável técnico pela elaboração do TOR, o responsável pela coordenação e supervisão da avaliação durante sua execução, a autoridade solicitante e a autoridade contratante. 28 d) Contratação Parâmetros gerais para contratação de avaliadores externos O perfil dos avaliadores em termos de qualificação técnica deve estar definido no TOR e adequado, portanto, à especificidade de cada projeto de avaliação proposto. É recomendado, todavia, que sejam observados os seguintes parâmetros gerais para a seleção dos consultores ou empresas executoras da avaliação: 1) Experiência e conhecimento técnico sobre metodologias requeridas para desenvolvimento do projeto de avaliação, assim como experiência prática na sua utilização; 2) Experiência e conhecimento na área específica sobre a qual a avaliação é proposta (pobreza e renda, participação social, educação etc); 3) Experiência na execução de projetos com o setor público; 4) Reconhecimento de especialização na área e credibilidade institucional pelos principais interessados na avaliação; 5) Imparcialidade, isto é, ausência de conflito de interesses com as partes envolvidas na avaliação do programa (beneficiários, gestores, financiadores etc); 6) Capacidade de comunicação dos resultados de modo a torná-los acessíveis ao conjunto dos interessados na avaliação; 7) Flexibilidade para ajustes no percurso da avaliação, sem perda do rigor requerido para a confiabilidade dos resultados e execução dentro dos prazos. 8) No caso de equipes observar: a multiplicidade de perfis necessária à execução do projeto, a necessidade de liderança e coordenação da equipe, a experiência prévia da equipe em trabalho conjunto, a dispersão geográfica dos membros da equipe e as possíveis dificuldades gerenciais e de comunicação advindas dessa dispersão. O Projeto Executivo (Proposta Técnica e Financeira) O detalhamento da execução do projeto de avaliação deve estar na forma de um Plano de Trabalho ou Projeto Executivo apresentado pelas empresas licitantes. Este é constituído de duas partes: uma proposta técnica e uma proposta financeira que entram na disputa. O conteúdo do Projeto Executivo deve estar previsto no Termo de Referência (TOR). Uma vez selecionado o vencedor do certame, o Projeto Executivo deverá orientar a execução da avaliação e ser objeto de monitoramento pela coordenação do projeto. Ajustes no Projeto Executivo deverão ser feitos seguindo procedimentos acordados por ocasião da sua aprovação e estar de acordo com os termos do contrato. 29 Não existe formato único para o Projeto Executivo. Abaixo é apresentada uma estrutura para o seu conteúdo. Quadro 2: Modelo de Projeto Executivo 1. Resumo do Projeto Apresentação da proposta de trabalho, mencionando os objetivos da avaliação, seu foco e alcance, assim como um resumo dos produtos e/ou serviços que serão entregues. 2. Matriz de Avaliação: Apresentar as principais perguntas que o projeto de avaliação pretende responder, os pressupostos da investigação, os métodos que serão empregados e as fontes de dados que serão utilizadas. 3. Metodologia Descrever a linha metodológica a ser adotada para o desenvolvimento da avaliação, sua justificativa, fundamentação e adequação para o tipo de avaliação a ser executado. Indicar os instrumentos de tratamento de dados, os métodos para análise de dados quantitativos e qualitativos e estratégias de desenvolvimento da avaliação. 4. Equipe Indicar os membros da equipe, suas titulações, funções na pesquisa e responsabilidades. Neste item apresentar as qualificações técnicas e nível de experiência da equipe envolvida no projeto, sua adequação ao objeto de avaliação proposto e a metodologia a ser utilizada. 5. Atividades e Produtos: Descrever de forma mais detalhada possível as atividades a serem desenvolvidas para o alcance dos objetivos propostos pelo projeto, e os produtos resultantes de cada uma das atividades. Para as atividades indicar: o responsável pelo resultado, a duração prevista, a data de início e término, as pessoas da equipe envolvidas na atividade. Para os produtos previstos: descrever e/ou quantificar conforme a sua natureza, definir indicadores de resultado e parâmetros de qualidade. 6. Informes da Pesquisa Descrever os meios e periodicidade dos informes da pesquisa. Resultados e relatórios parciais devem seguir os padrões e exigências definidos no Termo de Referência. 7. Prazos / Cronograma: Apresentar previsãode datas limite de conclusão e tempo de duração para todas as atividades planejadas para execução da avaliação em cronograma onde as datas de entrega dos produtos e/ou serviços estejam claramente demarcadas. 8. Orçamento (Proposta Financeira) Detalhar os honorários, despesas com viagens, materiais, equipamentos e demais itens de despesa; a forma de pagamento proposta e o custo total da proposta de acordo com o contrato. 9. Identificação do Responsável: Identificar o responsável técnico pela proposta do Plano de Trabalho e o responsável proponente. O responsável proponente deve estar designado ou nomeado em documento oficial da agência. O Plano de Trabalho deve ser assinado e datado pelo responsável proponente e indicar prazo de validade da proposta. 30 5.2. GESTÂO DA AVALIAÇÃO Uma vez contratado o estudo avaliativo, em conformidade com as diretrizes previstas nos termos de referência, o coordenador da avaliação assume a função de gestor do contrato. A gestão do contrato envolve o acompanhamento e registro de sua execução, a interlocução com os executores da avaliação, o recebimento e a validação dos produtos da avaliação para efeito de aceite e pagamento. O monitoramento do projeto de avaliação durante a execução é de fundamental importância para que eventuais dificuldades sejam detectadas e contornadas em comum acordo com os executores a tempo de se evitar desvios que causem prejuízo a ambas as partes. Relatórios de avanço podem ser utilizados a depender do escopo do projeto de avaliação, para manter informado o gestor estratégico e/ou patrocinador da avaliação. Ao longo do ciclo de vida do projeto de avaliação, em cada etapa-chave de sua execução, relatórios gerenciais podem ser gerados: a) Relatório de Avanço – Informações: produzido ao final da etapa de levantamento de informações; b) Relatório de Avanço – Questões Avaliativas: produzido ao final da atividade de planejamento da avaliação; c) Relatório de Avanço – Contratação I: produzido durante o processo de contratação do estudo avaliativo; d) Relatório de Avanço – Contratação II: produzido uma vez que a consultoria para a realização do estudo avaliativo já esteja selecionada; e) Relatórios de Avanço – Execução: pelo menos 3 relatórios deverão ser produzidos, o primeiro quando da aprovação do projeto executivo, informando os produtos e prazos pactuados; o segundo quando do início das atividades de levantamento de campo, sempre que for o caso; e o terceiro no recebimento dos relatórios de campo. f) Relatório de Avanço – Disseminação dos Resultados: produzido quando da entrega, pela consultoria contratada, dos resultados do estudo avaliativo. Esses relatórios devem ser sucintos (3-5 páginas no máximo) e servem para o registro da execução e o acompanhamento dos dirigentes. O conteúdo sintético pode incluir o descrito no Quadro 3. Quadro 3: Modelo de Relatório de Acompanhamento a) O Projeto Descrição sintética do projeto, em não mais que dois parágrafos, informando o nome do projeto que está sendo avaliado; o objetivo da avaliação; o interessado na avaliação (para quem está sendo feita a avaliação); e, a data esperada de conclusão do projeto. b) Equipe Responsável pela Gestão do Projeto Todos os projetos de avaliação envolvem uma equipe multidisciplinar subordinada a uma coordenação técnica. Neste item deve ser informado ao gestor quem faz parte 31 da equipe. c) Etapa do Projeto (relacionada com o tipo de relatório de avanço que se está produzindo) Levantamento de informações, definição das questões avaliativas, contratação da consultoria responsável pela execução dos estudos avaliativos, realização dos estudos e produção dos relatórios com os resultados são as etapas do projeto que estarão sendo objeto do monitoramento. Cada relatório de avanço proposto no item anterior está relacionado com uma dessas etapas ou com um procedimento relevante de uma etapa. A ideia é dar ao gestor uma clara noção sobre qual o momento em que o projeto de avaliação se encontra quando da produção do relatório de avanço. d) Pessoa(s) Responsável(is) pela Etapa Não necessariamente toda a equipe contratada do projeto está diretamente envolvida na execução da etapa que está sendo objeto do relatório. Quando for o caso, explicitar que parte da equipe está mais diretamente envolvida no trabalho naquele momento. e) Data Esperada para Conclusão Aqui o relator deve informar qual a estimativa de conclusão da etapa que está sendo monitorada e confrontar essa expectativa com o que havia sido originalmente planejado. O gestor deve ter uma clara visão de como está avançando o calendário de atividades em relação ao que havia originalmente sido programado. f) Situação Atual Em não mais que 3 parágrafos o relator deve informar qual a situação do projeto, em termos de seus avanços e dificuldades de execução ao longo do período em questão. Deve apontar os problemas que eventualmente venham sendo enfrentados na etapa e/ou os encaminhamentos que a equipe de trabalho vem dando para solucionar eventuais dificuldades ocorridas. Neste item também cabem análises sobre possíveis desdobramentos futuros do projeto e de seu andamento. g) Recomendações A parte final do relatório de avanço deve, preferencialmente, se escrita na forma de tópicos, por meio dos quais o relator indica para o gestor da unidade um conjunto de medidas adotadas e recomendações para que o projeto de avaliação prossiga na sua implementação de forma satisfatória. É importante ressaltar que não se trata de produzir grandes digressões e análises, mas, de forma pontual e objetiva, apresentar as medidas que estão sendo tomadas e oferecer sugestões de encaminhamento que estão sob a responsabilidade de superiores. 32 5.3. DISSEMINAÇÃO DE RESULTADOS Sem a disseminação dos resultados da avaliação não se conclui o ciclo de gestão do projeto avaliativo. Fazer chegar aos interessados os resultados da avaliação não é uma tarefa trivial. Alguns fatores devem ser considerados. Por exemplo, os interessados são potencialmente diversos, o que requer que os meios e linguagem de disseminação devem ser adequados às características dos usuários do conhecimento gerado pela avaliação. Gestores de Nível Estratégico Gestores de nível estratégico, por exemplo, tem agendas difíceis e necessitam acessar as informações de forma concisa, objetiva e clara. O Sumário Executivo é um instrumento de divulgação que deve atender esses requisitos, fornecendo ao gestor um resumo curto e qualificado dos resultados da avaliação. Tal síntese dos achados é tarefa complexa e requer cuidado, pois é necessariamente seletiva e pode facilmente gerar um viés na visão do gestor. Os sumários executivos em geral apresentam estrutura similar à descrita no Quadro 4: Quadro 4: Estrutura do Sumário Executivo I – Propósito da Avaliação Deve conter um breve contexto do projeto avaliado, o motivo, a finalidade e o objetivo da avaliação, como também a quem interessa a avaliação. II – Questões Avaliativas Descreve as perguntas que nortearam a avaliação, mostrando o que foi investigado e sobre qual realidade. III – Principais Achados Mostra quais os resultados encontrados, o que foi evidenciado e que respostas podem ser oferecidas às perguntas avaliativas sobre o programa/política. Estes achados representam os elementos que permitem a elaboração das conclusões e recomendações no processo de avaliação. IV – Conclusões São as consolidações dos achados expressas de forma objetiva, permitindo ao gestor tomar ciência de forma rápida do que foi encontrado, do que se aprendeu sobre o programa a partir da avaliação. A conclusão agrega uma dimensão reflexiva e veicula a mensagem central da avaliação. V – Recomendações As recomendações buscam transformar os resultados encontrados em subsídio para a tomada de decisão visando: a continuidade
Compartilhar