Baixe o app para aproveitar ainda mais
Prévia do material em texto
91 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Unidade II 5 AVALIAÇÃO DE PROGRAMAS: DIFERENTES CONCEPÇÕES As diversas visões acerca da avaliação nos levam a diferentes modalidades de estudos de avaliação. Porém, antes de aprofundar essa discussão, Worthen et al. (2004, p. 36) propõem que se faça a distinção entre avaliação e pesquisa avaliatória, termo popularizado entre os anos 1960 e 1970, e enfatizam que muitos cientistas sociais adotaram esse uso para diferenciar [...] pesquisa de avaliação, que veem como qualquer avaliação que empregue uma metodologia rigorosa no campo das ciências sociais, de avaliação, que usam para descrever estimativas realizadas com outros métodos. Assim, notamos que a definição de avaliação depende e/ou deriva do que se entende por seu propósito básico. Em defesa do conceito já apresentado nesse trabalho, Scriven citado por Worthen et al. (2004, p.19), relata que: Em termos de metas, podemos dizer que a avaliação tenta responder certos tipos de pergunta sobre certas entidades. As entidades são os vários [...] instrumentos (processos, pessoal, procedimentos, programas etc.). Os tipos de pergunta incluem questões a respeito da forma como esse instrumento atua (com relação a tais e tais critérios) esse instrumento será melhor que outro. Que méritos ou problemas esse instrumento tem? O uso desse instrumento vale seu custo? [...] Mas os papéis que a avaliação tem em determinado [...] contexto podem variar enormemente; ela pode fazer parte de uma [...] atividade de treinamento, do processo de definição de um currículo, de um experimento de campo [...] de [...] um programa de treinamento de executivos, de uma prisão, de uma sala de aula. Nessa mesma linha de pensamento, Shadish citado por Worthen et al. (2004), afirma que a definição de avaliação deve abranger mais que “valoração científica”, ampliando‑a para incluir outras atividades e práticas vitais do avaliador, como providenciar para que a avaliação seja usada com o objetivo de melhorar um programa. Para ilustrar tal ideia, apresentamos o quadro a seguir, exemplificando o uso da avaliação em diversos setores. 92 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Quadro 3 – Exemplos do uso da avaliação em diversos setores 1. Julgar a qualidade dos currículos escolares em áreas específicas. 2. Determinar o valor do programa antiviolência em uma escola de Ensino Fundamental. 3. Decidir se um programa de desenvolvimento urbano vai ou não ser implementado. 4. Determinar o impacto de um programa de redução de penas prisionais sobre a reincidência. 5. Julgar a eficiência de um programa de treinamento empresarial. 6. Avaliar iniciativas administrativas. 7. Identificar a contribuição de programas específicos para os lucros de uma empresa. Adaptado de: Worthen et al. (2004, p. 41‑42). Com os exemplos apresentados, observamos que a avaliação pode ser aplicada a diversos campos e setores (educação, saúde, desenvolvimento urbano, econômico, empresarial etc.). Essa diversidade de aplicações, de entendimento de objetivos e de usos, pauta‑se na existência de diferentes visões e/ou concepções da avaliação, como abordaremos a seguir. Lembrete A avaliação é um instrumento de gestão social imprescindível. Desse instrumento depende, muitas vezes, a implementação ou manutenção das ações dos profissionais atuantes, aliada à transparência e à visibilidade que se exige de quem trabalha com recursos humanos e recursos públicos. 5.1 Avaliação de programas: diferentes abordagens A diversidade das abordagens da avaliação é resultante da forma de ver, de entender e de definir a avaliação. Essas diferentes possibilidades provocam impacto direto sobre o tipo de atividade avaliatória realizada. Segundo Worthen et al. (2004, p.106), essa diversidade de abordagens surgiu dos tipos variados de conhecimento e visão de mundo de seus autores, que se desdobraram em diferentes orientações filosóficas, predileções metodológicas e preferências práticas. Nesse sentido, Baker e Niemi, citados por Worthen et al. (2004, p. 106), sugerem a existência de quatro fontes distintas, nas quais grande parte do pensamento sobre a avaliação se baseia. 1. Experimentação – vista como o uso da tradição de pesquisa experimental das ciências sociais na avaliação. 2. Mensuração – descrita como o estilo de avaliação que pressupõe que o uso de um mecanismo de medida comportamental vai produzir números que constituirão a evidência da efetividade de um programa. Windows Realce Windows Realce Windows Realce Windows Realce 93 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL 3. Análise sistêmica – definida como o exame das inter‑relações de grandes séries de variáveis em organizações ou processos. A análise sistêmica é feita para ajudar os administradores a tomar decisões mais defensáveis. 4. Abordagens interpretativas – representam o uso da filosofia hermenêutica e de teorias interpretativas do conhecimento para gerar interpretações descritivas e julgamentos holísticos de programas complexos. Parafraseando Worthen et al. (2004), acreditamos ser mais proveitoso para esse estudo, compreender a origem das diferentes conceituações da avaliação ao examinar as distinções entre: • crenças filosóficas e ideológicas; • preferências metodológicas; • opções práticas de seus autores. No campo filosófico e ideológico, o autor House, citado por Worthen et al. (2004, p. 107), classifica as abordagens da avaliação em duas categorias: objetivismo e subjetivismo. E no campo das preferências metodológicas e ações práticas, destacam‑se a avaliação quantitativa e a avaliação qualitativa. Observação Objetivismo – abordagem avaliatória que requer que as informações obtidas no estudo sejam cientificamente objetivas. Isso quer dizer que são usadas técnicas de coleta e análise de dados que possam ser reproduzidas e que levem a resultados verificáveis (WORTHEN et al., 2004, p. 699). Subjetivismo – abordagem da avaliação que enfatiza mais a experiência do avaliador do que o conhecimento científico (WORTHEN et al., 2004, p. 702). Apesar da diversidade das abordagens da avaliação, verifica‑se que entre elas existem pontos em comum. Worthen et al. (2004) afirmam que muitos estudiosos tentaram pôr ordem no caos refletido na literatura da avaliação criando formas de classificação. Mas como a avaliação é multifacetada e pode ser realizada em diferentes fases do desenvolvimento de um programa ou projeto, o mesmo modelo de avaliação pode ser classificado de diversas maneiras, dependendo da ênfase. Por fim, ao se apresentar essa categorização, baseada nos estudos de Worthen et al. (2004), reforçamos que não existe a pretensão de esgotar a discussão e os modelos, já que consumiria centenas de páginas de qualquer produção textual. Windows Realce Windows Realce 94 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II 5.2 Avaliações em função do momento de realização Tendo como foco o momento de realização da avaliação, esta, segundo Cohen e Franco (2004), pode apresentar os seguintes tipos: • avaliação ex‑ante: é realizada com o início da elaboração do programa ou projeto. Tem como finalidade proporcionar critérios racionais para decidir se o projeto deve ou não ser implementado; • avaliação ex‑post: é realizada durante a realização do projeto (avaliação concomitante ou de processos) e após a conclusão do projeto (avaliação terminal). A avaliação de processos,ao ser realizada durante a implementação, procura detectar as dificuldades que ocorrem na programação, administração, controle etc., para serem corrigidas oportunamente. A avaliação terminal ou de impacto procura determinar em que medida o projeto alcança seus objetivos e quais seus efeitos secundários. Tendo como mesma ótica a dimensão temporal da avaliação, Aguilar e Ander‑Egg (1994, p. 41), asseveram que, de acordo com esse critério, pode‑se fazer uma tríplice distinção: • avaliação antes (ou ex‑ante), também chamada de inicial ou pré‑decisão: realizada antes da decisão de empreender um programa ou projeto, ou de aprovar sua realização. É feita na fase de planejar o programa; • avaliação durante a execução: também denominada de gestão, avaliação contínua, avaliação concorrente, monitoração ou avaliação concomitante. Levanta informações sobre o andamento do programa, ponderando resultados com o objetivo de avaliar mudanças situacionais, verificar o cumprimento do programa conforme o que foi estabelecido e subsidiar possíveis alterações; • avaliação ex‑post: é realizada ao final do projeto e distingue‑se da avaliação do fim do projeto. Enquanto a segunda acontece na fase de conclusão da execução, a primeira (ex‑post) é realizada quando o programa ou projeto alcançou seu pleno desenvolvimento (meses ou anos depois de finalizada a execução). Observação Segundo Aguilar e Ander‑Egg (1994, p. 41), a avaliação antes (ou ex‑ante) comporta três aspectos principais: 1. pertinência do projeto com a realidade; 2. coerência e congruência interna; 3. rentabilidade econômica das diferentes ações para alcançar os objetivos propostos. 95 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Na interpretação de Browne e Wildavsky, citados por Silva e Silva (2001, p. 55), ainda conforme o critério do tempo de realização, a avaliação pode ser: • retrospectiva (retrospective evaluation): quando expressa o desempenho de um programa implementado no passado; • prospectiva (prospective evaluation): quando indica como poderá ser, provavelmente, o desempenho de um programa no futuro; • formativa (formative evaluation): quando a avaliação é desenvolvida durante o processo de implementação do programa; • contínua (continuous evaluation): quando envolve avaliação formativa e retrospectiva; • integrativa (integrative evaluation): quando ela ocorre antes e depois da implementação do programa. 5.3 Avaliações em função de quem a realiza Além da avaliação em função do momento de realização, outra tipologia pode ser apresentada: a avaliação em função de quem a realiza. Nessa perspectiva, Aguilar e Ander‑Egg (1994), apresentam os seguintes tipos de avaliação: • avaliação externa: quando é realizada por pessoas (avaliadores) que não pertencem nem são vinculadas (direta ou indiretamente) à instituição executora do programa ou projeto em avaliação. Para este tipo de avaliação, normalmente, são contratados especialistas; • avaliação interna: quando é realizada por pessoas (avaliadores) que pertencem à instituição promotora ou gestora do programa ou projeto em avaliação, mas não são diretamente ligadas à sua execução; • avaliação mista: esse tipo de avaliação representa uma combinação entre a avaliação externa e a avaliação interna. É realizada por uma equipe de trabalho composta por avaliadores internos e avaliadores externos; • autoavaliação: quando é realizada pelas próprias pessoas responsáveis pela execução ou realização do programa ou projeto. Ainda nesse contexto, os autores Aguilar e Ander‑Egg (1994) destacam vantagens e desvantagens para cada tipo de avaliação. Quando se faz a opção por uma avaliação interna (com pessoas/profissionais da própria instituição), corre‑se o risco de que os avaliadores minimizem os aspectos negativos em detrimento dos positivos ou procurem, em função de questões pessoais, estabelecer um responsável por todo o fracasso da atividade. Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce Windows Realce 96 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Por outro lado, esse tipo de avaliação apresenta como vantagem o conhecimento e a familiaridade que os envolvidos possuem com o que será avaliado. No caso da avaliação externa, quando os avaliadores são alheios à instituição, também existem vantagens e desvantagens. Enquanto, por um lado, existe a vantagem da objetividade, por outro, existe o risco de o avaliador não captar plenamente todos os fatores em jogo, de acordo com a natureza e funcionamento do programa. Além da avaliação externa, interna e mista, destacadas por Aguilar e Ander‑Egg (1994), os autores Cohen e Franco (2004) acrescentam a avaliação participativa. Para esses autores, a avaliação participativa teria o objetivo principal de minimizar a distância existente entre o avaliador e os beneficiários do programa ou projeto. Para eles, essa avaliação é mais utilizada em pequenos projetos, que procuram fixar as mudanças propostas, criando condições para que seja gerada uma resposta endógena do grupo. Ao discutir e refletir sobre avaliação participativa, Brant de Carvalho enfatiza que essa avaliação é de muita importância devido ao seu uso frequente na avaliação institucional e na de programas e projetos sociais. Para ela (2001, p. 86), a avaliação participativa [...] surgiu na esteira da chamada pesquisa‑ação. Guarda assim propósitos, princípios, procedimentos e estratégias muito próximos dos utilizados nesse tipo de pesquisa, possibilita não só a apropriação gradativa da realidade, mas alimenta, ao mesmo tempo, a construção de propostas e ações. Tem como eixo metodológico fundante o envolvimento e a participação dos formuladores, gestores, implementadores e beneficiários no próprio processo avaliativo de um dado programa ou organização prestadora de serviços sociais. Ainda segundo Brant de Carvalho (2001), a avaliação participativa é muito rica, pois busca ser uma avaliação capaz de apreender o pluralismo social e perseguir dois objetivos centrais: incorporar os sujeitos implicados nas ações e desencadear um processo de aprendizagem social. Esse tipo de avaliação não se limita a conhecer informações e opiniões da coletividade envolvida nas redes, mas, por meio do ato do debate, da diversidade de opiniões, de valores e de expectativas, os sujeitos tornam‑se partícipes da avaliação e comprometidos com a ação. Assim, a participação dos envolvidos na ação garante à avaliação maior densidade, limita seu risco de permanecer periférica e permite detectar precocemente falhas ou estratégias inadequadas e alterá‑las, objetivando melhorar sua eficácia. Nesse sentido, a avaliação participativa, por suas características peculiares, acaba por requerer competências adicionais do avaliador, como a capacidade empática de envolver os implicados no programa ou projeto, além das habilidades de mediação e de irrigação do processo partilhado por meio de informações, questionamentos e clarificações. Windows Realce 97 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Apesar das vantagens destacadas, Brant de Carvalho (2001, p. 88), enfatiza também limitações, ou seja, para a autora, a avaliação participativa [...] é um tipo de avaliação nem sempre adequada e suficiente para avaliar programas, em alguns casos, deve ser complementada por outras estratégias avaliativas. [...] É preciso desmontar a ideia, ainda persistente, de que a avaliação tem serventia apenas para a demonstração dorendimento pretendido num programa. A avaliação no campo social deve estar atenta para apreender os impactos, isso requer, portanto, situar o programa em relação ao contexto em que se gesta, ao grau de legitimidade alcançado na instituição e na comunidade e ao grau de adesão ou resistência dos agentes que o movem, produzindo esta ou aquela dinâmica. Para concluir, é importante observar que nenhum dos tipos de avaliação aqui apresentados possui um valor absoluto. Isso quer dizer que a seleção de determinado tipo de avaliação será realizada em função do projeto ou programa a ser avaliado e, principalmente, dos objetivos que se quer alcançar. 5.4 Avaliações em função da escala ou dimensão dos projetos Levando em consideração o número de pessoas beneficiadas/atingidas/alcançadas e a magnitude dos recursos que necessitam, Cohen e Franco (2004, p. 115) afirmam que é possível fazer a distinção entre a avaliação de grandes projetos e a avaliação de pequenos projetos. Essas distinções podem se observadas no quadro a seguir: Quadro 4 – Comparativo entre avaliação de grandes projetos e avaliação de pequenos projetos Aspectos Avaliação de grandesprojetos Avaliação de pequenos projetos Estratégia de avaliação Estratégias analíticas objetivas com destaque para casos quantitativos Estratégias predominantemente qualitativas Lógica de avaliação Lógica dedutiva Lógica indutiva Roteiro de avaliação Modelos próprios das ciências naturais: experimental clássico ou quase experimental Parte da realidade global Técnica de avaliação Quantitativas (às vezes complementadas por técnicas qualitativas) Qualitativas Resultados da avaliação São gerais e os indivíduos atingidos são tratados como grupos Oferecem trato específico sobre os participantes do programa, analisando casos desviados Avaliadores Avaliação centralizada tende a ser desenvolvida por avaliadores externos Geralmente avaliadores da instituição, havendo possibilidade de avaliação participativa Adaptado de: Silva e Silva (2001, p. 58). 98 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Observa‑se no quadro apresentado que existem diferenças significativas entre os dois tipos de avaliação e, sobre esses aspectos diferentes, fazem‑se necessário alguns destaques: • estratégia da avaliação: nos grandes projetos, a avaliação é decomposta nas dimensões do projeto. É possível realizar avaliações parciais das diversas etapas para medir o sucesso alcançado em objetivos intermediários. Por outro lado, nos pequenos projetos a ênfase é dada à compreensão do conjunto e dos casos individuais que o integram; • lógica da avaliação: nos pequenos projetos, a partir da observação da realidade, o avaliador julga o projeto como um todo. Nos grandes projetos, sua verificação exige a construção de variáveis, indicadores e índices que permitam determinar em que grau o projeto modificou a realidade em relação aos seus objetivos; • roteiro da avaliação: nos grandes projetos, retomam‑se os modelos próprios das ciências naturais. Eles supõem uma captação particular da realidade, dimensionada para determinar o grau de êxito ou fracasso. Nos pequenos projetos, parte‑se da realidade, procurando entender o projeto por meio das articulações que os indivíduos geram na comunidade; • técnicas de análise: enquanto nos grandes projetos as técnicas usuais são as quantitativas, nos pequenos recorre‑se ao qualitativo, utilizando técnicas da antropologia cultural e da etnografia; • resultados da avaliação: nos grandes projetos são gerais e nos pequenos projetos são em uma perspectiva individual; • avaliadores: enquanto nos grandes projetos tem‑se uma avaliação centralizada, a ser desenvolvida por avaliadores externos, nos pequenos a localização do avaliador está no próprio projeto. 5.5 Avaliações em função dos destinatários da avaliação Cohen e Franco (2004, p. 117) indicam e elencam três destinatários que demandam informações diferenciadas: • os dirigentes superiores: são os responsáveis pela definição das políticas e pelo estabelecimento das prioridades entre os projetos segundo os objetivos da instituição; • os administradores: são os responsáveis pela distribuição/repasse dos recursos para a concretização dos objetivos estabelecidos; • os técnicos: são os responsáveis pela execução do projeto e centram‑se em aspectos operativos. Com relação ao mesmo critério, ou seja, a avaliação em função dos destinatários, Browne e Wildavsky, citados por Silva e Silva (2001), entendem que a avaliação pode centrar‑se em um determinado foco ou apresentar‑se como avaliação de múltipla perspectiva. Com isso, variaria seu foco conforme o usuário dos resultados da avaliação, destacando os executores, os financiadores e outros. Windows Realce 99 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL 5.6 Outros enfoques Além das avaliações em função da escala ou dimensão dos projetos e das avaliações em função dos destinatários, existem outros enfoques possíveis de serem aplicados aos processos avaliativos. Tais enfoques, embora não sejam tão expressivos, também não são menos importantes. Nesse sentido, é necessário, a título de conhecimento, apresentar alguns desses enfoques. 5.6.1 Critério do conteúdo ou objeto da avaliação Silva e Silva (2001) nos informa que Browne e Wildavsky são os autores que defendem essa tipologia. Eles elaboraram várias classificações para essas avaliações, as quais apresentaremos a seguir: • pseudoavaliação: serve para designar certas formas de avaliação para estudar processos e resultados que, na verdade, não avaliam devido à falsidade, distorção ou uso seletivo de informações. Trata‑se de estudos inócuos que não levam em conta questões relevantes sobre a política ou programa; • quase‑avaliação: tem foco limitado e tangencial. Direciona‑se a questões de mérito referentes ao processo ou aos resultados, ignorando as variáveis contextuais que afetam a implementação; • avaliação centrada nos objetivos: essa avaliação centra‑se nos objetivos formais previamente estabelecidos, focalizando nos resultados esperados; • avaliação compreensiva: combina avaliação de processos e impactos dos programas, relacionando‑os com os objetivos previamente especificados, mas procura identificar variáveis do processo e sua relação com os resultados; • avaliação inferencial: busca fatos esclarecedores da relação causa‑efeito. Dá ênfase à causalidade e aos valores; • avaliação livre: nessa avaliação, o avaliador busca os efeitos que são possíveis de encontrar no lugar dos efeitos alegados pelos objetivos; • avaliação multiobjetivo: é mais estruturada do que a avaliação livre e permite ao avaliador identificar variedades de resultados; • avaliação verdadeira: nesse tipo de avaliação são avaliados custos e benefícios de alternativas para determinar, entre várias políticas competitivas, qual alcançará os resultados com um custo razoável; • avaliação por decisão teórica: combina estudos orientados pelos financiadores com estudos orientados pelos usuários; Windows Realce Windows Realce 100 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II • meta‑avaliação: trata‑se da avaliação da avaliação. Visa ao refinamento do próprio processo da avaliação e pode ser conduzida durante ou após a primeira avaliação, podendo avaliar o desenho da pesquisa avaliativa, procedimentos e técnicas utilizadas e conclusões da avaliação, bem como comparar avaliações similares e questionar resultados. Lembrete Meta‑avaliação – avaliação de outra avaliação para determinar o mérito ou valor da própria avaliação (Worthen et al. 2004,p. 699). 5.6.2 Critério do mérito, razões ou justificativas A avaliação pode ainda ser classificada de acordo com o critério do mérito, razões ou justificativas. Browne e Wildavsky citados por Silva e Silva (2001) apresentam essa classificação, que se expressa pelos seguintes tipos: • avaliação centrada na utilização: envolve pessoas que assumem a responsabilidade de implementar os resultados da avaliação; • avaliação interativa: compartilhada entre avaliadores e pessoas de execução direta que irão definir questões e construirão o processo de avaliação; • avaliação exploratória: determina quando uma política está funcionando, identificando responsabilidades; • avaliação de aprendizagem: envolve todas as avaliações anteriormente citadas com a teoria de que assim pode‑se contribuir para a melhoria dos processos e programas. Concluímos chamando a atenção para o fato de que uma diferença que se pode observar nos diversos tipos de avaliação está nos resultados que cada uma pode oferecer e nas pessoas envolvidas em cada um dos processos avaliativos. 6 AVALIAÇÃO DE PROGRAMAS E PROJETOS 6.1 Metodologia de avaliação de programa e projetos 6.1.1 A definição de limites e análise do contexto da avaliação Worthen et al. (2004) defendem a ideia de que uma avaliação só é adequada quando coleta informações e as transmite a todos os seus públicos. Nesse contexto, o avaliador, ao se comunicar, deve descobrir pontos de vista e preocupações com o programa e com a próxima avaliação. Assim, a identificação do público é premissa para esta atividade, e a sua identificação deve ser considerada durante o estágio de planejamento do processo avaliativo. 101 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Os pontos de vista dos públicos da avaliação ajudam a focar e direcionar o estudo. “Se os avaliadores não dirigem claramente a avaliação para seus públicos desde o início, é improvável que os resultados tenham muito impacto”, garantem Worthen et al. (2004, p. 305). Uma segunda questão a ser considerada é a descrição do objeto do estudo avaliatório. Essa descrição estabelece os limites do que vai ser avaliado. De acordo com Worthen et al. (2004), a demarcação do objeto da avaliação poderia ser sistematizada com a resposta a algumas questões, tais como: que problema o programa se propôs solucionar? Quem participa do programa? O programa já foi avaliado antes? Nesse sentido, Worthen et al. (2004) garantem que as respostas às perguntas apresentadas podem ser obtidas de várias formas e por meio de diversas fontes. Eles sugerem três abordagens básicas de coleta de informações: • documentos descritivos: documentos de planejamento, propostas feitas a órgãos financiadores, relatórios, atas de reuniões etc; • entrevistas: sugere‑se o contato/diálogo com pessoas envolvidas com o planejamento, com a implementação do programa e com outras que o observaram em ação; • observações: muitas vezes, as observações evidenciam distorções entre a forma que o programa está operando e aquela que deveria estar funcionando, por isso sua importância. A definição do que deve ser avaliado, segundo Worthen et al. (2004, p. 310) “reduz as chances de que mais tarde o avaliador venha a ser acusado de avaliar a coisa errada”. O terceiro e último ponto a ser considerado é a análise de recursos e capacidades de uma avaliação. O avaliador deve reconhecer que seu objetivo é aumentar a produtividade e a qualidade do produto. Assim, a avaliação não pode ser operacionalizada como uma despesa extra, mas como uma forma de identificar “fatores de redução de custos e/ou aumento da eficiência do projeto” (HODGKINSON, HURST e LEVINE apud WORTHEN et al., 2004, p. 316). 6.1.2 A identificação de perguntas e critérios de avaliação As reflexões de Worthen et al. (2004) ajudam‑nos a compreender a respeito de perguntas avaliatórias, os critérios e os padrões de avaliação. Para eles, as perguntas avaliatórias dão direção e base de sustentação à avaliação, sem as quais a avaliação não teria foco e o avaliador teria dificuldades para explicar o que, como e por que seria examinado, além dos critérios a serem utilizados para definir as características de um programa ou uma implementação bem‑sucedida. Porém, o projeto ou avaliação não estará completo sem a especificação de padrões, os quais designam o nível que o desempenho do programa deve atingir em relação a esses critérios para ser considerado um sucesso. 102 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Worthen et al. (2004) enfatizam que, dessa forma, as perguntas avaliatórias articulam o foco do estudo, mas, sem os padrões, o avaliador não tem condições de julgar os resultados e sem os critérios, ele não terá condições de julgar o programa em si. Para eles, o processo de identificação e definição das perguntas e dos critérios a serem utilizados em uma avaliação exigem reflexão e investigação cuidadosa. Saiba mais Blaine R. Worthen é professor e diretor de Metodologia de Pesquisa e Avaliação do Departamento de Psicologia da Utah State University e diretor do Western Institute for Reserarch and Evolution. É autor e coautor de vários livros sobre o tema avaliação. Sugiro a leitura da obra: WORTHEN, B. R. Avaliações de programas: concepções e práticas. São Paulo: Gente, 2004. A operacionalização deste processo, segundo Cronbach citado por Worthen et al. (2004, p. 342), apresenta duas fases: Fase divergente: momento de se criar um leque de perguntas relevantes. Fase convergente: momento em que os avaliadores selecionam, entre o leque de perguntas, as mais críticas a serem tratadas. Após esta seleção, são estabelecidos os critérios. 6.1.3 O planejamento e a condução de uma avaliação Para Stuffebean, citado por Worthen et al. (2004, p. 374), a compreensão do foco da avaliação (o que vai ser avaliado, por que a avaliação foi proposta, que grupos compõem o público da avaliação etc.), representa apenas uma etapa na criação de um plano de avaliação. Nesse sentido, o referido autor apresenta uma estrutura com seis atividades/funções integrantes desta operação: a) flexibilidade; b) agilidade; c) eficiência; d) eficácia; e) relevância; f) produtividade. Windows Realce 103 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Essa estrutura, que nos permite refletir sobre a complexidade e a amplitude da construção de um plano de avaliação, tem início com o estabelecimento do foco da avaliação e é seguida pelo estágio de coleta de informações (no qual se deve estar atento à fonte de informações, que podem ser os destinatários do programa, implementadores, pessoas que conhecem os destinatários, administradores ou dados e documentos existentes). Nesse sentido, um plano de gestão é essencial para ajudar a supervisionar o projeto. Segundo Worthen et al. (2004), um bom plano de gestão deve conter: as tarefas a serem realizadas e os prazos de cada uma; a equipe e os outros recursos necessários para completar a tarefa; e o custo de todo o processo. 6.1.4 Aspectos políticos, éticos e interpessoais da avaliação Não sendo a avaliação uma atividade meramente metodológica e técnica, esta costuma ser eclipsada por influências interpessoais, éticas e políticas que modelam o trabalho do avaliador. Acerca dessas considerações, Worthen et al. (2004), propõem algumas recomendações que evidenciam a importância da comunicação no processo avaliatório, conforme veremos a seguir: 1. é interessante preparar os participantes a respeito da finalidade e benefícios da avaliação; 2. procure estimular e/ou incentivar a participação detodos; 3. proponha prazos adequados para a realização da avaliação. Se possível, definir o prazo/atividades coletivamente; 4. incentive a participação externa; 5. alimente um espírito de negociação e concessões mútuas em lugar de ações unilaterais; 6. delegue responsabilidades; 7. organize grupos de discussão, bate‑papos e reuniões para a publicação das informações; 8. respeite os direitos dos indivíduos. Para Worthen et al. (2004), seguir as recomendações apresentadas pode proporcionar muitos benefícios ao estudo, na medida em que tornam as informações avaliatórias mais precisas. Ele considera ainda que o sistema de valores e crenças de um avaliador pode exercer influência sobre a avaliação. Isto é, da mesma maneira que outros estudiosos, Worthen et al. (2004, p. 432) também destacam que as crenças e os valores do avaliador podem tornar‑se problemáticas no processo de avaliação. Toda avaliação é um reflexo das crenças pessoais do avaliador, bem como um complexo de inter‑relações pessoais, financeiras e organizacionais do Windows Realce 104 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II avaliador com inúmeros outros sujeitos do contexto do estudo. [...] Os valores e as crenças do avaliador se misturam em todos os passos da avaliação, nas decisões sobre o tipo de informação a ser coletado, sobre a forma dessa coleta, sobre as melhores análises e sobre a forma de apresentá‑las. Nessa perspectiva, Lincoln e Guba, citados por Worthen et al. (2004, p. 433), sugerem algumas estratégias para a redução do etnocentrismo do avaliador, tais como: 1. A manutenção de diários reflexivos; 2. Interrogatórios dos colegas após o término de cada tarefa; 3. Uma espécie de auditoria; Sob o ponto de vista ético, House, citado por Worthen et al. (2004, p. 442), menciona que: Em primeiro lugar, eles exercem poderes sobre as pessoas que podem lesar a autoestima, manchar reputações e truncar carreiras [...] Em segundo lugar, os avaliadores estabelecem relações nas quais eles próprios ficam vulneráveis a pessoas que podem lhes garantir trabalho no futuro. [...] Além disso, os avaliadores vêm das mesmas classes sociais e dos mesmos ambientes educacionais que aqueles que financiam as avaliações e administram os programas. Esses fatores multiplicam os riscos éticos. E, em uma última perspectiva, temos a influência e/ou pressão política exercida sobre os avaliadores e sobre as avaliações. Na verdade, Worthen et al. (2004) garantem que é responsabilidade do avaliador providenciar para que as forças políticas não consigam subverter um estudo de avaliação. Para esse confronto, sem a pretensão de propor saídas ou resultados mágicos, Brickell, citado por Worthen et al. (2004, p. 458), formula sugestões para este enfrentamento: 1. procure entender como o cliente pensa; 2. tranquilize o cliente dizendo‑lhe que apontará sugestões úteis frente a cada descoberta/problema; 3. descubra o que as pessoas que tomam decisões utilizarão realmente como critérios para julgar o êxito do projeto; 4. procure introduzir um mecanismo de supervisão no contrato de avaliação; 5. escreva o relatório com muito cuidado, revisando‑o antes de apresentá‑lo ao cliente. 105 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Com essas medidas, Brickell, citado por Worthen et al. (2004, p. 458), reforça que o avaliador não estará protegido das influências políticas, mas eles poderão ajudá‑lo no enfrentamento das questões e tensões com o cliente. 6.1.5 Coleta, análise e interpretação de informações quantitativas e qualitativas De acordo com Worthen et al. (2004, p. 468), a coleta de dados é fundamental para a avaliação e os métodos que os avaliadores usam para coletar informações. Para eles, é algo que precisa ser definido considerando custo, precisão, estabilidade, relevância, viabilidade, conveniência política e aceitabilidade por parte dos vários públicos. Em linhas gerais, sabe‑se que nenhum método, ou abordagem, isolado, é sempre apropriado. Nesse momento, analisaremos objetivamente os métodos quantitativos e qualitativos. Para Worthen et al. (2004), os métodos quantitativos são muito utilizados na coleta de informações e podem ser necessários para a realização de uma avaliação, os quais serão apresentados a seguir. I. Testes – Desdobra‑se em quatro abordagens: • testes pautados por normas; • testes pautados por objetivos; • testes pautados por critérios; • testes pautados pelo domínio. II. Questionários III. Entrevistas individuais, em grupo e entrevistas domiciliares No método qualitativo, Worthen et al. (2004) apresentam a seguinte relação de abordagens: 1. estudo de caso: proposta de coleta de dados, utiliza múltiplos métodos, muitas vezes qualitativos, para apresentar um entendimento completo do programa, caso ou unidade de interesse; 2. documentos: incluem‑se anotações pessoais ou profissionais que não foram preparadas especificamente para a pesquisa ou a investigação; 3. arquivos: são documentos oficiais ou resumos de dados; 4. observação: depende menos de instrumentos e mais do avaliador ou observador; 5. visitas ao local: uma categoria especial de métodos de observação, muito utilizada em credenciamento e auditoria; 106 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II 6. entrevistas: são úteis quando a finalidade da coleta de dados estiver pouco clara, requerendo mais tempo que os questionários; 7. grupos focais: método de entrevista em grupo destinado a obter informações que resultam da interatividade orientada dos membros do grupo; 8. análise de conteúdos: pode adotar uma abordagem quantitativa ou qualitativa, é utilizada para analisar, descrever ou resumir tendências em documentos escritos. 6.1.6 A apresentação do relatório da avaliação Para concluir esse tema, oferecemos informações sobre a apresentação do relatório de avaliação que, segundo Worthen et al. (2004), tem muitas finalidades (prestação de contas, convencimento, educação, documentação etc.), mas um ponto comum a todos eles é transmitir a mensagem, ou seja, informar ao público‑alvo sobre as descobertas e conclusões resultantes das atividades. Para ele, um primeiro aspecto que se projeta é a finalidade do relatório, que está diretamente ligada ao uso que se pretende fazer da avaliação. Um segundo aspecto, é a identificação de públicos dos relatórios e a adaptação dos relatórios a esse(s) público(s). E a definição das datas de entrega dos relatórios, seria o terceiro aspecto, considerada a variação de finalidades e os públicos dos relatórios. 6.1.7 Aspectos metodológicos da avaliação Para Silva e Silva (2001, p. 64) algumas questões são relevantes na concepção de metodologia para a avaliação de políticas e programas sociais. De acordo com essa autora, a concepção de metodologia vai além de um conjunto de procedimentos e técnicas, [...] constituindo um corpo teórico de explicação da própria avaliação e de seu projeto; da compreensão de método como todo raciocínio empregado para aceitar ou rechaçar um fato como verdadeiro e técnica como instrumento utilizado para coletar dados ou para analisá‑los. A autora supracitada argumenta que é a partir dessa referência que são considerados o processo, os sujeitos e os modelos utilizados na avaliação das políticas e programas sociais, bem como os métodos e técnicas usuais. Reconhecendo a avaliação como um momento do processo das políticas públicas, (podendo ocorrer antes, durante ou após a sua implementação), a autora Silva e Silva (2001) destaca seis momentos importantes para esse processo: • atividades preliminares ou preparatórias;107 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL • plano da pesquisa de avaliação; • implementação da avaliação; • processamento, análise e síntese dos dados e informações; • elaboração e discussão do relatório; • aplicação dos resultados. As atividades preliminares compreenderiam a definição de questões essenciais à continuidade da avaliação. Nesse contexto se destacaria a negociação entre os que encomendam a avaliação e a equipe que a desenvolverá. Para Silva e Silva (2001, p. 65), [...] esse momento preliminar se desenvolve a partir de um procedimento de aproximações sucessivas e negociações entre as partes envolvidas marcadas por interesses, [...], devendo chegar a consenso [...]. Definidos esses aspectos, a equipe técnica deve encaminhar [...] o levantamento de respostas a questões consideradas essenciais para permitir o planejamento da pesquisa avaliativa. A elaboração do plano da pesquisa avaliativa, segundo Silva e Silva (2001, p. 66), refere‑se à definição dos passos para orientar o estudo avaliativo. Para essa autora, a elaboração desse plano envolve a definição: de um marco referencial; do universo do programa a ser considerado na avaliação; de objetivos e metas; da amostragem; do plano de análises das informações levantadas. Além do levantamento de avaliações ou estudos anteriores sobre o programa; da delimitação do objeto da avaliação, da seleção da estratégia metodológica e da determinação das formas e dos passos a serem seguidos no processamento das informações. Assim, Silva e Silva (2001, p. 67) afirma que “o produto do planejamento da avaliação é o projeto que orientará todo o estudo”. No entendimento da referida autora, a implementação da avaliação ou trabalho de campo consiste em adentrar na realidade para levantamento de dados e informações. Para Silva e Silva (2001, p. 68) “trata‑se de um momento muito peculiar a cada experiência, dependendo, por exemplo, do porte do programa, do estudo avaliativo que se pretende desenvolver”. Conforme Silva e Silva (2001), o processamento, análise e síntese dos dados e informações expressam o momento de elaboração dos dados e informações, que são ordenados, classificados e agrupados. Para ela, o processamento de dados e informações inclui atividades como categorização de respostas, tabulação de dados e informações e a elaboração de quadros e de gráficos. O processamento é seguido pela análise (que significa a decomposição de um todo em suas partes constitutivas) e pela síntese (que é a operação contrária, ou seja, explora‑se a relação entre as partes e reconstrói‑se a totalidade inicial). 108 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Ainda nesse contexto, a elaboração e discussão do relatório não devem ser entendidas como uma formalidade, mas como outro momento relevante do processo. Acerca disso, Silva e Silva (2001, p. 69) lembra‑nos de que é importante que os resultados sejam apresentados de modo ordenado e claro, com uma estrutura que contemple, ao menos, uma introdução (com o referencial teórico, com o objeto da avaliação, com os objetivos, com a indicação do método, procedimentos); um desenvolvimento (com uma síntese dos resultados do estudo) e uma seção final conclusiva e com recomendações sobre a educabilidade dos resultados. E, por fim, a aplicação dos resultados da avaliação, destacado por Silva e Silva (2001) como ponto central do processo. 6.1.8 Sobre métodos e técnicas Segundo Silva e Silva (2001, p. 72), a avaliação de políticas e programas utiliza‑se de métodos e técnicas da pesquisa social e, nessa abordagem, destacam‑se: a) a identificação de problemas e controvérsias no campo da avaliação: a literatura sobre avaliação de políticas e programas sociais aponta vários problemas e controvérsias, tais como: o confronto entre os paradigmas qualitativo e quantitativo (quadro 5); a controvérsia metodológica, no que se refere à medição, diretamente relacionada à utilização do método quantitativo; a controvérsia no que se refere ao processo de implementação do programa; a posição subalterna ocupada pela pesquisa avaliativa; a falta de legitimidade da avaliação; a falta de classificação das funções dos sujeitos na avaliação; a resistência à avaliação e a pouca utilização dos resultados; Quadro 5 – Confronto entre o paradigma quantitativo e qualitativo Paradigma quantitativo Paradigma qualitativo – Desenvolvido do paradigma da ciência experimental (laboratório), tendo como pressuposto o entendimento de que é possível conhecer o mundo (pelo menos teoricamente). – As coisas do mundo são de natureza estável, podendo ser separadas em partes para estudo fora do contexto original. – Desenvolvido do paradigma das ciências sociais, tendo como pressuposto o entendimento de que o mundo só pode ser entendido pela investigação racional, parcialmente, ou seja, o conhecimento é inconcluso, dinâmico e sempre relativo. – A natureza intrínseca das partes é determinada pelo seu ambiente, não podendo dele ser isoladas. Admite que as características fundamentais do mundo possam ser reproduzidas pelo investigador e fatos de interesse podem ser introduzidos e retirados voluntariamente de modo que os efeitos possam ser observados. Mudança é uma condição constante, o que faz com que o paradigma qualitativo veja as mudanças importantes não no seu grau, mas no tipo, na natureza, ou seja, a preocupação é com a mudança no estado. Parte da construção prévia de hipóteses sobre resultados esperados. Não admite a construção prévia de hipóteses sobre relação de variáveis, observando os resultados no seu ambiente natural. Os resultados da investigação são expressos em números. Trata de mudança qualitativa que não pode ser reduzida a números. Admite que as conclusões da investigação possam ser generalizadas para o mundo real. Não se preocupa com generalização nem com aplicações além do campo original da descoberta: se o contexto é diferente, processos e formas são diferentes. 109 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL O laboratório ou quase laboratório reproduz as condições do mundo real, numa tentativa de restringi‑lo para produzir as condições de laboratório (intervenção). Preocupação com a descrição e observação direta no contexto natural, produzindo interpretações múltiplas do sentido das ações e eventos. Capacidade para autocorreção: permite resultados contrários aos esperados se a hipótese estiver correta. Preocupação em descrever processo e não em estabelecer relação causal, buscando padrões e tendências entre os relatos obtidos. Toda crença é sujeita à verificação (pelos dados) e, como a verificação não tem final, toda crença é sujeita à revisão. O importante é descobrir singularidade e não generalidade. Admite controle sobre o fenômeno objeto de estudo. A realidade não pode ser controlada. Preocupa‑se com a medição e resultados numéricos, com previsões antecipadas (hipóteses) e com contestação de resultados como medida de controle. Preocupa‑se com o todo mais do com as partes. Trabalha com amostra probabilística aleatória para permitir generalização de resultados. Prefere amostras por categorias para assegurar informações importantes. Fonte: Silva e Silva (2001, p. 73). b) os métodos e modelos na avaliação: nesta perspectiva, Figueiredo e Figueiredo, citados por Silva e Silva (2001, p. 77), apontam dois grupos de políticas a serem avaliadas: políticas com propósitos de produção de bens e serviços, cujos objetivos se limitem à distribuição destes, e políticas com o propósito de mudançae avaliação de impactos; c) os métodos e técnicas usuais na avaliação de políticas e programas sociais: em mais evidência estão a avaliação política da política, a avaliação de processo e a avaliação de impactos (quadro a seguir). Quadro 6 – Métodos e técnicas usuais na avaliação de políticas e programas sociais Dimensão Avaliação de processo Avaliação de impactos Concepção É um procedimento de verificação e correção do funcionamento de um programa. É uma medida de desempenho da ação de um programa (desempenho físico, tangível, mensurável: alteração de índices; desempenho subjetivo: mudança de atitudes, comportamentos, opiniões). Objeto Aferição da adequação entre meios e fins, observando o contexto organizacional, institucional, social, econômico e político onde se desenvolve a implementação de um programa. Estudo do efeito ou resultado de um programa, determinando se houve mudança, magnitude da mudança, segmentos afetados pela mudança e em que medida cada um dos componentes atendidos pelo programa contribuiu para o alcance dos objetivos. Objetivos ‑ Aferir eficiência e eficácia de um programa, oferecendo descrição adequada dos serviços e verificando se a população‑alvo está sendo atingida. Corrigir o curso de ações durante a implementação, visando sua reorientação em função dos objetivos do programa. ‑ Permitir a escolha racional entre alternativas que aumentam a eficiência do programa. ‑ Oportunizar melhor alocação de recursos, permitindo aos administradores a otimização da relação insumo/ produto, e aos técnicos, o conhecimento dos aspectos operativos utilizados na implementação do programa. ‑ Medir o resultado dos efeitos de uma política. Servir de medida de desempenho da ação pública. ‑ Estabelecer relação de causalidade entre a política e as alterações das condições sociais. 110 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Momento Realiza‑se durante a implementação do programa, olhando para frente, para correções ou adequações. Realiza‑se durante ou depois da implementação do programa, olhando para trás para verificar se obteve ou não os resultados previstos, identificando as causas. Horizonte Efetua decisões cotidianas, operativas. Dirige‑se para fora, para além do programa para tomar decisões sobre a política. Usuário Administradores e executores do programa. Tomadores públicos de decisão. Fonte: Silva e Silva (2001, p. 83). Para concluir, é importante considerar que não são apenas os programas e projetos que demandam um procedimento metodológico que está presente desde o início das reflexões referentes à implantação de programas ou projetos, também a avaliação exige um planejamento metodológico de todas as suas etapas, sem o qual corre‑se o risco de não se chegar a resultados satisfatórios. 6.2 Avaliação de programas e projetos: alguns elementos fundamentais 6.2.1 Os objetivos Estabelecer os objetivos de um projeto é responder à pergunta: para que se faz? Para Ander‑Egg e Idáñez (1997, p. 38), “trata‑se de indicar o destino do projeto ou os efeitos que se pretende alcançar com a sua realização”. Observa‑se, portanto, que essa operação se expressa como elemento fundamental. Os objetivos de um projeto (quando da sua elaboração) podem ser divididos entre geral ou principal e específicos. O objetivo geral representa o propósito central do projeto. E os objetivos específicos (complementares ou imediatos), são desdobramentos ou derivações do objetivo geral. (A relação entre os objetivos pode ser observada na figura a seguir). Objetivos EspecíficosObjetivo Geral Figura 4 – Relação entre os objetivos de um projeto Observa‑se que o objetivo geral deixa claro a partir de que perspectiva o projeto se desenvolverá, expressando o impacto mais geral do referido projeto. Isto é, o objetivo geral expressa o impacto que as mudanças produtivas terão. Já os objetivos específicos representam a referência central para o dimensionamento do êxito ou fracasso do projeto. Windows Realce 111 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Observação Um exemplo de objetivo geral – Projeto Travessia: Contribuir para a melhoria das condições de vida da sociedade do município de Capela, fazendo parte do programa de desenvolvimento da cidadania. Um exemplo de objetivo específico – Projeto Travessia: Criar as condições para crianças e adolescentes do município de Capela para que deixem de viver e trabalhar nas ruas, contribuindo para o desenvolvimento de um (novo) projeto de vida. Baseado nos seus direitos de cidadania estabelecidos no Estatuto da Criança e do Adolescente (ARMANI, 2006, p. 50). 6.2.2 As metas Enquanto os objetivos (geral e específicos) expressam os propósitos que um projeto deseja alcançar, as metas operacionalizam os objetivos, estabelecendo quanto, quando e onde estes se realizarão. Segundo Ander‑Egg e Idáñez (1997, p. 40), esse procedimento permite que as atividades e as ações correspondentes sejam claramente estabelecidas, facilitando a determinação do nível e dos insumos (recursos) necessários e, ainda, afirmam que: [...] não devemos esquecer nunca que é muito mais fácil formular objetivos ideais, abstratos e maravilhosos, e encontrar, graças a isso, seguidores entusiastas, do que estabelecer passos precisos para resolver problemas concretos. Para que os objetivos adquiram um caráter operativo, há que se traduzi‑los em ganhos específicos, quer dizer, há que indicar quanto se quer obter com a realização do projeto, num prazo determinado e num âmbito ou espaço também delimitado. As metas, também chamadas de resultados, serão formuladas a partir de cada objetivo específico. A relação entre os objetivos específicos e as metas de um projeto pode ser observada na figura a seguir. 112 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Objetivos Específicos Metas Figura 5 – Relação entre objetivos específicos e metas de um projeto 6.2.3 As atividades Outro elemento importante no contexto de elaboração de projetos são as atividades. De acordo com Armani (2006, p. 51), as atividades são agrupamentos de ações concretas, de forma que um conjunto de ações deve ser realizado para viabilizar cada atividade. Para esse autor, a definição das atividades e ações é que se procederá ao cálculo dos custos do projeto e à definição do cronograma (financeiro, atividades etc.). Por conseguinte, verificamos que as atividades estão diretamente ligadas às metas, sendo que cada meta permite o estabelecimento de várias atividades. 6.2.4 Os indicadores Segundo Armani (2006, p. 58), indicadores são conceituados como [...] um instrumento de medição usado para indicar mudanças na realidade social que nos interessa. Ele é uma “régua” ou um padrão que nos ajuda a medir, avaliar ou demonstrar variações em alguma dimensão da realidade relevante para os objetivos de um determinado projeto. Os indicadores fornecem evidências concretas do andamento das atividades, do alcance dos resultados e da realização dos objetivos de um projeto. Para Armani (2006), no campo de projetos sociais, a utilização de indicadores é complexa. Ele argumenta que essa complexidade é porque, normalmente, as mudanças pretendidas são de relações sociais, culturais ou políticas, que tendem a ser bastante subjetivas e de variadas interpretações. Salienta, ainda, que, para expressar as mudanças pretendidas por um projeto, usam‑se conceitos como participação, cidadania, autoestima, empoderamento etc., o que, no seu entendimento, dificulta a mensuração, já que os conceitos não podem ser medidos diretamente. Windows Realce113 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Armani (2006) afirma que os indicadores são parâmetros objetivos e mensuráveis utilizados para operacionalizar conceitos. O autor ressalta ainda que eles são uma forma de captar fenômenos sociais que não temos condições de dimensionar diretamente. No processo de transformar conceitos em indicadores, Armani (2006, p. 59) sugere (ver quadro a seguir): 1. Identificar as dimensões do fenômeno em questão (variáveis); e 2. Criar as formas mais apropriadas para medir suas variações (indicadores), conforme esquema: Quadro 7 – Exemplo do uso de indicadores Conceito Variável Indicadores Participação Comunitária Envolvimento com a Gestão dos serviços sociais básicos Nível de Associativismo Número e tipo de organizações presentes na comunidade. Grau de autonomia das organizações (alto, médio e baixo). Índice de sindicalização dos trabalhadores empregados. Representação em Conselhos Municipais Adaptado de: Armani (2006, p. 60). No quadro, verificamos que, tendo como conceito do projeto a participação comunitária, estabeleceram‑se algumas variáveis, que se desdobraram em parâmetros objetivos mensuráveis (indicadores). 6.2.5 Elementos em ação Como combinado no início da nossa explanação, após apresentarmos separadamente os elementos, objetivos, metas, atividades e indicadores, iremos objetivamente apresentá‑los em ação, tentando demonstrar sua operacionalização e interdependência. Nesse prisma, observando a figura a seguir, verificamos que o objetivo geral (OG) representa o objetivo superior que o projeto pretende atingir. Este se desdobra e/ou desmembra em objetivos específicos (OE). A esse respeito, Ander‑Egg e Idáñez (1997, p. 39) afirmam que [...] a boa formulação do objetivo principal e dos objetivos específicos (se isso for necessário), é garantia (não absoluta), para elaborar um bom projeto, visto que à volta do ou dos objetivos, se dá coerência ao conjunto das atividades que compõem o projeto, custos, estratégias, tempos etc. 114 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II OG OE 1 OE 2 M 1 I 1 M 2 I 2 M 3 I 3 Objetivos Específicos Metas (Derivadas do OE1) Indicadores (medem a M2) Figura 6 – Relação entre elementos importantes para a avaliação Nota‑se que cada objetivo específico (OE) apresentado pode gerar uma meta (M), que, segundo Armani (2006, p. 50), diz respeito à proposição de produtos e/ou situações concretas e tangíveis a serem produzidas pelo projeto, com base na realização das atividades (e ações). Com isso, as atividades emergem de cada meta proposta e darão margem para a criação das ações. Paralelamente a esse movimento, apresentam‑se os indicadores, que são utilizados na mensuração de resultados. Os indicadores (I) são estabelecidos e pautados em cada meta (M) proposta. Finalizando essa contextualização, cabe mencionar a existência de dois tipos de indicadores: • quantitativos: expressam variação quantificáveis (número de pessoas, percentuais etc.); • qualitativos: expressam variáveis que não podem ser demonstradas apenas com números (autoestima, valores, atitudes etc.). O uso desses indicadores se determina em função dos objetivos propostos pelo projeto. 6.2.6 Análise de custo‑eficácia (ACE) A análise de custo‑eficácia, também denominada como custo‑efetividade, é um procedimento que procura, junto com a análise de custo‑benefício, maximizar a eficiência na consecução dos objetivos de um programa ou projeto. A diferença básica entre elas é que no caso da análise custo‑eficácia, os resultados não são expressos em unidades monetárias. Nessa perspectiva, Cohen e Franco (2004, p.186), definem a análise de custo‑eficácia como “uma técnica analítica que compara os custos de um projeto com os benefícios resultantes, não estando expressos na mesma unidade de medida”. A eficácia de um produto está relacionada ao alcance de seus objetivos. A eficácia deve ser medida na relação estabelecida entre os meios e os fins, isto é, o quanto o projeto — em sua execução — foi capaz de alcançar os objetivos e as metas propostas e o quanto ele foi capaz de cumprir os resultados previstos (BRANT DE CARVALHO, 2001, p. 72). 115 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Já a efetividade, tem relação com o atendimento das reais demandas sociais. A efetividade é, portanto, medida pela quantidade de mudanças significativas e duradouras na qualidade de vida ou desenvolvimento do público beneficiário da ação que o projeto ou política é capaz de produzir (BRANT DE CARVALHO, 2001, p. 72). Aguilar e Ander‑Egg (1994) classificam a análise de custo‑eficácia como a mais indicada ou aplicável em programas sociais. Os referidos autores destacam que, como na análise de custo‑eficácia, os custos são expressos em dinheiro, mas os efeitos são expressos em unidades de resultados ou objetivo quantificáveis, seu emprego costuma ser mais frequente e útil. Na tentativa de ilustrar essa diferença, apresenta‑se a figura a seguir: Custos Insumos Produtos Resultados Benefícios Análise de Custo‑ Efetividade Análise de Custo‑ Benefício Figura 7 – Diferenças entre custo‑efetividade e custo‑benefício A definição de custo‑eficácia apresentada por Cohen e Franco (2004), permite outra consideração: os custos do projeto devem incluir todos os recursos demandados ao longo de sua duração, ou seja, devem‑se incluir os custos de investimento (construções, por exemplo) e os custos de operação (gastos operacionais e de manutenção). Uma das dimensões centrais da análise de custo‑eficiência é a identificação de alternativas, nas versões ex‑ante ou ex‑post. No contexto dos projetos sociais, nota‑se um destaque da avaliação ex‑post em detrimento da avaliação ex‑ante. Thompson e Fortess, citados por Cohen e Franco (2004, p. 154), confirmam que: [...] a ênfase tradicional na avaliação retrospectiva, em que o desempenho do programa é analisado depois de realizado, foi sutilmente deslocada em 116 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II direção à avaliação prospectiva – avaliar as capacidades do programa antes de sua implementação. As ferramentas da avaliação prospectiva incluem a análise da decisão, a análise benefício‑custo e a análise custo‑efetividade. Nesse sentido, o quadro a seguir mostra uma comparação entre a análise custo‑eficiência ex‑post e a análise custo‑eficiência ex‑ante, com os passos/etapas apresentados por Cohen e Franco (2004), para a sua operacionalização. Quadro 8 – Comparação entre análise custo‑eficiência ex‑ante e análise custo‑eficiência ex‑post Fase/Etapa Ex‑ante Ex‑post 1 Definição do problema. Identificação com precisão dosobjetivos do projeto. 2 Diagnóstico da situação. Traduzir os objetivos em dimensões operacionais e indicadores. 3 Alternativas de solução. Especificar as alternativas que serão avaliadas e medir os recursos afetados em valor monetário. 4 Seleção da melhor alternativa. Valorizar comparativamente as alternativas. 5 Elaboração do projeto definitivo. 6 Incertezas e análise de sensibilidades. Adaptado de: Cohen; Franco (2004). O princípio que deve reger a análise de custo‑efetividade é o mesmo da análise de custo‑benefício. Neste sentido, afirmam Aguilar e Ander‑Egg (1994, p. 188): “é preferível o programa que produz maior influência nas populações‑objetivo pelo mesmo gasto”. Por outro lado, finalizando essa reflexão, é pertinente mencionar uma limitação e/ourestrição da análise de custo‑eficiência, que é a dificuldade ou impossibilidade de comparar projetos com objetivos diferentes. Reynolds e Gaspar, citados por Cohen e Franco (2004, p. 156) reiteram que: [...] uma das restrições da ACE é que não podem ser feitas generalizações mecânicas de seus resultados, deve‑se ter sempre presente o problema das economias e deseconomias de escala que são o resultado da expansão dos projetos. Com isso, Cohen e Franco (2004) enriquecem nossa análise quando citam duas situações. Primeiro, ao tentar comparar dois programas, um com o objetivo de reduzir a desnutrição e outro com o objetivo de reduzir a malária, é possível, segundo os autores, “compará‑los tomando a probabilidade de invalidez e mortes que eles possam evitar”. O que já seria mais difícil e complicado ao tentar comparar um programa nutricional com um programa de autoconstrução para grupos de baixa renda, com objetivos claramente distintos. Nessa situação, consideram os autores, a prioridade deveria existir em função da ordem de satisfação das necessidades. 117 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL 6.2.7 Análise de custo‑utilidade (ACU) Segundo Aguilar e Ander‑Egg (1994, p. 172), a análise de custo‑utilidade compara e avalia a relação existente entre custos (expressos em unidades monetárias) e resultados. Para Pineault e Daveluy, citado por Aguilar e Ander‑Egg (1994, p. 189), a análise de custo‑utilidade é um procedimento útil para se tomar decisões quando se tem em foco vários programas ou projetos alternativos, justamente por comparar o valor monetário dos insumos “com o valor real dos efeitos nos indivíduos aos quais o programa afetou ou afetará, expresso por meio de medidas subjetivas”. Para a realização da análise de custo‑utilidade, Aguilar e Ander‑Egg (1994, p. 190) propõem o cumprimento de alguns passos. São eles: 1. definição do objetivo da análise; 2. identificação das pessoas que têm interesse na avaliação; 3. determinação de dimensões de valor para as utilidades; 4. ponderamento dos atributos e valores; 5. estabelecimento de medidas objetivas; 6. cálculo de utilidades; 7. análise de sensibilidades (conforme podemos verificar no quadro a seguir). Quadro 9 – Passos para a realização da análise de custo‑utilidade Passo Categoria Observação 1 Definir o objetivo da análise. Comparar várias alternativas de intervenção a custos e resultados parecidos ou semelhantes. 2 Identificar as pessoas que têm um interesse legítimo na avaliação. Podem ser: os afetados diretos, o pessoal do programa, a comunidade etc. 3 Determinar as dimensões de valorpara as utilidades (atributos). A determinação ocorrerá entre as pessoas ou representantes das partes identificadas no passo dois. 4 Ponderar os atributos e valores. Com a comparação de razões que deverão ser traduzidas em uma escala. 5 Estabelecer medidas objetivas. Em relação a cada uma das dimensões, unificando as escalas. 6 Calcular as utilidades. Deve‑se multiplicar e somar os resultados para cada uma das alternativas a escolher. 7 Analisar a sensibilidade. Indicada para resolver o problema da subjetividade. Fonte: Aguilar; Ander‑Egg (1994, p. 190‑191). Windows Realce Windows Realce Windows Realce 118 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Finalizando, cabe ressaltar que Aguilar e Ander‑Egg (1994) advertem sobre a análise de custo‑utilidade. Para esses autores, é fundamental que estejamos atentos à limitação dessa abordagem. Isto é, ela só é viável quando existirem várias alternativas de programas ou projetos a escolher, e só é útil quando realizada antes (ex‑ante) do projeto. 6.3 Avaliação econômica de programas e projetos 6.3.1 Análise de custo‑benefício (ACB) A análise de custo‑benefício baseia‑se em um princípio muito simples: ela consiste na comparação entre os benefícios e os custos de um programa ou projeto. Todavia, no campo social a sua aplicação é muito difícil. Segundo Aguilar e Ander‑Egg (1994, p. 173‑174), o procedimento de análise de custo‑benefício é utilizado para saber se o custo de oferecer determinado bem e/ou serviço é ou não rentável. A esse respeito, os autores supra citados ressaltam que: Com ele se mede basicamente a eficiência de um programa ou projeto, mediante a comparação dos recursos utilizados na implementação do mesmo e os benefícios obtidos. Trata‑se de uma análise destinada a encontrar a solução menos cara para alcançar um objetivo dado, ou para tirar o máximo de proveito de um dado gasto. A utilização e/ou aplicabilidade da análise custo‑benefício pode dar‑se nos três setores (primeiro, segundo ou terceiro setor) e, em qualquer um deles, a função é a mesma: conseguir o maior grau de eficiência e rentabilidade. No entanto, os autores advertem que nem sempre um projeto pode ser avaliado em termos de eficiência ou rentabilidade. Em suas reflexões sobre o assunto, os referidos autores mencionam ainda que esse procedimento de avaliação pode ser aplicado: 1. antes de se realizar o projeto; 2. durante o desenvolvimento do projeto; 3. uma vez realizado o projeto. Observação Eficiência: a eficiência de um projeto “verifica e analisa a relação entre a aplicação de recursos e os benefícios derivados de seus resultados. Ou seja, a obtenção de ‘custo’ mínimo para o maior número e qualidade de benefícios” (BRANT DE CARVALHO, 2001, p. 73). 119 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL A realização desse procedimento de avaliação pode ser aplicada, como já foi mencionado anteriormente, em três momentos distintos. Sua aplicação de forma prospectiva, isto é, antes de se realizar o projeto, é denominado de ex‑ante. A sua utilização, enquanto o projeto e/ou programa está se desenvolvendo, determinaria sua viabilidade de continuar. E, de forma retrospectiva, a realização da análise de custo‑benefício, uma vez concluído o projeto, representaria a avaliação ex‑post (AGUILAR; ANDER‑EGG,1994). Em qualquer uma das perspectivas referidas, Aguilar e Ander‑Egg (1994) afirmam que para tornar o procedimento factível, é necessário considerar alguns fatores. Nesse sentido, Rossi e Freeman citados por Aguilar e Ander‑Egg (1994, p. 175) assinalam que ótimos requisitos para realizar uma análise custo‑benefício ex‑post, seria saber que: • o programa deve ter fundos independentes ou separados; • o programa deve ter ultrapassado seu estágio de desenvolvimento, a fim de se ter certeza sobre a significação de seus efeitos líquidos; • deve‑se conhecer e poder estimar de forma válida a repercussão do programa e sua magnitude; • os benefícios poderão ser reduzidos a unidades monetárias; • os responsáveis pela tomada de decisões consideram a aplicação de programas alternativos, e não simplificam a questão só no sentido de continuar ou não um programa. Observação Benefício: diz respeito a resultados líquidos tangíveis e intangíveis. Custo: são os recursos necessários para implementação do programa e/ ou projeto. (AGUILAR; ANDER‑EGG, 1994, p. 176) Para a análise de custo‑benefício, do ponto de vista metodológico, Aguilar a Ander‑Egg (1994) propõem uma construção pautada nos seguintes momentos: a) explicitação do marco referencial: na análise de custo‑benefício, não se discute a questão referente aos valores, simplesmente pretende‑se verificar o custo do que foi, do que será ou do que está sendo feito. Todavia, sendo o parâmetro dessa análise axiológica, depende‑se do marco ideológico e político dos que realizam a avaliação. b) identificação das metas e objetivos do projeto: é condicionante à valoraçãodos benefícios em relação aos custos. Aguilar e Ander‑Egg (1994, p. 178), afirmam que seria um esforço pouco útil 120 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II “aplicar a análise de custo‑benefício, [...] se não forem estabelecidos claramente quais são os objetivos e como eles foram traduzidos em metas ou dimensões operacionais”; c) realização da análise custo‑benefício: nessa fase, propõe‑se a realização da comparação dos fluxos de benefícios e custos de implementação. Os autores Rossi e Freeman citados por Aguilar a Ander‑Egg (1994, p. 179), descrevem que, concretamente, os passos desta fase seriam: I. decidir a perspectiva que se adotará para calcular custos e benefícios; II. especificar, medir e valorar os custos e benefícios; III. ajustar os custos e benefícios a valores presentes (conforme quadro a seguir). Quadro 10 – Passos para a análise de custo‑benefício Passo Categoria Observação 1 Decidir a perspectiva que se adotará para calcular custos e benefícios. Resposta à pergunta: custos e benefícios para quem? 2 Especificar, medir e valorar os custos e benefícios. Realização de três tarefas: a) Identificar e medir custos e benefícios. b) Trasladar os custos e benefícios para unidades monetárias. c) Valorar custos e benefícios. 3 Ajustar os custos e benefícios a valores presentes. Resposta à pergunta: os benefícios futuros valerão quanto menos que aqueles derivados do presente? Fonte: Aguila; Ander‑Egg (1994, p.179‑183). Saiba mais Os autores Cohen e Franco (2004), afirmam que para comparar custos e benefícios deve‑se considerar todas as entradas e saídas de recursos do projeto: o valor relativo do dinheiro no tempo e a taxa de juros equivalente quando são comparadas magnitudes monetárias em momentos diferentes. Para saber mais sobre essa operação, que pode ser traduzida em diversas formas de cálculo, sugiro a leitura da obra: COHEN, E.; FRANCO, R. Avaliação de projetos sociais. Petrópolis: Vozes, 1993. 121 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Sendo utilizada desde a sua criação no campo privado e dos negócios, a aplicação da análise de custo‑benefício propôs‑se a avaliar os custos e benefícios a preços de mercado, sendo chamada por Aguilar e Ander‑Egg (1994) de “avaliação privada”. Todavia, no campo social, utilizando “preços sociais ou preços sombra”, com os quais se expressa o valor real que a sociedade atribui a um projeto, existe o que se chama “avaliação social”. 6.3.1.1 Avaliação privada e avaliação social Classificada por Cohen e Franco (2004), como premissa da análise de custo‑benefício, a avaliação privada e a avaliação social representam diferentes óticas para a realização da avaliação. Na perspectiva de Cohen e Franco (2004, p. 177) a avaliação privada é considera uma unidade econômica concreta onde os custos e os benefícios são valorizados como fenômenos de mercado. Para os autores, ela possui dois enfoques: [...] a avaliação econômica (sem financiamento), que assume que todo o projeto é realizado com capital próprio e, portanto, não leva em conta o problema financeiro; e a avaliação financeira, que diferencia o capital próprio do de terceiros e permite determinar a rentabilidade do primeiro. A avaliação social, na perspectiva de Aguilar e Ander‑Egg (1994, p. 184), “revela a disposição da sociedade a pagar bens e serviços que devem ser cobertos pelo projeto e cuja realização supõe um benefício para a comunidade em seu conjunto”. Para Cohen e Franco (2004, p. 178‑179), a avaliação social “pretende medir o impacto do projeto sobre o nível de bem‑estar socioeconômico do país”. Já que, em essência, a análise de projetos valoriza os benefícios e os custos de um projeto e os reduz a um padrão de medida comum, Squire e Van Der Tak citados por Cohen e Franco (2004, p. 179), afirmam que: [...] se os benefícios excedem aos custos, todos medidos com um padrão comum, o projeto é aceitável; caso contrário, o projeto deve ser rejeitado. [...], os custos e benefícios do projeto devem ser medidos por comparação com o quanto diminuem a possibilidade ou contribuem para o alcance dos objetivos dessa sociedade. Segundo Cohen e Franco (2004), existem dois elementos básicos da avaliação social de projetos que devem ser considerados devido à sua importância, conforme expressa a seguir: Por um lado, seu objetivo é maximizar a rentabilidade, incrementando assim o potencial do investimento futuro. Isso é imperativo quando as restrições para aumentar o investimento são insuperáveis. Por outro lado, dado que pretende o máximo de benefícios para a comunidade em seu conjunto e levando em conta também a elevada participação do governo no investimento, é de vital importância que este avalie sistematicamente os projetos, valorize os bens e serviços produzidos e os fatores ou insumos de um modo diferente do realizado pelo mercado (COHEN; FRANCO, 1993, p. 179‑180). 122 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 Unidade II Enfim, Weisbrod e Helming, citados por Aguilar E Ander‑Egg (1994, p. 185), mencionam que “não devemos esquecer que qualquer análise econômica custo‑benefício, não importa quão bem feita esteja, tem suas limitações, particularmente quando está envolvida em serviço humano complexo”. 6.3.2 Premissas importantes A avaliação de programas e projetos vem se tornando importante, e crescendo cada vez mais, nos últimos anos. Segundo Buvinich (1999), esse fato vem ocorrendo principalmente a partir da exigência de algumas agências que financiam iniciativas. Esta demanda, ainda refere o autor, que é um dos campos mais polêmicos na gestão social, é resultado de pelo menos três movimentos principais. São eles: • a redução do volume de recursos destinados à área social; • a crescente concorrência entre organizações do terceiro setor; • o aumento da participação, decorrente do processo de democratização, que possibilitou melhores condições de controle social. Mesmo com a existência de tantas exigências, nota‑se que um número significativo de entidades ainda não utiliza os processos de avaliação como meio estratégico para aperfeiçoamento de atuação social, e deixam de beneficiar‑se de todas as contribuições que essa prática traz à organização, entre as quais destacamos: 1. a compreensão, verificação ou aumento do impacto dos serviços e ações desenvolvidas pela organização; 2. o aperfeiçoamento de métodos empregados para aumentar a eficiência de ações e reduzir seus custos; 3. a facilitação da gestão do projeto ou programa; 4. a produção de informações que possam ser utilizadas junto à comunidade, aos financiadores e aos organismos públicos. Estudos revelam que em qualquer tipo de avaliação que se utilize, ou que se faça a opção por utilizar, é de fundamental importância que esta tenha sido objeto de um adequado planejamento. Nesse cenário é que se configura o Marco Lógico, o qual iremos abordar a seguir. 6.3.3 O marco lógico O marco lógico é um recurso para o planejamento e para a gestão de projetos que facilita o processo de avaliação. Para Penteado Filho (2008), sua utilização é ainda incipiente no Brasil, mas é muito utilizada por agências internacionais de financiamento (como Banco Mundial, Banco Interamericano de Desenvolvimento etc.). 123 SS OC - R ev isã o: R os e Ca st ilh o; C ris tin a Zo rd an F ra ra ci o - Di ag ra m aç ão : L uc as M an sin i - 0 5/ 12 /2 01 3 SUPERVISÃO DA FORMAÇÃO PROFISSIONAL Esse método foi desenvolvido na década de 1970 pela USAID (Agência dos Estados Unidos para o Desenvolvimento Internacional), com o intuito de
Compartilhar