Desafios de síntese na análise qualitativa

Na condução de avaliações qualitativas, frequentemente enfrentamos o desafio de síntese na análise, especialmente em avaliações de meio-termo, em avaliações de processos e em avaliações de resultados. Isso porque diferentemente de uma avaliação de impacto, por exemplo, esses estudos requerem um conhecimento mais detalhado do percurso do projeto, para que seja possível estabelecer relações entre as opções feitas durante a implementação e os resultados atingidos e, principalmente para poder interpretar esses resultados corretamente.

Em geral, são avaliações com grande quantidade de documentos e cujos TR exigem um número elevado entrevistas, objetivando que todos os perfis (gerentes, técnicos, beneficiários, etc.) e seus diferentes pontos de vista sejam contemplados. Assim, em se tratando de avaliações qualitativas, o desafio da análise está posto: volumes e volumes de documentos, horas e horas de entrevistas que deverão ser observados, descritos e analisados. Cabe ao avaliador tomar as decisões corretas, escolhendo bem quais dados utilizar em sua análise para que esse desafio gere bons resultados e não se tenha um trabalho excessivo cujo resultado não necessariamente corresponderá ao esforço empreendido.

“Quando você tenta localizar um sinal claro de estação de rádio através do ruído estático que preenche as vias aéreas entre os sinais, você está envolvido no processo de distinguir sinal de ruído. (…) Os dados são ruído, muito e muito ruído. Quanto mais dados, mais ruído. Big Data: ruído alto. A história que detecta, dá sentido, interpreta e explica padrões significativos nos dados é o sinal. Mas o sinal não é constante ou estático. Eles variam de acordo com o contexto e mudam com o tempo. Portanto, a busca para distinguir sinal de ruído é contínua.” (Tradução livre de Patton, 2015)

Assim, tendo experimentado algumas vezes o desafio de implementar avaliações desta natureza, separamos aqui algumas dicas que podem ajudar avaliadores a não caírem em armadilhas que comprometerão a eficiência e a qualidade da avaliação.

No que tange, aos documentos que serão analisados, combine com o contratante logo no início da avaliação:

  • Quais informações são relevantes e que devem ser repassadas à equipe de avaliação – é muito comum que os documentos sejam repassados em uma seleção prévia, acarretando em um desperdício de horas na análise de documentos irrelevantes para o próposito do estudo.
  • Como essas informações serão repassadas – o ideal é que uma pessoa fique responsável por selecionar e enviar os documentos.
  • O prazo para repasse de documentos e dados oficiais do projeto – sem isso, corre-se o risco de que informações-chave sejam enviadas após a fase de análise de documentos e coleta de informações em campo, o que certamente prejudicará a qualidade das análises.

O trabalho de campo, por sua vez, também pode fazer com que a análise e elaboração do relatório seja mais ou menos fácil para a equipe. A depender do número de entrevistados, da sua dispersão geográfica e do prazo para realização das entrevistas, poderá ser importante contar com uma equipe de entrevistadores, os quais não necessariamente se envolverão na elaboração do relatório. Se por um lado isso facilita a execução do trabalho, por outro, pode dificultar o trabalho de interpretação dos resultados e redação do relatório final. Portanto, é importante:

  • Oferecer treinamento prévio à equipe de campo, contemplando: informações sobre o projeto, sobre o perfil dos entrevistados e sua participação no projeto, eventuais armadilhas a serem evitadas, conhecimento sobre o roteiro de perguntas e o que dentro dele é mais importante, a fim de que o entrevistador possa ter autonomia em campo, sem deixar de fora questões cruciais para a avaliação.
  • Repassar aos entrevistadores o que deve ser entregue e como: áudio, transcrição ou sistematização das entrevistas.
  • Solicitar junto com a entrega (transcrição, sistematização, ou áudios das entrevistas) documento síntese que contemple as principais observações, achados e desafios enfrentados em campo.
  • Que após o campo a equipe de entrevistadores se reúna para discutir os achados de campo, antes do início da análise e elaboração do relatório.

O desafio maior reside, sem dúvidas, no trabalho de síntese e análise dessas informações, em saber distinguir entre o que é e o que não é relevante para o trabalho em curso.

Neste ponto, ainda que não existam regras e fórmulas há medidas que podem ser tomadas para facilitar este processo e, portanto, separamos algumas dicas retiradas e adaptadas do livro do Michael Quinn Patton (2015) e do Jonny Saldaña (2010), que consideramos abrangentes, úteis e que normalmente são esquecidas pelas equipes de avaliação.

Durante o campo Inicie a análise durante o trabalho de campo: ao final de cada entrevista, anote suas principais observações, as hipóteses explicativas e novas questões. Anote (e peça que a equipe de entrevistadores também o faça) os padrões que começarem a surgir, temas e relações entre eles e instrua os pesquisadores a testarem essas hipóteses, confirmando-as ou excluindo-as ainda em campo.

Identifique e preencha as lacunas: durante o trabalho de campo, certamente surgirão novas questões, muitas delas poderão ser respondidas em campo, outras dependerão de documentação complementar. Todas essas lacunas precisam ser preenchidas ainda na fase de coleta de dados, antes do início da análise.

No início da análise Não pule a etapa descritiva: ainda que seja tentador pular direto para a interpretação dos resultados, não pule a etapa descritiva dos achados.

Ainda que seja um trabalho detalhista de sistematização, uma boa interpretação, que explique esses achados, agregue significado aos resultados e detecte padrões só pode ser feita com um bom trabalho descritivo prévio.

Leia e releia os documentos descritivos: as hipóteses e padrões começarão a emergir!

Decida sobre o uso de softwares: softwares de análise qualitativa podem ser extremamente uteis, sobretudo se a análise passará por um processo de codificação. No entanto, assegure-se que todos possuem familiaridade e estão treinados no uso do software. Caso contrário, os prejuízos podem ser maiores do que os benefícios.

Tenha clareza sobre a estratégia de análise que será utilizada: a análise qualitativa pode seguir por diversos caminhos. Ter uma estratégia clara de análise e forma de reportar os resultados desde o início ajuda a fazer escolhas sobre que informação será considerada e como será utilizada.

Durante a análise Tenha claro o propósito do estudo e as perguntas de avaliação: Deixe sempre visíveis o propósito e as perguntas de avaliação. Isso ajuda a manter a análise na direção correta!

Tenha um diário de análise: Anote todas as decisões tomadas, deixe um registro sobre o processo analítico, as ideias emergentes, encruzilhadas, falsas hipóteses, becos sem saída, “insights”. Essa documentação ajudará a trazer rigor às suas análises e a fundamentar seus argumentos.

No trabalho de análise qualitativa certamente enfrentaremos os mais diversos desafios. No entanto, se conseguirmos ser extremamente organizados, perseverantes – especialmente se for trabalhar com codificação, que pode ser desafiadora e exaustiva – flexíveis e capazes de lidar com ambiguidades, criativos e absolutamente éticos, certamente poderemos aprender a cada avaliação um pouco mais sobre o processo de avaliação qualitativa, sobre nossos objetos de estudo e, especialmente mais sobre nós mesmos!

 

 

Referências:

Patton, M. Q. (2015). Qualitative evaluation and research methods (4th ed.). Thousand Oaks, CA, US: Sage Publications, Inc.

Saldaña, J. (2009). The coding manual for qualitative researchers. Thousand Oaks, CA,: Sage Publications Ltd.

 

De “até amanhãs” a um até breve

Hoje é 10 de julho. Há exatos quatro anos vivia meu primeiro dia de trabalho na Plan. No entanto, a 21 dias de completar o quarto aniversário de empresa, me despedi de todos com um “até breve” e não um “até amanhã”. Entre o momento de apagar as luzes do escritório até chegar ao térreo, um grande vazio de ideias. Ao primeiro passo para fora do edifício, uma infinidade de lembranças que eu não sabia até então ser possível virem à mente com tanta rapidez: desde a entrevista, as perguntas que me fizeram e ver a Camila grávida já quase dando à luz, até o último e-mail que enviei a um cliente. Quase  quatro anos de muito trabalho, de aprendizados, de oportunidades e quatro anos de ver uma empresa crescer. Este post iniciado tão emotivamente é para partilhar um pouco não só do que foi a minha jornada na Plan, mas do que foi a bela jornada da Plan nesses (quase) quatro anos.

Em julho de 2014 éramos seis: chefes Fabrizio e Camila, Ana Paula no administrativo, avaliadores (e meus mentores!) Veridiana Mansour e João Martinho… e eu no cargo de pesquisadora, recém-saída da faculdade. Até o final daquele ano ainda chegariam Rafaela e Liora para completar o time. E que time diverso! Versados nas ciências sociais, nas políticas e administração públicas, no direito, na economia e nas relações internacionais. Hoje olho para os profissionais que fizeram e fazem a Plan e enxergo habilidades e conhecimentos que se complementam, profissionais comprometidos e atentos a detalhes, empenhados em sempre buscar o melhor, em sempre apresentar algo a mais, em sempre se superarem. Enfim, sempre prontos a enfrentarem os grandes desafios nas pesquisas que realizamos. E quantos desafios!

A diversidade de temas dos projetos com que trabalhamos naquele meu primeiro ano acompanhava a diversidade da qualificação dos profissionais e tal diversidade era início do que se tornariam áreas de especialidade da Plan: pesquisa socioeconômica ligada à habitação; pesquisa no âmbito do desenvolvimento infantil e de políticas educacionais; pesquisas ligadas ao desenvolvimento rural no Brasil e na África.

Vi a Plan mudar de tamanho, se expandir e se internacionalizar ainda mais. Vi duas novas estações de trabalho serem construídas ainda no escritório da Rua Tupi, vi o escritório ficar pequeno e mudarmos para um maior. Vi a Plan mudar de endereço no Brasil e ganhar também um endereço internacional. De modo análogo, vi a Plan mudar de “Plan Políticas Públicas” para “Plan Avaliação”, com direito a também nome internacional; a “Plan Eval”. Que jornada que pude acompanhar! Que alegria ter participado, ter contribuído e visto de perto tudo isso! E tenho certeza que no futuro da Plan não há senão muito trabalho, crescimento e muito sucesso!

Por fim, para além de tudo o que esse período me proporcionou profissionalmente, ficam em um lugar especial do coração os momentos divididos com os colegas de trabalho – as risadas dos almoços de sexta-feira, os tantos “Parabéns a você” que cantamos juntos e sempre meio sem graça, meio dando risada a cada aniversário de um de nós. Ficam as memórias da cumplicidade dos dias trabalhados até tarde para conseguirmos materializar nossos melhores esforços. Ficam nossas brincadeiras, nossa parca habilidade para happy hours, nossas piadas internas. Fica a memória de ter visto as famílias da Camila, da Liora e da Rafaela crescerem. Ficam as memórias das mais de vinte cidades que pude conhecer trabalhando pela Plan nesse “Brasilzão de Meu Deus”. Brasil esse que a gente aprende a conhecer, que não cansa de nos surpreender e que tanto nos ensina, sempre. Afinal, trabalhar com pesquisa é um pouco isso: aprender, ensinar e não se cansar de ser sempre surpreendido. Seja pela trajetória de cada pesquisa, seja por seus resultados.

 

Ao time da Plan, com muito carinho,

Um abraço e um até breve,

Cris

Interview with Christos Aivaliotis from the International Consulting Alliance (ICA)

Since August 2017, Plan Eval is a member of the International Consulting Alliance, an international network of consultancy firms in the Development Cooperation field. The network was created with the aim of facilitating long term partnerships between consulting actors located in development cooperation beneficiary countries and highly qualified technical specialist and development experts in different technical sectors. Since its creation in 2012, the network has grown steadily and currently counts 65 Technical and Local Members and over 26.000 experts.

Every year, the ICA holds the Annual ICA Conference. It is an opportunity for Technical and Local Members to meet in person, exchange ideas and discuss future cooperation opportunities. This year, the conference took place in Valencia, Spain. Our Executive Director, Fabrizio Rigout, participated and took the opportunity to sit down with Christos Aivaliotis, Network Manager for the ICA, to discuss the Annual Conference, the network’s annual results and the opportunities it has to offer to a company like Plan Eval.

Fabrizio and Christos Aivaliotis at the Annual ICA Conference, in April 2018.

 FABRIZIO RIGOUT: I’m here this afternoon with Christos. He is the Network Manager for the International Consulting Alliance and we are going to talk a little bit about the conference. So, first of all, how were the results?

CHRISTOS AIVALIOTIS: We’re quite happy this year, there has been a record number of participants in Valencia, Spain. Around 85 consultants coming from more than 30 different countries and representing 50 different organisations.

F: How would you describe Plan Eval’s role within the network?

CH: I would say that there is a lot of room for Plan Eval to expand its activities thanks to the use of the network, especially taking into account your technical expertise and geographical presence in Brazil. This combination offers you a very privileged position inside ICA, as you can work both as the Local Partner for Brazil, but at the same time as a Technical Partner worldwide for motoring and evaluations. As we have discussed already, Plan Eval has the characteristics of a “hybrid” member according to ICA’s internal categorization and can certainly bring on board ICA the best of both worlds – sectorial specialization and geographical expertise.

F: Can you tell us a bit more about the difference between Local Partners and Technical Partners?

CH: Yes, within our network, the International Consulting Alliance, we have two types of member organisations. On the local side, there are organisations that are based in the beneficiary countries where the developing projects take place and with a cross-sector approach, meaning they can work in many different technical areas. While, on the other hand, our technical partners work worldwide but in very specific areas of expertise.

F: What kind of opportunities does ICA offer for consultancy companies?

CH: All our members, either private companies, NGOs or even public parties, are connected through an online cooperation platform that offers them an overview of all open opportunities to work with multi-lateral or bi-lateral donors, through our daily newsletter. While there are many online services providing this, ICA differs in the sense that we are creating a community of development specialists, who can very easily identify not only new funding opportunities but the best available partners (thanks to an automatic match-making system of ICA’s platform) and experts (thanks to the ICA Database of Experts). The vast majority of our members use our platform extensively for networking and business development reasons, but a considerable amount of cooperation still takes place as well during the implementation of their projects through the exchange of expertise, sharing best practices and utilizing the physical presence of our members throughout the world.

F: As a last question, can you give us some examples partnerships that happened between companies because of participation in ICA?

CH: Actually, your timing is great, because we are always collecting the annual statistics around the time of the Annual Conference. For the past year we have had around thirty successfully interacted and implemented projects by ICA partners in all continents and across many different technical areas. A specific example I’d like to mention is a project that was awarded to two of our local partners, without the participation of a technical partner, to implement a World Bank project in China and Pakistan.

As Plan is getting more familiar with the network and its platform, we are eager to increase our involvement within the Alliance. Our presence at the Annual Conference has proven to be very productive. We have had the chance to meet with people from several technical areas such as Education, Health and Public Services and it has been very promising in terms of partnerships for Plan.

Avaliação de Impacto Legislativo – O Projeto de Lei nº 488/2017

Recentemente, em abril/2018, o Senado aprovou o projeto de lei nº 488/2017, que pretende implementar a Avaliação de Impacto Legislativo (AIL) como requisito obrigatório na aprovação de matérias legislativas que instituam novas políticas públicas. Ou seja, toda proposição de política pública deve vir acompanhada de uma prévia avaliação de seu impacto para o governo e para sociedade.

O propósito da avaliação de impacto legislativo é verificar os impactos da aplicação de uma legislação, tanto do ponto de vista econômico e financeiro quanto do ponto de vista social.  Meneguin (2010, p.7) em um texto publicado pela revista do Senado em 2010 explicita que o principal objetivo desta avaliação é verificar sua eficácia, efetividade e eficiência. Ela deve apurar se o comportamento dos destinatários da norma é adequado, se a maneira como o texto está formulado concorre para que os objetivos sejam alcançados, e se os benefícios decorrentes da lei compensarão os custos que acarretará.

O Projeto Lei nº 488/2017, em seu artigo 14-C explicita que a AIL deverá contar com um parecer sobre a constitucionalidade, a juridicidade e a regularidade do ato normativo, bem como com notas explicativas que demonstrem a economicidade, a efetividade, a eficácia e a eficiência das medidas do projeto.

Estas notas explicativas consistem na Avaliação e Impacto Legislativo, que, se aprovada, deverá conter:

  • Síntese qualitativa e quantitativa do problema ou da situação que reclama providências;
  • Objetivos da proposição e sua vinculação com o problema definido;
  • Alternativas existentes para a solução do problema identificado, com respectiva previsão dos impactos econômicos e sociais, justificando a escolha da solução ou providência contida no projeto proposto, com comparação das análises de custo-benefício global de cada alternativa;
  • Custos administrativos da solução ou providência contida no projeto proposto, caso a alternativa estabelecida na proposição entre em vigor;
  • Indicação da existência de prévia dotação orçamentária ou a fonte de recursos, quando a proposta demandar despesas, e como a ação está enquadrada no Plano Plurianual vigente.

Meneguin (2010) afirma que a AIL vai além da análise jurídica e orçamentária que eram feitas mais comumente, sendo inovadora ao propor a análise econômica e social, além da mensuração dos custos administrativos da solução que irá se desdobrar em uma política pública.

O ato de avaliar um projeto de lei antes mesmo de sua aprovação (ou seja, prospectivamente) considera os efeitos que esta provavelmente produzirá, bem como consequências inesperadas pelo legislador. Assim é possível corrigir possíveis falhas do projeto e simular cenários alternativos àqueles considerados pelos deputados e senadores.

Com a AIL a decisão política tende a ficar mais transparente e embasada em dados reais do impacto do projeto. Para tanto é necessário que a avaliação ocorra de maneira imparcial e transparente.

Um dos argumentos relativos à importância da aplicação da AIL é de que ela facilitaria e embasaria a aprovação de políticas públicas, e até mesmo facilitaria a aprovação de medidas impopulares, que através da AIL conseguissem se mostrar viáveis e necessárias.

Além de uma ferramenta de avaliação, o PL 488/2017 pode ser considerado estrategicamente como um instrumento de inserção de temas na agenda do poder legislativo. Um projeto de lei avaliado a priori pode ter suas chances de aprovação ampliadas, uma vez que terá material para demonstrar sua relevância e seu impacto para o país.

O Projeto de Lei 488/2017 aguarda votação na Câmara dos Deputados, sem data definida e pode ser acessado pelo link: https://www25.senado.leg.br/web/atividade/materias/-/materia/131852

Uma boa maneira de demonstrar sua importância seria realizar uma análise de seu impacto legislativo. Será que os legisladores se animam a dar o exemplo? Vamos aguardar.

Projeto de Lei do Senado n° 488, de 2017 (complementar), disponível em <http://www2.senado.leg.br/bdsf/handle/id/182499>

Meneguin, Fernando Boarato, Avaliação de Impacto Legislativo no Brasil, Brasília : Senado Federal, Consultoria Legislativa 03/2010 25 p., disponível em < https://www25.senado.leg.br/web/atividade/materias/-/materia/131852>

O campo, no campo

Em 2013, nossa colega de trabalho Camila Cirillo fez um relato sobre a vivência de um dia de campo em assentamentos precários no Espírito Santo. Aquela foi também a minha primeira experiência como pesquisadora e foi também meu primeiro contato com outra realidade social que não a minha, na época, ainda como estagiária na Plan.

Quatro anos depois, tive a oportunidade de coordenar a pesquisa do Estudo de Linha de Base do Projeto Pró-Semiárido, projeto assinado em parceria entre o Governo da Bahia e o FIDA – Fundo Internacional de Desenvolvimento Agrícola, por intermédio da Secretaria de Desenvolvimento Rural do Estado da Bahia – SDR, tendo a CAR – Companhia de Desenvolvimento e Ação Regional como executora.  O objetivo do Pró-Semiárido é reduzir a pobreza rural por meio da geração de renda, aumentar a produção, as oportunidades de trabalho agrícola e não-agrícola e desenvolver o capital humano e social, dando especial atenção a mulheres e jovens.

O projeto iniciou suas atividades em 2015, com foco em comunidades rurais, quilombolas, fundo de pasto e indígenas de 32 municípios do Estado da Bahia.  A Plan foi contratada para realizar o Estudo da Linha de Base, por isso visitou 388 comunidades (beneficiárias e não beneficiárias) e aplicou mais de 2.500 questionários com as famílias residentes das comunidades espalhadas por 32 municípios baianos.

O desafio foi grande, mas trouxe um aprendizado ainda maior: com uma equipe de 16 pesquisadores, no dia 5 de outubro saímos de Petrolina rumo a Juazeiro para dar início à aplicação dos questionários. O primeiro obstáculo foi a logística, pois todas as comunidades ficam muito distantes do centro de suas cidades, por caminhos às vezes sem infraestrutura nenhuma e não mapeados na internet. Em algumas localidades, o carro não conseguia chegar em seu destino pois a região dominada pelos areais fazia com que o motor perdesse força. Em muitas ocasiões, o jeito era deixar os carros e seguir a pé.

Uma vez na comunidade, para obtermos uma amostra aleatória, fazíamos a contagem de todas as casas do local para podermos estimar o salto entre as residências. Por exemplo, se tivéssemos de cumprir um total de 7 questionários na comunidade e esta apresentasse 30 casas, nosso salto seria de 4 casas. Assim, escolhíamos aleatoriamente uma casa para começar a pesquisa, pulávamos as 4 próximas casas da sequência e aplicávamos a pesquisa novamente na casa de número “5”.

Mas não foi possível seguir essa metodologia em todas as comunidades, uma vez que algumas possuíam casas muito afastadas umas das outras, o que impossibilitava a contagem manual. Nesses casos, procurávamos o líder comunitário ou o agente de saúde para obter o número de domicílios da região. E aí, para a aplicação dos questionários, cada pesquisador se virava como dava. Pegava carona de moto, de jegue…

Apesar das dificuldades de uma pesquisa de campo desse tamanho, poder conhecer a região semiárida da Bahia e seus moradores foi maravilhoso. A primeira coisa que passou pela minha cabeça foi “se é tão difícil assim pra gente chegar, imagina o poder público… essas pessoas devem estar esquecidas…” e infelizmente eu não estava tão errada assim. Além das condições climáticas que afetam a população dessa região, faltam serviços básicos como saúde, transporte e segurança pública.

“Aqui a gente não acredita em político, aqui a gente conta com a fé. Porque só Deus olha por nós…”

 Morando na capital do Estado de São Paulo, é bem difícil me imaginar dividindo espaço com cabras, bodes, galinhas e porcos. No campo, a impressão que tive foi de harmonia. Além da paisagem característica do semiárido, ficou em minha memória também o seu som: o sino da cabra que orientava seu rebanho.

No questionário aplicado, perguntamos sobre as condições socioeconômicas das famílias, o tamanho de seu rebanho, produção e venda agropecuária, sua renda anual e estratégias de enfrentamento da seca. As respostas, mesmo quando amargas, não eram em tom de lamento e sim de resignação, o que, confesso, me deixava triste.

 “Ano passado eu perdi tudinho, a seca me levou tudo, não vingou nenhuma plantação.”

 “A seca castiga, moça, mas fome nós não passa não… Aqui todo mundo se ajuda, a gente troca entre nós, compra quando dá… Não é sempre que tem de tudo no prato, mas pelo menos um ovo frito no almoço nós tem.”

 “Eu tenho aqui meus cabritos mas eu não gosto de matar os bichinhos não, eu só faço isso quando não tem outro jeito mesmo”.

 “Graças a Deus, sede a gente não passa mais. Tem época que os bichos sofrem, mas aqui em casa não falta um copinho de água. Mas tem que economizar…”.

 O que mais me chamou a atenção foi a hospitalidade de todos. Mesmo na presença de desconhecidos, as famílias eram sempre muito atenciosas. Tinham ânsia por serem ouvidas e não tiravam o sorriso do rosto. Mulheres e homens marcados pelo sol que enganava suas idades abriam as portas de suas casas e nos ofereciam tudo o que estava aos seus alcances: água, café, almoço, estadia.

“Aqui a gente tem pouco, mas o pouco que tem dá pra dividir. Não me faça essa desfeita, moça!”.  E foi assim que eu saí com uma melancia nos braços.

Conhecer essas pessoas e suas realidades foi uma experiência revigorante, dessas que nos dão a sensação de que, de fato, fazemos parte do mundo. Como pesquisadora, fico grata por ter tido a oportunidade de vivenciar a prática do campo.

Para finalizar, gostaria de deixar registrado também que além de toda bagagem que adquiri nesse campo, também assisti um pôr do sol incrível, além de constatar que Luiz Gonzaga tinha razão: não há, ó gente, ó não, luar como esse do Sertão….

 

Sobre avaliação e política

Tenho visto ressurgir discussões sobre o caráter político da avaliação que, tão rapidamente quanto aparecem, se cristalizam em tomadas de posição antagônicas (quali x quanti; medição x interpretação; neutralidade x interesse) bem mais antigas que a profissão. Entendo que por esse caminho não chegaremos à compreensão de como os avaliadores podem contribuir para qualificar a política em si.

O debate ponderado sobre o mérito de políticas públicas segue sendo um dos alicerces da democracia pois traz maior racionalidade ao processo decisório dos governos, permitindo assim a formação de consensos programáticos. Ironicamente, foi empobrecido nas últimas décadas justamente quando o avanço tecnológico deveria promover a ampliação da participação e, por conseguinte, seu enriquecimento. Por quê?

Num ambiente de parti pris, o conhecimento construído de forma criteriosa e sistemática sobre os problemas sociais não elege governo. Atestado disso é o sucesso dos neopopulistas à direita e à esquerda que apostaram num discurso de senso comum, ou seja, numa verdade que parece plausível ante a experiência das pessoas, sem que necessariamente explique a realidade. Essa verdade que busca ser mais intuitiva do que propriamente veraz é o que se convencionou chamar de “narrativa”.

No âmbito da avaliação, em defesa da narrativa chega-se mesmo a afirmar que não há produção de conhecimento que não seja política. Nesta visão, todo saber seria refém de interesses. Direciona-se então a análise às relações de poder: “a quem serve” determinada sociologia, estatística, economia… sem entrar no tema de sua qualidade como saber. O estudo foi criticado por pares? Pode ser replicado? As informações estão disponíveis? Quais as fontes da informação? Há interpretações concorrentes mais plausíveis? São questões em segundo plano.

Esse reducionismo construtivista se harmoniza com a política contemporânea pois ambos tendem a desprezar a objetividade do conhecimento. O primeiro por razões epistemológicas e a segunda por conveniência, mas isso é secundário ante a consequência: a erosão progressiva da base de conhecimento comum na esfera pública. Tudo se disputa na base do princípio. Temas fundamentais para o desenvolvimento como a desigualdade, a pobreza, a inovação tecnológica, a educação, as relações trabalhistas, a boa gestão das finanças públicas, são apresentados em função de sua relação com soluções ideológicas existentes em vez de serem tratados como problemas de fundo para os quais há soluções melhores e piores, além das que ainda não conhecemos e que provavelmente serão as melhores.

O resultado mais visível desse processo é um debate travado a partir de uma crítica da perspectiva dos sujeitos decisórios, seu caráter, sua afiliação, sua personalidade, em detrimento de uma discussão franca sobre a complexidade dos objetos em questão. Outros são o enfraquecimento do aconselhamento técnico nos gabinetes do executivo em favor da publicidade, a instrumentalização dos meios de comunicação pela política, a hipertrofia do discurso emocional e do moralismo.

Um exemplo de como a avaliação pode contribuir mais para o debate político a partir de uma investigação objetiva é o caso da evolução dos programas de transferência de renda condicionada (PTRC). Após sucessivos estudos de efetividade utilizando abordagens nos mais variados formatos (“quânti”, “quáli”, “mista”, etc.), demonstrou-se que os PTRCs têm efeitos comprovados de redução da pobreza no curto prazo. No Brasil, o Bolsa Família foi um sucesso retumbante nesse aspecto. Demonstrou-se, entretanto, que o Bolsa Família não é tão eficaz para quebrar o ciclo de pobreza, pois prioriza sua dimensão monetária e deixa de lado os mecanismos de promoção da autonomia. Nisso o programa chileno Puente foi mais bem-sucedido, pois focalizou na promoção de condições necessárias para a “porta de saída”, com grande ênfase no fortalecimento dos laços familiares, sociais, acesso prioritário a serviços e principalmente o acompanhamento de um assistente social em visitas periódicas de orientação e encaminhamento.

Programas anti-pobreza são criados quando há a pressão política organizada por grupos que perdem com ela, a começar pelos próprios pobres, seja por meio do voto ou pelo engajamento em movimentos sociais. Porém, o que permite seu aperfeiçoamento é a investigação diligente de alternativas à luz do problema em questão. No plano mundial, evoluiu-se de uma visão de pobreza monetária para uma de pobreza multidimensional graças à avaliação de políticas públicas. No Brasil parece se estar alguns passos atrás. Um dos temas centrais da última campanha eleitoral, o mérito do Bolsa Família, foi tratado quase que exclusivamente em termos de ser a favor ou contra; ou seja, não foi tratado.

O avaliador tem portanto um papel central, tanto tecnocrático como pedagógico, de levar ao público a necessidade de se pensar programas em termos de efetividade, eficiência, impacto e focalização. Certamente a vasta maioria do eleitorado desconhece esses conceitos, que de complexos não têm nada, só são deixados de lado. Temos um longo caminho pela frente.

Publicado originalmente em https://goo.gl/WzaxjN

Experiências da Plan com Diagnóstico Municipal da Infância e Adolescência

Ao longo dos últimos três anos a Plan conduziu cinco Diagnósticos da Infância e Adolescência, para os municípios de Araxá, Lençóis Paulista, Jundiaí, Rio Negrinho e Tubarão.  A construção do Diagnóstico é uma diretriz nacional, determinada pelo Conselho Nacional dos Direitos da Criança e do Adolescente (CONANDA), com o objetivo de que os municípios estabeleçam um documento que avalie a situação da infância e adolescência. O objetivo central do Diagnóstico é aproximar o Poder Público Municipal e a Sociedade da realidade das crianças e adolescentes dos municípios, para assim poder pensar e formular ações e Políticas Públicas de modo mais embasado e focado nas reais necessidades, além de ter uma atuação planejada a curto, médio e longo prazo.

A construção desses cinco documentos trouxe importantes ganhos de habilidades para a Consultoria. Assim, o objetivo deste post é relatar brevemente as metodologias utilizadas e os conhecimentos adquiridos, já que a realização de alguns projetos na mesma área permitiu à Plan desenvolver um método específico de trabalho, o qual se mostrou eficiente e satisfatório.

Todos os cinco projetos foram realizados a partir de quatro etapas, sendo:

  1. Coleta de dados secundários: Indicadores e dados secundários coletados a partir de fontes oficiais (DATASUS; Fundação SEADE, IBGE; IDEB, entre outras). Sempre que possível e quando relevante, os dados municipais foram comparados aos dados do estado do município estudado e da Região de Governo relacionada;
  2. Entrevistas em profundidade com Gestores, Técnicos e Servidores de serviços, entidades e programas (governamentais e não governamentais) de atendimento à infância e adolescência;
  3. Entrevistas com crianças, adolescentes e pais residentes nos municípios, de modo a obter um amplo panorama sobre a experiência da infância e adolescência em cada uma das cidades;
  4. Coleta de dados via web das entidades não governamentais: questionário via e-mail para coleta de dados sobre os atendimentos prestados pelas entidades que atuam nos municípios junto à infância e adolescência.

Para coleta e estruturação dos dados e informações, foi tomada por base a organização do Estatuto da Criança e do Adolescente (ECA), sendo considerados os cinco níveis de proteção previstos:

  • Vida e Saúde;
  • Liberdade, Respeito e Dignidade;
  • Convivência Familiar e Comunitária;
  • Educação, Cultura, Esporte e Lazer;
  • Profissionalização e Proteção no trabalho.

A opção por organizar o Diagnóstico a partir dos cinco eixos do ECA justifica-se pela centralidade do Estatuto no âmbito das Políticas Públicas para a infância e adolescência. Para cada um dos cinco eixos foram selecionados dados e indicadores que em sua totalidade compõem um panorama situacional das crianças e adolescentes nos municípios estudados. Os indicadores e dados foram selecionados a partir de sua relevância e também pela possibilidade de monitoramento periódico, de modo a acompanhar a evolução dos municípios em cada eixo.

Apesar do nome bastante amplo “Diagnóstico da Infância e da Adolescência”, a pesquisa está voltada prioritariamente para as crianças e adolescentes atendidos pelos serviços municipais, especialmente pela Assistência Social. Assim, não basta apenas os pesquisadores terem conhecimento sobre políticas públicas para a infância e adolescência, mas sim possuir clareza sobre a Rede de Atendimento, entendendo bem o funcionamento e atribuições de cada um dos serviços e órgãos relacionados. No fluxograma a seguir exemplificamos a Rede de Atendimento à Infância e Adolescência básica presente nos 5 municípios onde a Plan trabalhou. É importante destacar que para a infância e adolescência essa Rede está reunida a partir do Conselho Municipal dos Direitos da Criança e do Adolescente (CMDCA):

Pensando em conhecimentos adquiridos, quatro pontos podem ser destacados:

1º – como estratégia de pesquisa é extremamente importante que a equipe responsável pelo projeto encontre alguém que seja do CMDCA e que faça a ponte entre a Consultoria e os gestores e técnicos de serviços e órgãos locais. Essa pessoa, além de indicar quem pode ser entrevistado, facilita o contato e auxilia na organização e requisições de ambas as partes (Consultoria e CMDCA).

2º – os serviços e órgãos dificilmente dispõem de dados já organizados, portanto, o trabalho com dados quantitativos pode ser um desafio. Nesses casos, a principal fonte de informação passa a ser os dados qualitativos, coletados a partir de Entrevistas em Profundidade e Grupos Focais.

3º – o Diagnóstico está especialmente voltado para avaliar a garantia e/ou violação dos Direitos das Crianças e Adolescentes, assim, se faz necessário conhecer o atendimento prestado pela Rede de maneira ampla, podendo assim ter clareza sobre se cada um dos serviços e órgãos relacionados está ou não cumprindo com as expectativas.

4º – por último, apesar de ser um grande desafio, a equipe de pesquisa deve considerar entrevistar crianças e adolescentes. Apesar de alguns municípios requisitarem que somente gestores e técnicos de serviços relacionados sejam entrevistados, as opiniões das crianças e adolescentes devem também ser consideradas, já que elas agregam importantes informações ao Diagnóstico, além de promover o protagonismo infanto-juvenil, dando espaço de participação para as crianças e adolescentes para que eles mesmos tragam suas percepções sobre a experiência de ser criança e adolescente em cada um dos municípios estudados.

 

 

Análise Qualitativa Comparada na Avaliação

Resultado de imagem para shape-sort blocks

Em texto anterior, falei sobre a técnica de análise qualitativa comparada (QCA) como alternativa à estatística para a inferência causal. Ressaltei que a QCA exibe uma vantagem de ordem prática em relação a esta, permitindo o trabalho com bases de dados reduzidas, e outra vantagem da ordem da sofisticação explicativa, ao possibilitar que o pesquisador se debruce sobre as diversas combinações de causas e efeitos observados.

Especificamente na avaliação voltada à melhoria de intervenções, a QCA ilustra bem quais configurações de condições estão associadas a determinados resultados. Na prática, é necessário atentar para as condições suficientes, configurações que estão sempre associadas a esse resultado (ou sua ausência); e ainda para as condições necessárias, configurações que estão presentes sempre que se observa um determinado resultado (ou sua ausência). Frequentemente ambas são do interesse do pesquisador.

É possível fazer a QCA pela simples observação das combinações que se aplicam a cada caso? Quando as categorias de análise (condições) são poucas, sim.  Não é difícil visualizar as combinações de 2 ou 3 atributos em tabelas correspondentes aos cenários de suficiência/necessidade presença/ausência do resultado. Mas note-se que para cada condição acrescentada, o número de combinações possíveis aumenta exponencialmente  (2x casos para x condições). Com apenas 6 condições, portanto, já temos 64 combinações possíveis. Daí a necessidade de softwares específicos que deem conta de processar esses cenários complexos.

Os softwares de QCA (como este e este) automatizam o processo de identificação de inconsistências e contradições. Haverá configurações em que tanto a presença como a ausência de uma condição são necessárias para um resultado. Esses casos são logicamente inconsistentes. Haverá ainda muitas configurações logicamente possíveis mas que não estão contempladas por casos no banco estudado. Ou mesmo 2 casos de configurações idênticas porém contraditórias, que estão associadas ao mesmo tempo a um resultado e à sua ausência.

Um ponto a se destacar na análise de configurações é a possibilidade de se identificar mais de um caminho para chegar ao mesmo resultado. E isso não quer dizer que todas as configurações sejam igualmente eficazes. Neste momento a bagagem teórica do pesquisador faz diferença. Há que se interpretar a história por trás dos diferentes arranjos observados para se entender porque funcionam. Em suma, é preciso uma hipótese explicativa baseada em teoria, como de resto em qualquer generalização a partir de dados empíricos.

Mas por que se utilizar o QCA em vez de um modelo de regressão, onde variáveis podem ser acrescentadas infinitamente e seu poder explicativo determinado?

Entendo que um diferencial positivo do QCA é chamar a atenção para cenários que não tinham sido antecipados e que não teriam sido testados em outros modelos. Na gestão de projetos isso representa um estímulo ao pensamento fora da caixa: Que variáveis estão presentes num caso bem-sucedido que a teoria da mudança não previu? Que condições precisam ser minimamente satisfeitas para que esse “case” ganhe escala?

Essas são perguntas respondidas com mais acurácia pelo QCA do que pelas abordagens qualitativas mais simples em função da possibilidade que o método oferece de indicar caminhos de causalidade. Mais ainda, a iteração entre a análise de conteúdo e a qualitativa comparada é um procedimento que dá poder explicativo a estudos interpretativos, aumentando a plausibilidade do argumento avaliativo.

Para alguns exemplos do uso do QCA na avaliação, veja esta revisão crítica publicada no American Journal of Evaluation.

 

Análise qualitativa comparada (QCA)

 

É comum construirmos hipóteses a partir de uma combinação de qualidades que associamos a um certo efeito. Baseados em algumas observações nos vemos montando listas mentais de atributos cuja existência parece estar sempre atrelada à ocorrência de algo. Podemos pensar que sempre que uma galinha chocar seus ovos nascerão pintinhos, desde que haja um galo no galinheiro. Essa configuração parece ser suficiente para a eclosão do ovo, até que comecemos a reparar que na verdade há outros fatores que interferem na probabilidade de um pintinho nascer, como a temperatura e a umidade. Então podemos considerar que, apesar de necessárias, pois ocorrem toda vez que nasce um pintinho, essas condições não são suficientes para que o nascimento ocorra… e assim,  vamos refinando nossa teoria a partir da observação, incluindo alguns requisitos e retirando outros.

Na pesquisa social a análise de configurações é um procedimento comumente adotado em estudos em que o resultado é conhecido e existe uma variação de causas prováveis dentro de um universo relativamente pequeno. Em certas análises históricas comparadas o pesquisador tem a seu dispor algumas categorias (“atributos”) comuns a muitas sociedades, sendo que algumas combinações desses atributos parecem estar ligadas a tipos semelhantes de regimes políticos, sistemas de seguridade social, níveis de desenvolvimento econômico, formas de associativismo, etc.

Max Weber famosamente lançou mão desse expediente ao tentar identificar as relações possíveis entre crenças religiosas e a predisposição ao trabalho, tendo observado que entre algumas seitas protestantes havia uma conduta claramente mais sistemática. O sociólogo alemão construiu sua hipótese tipificando as grandes religiões do mundo de acordo com poucas categorias: sua visão do sentido da vida (realização nela versus busca de salvação), sua relação com o mundo (de evitá-lo ou de encará-lo) e sua doutrina de conduta (ascética ou contemplativa). As que combinavam busca de salvação com uma disposição a encarar o mundo de forma ascética foram as que resultaram numa inclinação maior para o trabalho sistemático e busca da dominação do meio.[1]

Nas avaliações nos deparamos com situações em que os casos não são suficientemente numerosos para que se possa comprovar associações entre ocorrências por meios estatísticos, seja por limitações de ordem prática (os dados foram colhidos numa amostra muito restrita) ou porque realmente as intervenções foram limitadas, integraram um piloto, tiveram um número de beneficiários reduzido ou porque a população em si já era pequena.

Tomemos como exemplo o caso do mapeamento de partes interessadas (“stakeholders”) para avaliação dos impactos do investimento social empresarial. Para esses estudos são entrevistados membros de associações, do governo, funcionários da empresa, suas famílias, fornecedores e mais alguns outros, e o número possível de tipos distintos de atores raramente ultrapassa o que cabe nos dedos das mãos. Quão útil para a modelagem de projetos de investimento social não seria entender quais as combinações ideais de características que esses atores deveriam ter para que se maximize o valor social gerado? Basta lembrar que as análises quantitativas feitas nesse campo costumam se restringir a escalas de interesse e poder, categorias restritivas quando se pensa na multiplicidade de determinantes de um engajamento bem-sucedido.

Em circunstâncias assim a análise qualitativa comparada (QCA, em sua sigla em inglês) tem uma contribuição importante a dar à avaliação. Essa técnica permite identificar as combinações de atributos que se mostram suficientes para um determinado resultado. No caso da referida análise de stakeholders, se observarmos que entre diversas instituições parceiras, as que prestavam contas regularmente, possuíam um líder eleito, se reuniam mensalmente com a empresa e tinham histórico de captação autônoma de recursos, foram também as que geraram mais valor compartilhado, essa combinação de características deve ser buscada em parcerias futuras que tenham o mesmo objetivo de transformação.

Desde sua introdução nos anos 1980, a QCA vem ampliando as possibilidades da pesquisa qualitativa permitindo sua conjugação a modelos explicativos. Abordagens qualitativas-interpretativas são criticadas por sua limitada possibilidade de generalização, e a QCA busca superar essa crítica por meio da caracterização explícita dos critérios utilizados nas comparações. Uma outra vantagem importante da técnica é sua comunicabilidade. Por se basear em teoria dos conjuntos, seus fundamentos são de compreensão fácil para o público em geral, o que nem sempre é o caso com a estatística usada nas abordagens quantitativas.

A QCA vai muito além da análise de suficiência de configurações. No próximo post falarei um pouco sobre a grande versatilidade do método e suas etapas de aplicação.

[1] WEBER, Max. A ética protestante e o “espírito” do capitalismo. São Paulo: Companhia das Letras, 2004.

Contrato de Impacto Social (CIS)

Recentemente o Governo do Estado de São Paulo lançou uma Consulta Pública referente a um Contrato de Impacto Social (CIS) na área da educação. Em dezembro deste ano, após o término dessa consulta, o governo vai lançar um Edital de Licitação para estabelecer o Contrato de Impacto Social, cujo objetivo final é identificar políticas públicas que sejam efetivas para melhorar alguns indicadores da área de educação.

Essa nova modalidade de contratação de serviços, ainda inédita no Brasil, permitirá ao governo atrelar a remuneração dos serviços contratados aos resultados produzidos pelas instituições contratadas. O CIS prevê que o contratado tenha por um lado a flexibilidade na execução das atividades e, por outro lado, fique responsável pelo risco de as metas não serem atingidas.

A grande novidade nesse processo é que, conforme noticiado (http://www1.folha.uol.com.br/educacao/2017/11/1937836-sp-pagara-a-entidade-que-cumprir-meta-e-evitar-evasao-no-ensino-medio.shtml), instituições privadas e organizações sem fins lucrativos vão propor intervenções que auxiliem  o Governo do Estado de São Paulo a elevar os índices de aprovação e reduzir a evasão escolar no ensino médio.

A princípio, serão selecionadas 122 escolas da região metropolitana do Estado.  Dessas 122 escolas, metade (61 escolas) vai receber uma intervenção proposta, e as outras 61 escolas vão servir como um parâmetro de comparação. Importante ressaltar que a seleção dessas escolas deverá obedecer a critérios técnicos para garantir que essa comparação seja feita de forma adequada.

Após um período determinado no processo licitatório, será feita uma avaliação de impacto das intervenções propostas, mensurando o tamanho do efeito de cada intervenção. A remuneração das contratadas vai ocorrer apenas nos casos em que forem identificados efeitos positivos desejados em uma dimensão relevante, definida por meio de metas.

Logo após o lançamento dessa consulta pública, muitas críticas foram feitas e algumas questões sobre como será operacionalizado esse processo foram colocadas. Em resumo, essa inovação proposta pelo Governo do Estado recebeu críticas principalmente em dois pontos: primeiro pela metodologia que será empregada na aplicação das intervenções e na consequente avaliação que será produzida; o segundo ponto de discussão é a forma de remuneração das instituições que vão fazer as intervenções.

As críticas mais comuns acerca da metodologia questionaram o fato de deixar alunos de 61 escolas sem receber o tratamento ofertado aos alunos das outras 61 escolas. Na visão de alguns, isso criaria mais uma disparidade no sistema de ensino e seria injusta com os alunos das escolas que não forem sorteadas para receber a intervenção.

Quanto a esse ponto, podemos afirmar com alto grau de certeza que a metodologia de avaliação de impacto proposta é exatamente a mesma que é aplicada no mundo todo para calcular o impacto de intervenções nas mais diversas áreas, sejam na saúde, educação, habitação, etc

Ao contrário do que se disse e tendo em vista que os recursos financeiros são escassos, essa estratégia de avaliação não é injusta porque a ideia é fazer a intervenção como um projeto piloto e, caso ela demonstre ser efetiva, a política pode ser ampliada para toda a rede.

Para ilustrar esse argumento, imagine que você queira expandir o exemplo da Escola da Ponte (https://pt.wikipedia.org/wiki/Escola_da_Ponte), mas para isso o governo peça que você demonstre que os efeitos positivos deste tipo de escola podem ser obtidos na rede de ensino como um todo, e não apenas em uma unidade muito específica. Como você faz?
Primeiro você busca recursos humanos e financeiros para implementar esse projeto. Mas como recursos não são infinitos você sabe que tem que obter o suficiente para implementar o projeto em pelo menos 30 escolas (esse número mínimo pode variar de acordo com o objeto de estudo).

Em seguida você identifica as 30 escolas da rede, considerando que nesse grupo deve haver alguma heterogeneidade, e que as escolhidas possuem as condições necessárias para que o modelo Escola da Ponte funcione. Essas escolas serão o piloto da política pública que você quer implementar, isso é chamado de Grupo de Tratamento.

O próximo passo é identificar na rede outras 30 escolas que tenham características semelhantes às escolas do Grupo de Tratamento, isso é feito para que você possa ter uma base de comparação. Essas escolas serão chamadas de Grupo de Controle e não receberão a intervenção que você está propondo.

Ora, mas se eu acredito que o modelo da Escola da Ponte é uma boa política, por que não fazer isso nas 60 escolas?

Primeiro porque mesmo que você tenha alguma informação sobre casos de sucesso de algumas escolas que seguiram o modelo da Escola da Ponte, ainda não há como saber se esse modelo funciona apenas em condições muito específicas, ou se ele pode mesmo ser aplicado em toda uma rede de ensino. Então você faz um piloto em um número maior de escolas, com características heterogêneas, para saber se esse projeto pode ser aplicado na rede de ensino.

Se os resultados forem positivos, você terá segurança de que os recursos necessários para expandir essa política para todas as escolas da rede vão trazer o retorno esperado. Porém, se na pesquisa você identificar que os resultados positivos são obtidos apenas em casos específicos, ao fazer o piloto você evitou que recursos fossem empregados em larga escala, sem provocar os efeitos esperados na rede como um todo. Ou seja, você evitou desperdício de recursos públicos.

Segundo porque o modelo da Escola da Ponte é apenas um exemplo dentre várias experiências em educação que foram aplicadas em estudos de caso. Imagine se o governo fosse adotar todos os modelos que são sugeridos. Seria possível fazer isso na rede toda de uma só vez? A resposta é não.

Mas, seguindo esse modelo, os alunos das escolas do grupo de Controle não serão prejudicados?

Não, os alunos das escolas que compõem o grupo de controle não perdem nada do que já recebem, mas apenas não ganham o benefício extra que é oferecido às escolas do grupo de tratamento. Esse grupo serve para mensurar o que teria acontecido com os alunos das escolas de tratamento, caso não houvesse o tratamento. Isso é chamado de contra-factual.
Para fazer a mensuração dos efeitos do modelo Escola da Ponte, os pesquisadores vão coletar dados nas 60 escolas, em três momentos distintos: antes das intervenções começarem; ao longo da execução do projeto; e ao final de um período no qual se espera que a intervenção tenha provocado os efeitos esperados.

Por meio da comparação da evolução dos dois grupos será possível identificar qual o efeito real do tratamento para então saber se é possível e se vale a pena expandir o modelo da Escola da Ponte para toda a rede de ensino.

Se os resultados forem positivos, você terá elementos para convencer o governo a adotar a mesma política em toda a rede de ensino, e assim beneficiar todos os alunos da rede.
O segundo ponto que também foi muito questionado refere-se à remuneração das instituições, que será feita apenas para as que obtiverem resultados positivos.
Esse ponto merece bastante atenção porque pode afetar a implementação das intervenções, uma vez que a pressão sobre as escolas do grupo de tratamento será maior do que já ocorre naturalmente nesse tipo de estudo. Segundo porque, se não houver um controle muito rígido, pode haver influência no cálculo do impacto.

Uma solução para isso seria criar uma comissão de pesquisadores da área para selecionar apenas instituições que estejam propondo intervenções que a comissão entende que vão dar o resultado esperado, e pagar pela intervenção em si. O risco para o governo estaria limitado ao valor empregado nessas intervenções. Se os resultados não forem os esperados será necessário verificar se houve problema na implementação, ou se a intervenção não é efetiva como se esperava. Porém, se o efeito for positivo, o governo poderá expandir a política para a rede de ensino, sem maiores riscos de má gestão dos recursos públicos.