42
Desafios em processos de avaliação: reflexões a partir do estudo de caso de uma política pública municipal brasileira Documento para presentación en el VIII Congreso Internacional en Gobierno, Administración y Políticas Públicas GIGAPP. (Madrid, España) del 25 al 28 de septiembre de 2017. Autor(es): Resende, Cláudio Lobenwein Sandim, Tatiana Lemos Email: [email protected] [email protected] Twitter: @tatianasandim Resumen/abstract: O artigo descreve e analisa um caso de avaliação da estratégia monitoramento e avaliação utilizada pela política de assistência social em um município brasileiro. A avaliação foi feita por uma consultoria externa com o uso de metodologias mistas. O acirramento das relações durante o processo revelou falhas cometidas e evidenciou que elementos da cultura política ainda prevalecem em um cenário em que os processos avaliativos não foram incorporados como ferramenta de mudança. O emprego de estratégias construcionistas e participativas foi utilizado, possibilitando a ampliação do diálogo e a escuta dos trabalhadores/as e tornando o processo coerente com as necessidades da organização. Por meio desse estudo de caso, apontamos as vantagens agregadas ao processo com o uso de metodologias mais flexíveis e argumentamos em favor do uso de métodos mistos. Palavras-chave: avaliação de políticas públicas, avaliação externa, metodologia tradicional, metodologia construcionista, vigilância socioassistencial.

dryfta-assets.s3-accelerate.amazonaws.com · Web viewEste trabalho traz o relato de um caso de consultoria de avaliação de uma política de Assistência Social municipal do Brasil

  • Upload
    haanh

  • View
    212

  • Download
    0

Embed Size (px)

Citation preview

Desafios em processos de avaliação: reflexões a partir do estudo de caso de uma

política pública municipal brasileira

Documento para presentación en el VIII Congreso Internacional en Gobierno, Administración y Políticas Públicas GIGAPP. (Madrid, España) del 25 al 28 de

septiembre de 2017.

Autor(es): Resende, Cláudio Lobenwein

Sandim, Tatiana Lemos

Email: [email protected]

[email protected]

Twitter: @tatianasandim

Resumen/abstract: O artigo descreve e analisa um caso de avaliação da estratégia monitoramento e avaliação utilizada pela política de assistência social em um município brasileiro. A avaliação foi feita por uma consultoria externa com o uso de metodologias mistas. O acirramento das relações durante o processo revelou falhas cometidas e evidenciou que elementos da cultura política ainda prevalecem em um cenário em que os processos avaliativos não foram incorporados como ferramenta de mudança. O emprego de estratégias construcionistas e participativas foi utilizado, possibilitando a ampliação do diálogo e a escuta dos trabalhadores/as e tornando o processo coerente com as necessidades da organização. Por meio desse estudo de caso, apontamos as vantagens agregadas ao processo com o uso de metodologias mais flexíveis e argumentamos em favor do uso de métodos mistos.

Palavras-chave: avaliação de políticas públicas, avaliação externa, metodologia tradicional, metodologia construcionista, vigilância socioassistencial.

Nota biográfica: Tatiana Lemos Sandim é doutoranda em Administração Pública e Governo pela Fundação Getulio Vargas de São Paulo e pesquisadora do Centro de Estudos em Administração Pública e Governo e do CLEAR, ambos da FGV.

Cláudio Lobenwein Resende, bacharel em Ciências Sociais pela Universidade Federal de Minas Gerais (2009), tem longa experiência em monitoramento e avaliação de políticas públicas. Já foi gestor público e atualmente atua como consultor de monitoramento e avaliação no setor privado.

1. Introdução

A institucionalização da avaliação de políticas públicas no Brasil é ainda um processo

longo e que representa um desafio a ser vencido. Questões relativas à cultura política e

ao próprio desenho institucional das organizações públicas tornam os avanços lentos e

incertos. Um grande esforço de modernização do Estado foi empreendido nos últimos

anos que, porém, ainda se mostra insuficiente.

Este trabalho traz o relato de um caso de consultoria de avaliação de uma política de

Assistência Social municipal do Brasil. Os desdobramentos desse processo avaliativo

são analisados à luz das teorias de avaliação de políticas públicas com o intuito de

contribuir para a compreensão do papel e da forma de atuação de consultorias em

contratos com entes governamentais de forma a permitir que outros trabalhos, em

contextos semelhantes, tenham elementos para superar as dificuldades e entregar

produtos e serviços que sirvam à melhoria de processos e resultados em políticas

públicas.

A Assistência Social foi reconhecida como um direito no Brasil com a Constituição

Federal de 1988 (CF-88). Essa é a Constituição vigente no país e foi elaborada por um

processo constituinte na transição democrática, após o período de ditadura militar

(1964-1985). É considerada uma constituição cidadã, pela significativa ampliação de

direitos que instituiu. A Assistência Social foi incluída no tripé da Seguridade Social,

juntamente com a saúde e a previdência social. Desde a CF-88 teve lugar um período

efervescente pautado pela busca da regulamentação e implantação dessa política

pública.

Em 1993, com a promulgação da Lei Orgânica da Assistência Social (LOAS), a

assistência social deu seu primeiro grande passo em direção à sua constituição como

política pública. Mas é com o governo Lula (2003) que o processo ganha fôlego e

velocidade. Foi criado o Ministério do Desenvolvimento Social e Combate à Fome

(MDS), e publicada a Política Nacional de Assistência Social (PNAS, 2004). A PNAS

reorganiza a ação da Assistência Social no país, estabelece objetivos, princípios e

funções do Sistema Único da Assistência Social (SUAS). Em 2005, a Norma

Operacional Básica (NOB-SUAS) organiza em todo o território nacional

responsabilidades, vínculos, hierarquias, serviços e benefícios da assistência social

(Couto et al., 2010). Em 2012, uma nova NOB incorpora os avanços e ajustes

identificados nos últimos anos e avança, entre outros pontos, na definição de

instrumentos de vigilância socioassistencial. Nesse momento, a Vigilância é alçada ao

patamar de ferramenta de gestão da política.

A Vigilância Socioassistencial tem como objetivo analisar territorialmente a capacidade

protetiva das famílias e nelas a ocorrência de vulnerabilidades, de ameaças, de

vitimizações e de danos. É um dos instrumentos de proteção que identifica e previne as

situações de risco e vulnerabilidade sociais e seus agravos no território. Essa concepção

está ancorada em um conjunto de conceitos e categorias que buscam instituir uma

abordagem específica para a produção de conhecimentos aplicados ao planejamento e

execução da política de assistência social. Para viabilizar o trabalho de vigilância, cabe

ao governo municipal o registro de dados referentes aos serviços. De acordo com o

MDS, devem ser registrados, principalmente: a quantidade e perfil de recursos

humanos; o tipo e o volume dos serviços prestados; os procedimentos essenciais

vinculados aos conteúdos do serviço e necessários à sua qualidade; o perfil dos usuários

atendidos; as condições de acesso ao serviço; a infraestrutura, os equipamentos e

materiais existentes.

A equipe responsável pela Vigilância Socioassistencial é responsável pelas atividades

relacionadas à gestão da informação, monitoramento e avaliação, além da “tradução”,

sistematização e disseminação dessas informações.

A inclusão da vigilância socioassistencial como uma das funções do SUAS formalizou a

necessidade de monitoramento e avaliação, já percebida como uma lacuna. Na prática,

para muitas equipes municipais, estabeleceu-se o contexto adequado para a criação e

desenvolvimento de estratégias de levantamento e consolidação de informações acerca

da demanda da população e dos serviços a ela ofertados. Para outras, que já

desenvolviam atividades dessa natureza, significou o momento de rever e modernizar

processos e profissionalizá-los. A criação da Vigilância Socioassistencial representou

um avanço, embora o Censo SUAS 2014 afirme que 30,6% dos municípios ainda não

possui uma área responsável pela Vigilância Socioassistencial e que, entre os que já

possuem, 28,8% produziram indicadores ou análises relativas à oferta de serviços e

benefícios, 31,4% produziram indicadores ou análises relativas à demanda por serviços

e benefícios, 31,3% monitoraram os padrões de qualidade dos serviços prestados pela

rede pública e/ou conveniada e 32,8% dos municípios desenvolveram instrumentos de

coleta de dados para levantamento de informações junto aos serviços (BRASIL, 2015).

Monitorar e avaliar não são – ou não devem ser – tarefas complicadas e, muito menos,

complexas. Contudo, exigem algum conhecimento sobre a política, sobre os resultados

que dela se esperam e sobre os espaços, processos e momentos que, com um olhar

detido, dão informações preciosas sobre o quanto desse resultado foi alcançado. E a

lacuna de conhecimento aliada a outras lacunas históricas, culturais, comportamentais e

técnicas, torna a incorporação da avaliação às políticas públicas um desafio ainda não

superado. E seria injusto afirmar que esse desafio se restringe à Assistência Social.

Pertence à todas as áreas de intervenção estatal. É em torno desse contexto, de

desenvolvimento da gestão de políticas públicas no Brasil, que se insere a discussão

aqui proposta.

2. Avaliação de políticas públicas e avanços informacionais

Avaliar é o ato atribuir um valor a alguma coisa. E isso é uma atividade que as pessoas

cotidianamente executam em relação aos elementos que as cercam (Garcia, 2015;

Spink, 2001). Transportar essa ação para o ambiente organizacional não transmuta seu

sentido original: avaliar um projeto ou um programa implica em determinar seu valor,

sua importância em relação a um anseio ou, melhor dizendo, em relação a um objetivo

(Garcia, 2015).

Partindo desse conceito seminal é possível encontrar uma série de definições para a

avaliação, mais ou menos restritivas, inclusivas e conscientes da relevância do processo.

Nesse trabalho, consideramos que avaliação é um tipo de pesquisa orientado para a

coleta, análise, interpretação e comunicação relacionadas aos objetos avaliados (Pires,

R. R.; Lopez, F.; Sá E Silva, F., 2010), é um processo analítico que objetiva produzir

informação e conhecimento sobre o objeto avaliado com a finalidade de ser útil no

desenho, implementação e validação de programas e projetos sociais (Jannuzzi, 2016;

Faria, 2005). A avaliação, para além de conhecer o mundo, busca melhorá-lo, tornando

conhecidas conclusões que podem levar a ações e aperfeiçoamentos (Firme, 1994 citado

por Garcia, 2015).

No meio governamental, a forma mais adequada de se conceber a avaliação seria como

parte indissociável do processo de aprendizagem (Garcia, 2015), como uma importante

ferramenta para a orientação, esclarecimento, convencimento e alinhamento dos atores

envolvidos (Jannuzzi, 2016, Newcomer, Hatry e Wholey, 2015) e útil para auxiliar a

tomada de decisão dos gestores e governantes. Mais recentemente, a avaliação tem sido

utilizada como recurso para atendimento de demandas externas à intervenção, como

estratégia de prestação de contas para a sociedade ou para outros entes governamentais

ou, ainda, para organismos nacionais e internacionais, por vezes, financiadores de

intervenções estatais (Faria 2005). Nesse sentido, a avaliação pode servir como fonte de

legitimidade do objeto avaliado ou, em sentido oposto, pode ser fonte de

constrangimentos para governantes e gestores (Trevisan, van Bellen, 2008).

Paradoxalmente, muitas vezes, é o próprio processo de avaliação que carece de

legitimidade. Isso porque há uma série de questões e desafios persistentes que têm se

mostrado refratários às iniciativas de trabalhar a avaliação como uma ferramenta útil.

Em parte, porque as demandas com frequência não são formuladas de maneira clara,

com o objetivo de extrair dos resultados insumos relevantes para orientar e reorientar as

mudanças e a aprendizagem sobre o processo. Por vezes, são frutos de situações

inesperadas que exigem respostas acerca da intervenção, desencadeando uma espécie de

‘espasmo avaliativo’ (Garcia, 2015). E, mesmo em hipóteses mais otimistas, é comum

que seja construída uma percepção estreita do escopo da avaliação, limitando-a a

quantificar insumo ou ampliar o controle sobre os recursos investidos, por exemplo.

Poucos trabalhos se dedicam a avaliar produtos ou resultados. Isso dificulta o processo

de aprendizagem e melhoria que pode ser obtido por meio de avaliações (Wu et al,

2014).

Além disso, observa-se que os relatórios de avaliações são inconclusivos e não trazem

recomendações de mudanças ou de melhorias (Garcia, 2015). Esse fato contribui para

que a avaliação seja vista como algo inócuo que exige muito trabalho para ser

desenvolvida e encerra-se como um fim em si mesma.

Há ainda questões relacionadas com os responsáveis pela avaliação, que podem ser da

equipe interna ou de uma consultoria externa ou universidade. A equipe interna,

usualmente, não possui conhecimento ou experiência e na tentativa de produzir um

documento capaz de informar sobre o desempenho ou os resultados da intervenção, toda

a rotina é alterada e um esforço enorme é empregado. Nem sempre o produto desse

esforço é bastante útil para a finalidade que se propõe e, não raro, atende unicamente a

uma demanda imediata. Seu conteúdo costuma não ser divulgado publicamente e,

mesmo internamente, tem alcance limitado (Garcia, 2015).

Em relação às contratações externas, por outro lado, é relevante destacar que algumas

questões são (ou devem ser) alvos de negociação e, portanto, são potencialmente

geradoras de conflito. Como exemplo estão: 1) o estabelecimento de uma relação clara

que possibilite o desenvolvimento do trabalho; 2) os diferentes timings dos atores e 3)

as distintas naturezas dos conhecimentos de que cada ator dispõe.

A recepção dos resultados de uma avaliação é uma ação que varia de acordo com a

percepção que se tem de quem realiza a avaliação e também de quem é o receptor

interno. Há, ainda, o agravante que a interpretação dos resultados, com a identificação

de sucessos ou fracassos, é permeada por subjetividades. E lidar com o fracasso não é

simples. Assim, se os resultados forem negativos ou abaixo das expectativas, têm

grande potencial para gerar resistência ou negação por parte da equipe (Wu et al, 2014).

Em resumo, as avaliações costumam ser encaradas como um estorvo ou como uma

obrigação contratual apenas (Garcia, 2015).

Não se pode perder de vista que avaliar deriva de valia e implica em determinar o valor

de algo. Para que esse valor seja determinado é preciso dispor de um quadro de

referência razoavelmente preciso, que explicite as normas (valores, situações desejadas,

necessidades satisfeitas) e forneça as informações necessárias para a seleção de métodos

e técnicas que permitam verificar se o valor está presente e para medir o quanto do valor

foi alcançado, quanto do previsto já se realizou (Garcia, 2015). É preciso ter clareza de

que os resultados da avaliação sempre serão parciais porque a obtenção de dados é

sempre limitada.

Mas tal quadro de referência quase nunca existe a priori. O caminho mais comum é

empreender um trabalho de negociação e diálogos para obtê-lo. Elaborar esse quadro

com informações consistentes, amplas e variadas exige um processo participativo e

cooperativo. Com esse processo, espera-se que surja um entendimento compartilhado

dos pontos comuns aceitos por todos: avaliadores e avaliados. Uma avaliação é sempre

analisada pela credibilidade do processo para os policy makers, pela força das

evidências produzidas e pelo uso da informação para melhorar a intervenção

(Newcomer, Hatry e Wholey, 2015).

Uma vez elaborado o quadro, a tônica de um processo participativo e democrático deve

ser mantida. É preciso gerar resultados úteis para as pessoas envolvidas, inclusive os

que estão na condição de beneficiários e beneficiárias. Com isso, ganha relevo as

questões: quem deve atribuir valor? E, como atribuir valor? “O maior número possível

dos diferentes agrupamentos, atores e outros implicados, direta ou indiretamente,

conhecidos e não conhecidos e em formas que permitem a responsabilização, a

transparência, a comunicabilidade e a co-determinação” (Spink, 2001: 13). É intrínseco

ao processo de avaliação o seu caráter participativo. A grande questão é quem está

participando. Defende-se que a participação tem que ser ampliada, para que os

resultados sejam construídos conjuntamente e não a partir do olhar e do julgamento

daqueles que “vêm de fora” e emitem juízos sobre algo que não faz parte de seu

cotidiano (Spink, 2001).

Metodologias de avaliação participativas (ou responsivas) são baseadas em uma

abordagem interpretativa que enfoca os elementos trazidos pelos grupos de interesse

envolvidos na intervenção. O desenvolvimento adequado de uma metodologia

participativa inclui a identificação dos grupos de interesse, o diálogo intenso com esses

grupos, a negociação clara com contratantes sobre a necessidade de acesso a

documentos e espaços onde informações estão presentes (Wu et al., 2014, Guba,

Lincoln, 2011) e, ainda, a explicitação de que os resultados devem ser úteis e utilizados.

Informações necessárias para processos avaliativos encontram-se dispersas: em lugares

distintos, em formatos variados, sob a posse de diferentes pessoas.

A escuta dos atores se dá em função, em um primeiro momento, de conhecer a

intervenção, identificar suas preocupações, questões ou reivindicações, que

conformarão o conjunto de materiais a serem analisados e tornará a equipe de

avaliadores capazes de cumprir sua tarefa. Cientes de que os valores a serem atribuídos

devem contemplar múltiplas vozes, e deve, necessariamente, incluir os valores dos

atores e atrizes envolvidos diretamente. Assim, cabe à equipe de avaliação desenhar um

processo que se inicia com o planejamento das atividades, recursos e tempos

necessários e só encontra seu fim quando os pontos de inovação e melhoria

identificados com os resultados da avaliação tenham sido respondidos adequadamente,

de acordo com as possibilidades existentes no momento. A coleta de dados da avaliação

deve incluir dados qualitativos ou quantitativos, de acordo com a disponibilidade e a

possibilidade de obtê-los (Guba e Lincoln, 2011).

Alinha-se a essa metodologia uma postura de valorização do contexto, dos diferentes

saberes das pessoas e das práticas desenvolvidas nas relações do cotidiano. Com isso, as

pessoas assumem centralidade, os avaliadores se tornam mais sensíveis ao processo,

cintes de que os processos avaliativos são produzidos e modificados na relação (Souza,

McNamee, Santos, 2010).

3. Avaliação por consultorias externas:

A contratação de consultorias externas para realizar avaliações é uma prática comum

nas organizações públicas brasileiras, em especial a partir da década de 1990, quando

novos paradigmas de gestão passaram a ser incorporados na administração pública com

o objetivo de imprimir à máquina pública maior capacidade de intervenção na sociedade

e na economia, ao mesmo tempo em que se buscava um equilíbrio fiscal, urgente após

as crises econômicas das décadas anteriores (Bresser Pereira, 2005).

A reforma da administração pública trouxe a questão da eficiência e da eficácia para o

centro do debate sobre o estado no Brasil. A capacidade de programas e políticas

públicas de produzir resultados desejados com o uso sustentável de recursos humanos e

orçamentários entrou cada vez mais na agenda de debates políticos e acadêmicos. O

desafio passou a ser o de encontrar formas organizacionais que permitissem ao estado

atender às demandas sociais – e também do(s) mercado(s) – aliando bons resultados

com gastos sustentáveis.

Fazer melhor, gastando menos. Embora seja uma ideia simples e de fácil aceitação, as

dificuldades de implementá-la são grandes e complexas. De imediato, a dúvida que

surge é o que significa fazer melhor? Ou seja, quais são os resultados desejados e quais

são as melhores formas de alcançá-los? Quais são os métodos, caminhos e instrumentos

que permitiriam a uma política alcançar seus objetivos? Sabemos, de fato, quais são os

objetivos da política?

Essas questões, quando respondidas, remetem a uma outra: como saber e como medir se

uma política pública funciona bem e atinge seus objetivos? Ou seja, o complexo

processo de execução de políticas públicas passa necessariamente por saber o que se

quer, saber como se deve fazer o que se quer e quais as melhores formas de fazê-lo e,

por fim, saber como medir os resultados alcançados. Com a adoção dos novos

paradigmas de gestão, agentes públicos passaram a ter de se preocupar com os

resultados das ações executadas. Prestar contas à sociedade tornou-se um valor.

Essa nova forma de pensar o funcionamento do estado se coaduna com as características

da Constituição Federal de 1988, que foi elaborada em um processo de debates amplos

com a sociedade. Os canais de participação direta se tornaram mais comuns, como os

conselhos de políticas, cujas funções precípuas são a de atuar como porta-vozes dos

anseios da sociedade e de vigiar e cobrar a atuação dos agentes públicos conforme os

preceitos das legislações pertinentes. O estado passou, a partir de 1988, a ser responsivo

perante a sociedade, o que engendrou novas formas de prestação de contas.

Para responder ao desafio da responsividade, o estado passou a recorrer à contratação de

consultoria externas especializadas, em parte para atender à necessidade de execução de

tarefas específicas sem que, para isso, se recorresse à oneração da máquina pública a

partir da contratação direta de novos servidores públicos. Além disso, era preciso

imprimir a algumas dessas tarefas, principalmente as avaliações, um caráter idôneo e

desenviesado que agentes públicos, por questões diversas, teriam dificuldades de

realizar. Pressões políticas e interesses particulares são os principais elementos que

enviesariam trabalhos de avaliação de resultados, mas também deve-se considerar o

lugar do agente público, que, membro da organização, seria constrangido a avaliar seus

pares. A contratação de agentes externos, portanto, resolveria essas questões.

A atuação em parceria de organizações públicas e privadas é positiva para as políticas

públicas, além de se constituir em vantagem para ambos os atores envolvidos. As

diferentes competências de cada um dos atores envolvidos agem de maneira a se

complementarem, enriquecendo as experiências, conhecimentos e visões.

O estado é uma importante fonte de recursos financeiros. Seu financiamento por meio

de tributos o torna um agente central em uma economia. É ali que muitos outros agentes

– privados – podem buscar suas fontes de renda. O estado é, também, agente central de

produção de políticas de intervenção na economia e na sociedade, seja por primazia

legal, seja por primazia financeira (fonte de recursos). Ou seja, é por meio de parcerias

(contratações) que agentes privados buscam os recursos de que necessitam.

Além disso, organizações públicas possuem diversas limitações que tornam vantajosa a

sua relação com organizações privadas. A primeira delas, proeminente no caso

brasileiro, diz respeito às dificuldades, impostas pela legislação, para execução de

alguns tipos de tarefas. Licitações, concursos públicos, entre outros instrumentos de

controle administrativo, por vezes tornam a tentativa de executar ações simples e

rápidas em processos longos, complexos e dispendiosos. Por isso, a estratégia de

contratação de especialistas para executar apenas tarefas pontuais é um trajeto mais

curto e rápido do que o concurso público. Os especialistas podem ser contratados já com

o conhecimento e pelo tempo necessário para a execução da tarefa. As vantagens

agregadas por essa alternativa a tornam a opção mais adequada.

Organizações privadas possuem potencialidades e limitações que as diferem de

organizações públicas. A primeira limitação, e talvez a mais importante, diz respeito aos

recursos financeiros. Empresas, fundações, ONGs, possuem recursos finitos e

dependem dos aportes e investimentos de outros agentes, públicos ou privados, para que

se mantenham em atividade. O estado é, em muitos casos, uma boa fonte para esses

aportes.

Agentes privados, além disso, dispõem de uma relativa liberdade de atuação que os

permitem optar por se especializaram em quaisquer ramos de serviços que desejarem.

Portanto, novas demandas por serviços podem ser satisfeitas com mais agilidade por

esses agentes do que pelo estado.

As formas de relação entre governos e consultorias, contudo, não estão dadas, o que nos

motiva a estudar o tema e propor caminhos para melhorias de desempenho e soluções de

impasses.

Organizações públicas e privadas são dotadas de interesses e preferências, tanto aqueles

que são próprios da instituição, como aqueles das pessoas que as compõem. Esses

interesses e preferências podem, em alguns casos, se opor e gerar impasses na relação.

Agentes públicos, por exemplo, podem ter o interesse de não serem avaliados, ou

mesmo que a avaliação feita a respeito de seu trabalho não se torne pública.

Consultorias externas, por outro lado, têm interesse em realizar avaliações com

qualidade que a qualifiquem no mercado de consultorias e, assim, consigam mais

contratos.

4. Relato do caso

a. O contexto

O caso aqui descrito se insere nesse contexto: a contratação, por um órgão público

municipal de assistência social1, de uma consultoria especializada em avaliação de

políticas públicas. O objetivo da contratação, segundo o edital de licitação, era o de

aprimorar os instrumentos de monitoramento e avaliação da política. A principal

motivação envolvida na contratação do trabalho foi desencadeada por uma

1 O nome do município não será mencionado por questões éticas e, sobretudo, por não agregar informações relevantes para as descrições e análises aqui empreendidas.

recomendação da auditoria de uma organização internacional que financia projetos

desenvolvidos pela secretaria. Trata-se de um município de grande porte que executa a

política municipal de assistência social em um arranjo misto de execução direta e

indireta por meio de convênios com instituições socioassistenciais, a exemplo da maior

parte dos municípios do mesmo porte no país (MDS, 2015).

A contratante já havia desenvolvido e utilizava instrumentais de coleta de dados dos

serviços para monitoramento e avaliação da política. Um fluxo envolvendo profissionais

de diferentes setores da política estava em funcionamento e previa a consolidação dos

dados e sistematização mensal de indicadores para os serviços implantados, bem como

para conjuntos de serviços e regiões da cidade. Havia, então, um conjunto de

instrumentos, fluxos, processos e indicadores que, por si, representavam um importante

sistema de monitoramento e avaliação, o que se constitui num esforço que deve ser

ressaltado, haja visto que essa prática é algo ainda raro na realidade da administração

pública no Brasil, a despeito dos avanços observados nos últimos anos.

Essa equipe, muito antes de que a própria política de assistência social determinasse a

vigilância como uma de suas funções, já possuía e utilizava ferramentas e rotinas de

monitoramento e avaliação, que envolviam toda rede de serviços. Esse processo,

mensalmente executado, constitui um exemplo de que monitorar e avaliar uma política

depende mais do envolvimento das pessoas e da criação da cultura de registro das

informações do que da disponibilidade de tecnologias avançadas, como sistemas de

gestão integrada, por exemplo.

Com a avaliação contratada, esperava-se que a consultoria elaborasse propostas de 1)

aprimoramento dos instrumentais existentes quanto à forma e conteúdo, 2) um novo

conjunto de indicadores para o monitoramento e avaliação da política e 3) modernização

das rotinas de consolidação das informações desde a unidade coletora do dado primário

até a consolidação municipal. A expectativa era de um trabalho procedimental assentado

em uma premissa: a de que o sistema de monitoramento e avaliação implementado já

possuía as qualidades desejadas, funcionava satisfatoriamente e necessitava de ajustes.

Essa premissa era inclusive expressa por alguns gestores. Desde o início do processo, a

equipe afirmava já haver realizado o mapeamento dos pontos de melhoria e, assim,

sabiam o que e como fazer. Mas ainda não havia executado porque as rotinas internas

inviabilizavam a disponibilização de técnicos para a alteração dos processos.

A equipe de monitoramento e avaliação era formada por cinco técnicos que se

organizavam de forma a distribuir entre eles as regiões da cidade e tipologias de

serviços para fins de acompanhamento, orientação e sistematização dos dados. Havia

ainda uma equipe regional, distribuída em toda a cidade que, por sua vez, se conectava

com todos os Centros de Referência da Assistência Social (CRAS) e Centros de

Referência Especializada em Assistência Social (CREAS)2 de suas respectivas regiões.

Estes equipamentos, por sua vez, se conectavam com os serviços conveniados existentes

nos territórios, de acordo com suas localizações e nível de complexidade, de forma que

todos os serviços estavam referenciados em um CRAS ou um CREAS.

Para a regulamentação formal dos processos de monitoramento e informação havia uma

série de portarias publicadas pelo Conselho Municipal de Assistência Social, nas quais

constavam a descrição dos serviços e os indicadores a serem utilizados para seu

monitoramento e avaliação.

O conjunto de indicadores de monitoramento era extenso, sendo a maioria dedicada a

informar sobre os processos. Os serviços eram monitorados com um número variável de

indicadores (entre 3 e 11) e não havia nenhum indicador calculado para todo o conjunto

da política, tendo sido essa uma das demandas repassadas à consultoria.

b. O processo

A primeira etapa do trabalho, que consumiu um terço do período de contratação

previsto, foi a realização de diagnóstico dos instrumentais, fluxos e processos internos, a

partir de duas estratégias. A primeira consistiu na análise sistemática dos instrumentais,

das legislações e das normas internas. A segunda estratégia dedicou-se a conhecer a 2 Esses equipamentos destinam-se ao atendimento da população nos territórios onde estão implantados. De acordo com a organização da política, os serviços são distribuídos em três níveis de complexidade. O CRAS executa, supervisiona e coordena a rede de serviços socioassistenciais de complexidade básica. O CREAS faz o mesmo com os serviços de média e alta complexidade. Por suas diferentes naturezas de serviços, é comum encontrar em um mesmo território vários CRAS e um CREAS.

execução da política e dialogar com as pessoas, lotadas em diferentes posições, a fim de

conhecer suas opiniões sobre o monitoramento. Nessa etapa foram realizadas visitas a

locais pré-selecionados pela gestão e entrevistas com gestoras/es e técnicas/os. Também

foi enviado um questionário online3 para pessoas dos vários níveis da hierarquia da

política. A escuta de diferentes atores envolvidos no processo, que incluía espaços para

críticas e sugestões, permitiu a contemplação de diversos olhares, muitos dos quais

foram considerados nas etapas seguintes do processo.

Esse trabalho sistemático de compreensão do funcionamento da política e, a partir dela,

da lógica de funcionamento do sistema de monitoramento e avaliação revelou que havia

outras questões a serem solucionadas. Foram identificadas falhas de natureza técnica,

procedimental, formal, de conteúdo e de gestão do sistema de monitoramento e

avaliação da política.

A análise do conjunto de indicadores identificou que havia erros técnicos no cálculo de

alguns deles. Algumas dessas falhas ocasionavam superestimação ou subestimação de

números, impactando diretamente na política. Em alguns casos, os erros de cálculo se

relacionavam com formas equivocadas de coleta do dado usado como fonte.

Os procedimentos de coleta dos dados primários, por meio dos instrumentais, eram

dispendiosos para os técnicos da ponta da política, pois os dados demandados no

preenchimento do instrumental eram provenientes de várias fontes diferentes. Para

preencher um único instrumental era necessário recorrer às listas de presença diária, aos

cadastros dos usuários e usuárias registrados nos serviços, aos relatórios de atividades,

de visitas domiciliares, de ocorrências, etc.

Não havia manuais ou catálogo de indicadores disponíveis para orientar o

preenchimento dos instrumentais. Também não havia treinamentos ou atualização dos

conhecimentos. Com isso, foi possível constatar que os profissionais envolvidos não

tinham clareza quanto à maneira correta de coletar os dados ou da fonte mais adequada.

Assim, na coleta de um mesmo dado, profissionais tinham entendimentos variados

3 Aplicado online por meio do serviço LimeSurvey, oferecia anonimato às pessoas respondentes, de forma que se sentissem livres para expor suas dificuldades cotidianas relativas ao monitoramento e avaliação da política.

sobre como e onde buscá-lo, ou mesmo sobre a leitura e compreensão da informação

gerada a partir dele.

Além disso, o software utilizado para o preenchimento era o Microsoft Excel e as

planilhas disponibilizadas praticamente não dispunham de verificações de erros de

preenchimento e permitiam a exclusão e a inclusão de linhas e colunas, prejudicando a

padronização do o processo. Essa situação era a principal causadora de erros no

processo de consolidação e verificação dos dados ao nível regional. Era necessário

muito tempo para conferir o preenchimento de cada instrumental e ainda era necessário

recorrer ao formulário do mês anterior para realizar conferências entre os resultados

quantitativos do mês anterior e os do mês corrente.

Os instrumentais coletavam alguns dados desnecessários e, ao mesmo tempo, deixavam

de coletar outros de suma importância para o monitoramento e avaliação. Diferentes

modelos de instrumentais solicitavam o mesmo tipo de dado com descrições distintas,

dificultando a consolidação da informação. Ainda, a criação ao longo dos anos de novas

tipologias de serviços fez com que o desenvolvimento pontual de instrumentais

demandasse dados demasiadamente personalizados, a ponto de não ser possível

consolidá-los para regiões ou para toda a cidade.

As questões relacionadas acima acabavam por gerar uma espécie de efeito dominó: as

instâncias regionais precisavam entrar em contato com todos os serviços que tinham

enviado formulários contendo erros de preenchimento, solicitar e aguardar o reenvio do

documento correto. Com isso, não conseguiam cumprir os prazos para realização das

atividades e, por consequência, a equipe central também não. O caráter constante dos

atrasos gerava um clima de insatisfação e cobrança que só contribuía para a criação de

animosidades e a perpetuação da morosidade nos processos. Esse conjunto de técnicas,

procedimentos e fluxos falhos resultava em uma gestão do monitoramento lenta e

dispendiosa.

Além disso, o monitoramento não subsidiava seus operadores na correção de rumos em

tempo hábil. Gestores e gestoras do nível central recebiam a consolidação dos

indicadores dos serviços de forma pouco sincrônica com a execução. O que dificultava

tanto a aferição dos resultados relacionados às alterações implementadas quanto a

detecção da necessidade de implantar novas alterações.

Ainda, as estatísticas e indicadores não retornavam para os profissionais da ponta, o que

fazia com que eles não acessassem os resultados de seu trabalho, apesar da

obrigatoriedade de preenchimento. Com isso, não viam sentido ou utilidade no

monitoramento.

O conjunto de indicadores também precisava ser revisto. A grande quantidade existente

dificultava o acompanhamento da política, tanto pelos próprios membros da política,

quanto pela sociedade e órgãos de controle. Vários deles eram semelhantes e possuíam

descrições diferentes, dificultando a comparabilidade. Ainda, alguns indicadores eram,

na verdade, estatísticas simples, cujo caráter era mais informativo do que indicativo e

que, em geral, pouco auxiliavam a gestão cotidiana da política. Por fim, havia poucos

indicadores transversais à política de assistência social, ou seja, que perpassassem todos

os seus âmbitos e que permitissem aos gestores, à sociedade e aos órgãos de controle

uma visão global acerca da execução.

A solução destes problemas permitiria à política realizar avanços importantes na coleta

de dados e, por consequência, no monitoramento e avaliação, na retroalimentação e na

prestação de contas à sociedade. A consultoria apontou essas questões e propôs soluções

que se baseavam nos conhecimentos e experiências da consultoria e dos consultores

envolvidos, alguns dos quais com longo histórico em gestões públicas, e também todo o

levantamento de informações dos operadores, efetuado na fase diagnóstica.

c. As propostas apresentadas

Foram elaborados novos instrumentais de monitoramento, um caderno de indicadores e

novos fluxos de coleta e sistematização dos dados. Tal como previsto no edital, durante

a elaboração de cada produto, equipes contratante e contratada se reuniram para discutir

o escopo e os principais elementos e, ao final da elaboração de cada um, houve uma

reunião de apresentação e entrega.

Para a formulação dos novos instrumentais de monitoramento foram desenvolvidas

planilhas no Microsoft Excel, conforme determinado no edital. Alguns princípios

nortearam esse trabalho:

1) Padronização. As descrições dos dados coletados foram uniformizadas.

2) Confiabilidade. A coleta do dado primário passou a ser individualizada e não mais

agregada. O preenchimento desagregado permitia a geração automática do instrumental

de monitoramento, reduzindo erros e necessidade de conferência.

3) Simplificação. Os layouts dos formulários de monitoramento foram elaborados por

tipologias de serviços similares, reduzindo a variedade de dezenas para apenas cinco. O

preenchimento do dado desagregado também permitia que a planilha fosse alimentada

diariamente, eliminando a sobrecarga de trabalho nos últimos dias do mês.

Juntamente com os novos instrumentais foram propostos processos mais céleres de

consolidação regional e municipal, com a utilização de dados mais confiáveis e

robustos.

O caderno de indicadores considerava o leque de indicadores existente e os organizava

quanto à forma de cálculo e fontes dos dados primários. Buscou-se defini-los

conceitualmente, permitindo a qualquer pessoa, mesmo fora do contexto da política,

compreender seus objetivos e ler os resultados. Foram criados novos, priorizando

indicadores de processo e de resultado, de forma a melhorar a capacidade informativa

do sistema de monitoramento e avaliação. Foram também propostos indicadores mais

simples, que passariam a compor estatísticas auxiliares. Além disso, foram concebidos

grupos de indicadores úteis para os gestores dos serviços, buscando a criação de sentido

para o preenchimento dos instrumentais de monitoramento e, sobretudo, a melhoria da

gestão do serviço com base na gestão de informações.

Por fim, foram propostos indicadores passíveis de agregação para todo o município ou

para cada uma das tipologias de serviço, permitindo que os gestores no nível central

tivessem um painel de monitoramento coerente com os objetivos de cada serviço e

comparável temporal e geograficamente, apurado em tempo hábil para tomadas de

decisão rápidas.

d. As relações

A receptividade da contratante aos primeiros produtos elaborados não foi positiva.

Considerando o conteúdo do diagnóstico apontando uma série de questões de diferentes

naturezas e a premissa da contratante de que o sistema de monitoramento e avaliação já

estava bem construído, funcionava bem e necessitava apenas de pequenos ajustes,

podemos compreender o impacto causado.

A partir da apresentação do diagnóstico, a relação entre contratante e contratada se

transformou de maneira mais evidente. As reuniões para elaboração dos demais

produtos passaram a ser momentos em que a tônica era uma tensão permanente,

verbalizada sob a forma de questionamentos relacionados ao diagnóstico e à pertinência

das propostas discutidas ou a impossibilidade – por parte da equipe contratante – de

cumprimento dos prazos acordados entre ambos. Com o tempo, o diálogo entre as partes

tornou-se escasso, e o processo de revisão e aprimoramento dos instrumentais, que

havia se transformado em uma revisão e aprimoramento do sistema de monitoramento e

avaliação da política, ficou prejudicado.

O período inicial de contratação previsto para quatro meses foi estendido e um novo

cronograma foi pactuado, prevendo a execução do trabalho em oito meses. Então, o

desafio da consultoria passou a ser o de realizar o trabalho da melhor forma possível,

cumprindo os objetivos da contratação, ao mesmo tempo em que não havia certeza de

que o órgão público validaria o trabalho. Ou mesmo de que as propostas de revisão de

instrumentais, indicadores e fluxos seriam aceitos e implementados. Algumas das

soluções propostas, no entanto, certamente ficaram aquém do necessário, em parte

devido à falta de informações relevantes para a conclusão do trabalho de forma mais

adequadas.

5. Análise

É fundamental compreender por que tais impasses e dificuldades ocorrem. As respostas

a essa questão podem contribuir para a elaboração de estratégias que levem à sua

superação de maneira eficaz e, por consequência, viabilizem o desenvolvimento de

avaliações mais robustas e úteis.

A contratação da consultoria em avaliação foi provocada por um organismo

internacional, um agente externo à própria secretaria dotado poder necessário para

desencadear um processo dessa natureza, dimensão e potencial de impacto na

instituição. Isso porque faz aportes financeiros relevantes para o desenvolvimento de

várias ações no município. Essa premissa determinou a montagem de um pouco claro

cenário que trazia, de antemão, uma questão crítica e determinante para o processo

como um todo: a origem externa da demanda não foi recebida pela equipe técnica

responsável pelo monitoramento e avaliação como uma oportunidade. Isso porque já

consideravam, como dito anteriormente, que o sistema de monitoramento e avaliação

implementado necessitava apenas de pequenos ajustes, em especial nos instrumentais. O

lugar ocupado pelas avaliações nas instituições burocráticas ainda está em construção.

Não raro, são associadas a elas o papel de cobrança e de aferição dos resultados do

trabalho dos profissionais e não da política em si. Isso prejudica a própria formação da

demanda (Garcia, 2015) e, com isso, todas as etapas subsequentes do processo

avaliativo. Inclusive, a definição dos responsáveis pela avaliação. Esse caso aporta a

peculiaridade de ter, ao longo do processo, se transformado em uma meta-avaliação pois

avaliou o processo de avaliação da política. Nesse sentido, uma equipe habituada por

ofício a avaliar se colocou em meio a uma situação inversa e se mostrou pouco

confortável com esse novo lugar.

Teria sido útil a criação de um quadro de referência (Garcia, 2015), para reconstruir o

ponto de onde haviam partido e permitir, com a obtenção dos resultados, evidenciar os

avanços e os resultados já alcançados. Esse quadro também poderia tornar os problemas

identificados impessoais, já que suas causas poderiam ser identificadas em momentos

cronologicamente distantes ou em circunstâncias que fogem ao controle da própria

equipe gestora.

A tradução do desconforto, na prática, foi um posicionamento refratário por parte da

equipe de gestora, mesmo antes da contratação da consultoria, como pode ser observado

no próprio edital de contratação, que determinava um escopo de trabalho pontual, com

um aporte de recursos financeiros pequeno, insuficiente para um trabalho de consultoria

mais complexo, que ao fim foi o que se transformou. Além disso, o cronograma

inicialmente proposto foi de apenas quatro meses, o que reforça essa percepção.

Esses elementos nos levam a supor que o objetivo da equipe contratante pretendia

constituir-se somente em um ‘espasmo avaliativo’ (Garcia, 2015), sem grandes

consequências para o cotidiano da execução da política no que tange aos seus processos

e conteúdos. Porém, a existência de um agente financiador determinando que uma

consultoria externa fosse contratada inviabilizou esses planos e ensejou a construção de

um discurso no qual os problemas já eram conhecidos e suas respostas certas já estavam

elaboradas. É uma consequência pensar que o recurso faltante era operacional e não

analítico e esse era o lugar da consultoria.

Mas demandas pouco consistentes trazem consigo incoerências. E o edital de

contratação previa, por exemplo, que o diagnóstico contemplasse em seu processo

diferentes estratégias de consulta de todas as pessoas envolvidas com o monitoramento,

em diferentes lugares da política. Compreendemos que a atribuição de valores

pertencentes ao coletivo (Spink, 2001) e não a um pequeno grupo gestor, incorre na

utilização de metodologias construcionistas, o que qualificamos como um avanço em

um processo avaliativo. Porém, uma vez ouvidas, as pessoas querem ter suas sugestões

e propostas analisadas e, sobretudo, querem saber que tratamento receberam suas

contribuições (Guba, Lincoln, 2011). O paradoxo é revelado quando a consultoria

incorporava uma sugestão proveniente dessa escuta ampla e esse ponto não era visto, de

imediato, como uma melhoria.

De todo modo, o edital previa atividades e etapas, como reuniões frequentes de

discussão e apresentação de cada um dos produtos e o desenvolvimento conjunto das

rotinas necessárias para a implementação dos resultados, com a realização de

treinamentos para a equipe central e para as equipes regionais. Com isso, a consultoria

incorporou à proposta de trabalho uma combinação de métodos tradicionais e

construcionistas.

Compreendemos que essa combinação agrega ao processo potencial de obtenção de

resultados melhores, mais coerentes com os objetivos e, sobretudo, mais úteis para a

organização, já que prevê a inclusão de múltiplos atores, o uso de dados de diversas

naturezas (qualitativos e quantitativos) (Guba e Lincoln, 2011) e a utilização de

estratégias diversas para conhecer o objetivo avaliado. Mas agrega riscos, já que

pressupõe um alinhamento de propósitos em favor da avaliação. Nesse caso, tal

combinação, aliada a uma cultura política ainda não completamente afeita aos novos

paradigmas da gestão pública e não disposta à execução do processo de forma

participativa, contribuiu para o relativo insucesso do trabalho de avaliação.

Em primeiro lugar, entendemos, a posteriori, que priorizar a adoção de métodos da

avaliação construcionista em detrimento dos métodos tradicionais teria possibilitado o

alcance de resultados mais satisfatórios. Mais do que diagnosticar e receitar a solução,

era importante ouvir as pessoas envolvidas, compreender suas expectativas, anseios,

frustrações e caminhos percorridos por elas até aquele momento. Atentar-nos para os

meios e estratégias propostas por elas para a solução dos problemas também por elas

identificados. Ou seja, mais do que qualquer outro instrumento, importava para o

sucesso do processo fazer as melhores perguntas que trariam as respostas mais

adequadas.

Teria sido importante compreender o contexto específico de inserção da política, as

pressões a que os atores estão submetidos e, com isso, compreender a tendência reativa

a quaisquer avaliações que possam representar a exposição negativa de seu trabalho.

Uma consultoria de avaliação pode ser, para essas pessoas, uma forma adicional de

pressão, que se juntaria às pressões de gestores, conselhos da sociedade civil e órgãos de

controle. Ainda há toda a subjetividade envolvida na recepção dos resultados. O

diagnóstico reconhecia qualidade e vantagens do processo de monitoramento executado.

Por outro lado, foram identificadas várias questões e pontos de melhoria que podem ter

sido lidos como fracassos pessoais. E lidar com os fracassos não é uma tarefa fácil

(Garcia, 2015).

Por isso, mais importante do que diagnosticar problemas objetivamente, como a ciência

moderna defende, é buscar de maneira conjunta, a construção de um processo dialético,

compreender os problemas e encontrar as soluções. Ou seja, a participação dos

operadores da política deveria ser intensa, não restrita ao papel de verbalizadores ou

respondentes, mas também como proponentes das mudanças que desejam, uma

avaliação realmente democrática (Spink, 2001).

A proposta de avaliação construcionista faz um convite à sensibilidade dos avaliadores

em reconhecer que há, na relação com os avaliados, determinadas interações envolvidas

em detrimento de outras, o que influencia as escolhas e decisões de ambos os lados.

“Quando se investiga algo, realidades são construídas e modificadas. Então, os

processos avaliativos são construídos e também modificados na relação” (Souza,

McNamee e Santos, 2010).

As dificuldades encontradas, que decorreram, em parte, da ausência de conhecimento

teórico e prático para aplicação da proposta construcionista, mas também da presença

ainda incipiente dessa metodologia na realidade das políticas públicas no Brasil,

poderiam ser superadas a partir da mudança na forma de fazer perguntas. Embora a

intenção tenha sido avaliar para contribuir, os agentes avaliados parecem ter

compreendido que as perguntas feitas queriam evidenciar as falhas.

Entre os problemas que se interpõem à adoção de metodologias construcionistas estão

uma cultura de avaliação, pouco favorável ao diálogo e a utilização de resultados como

insumos para aprendizagem (Garcia, 2015) e as demandas impostas por um processo

dessa natureza. Avaliações construcionistas precisam de mais tempo do que avaliações

tradicionais. E, nesse caso, costuma valer a regra de que ‘tempo é dinheiro’. Como, não

raro, recursos para avaliação não são previstos a priori, os montantes destinados a essa

atividade costumam ser escassos.

Em contextos como esse, é fundamental compreender que as ações de avaliadores

possuem centralidade no processo de avaliação, e que as escolhas metodológicas podem

aproximar ou repelir as pessoas avaliadas. Avaliadores devem atentar para o fato de que

perguntas limitam as respostas possíveis. “Fazer perguntas sobre problemas convida

respostas que elaboram, expandem e refinam uma realidade de problemas. Fazer

perguntas sobre o que é valorizado e sobre experiências de sucesso é elaborar, expandir

e construir possibilidades” (Souza, McNamee e Santos, 2010). Buscar criar um

ambiente colaborativo, onde soluções e impasses sejam pensados em conjunto, contribui

para superar a situações em que avaliados e avaliados parecem estar em lados opostos.

Ainda que o processo de avaliação realizado contivesse métodos construcionistas, é

forçoso reconhecer que o núcleo metodológico se constituía em diagnosticar e receitar.

Implicitamente, processos avaliativos assim conduzidos transmitem a ideia de que as

pessoas avaliadas, mesmo quando ouvidas, devem reconhecer o papel desenvolvido por

avaliadores e acatar suas posições e ideias. De certa maneira, há aqui uma

incongruência entre as formas como objetivos e métodos são comunicados entre as

partes. Ou seja, mesmo que o objetivo da avaliação seja o de contribuir para a melhoria

de processos e resultados, o que se comunica por meio desses métodos é que

avaliadores são julgadores dos avaliados. A rejeição ao processo avaliativo é, portanto,

uma reação “natural”.

Compreendemos, portanto, que processos avaliativos em contextos de baixa

institucionalização da avaliação requerem novas formas de abordagem. É preciso que

avaliadores compreendam seu lugar no processo e busquem criar um ambiente

favorável ao diálogo e ao trabalho coletivo. A utilização das premissas do método

construcionista, que sugere atenção sobre os tipos de perguntas e respostas formuladas

(Souza, McNamee e Santos, 2010) como primeira abordagem tende a contribuir para a

construção de uma relação cooperativa e construtiva. Ainda que em outros momentos

métodos tradicionais sejam empregados, o processo avaliativo conduzido por meio de

métodos que implicam numa relação horizontal entre avaliadores e avaliados possui

maior potencial de sucesso.

6. Considerações conclusivas

A cultura política ainda é um entrave para que a avaliação assuma uma posição central

nas políticas públicas. De modo geral, intervenções ainda não são pautadas em

diagnósticos consistentes e atuais e seu desenvolvimento é muito afetado por

sazonalidades políticas, que tendem a se caracterizar por descontinuidades quando

partidos e ideologias diferentes assumem o poder. Situações como essa impedem ou

dificultam o processo de avaliação no médio e longo prazos por impossibilitarem a

comparação.

Todavia, boas avaliações são necessárias para a eficácia das intervenções públicas e

para o desenvolvimento adequado de intervenções. Avaliações de políticas públicas no

Brasil, ou mesmo meta-avaliações, em geral se pautam por métodos tradicionais, que se

caracterizam por uma pretensa objetividade do avaliador frente aos avaliados e da

aplicação de técnicas predefinidas de coleta e análise de dados pouco afeitas a

adaptações durante o processo

Demonstramos, pelo caso aqui relatado e analisado, que determinados contextos

organizacionais demandam abordagens e técnicas de avaliação que superem os modelos

tradicionais de avaliação. A metodologia construcionista, que propõe uma abordagem

não objetiva, em que ambos os lados, de avaliadores e avaliados, são considerados como

partes que afetam e são afetados pelo processo, é um caminho que merece ser

considerado.

Entretanto, processos de avaliação dessa natureza demandam mais tempo e dinheiro

para sua execução. Considerando que ambos são recursos escassos na maioria das

organizações, em especial as públicas, isso se torna um problema. Se consideramos o

aporte de recursos específicos para avaliação, o problema se agrava, tendo em vista a

baixa institucionalização e reconhecimento dessa prática como fundamental para a

eficácia e efetividade de políticas públicas.

A análise a posteriori do caso relatado nos leva a propor a aplicação de métodos mistos

de avaliação. Elementos das avaliações tradicionais construcionistas podem ser

utilizados em conjunto, adaptados a cada contexto, permitindo que o processo de

avaliação supere barreiras culturais e institucionais, levando a um resultado vantajoso

para a organização e para as políticas públicas.

A defesa de métodos mistos é necessária. A exemplo do que tem sido praticado em

outros países, mostrando-se, inclusive, como uma alternativa para a redução dos custos

e do tempo e, ao mesmo tempo, o desenvolvimento de processos que, ao final, são

capazes de oferecer conclusões sobre os resultados e também de explicá-los.

Referências

Brasil. Ministério do Desenvolvimento Social e Combate à Fome. Censo SUAS 2014:

análise dos componentes sistêmicos da política nacional de assistência social. Brasília,

DF: MDS, Secretaria de Avaliação e Gestão da Informação; Secretaria Nacional de

Assistência Social, 2015.

Pereira, Luiz Carlos Bresser. 2005. “Da administração pública burocrática à gerencial”.

In: PEREIRA, Luiz Carlos Bresser, SPINK, Peter (orgs). Reforma do Estado e

Administração Pública Gerencial. Fundação Getúlio Vargas.

Faria, Carlos Aurélio. 2005. “A Política da Avaliação de Políticas Públicas”. Revista

Brasileira de Ciências Sociais – vol. 20 nº. 59.

Garcia, Ronaldo Coutinho. 2015. “Subsídios para organizar avaliações da ação

governamental”. In: CARDOSO JR. José Celso; CUNHA, Alexandre dos Santos

(orgs.). Planejamento e Avaliação de Políticas Públicas. Brasília: IPEA.

Guba, Egon G., y LINCOLN, Ivonna S. 2011. Avaliação de quarta geração. /tradução

Beth Honorato. Campinas: Editora da Unicamp.

Jannuzzi, Paulo de Martino. 2016. Monitoramento e avaliação de programas sociais:

uma introdução aos conceitos e técnicas. Campinas, SP: Editora Alínea, 2016.

Brasil, Ministério do Desenvolvimento Social e Agrário. Censo Suas – Bases e

Resultados. Censo SUAS 2015. Gestão Municipal. Disponível em

http://aplicacoes.mds.gov.br/snas/vigilancia/index2.php. Acesso em 09 jul. 2016.

Newcomer, Kathryn E., y Hatry, Harry P., y Wholey, Joseph S (orgs.). 2015.

Handbook of Practical Program Evaluation. New Jersey: Wiley. Fourth edition.

Pires, Roberto, y Sa e Silva, Fabio, y Lopez, Felix. 2010. “Métodos qualitativos de

avaliação e suas contribuições para o aprimoramento de políticas públicas” (capítulo

25). In: IPEA, Brasil em Desenvolvimento. Brasília: IPEA, pp. 661-688.

Souza, Laura, y McNamee, Sheilla, y Santos, Manoel. 2010. “Avaliação como

Construção Social: Investigação Apreciativa”. In: Psicologia & Sociedade, 22 (3), 598-

607.

Spink, Peter K. 2001. Avaliação Democrática: propostas e práticas. Coleção Abia:

Fundamentos da Avaliação nº 3. Rio de Janeiro: Associação Brasileira Interdisciplinar

de Aids.

Trevisan, Andrei; van Bellen, Hans. 2008. “Avaliação de políticas públicas: uma

revisão teórica de um campo em construção”. In: Revista de Administração Pública –

Rio de Janeiro 42(3):529-50, mai/jun.

Wu, Xun, Ramesh, M., Howlett, Michael, y Fritzen, Scott. 2014. “Avaliação de

Políticas Públicas”. In: Wu, Xun; Ramesh, M.; Howlett, Michael; Fritzen, Scott. Guia

de Políticas Públicas: Gerenciando processos. Brasília: ENAP.