En el programa Servicio País (de la Fundación para la Superación de la Pobreza) hace algunos años comenzamos a trabajar en Evaluación Participativa (EP) en un intento, algo desesperado, por desarrollar evaluaciones que fueran más coherentes con la lógica interna del programa. Éste promueve un modelo promocional y colectivo, en el que las organizaciones locales son el corazón del desarrollo concreto, por sobre las personas individuales.
El modelo de evaluación hasta entonces se construía únicamente de instrumentos cuantitativos, en el que la unidad de análisis eran personas individuales, y los criterios de evaluación provenían de un marco lógico. Este sistema servía para calcular resultados de logro. Sin embargo, desde el propósito del programa, este modelo era insuficiente para dar cuenta de “otros” resultados que sólo podrían visibilizarse utilizando evaluaciones colectivas que dieran protagonismo a los actores locales y sus expectativas.
Puesto que Servicio País implementa intervenciones en todas las regiones de Chile, se requería desarrollar EP en diversas intervenciones territorialmente separadas y facilitadas por equipos ubicados en distintas regiones. De este modo, diseñamos una metodología general que fuera suficientemente flexible para poder adaptarse a los contextos locales, y así constituimos un Equipo de Evaluación Central. Nuestro propósito era transmitir este método de EP a los equipos locales, para que pudieran desarrollarlo en sus territorios con el apoyo del equipo central de manera remota o presencial en algunos casos.
Con el tiempo, y después de poder mirar lo ocurrido con perspectiva, me llama la atención una dificultad esencial que afectó el proceso de diseño y ejecución de los ejercicios de EP. Me refiero a habernos encontrado con una resistencia general, desde todos los actores para “navegar” en el proceso de evaluación participativa, en tanto todos teníamos pre-conceptos muy instaladas acerca de lo que es y cómo se ejecuta la evaluación. Observé que estos pre-conceptos correspondían a entender a la evaluación como un concepto íntimamente asociado a la satisfacción, a las encuestas individuales, al paradigma de las consultas definidas por un evaluador externo. Todo estos pre-conceptos nos impedían abrir la mente y evaluar de un modo diferente.
Esto podría parecer algo poco relevante y fácil de sortear. Pero, en la realidad, esta “inercia” de la evaluación ha sido una dificultad constante, pues superarla implica cambiar nuestros paradigmas que están profundamente instalados desde nuestra formación y desde la fuerza de la tradición evaluativa. Esa inercia, en nuestra experiencia se expresaba en diversos actores. En los equipos de profesionales que conformamos los cuerpos evaluadores caemos en la tentación de diseñar matrices de evaluación colmadas de criterios evaluativos externamente definidos.
Además, reproducimos constantemente el discurso tradicional evaluativo en el que nos llamamos a nosotros mismos ”encuestadores” o “moderadores”, en vez de “facilitadores”. Asimismo, tendemos a diseñar espacios evaluativos donde prima la lógica “consulta y respuesta”, posicionando al evaluador en un lugar jerárquico que sin duda no comulga con la lógica participativa. Si bien, intentábamos superar estos pre-conceptos desde la EP, permanentemente nos encontrábamos con acciones que provenían de esa inercia tradicional y que debíamos intentar revertir.
En otros actores como las personas de organizaciones comunitarias que participaban en los talleres evaluativos, estos pre-conceptos también se observaban. Por ejemplo, esto era visible en los primeros talleres, en los que les costaba bastante esfuerzo comprender la propuesta de evaluación colectiva, puesto que se les convocaba a un espacio de evaluación, se les observaba muy dispuestos a contestar, a reaccionar ante preguntas y, en ocasiones, se mostraban, especialmente al comienzo, un poco desconcertados por la propuesta lúdica y participativa del taller. Algo similar ocurría con funcionarios municipales que fueron convocados a las sesiones evaluativas.
Por último, como organización de la sociedad civil que cuenta con financiamiento público, hemos lidiado permanentemente con contrapartes estatales que exigen el reporte de resultados de logro desde una perspectiva positivista y que no están preparadas para aceptar la lógica de EP como un método válido de evaluación.
Con todo lo anterior, para avanzar en mejores formas de EP, necesitamos cambiar de mirada, instalar nuevos enfoques de evaluación más abiertos, flexibles, desde la lógica “bottom-up” (desde abajo hacia arriba), en todos los niveles; evaluadores, actores locales participantes, trabajadores en organismos del Estado, diseñadores de política y programas. Esto requiere esfuerzos permanentes para capacitarnos, preparar a nuestros equipos de evaluadores-facilitadores, y promover en las instituciones del Estado la apertura evaluativa, sembrando un proceso de “conversión” de los pre-conceptos sobre evaluación, que nos movilicen hacia evaluaciones más integradoras.
Carmen Luz Sánchez | Coordinadora Gestión Programática y Evaluación. Programa Servicio País, Fundación para la Superación de la Pobreza (Chile)