Hacia el cierre de la brecha en la evaluación: Lecciones sobre tres recientes evaluaciones de impacto de programas sociales en América Latina y el Caribe

AuthorLorenzo Moreno - Larissa Campuzano - Dan Levy - Randall Blair
PositionMathematica Policy Research, Princeton, N.J. - Mathematica Policy Research, Princeton, N.J. - John F. Kennedy School of Government, Harvard University, Cambridge, MA - Mathematica Policy Research, Princeton, N.J.
Pages1-24
BIENESTAR Y POLITICA SOCIAL
VOL 5, NÚM. 2, pág. 1-24
1
HACIA EL CIERRE DE LA BRECHA EN LA EVALUACIÓN:
LECCIONES SOBRE TRES RECIENTES EVALUACIONES DE
IMPACTO DE PROGRAMAS SOCIALES EN
AMÉRICA LATINA Y EL CARIBE
*
Lorenzo Moreno
Mathematica Policy Research, Princeton, N.J.
lmoreno@mathematica-mpr.com
Larissa Campuzano
Mathematica Policy Research, Princeton, N.J.
lcampuzano@mathematica-mpr.com
Dan Levy
John F. Kennedy School of Government, Harvard University, Cambridge, MA
dan_levy@harvard.edu
Randall Blair
Mathematica Policy Research, Princeton, N.J.
rblair@mathematica-mpr.com
Resumen
pesar de la reciente demanda creciente por parte de financiadores y gobiernos, las
evaluaciones de impacto rigurosas en América Latina y el Caribe siguen siendo la
excepción más que la regla. Muchas evaluaciones de impacto solicitadas son débiles desde el
A
*Las opiniones expresadas aquí son las de los autores y no deberán ser atribuidas a Mathematica Policy Research,
a la Millennium Challenge Corporation, al Banco Interamericano de Desarrollo, al Banco Mundial, o a ninguno
de los países miembros de estas agencias.
Agradecimientos: Varias personas proporcionaron sugerencias valiosas para hacer este trabajo más útil. Rebecca
H. Tunstall de la Millennium Challenge Corporation (MCC) nos alentó a escribir este documento e hizo
comentarios reveladores sobre las políticas de la MCC y El Salvador “Compact”. Vince Ruddy, director regional
de la MCC en El Salvador, y Franck Wiebe, jefe economista de la MCC, también proporcionaron comentarios
y aclaraciones valiosos que mejoraron este trabajo. En Mathematica Policy Research, nuestro colega Kenneth
Fortson revisó este trabajo y proporcionó sugerencias útiles para mejorarlo. Además, recibimos observaciones
útiles de los colegas de Mathematica en un seminario interno. También nos gustaría agradecer a Iliana Yashine
de El Colegio de México en ciudad de México, por su revisión detallada de nuestro trabajo y sus observaciones
reveladoras. Además, estamos en deuda con los participantes de la conferencia “Haciendo Operativas las
Evaluaciones de Impacto de Programas Sociales,” que tuvo lugar en la Ciudad de México el 13 de febrero de
2009. Finalmente, agradecemos a Ernesto Treviño y María José Ramírez, en la Universidad Diego Portales en
Chile, por sus comentarios útiles sobre este trabajo.
2
HACIA EL CIERRE DE LA BRECHA EN LA EVALUACIÓN:
LECCIONES SOBRE TRES RECIENTES EVALUACIONES DE IMPACTO DE
PROGRAMAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE
Introducción
espués de cinco décadas de trabajo y miles de millones de dólares invertidos por parte de
gobiernos de países en desarrollo e instituciones multilaterales, tenemos una comprensión
limitada de qué tipos de intervenciones son exitosas para mitigar la pobreza y mejorar los resultados
en educación, empleo, salud y nutrición en países en desarrollo. Las evaluaciones de impacto,
estudios que buscan valorar si los cambios en resultados sociales y económicos pueden ser
atribuidos a programas específicos, tienen el potencial para mejorar sustancialmente dicha
comprensión. Al medir el efecto de programas sociales con un alto grado de precisión, fiabilidad y
validez, las evaluaciones de impacto pueden incrementar la base de conocimiento de las
organizaciones para la asistencia en el desarrollo y proporcionarles una guía para intervenciones
futuras (Savedoff y Levine 2006).
El enfoque más riguroso para la evaluación de impacto es la asignación al azar, mediante la
cual algunas unidades (tales como individuos, grupos, o áreas geográficas) son asignadas de
manera aleatoria a una intervención y otras unidades son asignadas de manera aleatoria al grupo
de control (es decir, el statu quo). La solidez de la asignación aleatoria es que sólo depende de
unos cuantos supuestos para afirmar que una intervención causó los resultados medidos. Por esta
razón, la asignación aleatoria es ampliamente aceptada como la “regla de oro” de la evaluación de
impacto entre académicos, agencias gubernamentales, e instituciones patrocinadoras multilaterales.1
Sin embargo, la asignación aleatoria no es apropiada para toda evaluación de impacto,
Palabras clave: Evaluación de impacto, brecha en la evaluación, mejores prácticas, programas de desarrollo humano,
programas de desarrollo productivo, estudio de caso, factores institucionales, América Latina y el Caribe.
Clasificación JEL: C93, H43, O19.
punto de vista metodológico, y por lo tanto, sólo útiles marginalmente en la evaluación de
impacto de intervenciones sociales. Otras evaluaciones de impacto presentan metodologías de
investigación sólidas en su concepción, pero enfrentan retos institucionales considerables
durante puntos clave en las fases de diseño e implementación. Este documento identifica algunas
de las barreras que limitan el diseño e implementación de evaluaciones de impacto rigurosas
en esta región, así como varios habilitadores para el diseño e implementación exitosos de
dichas evaluaciones. El trabajo también da una idea general de algunas prácticas clave para
el diseño e implementación de evaluaciones de impacto de alta calidad en América Latina y el
Caribe. Usamos una metodología de estudio de caso que combina nuestra experiencia en el
diseño e implementación de evaluaciones de impacto en tres programas sociales en progreso
o recientes en El Salvador, Jamaica y México.
1 Por ejemplo, el U.S. Department of Education’s What Works Clearinghouse, quien revisa y valora numerosos
estudios educativos a nivel nacional, considera a la asignación aleatoria el diseño de evaluación óptimo. La
clasificación más alta que un diseño cuasi-experimental bien implementado puede recibir por parte de la
Clearinghouse es “Cumple con las Normas de Evidencia con Reservas.”
D

To continue reading

Request your trial

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT