top of page

Once | Evaluaciones

Evaluaciones a la medida del programa

Acompañamos a fundaciones y organizaciones a construir la pregunta correcta, elegir el método adecuado y producir evidencia accionable.

El proceso

Tres pasos. 
Una sola ciencia social.

Diseño de investigación   

 

Revisión rigurosa de la literatura, definición de las preguntas de investigación y elaboración del plan de preanálisis: hipótesis, indicadores y procedimientos antes de iniciar el trabajo de campo.

01

Recolección y análisis transparente

​

Protocolos rigurosos de recolección, limpieza y procesamiento de datos. Piloto de instrumentos, revisión de par académico independiente, y documentación completa para garantizar replicabilidad.

Toda evaluación en OnceOnce sigue el mismo proceso riguroso, independientemente del tipo de diseño. Lo que cambia es la pregunta y el método, no el estándar.

02

Aprendizaje accionable​

​

Contrastamos hallazgos con la literatura y la teoría de cambio inicial: no solo si el programa funcionó, sino por qué y en qué condiciones. Cada evaluación incluye estimación de costo-efectividad y recomendaciones para la siguiente iteración.

03

Tipos de evaluación

¿Qué tipo de evaluación necesito? 

El diseño de investigación correcto depende de la pregunta que el programa necesita responder y de su estado de madurez. Estos son los enfoques que utilizamos, con sus estándares académicos de referencia.

Evaluación de procesos

¿El programa se está ejecutando como fue diseñado?

Programas nuevos o en fase de escalamiento que necesitan verificar fidelidad y cobertura antes de medir resultados

Evaluación de impacto

¿El programa está causando el cambio que atribuye?

El estándar más alto de evidencia. Requiere madurez operativa y recursos suficientes. Usa diseños experimentales o cuasi-experimentales para establecer causalidad.

Evaluación de mecanismos

¿Por qué y a través de qué vías funciona el programa?

Cuando se quiere ir más allá del efecto promedio e identificar los procesos causales que explican el cambio. Esencial para replicar o escalar con rigor.

Evaluación de heterogeneidad

¿Para quién funciona el programa, y para quién no?

Cuando se quiere tomar decisiones de focalización basadas en evidencia, analizando si los efectos varían según perfil, contexto o condición de los beneficiarios.

Evaluación de costo-efectividad

¿Cuánto impacto produce el programa por cada dólar invertido?

Indispensable para fundaciones que quieren maximizar el retorno social de su inversión y comparar su programa con alternativas disponibles.

Síntesis de evidencia

¿Qué dice la investigación acumulada sobre este tipo de intervención?

Punto de partida riguroso antes de diseñar, financiar o escalar una intervención. Revisión sistemática con estándares Campbell o Cochrane.

Guía de decisión

El diseño correcto
para cada momento
del programa

La madurez del programa determina qué preguntas tiene sentido hacerse  y cuáles no. Un programa nuevo que intenta una evaluación de impacto está respondiendo la pregunta equivocada.

Programa nuevo

Primero verificar que funciona como fue diseñado

→ Evaluación de implementación · Síntesis de evidencia

​

Antes de medir resultados, es esencial saber que la intervención llega con la fidelidad esperada. La síntesis de evidencia permite saber qué dice la literatura sobre programas similares.

En operación

1 - 3 años

Entender qué funciona y para quién

→ Evaluación de mecanismos · Evaluación de heterogeneidad · Costo-efectividad​

 

Con suficiente historial operativo, las preguntas más útiles son las de proceso causal y focalización. La costo-efectividad permite empezar a comunicar impacto a donantes sofisticados.

Programa maduro

Establecer causalidad con el estándar más alto

→ Evaluación de impacto (RCT / cuasi ·  experimental)

​

El diseño experimental o cuasi-experimental permite establecer causalidad y posicionar la intervención en el debate académico y filantrópico global.

Antes de escalar

Saber si los resultados se replican en nuevos contextos

→ Evaluación de mecanismos  ·  Evaluación de heterogeneidad ·   Síntesis de evidencia

​

El escalamiento sin evidencia de mecanismos es riesgoso. Entender por qué funciona el programa es la condición para replicarlo con confianza.

Rigor independiente

Todas nuestras evaluaciones incluyen revisión de par académico

Cada evaluación de OnceOnce es revisada por un investigador independiente con formación de posgrado en el área metodológica correspondiente. No es un sello formal — es una garantía real de que el diseño y los análisis pueden sostenerse ante una audiencia académica.

Revisión del diseño de investigación

El par evalúa la solidez del diseño antes del trabajo de campo: hipótesis, estrategia de identificación, instrumentos e indicadores

Revisión del análisis y los resultados

Una vez procesados los datos, el par revisa los modelos, la interpretación de los resultados y las limitaciones del estudio.

Red de investigadores activos

Seleccionamos el par según el área temática del programa: primera infancia, salud mental, educación, cohesión social, medio ambiente y más.

Once | Evaluaciones

¿Qué pregunta necesita responder su programa?

Una conversación de 30 minutos es suficiente para identificar el diseño evaluativo más adecuado para su momento y sus recursos.

bottom of page