El proceso
Tres pasos.
Una sola ciencia social.
Diseño de investigación
Revisión rigurosa de la literatura, definición de las preguntas de investigación y elaboración del plan de preanálisis: hipótesis, indicadores y procedimientos antes de iniciar el trabajo de campo.
01
Recolección y análisis transparente
Protocolos rigurosos de recolección, limpieza y procesamiento de datos. Piloto de instrumentos, revisión de par académico independiente, y documentación completa para garantizar replicabilidad.
Toda evaluación en OnceOnce sigue el mismo proceso riguroso, independientemente del tipo de diseño. Lo que cambia es la pregunta y el método, no el estándar.
02
Aprendizaje accionable
Contrastamos hallazgos con la literatura y la teoría de cambio inicial: no solo si el programa funcionó, sino por qué y en qué condiciones. Cada evaluación incluye estimación de costo-efectividad y recomendaciones para la siguiente iteración.
03
Tipos de evaluación
¿Qué tipo de evaluación necesito?
El diseño de investigación correcto depende de la pregunta que el programa necesita responder y de su estado de madurez. Estos son los enfoques que utilizamos, con sus estándares académicos de referencia.
Evaluación de procesos
¿El programa se está ejecutando como fue diseñado?
Programas nuevos o en fase de escalamiento que necesitan verificar fidelidad y cobertura antes de medir resultados
Evaluación de impacto
¿El programa está causando el cambio que atribuye?
El estándar más alto de evidencia. Requiere madurez operativa y recursos suficientes. Usa diseños experimentales o cuasi-experimentales para establecer causalidad.
Evaluación de mecanismos
¿Por qué y a través de qué vías funciona el programa?
Cuando se quiere ir más allá del efecto promedio e identificar los procesos causales que explican el cambio. Esencial para replicar o escalar con rigor.
Evaluación de heterogeneidad
¿Para quién funciona el programa, y para quién no?
Cuando se quiere tomar decisiones de focalización basadas en evidencia, analizando si los efectos varían según perfil, contexto o condición de los beneficiarios.
Evaluación de costo-efectividad
¿Cuánto impacto produce el programa por cada dólar invertido?
Indispensable para fundaciones que quieren maximizar el retorno social de su inversión y comparar su programa con alternativas disponibles.
Síntesis de evidencia
¿Qué dice la investigación acumulada sobre este tipo de intervención?
Punto de partida riguroso antes de diseñar, financiar o escalar una intervención. Revisión sistemática con estándares Campbell o Cochrane.
Guía de decisión
El diseño correcto
para cada momento
del programa
La madurez del programa determina qué preguntas tiene sentido hacerse y cuáles no. Un programa nuevo que intenta una evaluación de impacto está respondiendo la pregunta equivocada.
Programa nuevo
Primero verificar que funciona como fue diseñado
→ Evaluación de implementación · Síntesis de evidencia
Antes de medir resultados, es esencial saber que la intervención llega con la fidelidad esperada. La síntesis de evidencia permite saber qué dice la literatura sobre programas similares.
En operación
1 - 3 años
Entender qué funciona y para quién
→ Evaluación de mecanismos · Evaluación de heterogeneidad · Costo-efectividad
Con suficiente historial operativo, las preguntas más útiles son las de proceso causal y focalización. La costo-efectividad permite empezar a comunicar impacto a donantes sofisticados.
Programa maduro
Establecer causalidad con el estándar más alto
→ Evaluación de impacto (RCT / cuasi · experimental)
El diseño experimental o cuasi-experimental permite establecer causalidad y posicionar la intervención en el debate académico y filantrópico global.
Antes de escalar
Saber si los resultados se replican en nuevos contextos
→ Evaluación de mecanismos · Evaluación de heterogeneidad · Síntesis de evidencia
El escalamiento sin evidencia de mecanismos es riesgoso. Entender por qué funciona el programa es la condición para replicarlo con confianza.
Rigor independiente
Todas nuestras evaluaciones incluyen revisión de par académico
Cada evaluación de OnceOnce es revisada por un investigador independiente con formación de posgrado en el área metodológica correspondiente. No es un sello formal — es una garantía real de que el diseño y los análisis pueden sostenerse ante una audiencia académica.
Revisión del diseño de investigación
El par evalúa la solidez del diseño antes del trabajo de campo: hipótesis, estrategia de identificación, instrumentos e indicadores
Revisión del análisis y los resultados
Una vez procesados los datos, el par revisa los modelos, la interpretación de los resultados y las limitaciones del estudio.
Red de investigadores activos
Seleccionamos el par según el área temática del programa: primera infancia, salud mental, educación, cohesión social, medio ambiente y más.