Estandarización de las métricas de liderazgo público
- Andrés Gómez
- Jul 16
- 2 min read
En muchos programas sociales, los datos se recopilan pero no se usan. Se llenan formularios, se hacen informes, pero rara vez esa información se traduce en aprendizajes reales que mejoren las decisiones. Por eso, cuando asumimos el reto de diseñar un sistema de monitoreo y un sistema de gestión del conocimiento, sabíamos que no se trataba solo de medir, sino de construir una arquitectura de aprendizaje que fortaleciera la estrategia de impacto de la organización.
Medir el impacto en tres niveles: individual, comunitario y estructural
Partimos de una ambición metodológica clara: diseñar un sistema que permitiera capturar los efectos de la intervención a nivel individual (cómo cambia la vida de quienes participan), comunitario (cómo se transforman las dinámicas colectivas) y estructural (cómo se activan procesos de cambio sistémico).
Para lograrlo, construimos un sistema de monitoreo basado en métodos mixtos. Combinamos herramientas cuantitativas, como encuestas estandarizadas, con técnicas cualitativas, como entrevistas y ejercicios participativos. Establecimos dos momentos de medición: una línea base para capturar los cambios inmediatos, y una medición de seguimiento doce meses después para evaluar la sostenibilidad de los resultados.
Entre los instrumentos diseñados destacamos encuestas sobre liderazgo y capital social, métricas sobre activación de ecosistemas, y un juego de economía experimental para medir niveles de confianza y cooperación en las redes comunitarias.
Del monitoreo a la toma de decisiones
Pero medir no era suficiente. Queríamos que los datos recogidos se convirtieran en aprendizajes útiles para quienes toman decisiones. Por eso diseñamos también un sistema de gestión del conocimiento, orientado a transformar información en acción.
Este sistema incluyó una agenda de aprendizaje con preguntas estratégicas, espacios de discusión para interpretar colectivamente los datos y alianzas con expertos para enriquecer el análisis. El resultado fue un circuito de retroalimentación donde los hallazgos del monitoreo alimentan mejoras reales en los programas.
Qué aprendimos
Después del piloto, identificamos oportunidades clave para optimizar la intervención. Recomendamos fortalecer la selección de participantes para asegurar una mayor representatividad y equidad. Propusimos experimentar con la dosificación de los “tratamientos”, es decir, ajustar el número y tipo de actividades para identificar el mínimo viable que genera cambios significativos. También resaltamos la necesidad de crear un marco interno que permita seguir evaluando los programas a lo largo del tiempo, impulsando así una cultura de mejora continua basada en evidencia.
Este proyecto nos reafirmó algo que creemos profundamente: medir bien no es una carga administrativa, es una forma de cuidar el impacto. Y construir sistemas de aprendizaje no es un lujo, es el camino más seguro hacia la transformación social.
Comments