2 diciembre, 2025
Un nuevo estudio del académico de la Escuela de Administración UC y director del Centro UC para la Seguridad Pública, Cristóbal Weinborn, entrega una advertencia clave para el diseño de políticas de seguridad: la diferencia entre lo que se planifica y lo que realmente ocurre en la calle puede cambiar por completo los resultados de una política de seguridad pública.
El artículo, titulado “Addressing the Treatment-as-Assigned Assumption in Field Experiments: Lessons Learned From the Birmingham South Saturated Problem-Oriented Policing Hot Spots Experiment”, publicado en American Journal of Evaluation, analiza un experimento policial realizado en Birmingham (Reino Unido) y demuestra que la efectividad de una intervención depende, en gran medida, de si la policía cumple o no con la dosis real de patrullaje definida en el diseño original.
Weinborn explica que el experimento comparó dos estrategias en 81 “hotspots”, zonas pequeñas con alta concentración de delitos. Algunas debían recibir patrullajes adicionales y un trabajo intensivo de resolución de problemas (problem-oriented policing, POP), mientras que otras mantendrían solo el POP habitual.
En el papel, el diseño era claro. Sin embargo, el seguimiento por GPS reveló una realidad distinta: En dos de los tres bloques de zonas, los oficiales cumplieron con las visitas adicionales y el crimen cayó de manera significativa. Pero en un tercer bloque ocurrió lo contrario: los policías visitaron más las zonas de control que las zonas tratadas. Las zonas que recibieron más presencia real fueron las que mostraron reducción del delito, independiente de la asignación original.
Weinborn explica: “Este hallazgo tiene una implicancia profunda: si solo hubiésemos analizado el experimento según la asignación formal (como se hace en mucha de la investigación tradicional de este tipo de intervenciones) habríamos concluido que la intervención no funcionó o incluso que tuvo efectos negativos. Pero, al contrastar lo asignado con lo realmente entregado, se ve lo contrario: la intervención funciona cuando se ejecuta, y no funciona cuando no se ejecuta. Lo que marca la diferencia no es la intención de tratamiento del programa (como se denomina metodológicamente), sino su implementación”.
La importancia de medir la implementación real
Además del diseño experimental aleatorizado, el estudio empleó seguimiento GPS de cada patrulla para registrar visitas y tiempos exactos. Esta metodología permitió identificar una brecha fundamental entre diseño e implementación, un problema muy común en intervenciones policiales en distintos países.
La conclusión central es que la evaluación de políticas públicas puede fallar si no se mide qué se hizo realmente en terreno.
Implicancias para Chile: diseño viable, monitoreo real y evidencia útil
Weinborn también conecta estos hallazgos con el primer ensayo controlado aleatorizado de patrullajes focalizados realizado en Chile, donde la duración y adherencia del tratamiento afectaron la fuerza estadística del experimento.
A partir de estas experiencias, el académico plantea tres aprendizajes clave para el diseño de políticas de seguridad:
Según Weinborn: “Si no hacemos en la práctica lo que decimos que vamos a hacer, no solo debilitamos la política, sino que perdemos la posibilidad de generar evidencia útil para el país”.
El estudio refuerza la importancia de avanzar en intervenciones policiales que articulen diseño, implementación y evaluación. Para Weinborn, esto es fundamental para consolidar un modelo de Evidence-Based Policing en Chile: políticas públicas que funcionen, puedan demostrarse empíricamente y, por sobre todo, estén bien ejecutadas.
Lee el paper aquí.