--- author: '' category: '' date: 2013/12/10 16:04:33 description: '' link: '' priority: '' slug: porcentajes-mentirosos tags: '' title: Porcentajes Mentirosos type: text updated: 2013/12/10 16:04:33 url_type: '' --- Supongamos que se hace, cada X años una evaluación del estado de la educación en muchos países. Supongamos que se llama PISA, y los resultados son públicos, y se hizo en 2000, 2003, 2006, 2009 y 2012. Supongamos además que los resultados en matemática fueron estos: * 2012: 388 * 2009: 398 * 2006: 381 O sea una variación de -10 puntos en esa escala entre 2009 y 2012. Obviamente eso lleva a titulares catástrofe acerca de la decadencia de la educación argentina, especialmente porque otros países de la región tuvieron mejores resultados (que obviamente ignoran el resultado de 2006). Pero ... bueno, si sabés de mi historia con esta clase de cosas sabés que hay un pero. Resulta que eso que ves no es realmente el informe "oficial". Es el press release, que parece más la tabla de un torneo de fútbol que un reporte estadístico o sociológico. El reporte oficial es ... más complicado. Por ejemplo, contiene cosas como que los alumnos de Argentina tienen una mucha mayor percepción de que sacar buenas notas en ciencias es importante que los de Alemania (90% a 77%) pero no nos metamos a ver las mil tablas de cada reporte. Sigamos con los puntitos. Por ejemplo, acá está lo que dice el reporte oficial de Argentina en 2009 en matemática: * Secundaria regular: 421 * Resto muestra: 337 * Total muestra: 388 ¿Qué es eso? "Secundaria regular" quiere decir "alumos de secundariade 15 años". El "resto muestra" es gente que no es alumna del grado escolar esperable, porque abandonó los estudios temporalmente, o repitió, o está atrasado por algún otro motivo. El "total" es un promedio de toda la muestra. Entonces resulta que ese número mágico subió del 2006 al 2009 17 puntos y bajó luego 10 puntos del 2009 al 2012. Les dije que el reporte original es mucho más complicado. Una de esas complicaciones es que trata de indicar si las diferencias son estadísticamente significativas o no. Es complicado de explicar, pero siempre cuando medís una cosa complicada como esta, hay variaciones en cuanto te da. Siempre. Entonces, hay que tratar de distinguir entre esa variación natural y azarosa y una tendencia real. Hay tests matemáticos para tener una idea. En este caso, dice que los valores son estadísticamente significativos al 5% para diferencias de mas o menos 9 puntos. La oscilacion argentina entre 2009 y 2012 está al borde de no ser significativa. Es explicable en un 80% por ruido en la medición. Por otro lado... ¿Saben quienes no están medidos? Los que no van al colegio. Entonces, hay una manera muy sencilla de subir los puntajes. Hacé que vaya menos gente al secundario. Hacé que en vez de repetir abandonen. En Argentina, resulta que desde 2006 a 2012 el porcentaje de adolescentes de 15 que va al colegio no es constante. No tengo el dato exacto porque no se categoriza por edad, pero en 1971, en la época que los viejos como yo extrañan como una edad de oro (porque somos viejos y boludos) el porcentaje de población escolarizada era 63.4% y en 2012 era del 90.9% La cantidad de alumnos secundarios en Argentina (y recuerden que algunos de los del PISA son de primaria, repitentes, etc) subió entre 2007 y 2012 de 11,262,362 a 12,108,740 (7.5%). En particular, en el secundario, subió de 3,471,738 a 3,813,545 (9,85%). Tendría que correlacionarlo con las tablas de nacimientos y no pienso calentarme en hacerlo, pero que aumente más el secundario que el primario en un país con población en crecimiento y escolarización primaria casi plena indica que la escolarización secundaria subió *mucho*. No un poco. **mucho**. Y sí, uno de los efectos de agregar gente antes excluída al universo que mide PISA es que los números bajan. Y eso no está mal.