Supongamos que se hace, cada X años una evaluación del estado de la educación en muchos países.
Supongamos que se llama PISA, y los resultados son públicos, y se hizo en 2000, 2003, 2006, 2009 y 2012.
Supongamos además que los resultados en matemática fueron estos:
2012: 388
2009: 398
2006: 381
O sea una variación de -10 puntos en esa escala entre 2009 y 2012. Obviamente eso lleva a titulares catástrofe
acerca de la decadencia de la educación argentina, especialmente porque otros países de la región
tuvieron mejores resultados (que obviamente ignoran el resultado de 2006).
Pero ... bueno, si sabés de mi historia con esta clase de cosas sabés que hay un pero.
Resulta que eso que ves no es realmente el informe "oficial". Es el press release, que parece más la
tabla de un torneo de fútbol que un reporte estadístico o sociológico. El reporte oficial es ... más
complicado. Por ejemplo, contiene cosas como que los alumnos de Argentina tienen una mucha mayor
percepción de que sacar buenas notas en ciencias es importante que los de Alemania (90% a 77%) pero
no nos metamos a ver las mil tablas de cada reporte. Sigamos con los puntitos.
Por ejemplo, acá está lo que dice el reporte oficial de Argentina en 2009 en matemática:
¿Qué es eso? "Secundaria regular" quiere decir "alumos de secundariade 15 años". El "resto muestra" es gente
que no es alumna del grado escolar esperable, porque abandonó los estudios temporalmente,
o repitió, o está atrasado por algún otro motivo. El "total" es un promedio de toda la muestra.
Entonces resulta que ese número mágico subió del 2006 al 2009 17 puntos y bajó luego 10 puntos del 2009 al 2012.
Les dije que el reporte original es mucho más complicado. Una de esas complicaciones es que trata de indicar
si las diferencias son estadísticamente significativas o no. Es complicado de explicar, pero siempre cuando medís
una cosa complicada como esta, hay variaciones en cuanto te da. Siempre. Entonces, hay que tratar de distinguir
entre esa variación natural y azarosa y una tendencia real. Hay tests matemáticos para tener una idea.
En este caso, dice que los valores son estadísticamente significativos al 5% para diferencias de mas o menos 9 puntos.
La oscilacion argentina entre 2009 y 2012 está al borde de no ser significativa. Es explicable en un 80% por ruido en la
medición.
Por otro lado... ¿Saben quienes no están medidos? Los que no van al colegio.
Entonces, hay una manera muy sencilla de subir los puntajes. Hacé que vaya menos gente al secundario. Hacé que
en vez de repetir abandonen.
En Argentina, resulta que desde 2006 a 2012 el porcentaje de adolescentes de 15 que va al colegio no es constante.
No tengo el dato exacto porque no se categoriza por edad, pero en 1971, en la época que los viejos como yo
extrañan como una edad de oro (porque somos viejos y boludos) el porcentaje de población escolarizada era 63.4%
y en 2012 era del 90.9%
La cantidad de alumnos secundarios en Argentina (y recuerden que algunos de los del PISA son de primaria, repitentes, etc)
subió entre 2007 y 2012 de 11,262,362 a 12,108,740 (7.5%). En particular, en el secundario, subió de
3,471,738 a 3,813,545 (9,85%).
Tendría que correlacionarlo con las tablas de nacimientos y no pienso calentarme en hacerlo, pero que aumente más
el secundario que el primario en un país con población en crecimiento y escolarización primaria casi plena indica
que la escolarización secundaria subió mucho. No un poco. mucho.
Y sí, uno de los efectos de agregar gente antes excluída al universo que mide PISA es que los números bajan. Y eso no
está mal.