Se acaban de publicar los resultados de la edición 2014 de la Evaluación Censal de Estudiantes del Perú. Esta evaluación mide competencia lectora y habilidad matemática al final del segundo grado de primaria en todas las escuelas del país (con algunas excepciones muy puntuales) y, se conduce anualmente desde 2007.
Los resultados son muy auspiciosos pues se aprecia una importante mejora en el desempeño medio de nuestros estudiantes. Así, por ejemplo, si en 2007 sólo entre 14-15 por ciento de los estudiantes lograba un desempeño satisfactorio en lectura, ese porcentaje había subido a entre 29-32 por ciento para 2013, y en 2014 experimentó un salto que ubica ese valor entre 39-43 por ciento. En el caso de matemáticas, los valores para los mismos años son de 7-8; 15-17; y 24-27 por ciento respectivamente.
(Una nota marginal, nótese que pongo los porcentajes como rango y no como valores puntuales, pues los valores robustos se reportan a partir de una muestra de control y, por lo mismo hay un margen de error; los intervalos que he usado corresponden a un nivel de confianza estadística del 95 por ciento)
Lo primero que me parece importante decir es que son buenas noticias (aunque aún insuficientes) ya que, más allá de los diferentes temas que podemos y debemos discutir, este progreso es consistente con lo que muestran otras fuentes de datos (como el estudio latinoamericano publicado en diciembre pasado, o el estudio de la OECD publicado en diciembre de 2013); todos los estudios apuntan en la misma dirección: los niveles de aprendizaje de los estudiantes peruanos aunque bajos, vienen mejorando de modo sistemático desde hace, por lo menos 14 años (ya que tenemos datos comparables de la prueba de la OECD desde 2001, por lo mismo, no sabemos si la mejoría empezó incluso antes).
Me parece de capital importancia no actuar con mezquindad frente a este hecho. El discurso tremendista que se ha instalado en los últimos años acerca de la educación peruana y graficado en la frase “tenemos la peor educación del mundo” no sólo se basa en la ignorancia, sino también tiene efectos nefastos sobre el debate educativo y sobre las propias realidades educativas. ¿Alguien cree que podremos, por ejemplo, reclutar a los estudiantes más talentosos que egresan de la secundaria como docentes si, al mismo tiempo, les decimos que lo que les espera es trabajar en el peor sistema educativo del mundo?
Lo segundo que es necesario mencionar tiene que ver con las disparidades internas que la prueba muestra. Como hemos anotado en un texto que preparamos con Juan León y Santiago Cueto con datos de 2007 a 2012 (disponible aquí), las brechas tienden a mantenerse excepto en el caso de las diferencias entre los resultados observados en escuelas estatales y no estatales (donde el éxodo de estudiantes hacia el sector privado es, potencialmente la causa principal de que el promedio de ese segmento disminuya –lo que, por cierto, plantea el problema de hasta dónde los datos son comparables en el tiempo cuando hay variaciones tan importantes en la conformación de las subpoblaciones). En particular las brechas urbano/rural y polidocente completo/multigrado se mantienen muy marcadas; ahora bien, un cambio en este aspecto supondría que la mejora se de a un ritmo mayor en las zonas hoy menos favorecidas.
Lo tercero que me parece central destacar tiene que ver con el problema de atribuciones. Seguramente (lo digo desde la comodidad de no estar en Lima sufriendo este espectáculo) en estos momentos hay más de uno que desea atribuirse la mejora y lo cierto es que es imposible determinar atribuciones con precisión pues el propio diseño de la evaluación no lo permite. Es posible que esta mejora sea el resultado de las mejoras generales en las condiciones de vida de los peruanos (lo más probable es que esto explique una fracción muy importante de los resultados como lo hemos mostrado para el caso de PISA); de políticas educativas nacionales y regionales enfocadas desde hace 20 años en mejorar aprendizajes; de mejoras en las prácticas docentes como resultado de su mejor situación económica (desde 1990 su salario real ha crecido más de cuatro veces y la mayoría de profesores que tenemos han ingresado a trabajar luego de 1990) y de políticas de apoyo a su labor; etc. Asimismo, es posible que parte de los resultados en la prueba se explique por efectos perversos de la misma como, por ejemplo, la cada vez más extendida práctica (que en algunos casos es política educativa regional como en Amazonas en 2013 y en Moquegua desde hace varios años) de preparar a los estudiantes para la prueba. Cualquiera que haya ido a una academia pre-universitaria o se haya preparado para algún examen en particular sabe que la preparación funciona como forma de mejorar el manejo de la prueba misma; así sirve para mejorar los puntajes pero no necesariamente, ni en la misma proporción, para mejorar los aprendizajes.
Este último punto es uno que me preocupa particularmente pues termina (dependiendo de cuán extendida esté esta práctica) desvirtuando la capacidad de la Evaluación Censal para decir algo sobre los aprendizajes y, por supuesto ya invalidó cualquier posibilidad de hacer rankings (que ya eran absurdos por otras razones). El carácter censal de la prueba hace que sus resultados tengan un valor simbólico importante, y si uno asocia a esos resultados retribuciones materiales (como se ha empezado a hacer desde finales del año pasado para lo cual ya se hace un ranking aunque separado por estratos), deriva de modo sistemático en mermar la capacidad de la Evaluación Censal para decir algo relevante. Ya era poco lo que decía antes, ahora, estas prácticas la limitan aún más. Darle demasiada importancia al termómetro deriva en que éste se termine rompiendo.
Es hora de pensar con detenimiento en un sistema nacional de evaluaciones de aprendizajes en serio. Para esto contamos con todas las capacidades profesionales y de visión estratégica (la UMC es, probablemente, una de las áreas más competentes y profesionales de todo el Estado peruano). Un Instituto independiente, cuya autonomía no pueda ser arrasada con decisiones torpes (como la decisión presidencial de crear la ECE que se tradujo en desechar todo el plan de evaluaciones que la UMC tenía entonces) nos puede permitir repensar varias cosas como, por ejemplo, dejar de invertir sumas importantes de recursos en una evaluación tan inútil (desde el punto de vista educativo) como nefasta (desde el punto de vista político) como PISA. Las evaluaciones muestrales de 2013 (cuyos resultados serán publicados muy pronto) cubrieron más áreas (incluso ciudadanía), con mayor profundidad y en más grados. Esta es una muestra de la capacidad con la que contamos para hacer cosas de las que realmente podamos sacar lecciones, y no enfocarnos en cosas que operen como el garrote o la zanahoria que “necesitan” ciertos modelos simplistas de interpretación de los asuntos humanos.
Hoy que hay mejoras indiscutibles, es un buen momento para repensar el sistema de evaluaciones de modo profesional y no en función de supuestas necesidades de gestión que “necesitan” que cada escuela tenga un termómetro que debe ser verificado por la autoridad central (esa forma de gestión, lo sabemos, es epistemológicamente absurda y políticamente ilusa, así como es capaz de crear más problemas de los que resuelve). En este contexto de mejora, los cambios que se introduzcan en el sistema de evaluaciones no podrían ser tildados de “intentos por ocultar la realidad” como dice la leyenda creada alrededor de la no publicación de los datos de Perú en el primer estudio latinoamericano de 1997 (si se quería ocultar la realidad, entonces, ¿por qué se pidió participar en PISA en el mismo momento? Hoy nadie menciona ese estudio latinoamericano pues hay plena conciencia sobre sus profundas debilidades).
Termino esta nota volviendo al inicio: el sistema educativo está mejorando, aún falta mucho, pero está mejorando. Sin negar los inmensos desafíos que tenemos, generar consenso sobre esta idea es vital para levantar el estigma creado a lo largo de los últimos años y que, simplemente, hace daño. Los niños aprenden cada vez un poquito más, ¿no es eso una buena noticia?
Felicitaciones César por tu análisis tan bien realizado. Es la hora de las personas preparadas que puedan contribuir con el desarrollo del país.
ResponderEliminarMil gracias Quique. Creo que tienes razón (no en cuanto a mí) sino en cuanto a que hay mucha gente valiosa que está cansada y se está decidiendo a pelear y contribuir más allá de los ámbitos privados en los que contribuyen desde hace mucho.
EliminarPara consolidar los avances e ir sobre paso seguro, ¿es posible detectar efectos como la inflación de puntajes o eso sólo podría hacerlo la UMC que tiene acceso a la bases datos completa?
ResponderEliminarEn este momento no es un tema de bases de datos (que son accesibles) sino de no contar con instrumentos que registren suficiente detalle como para ver los potenciales problemas. Ese es un problema de concepción de la ECE como termómetro simplista.
EliminarEntonces, si te entiendo bien, ¿tampoco sería posible detectar el efecto de aprendizaje/entrenamiento para la prueba? Por lo que me he informado, el entrenamiento no se limitó a las dos regiones que señalas, sino que al parecer fue una práctica más extendida.
ResponderEliminarSi los resultados de la ECE 2014 entran en la agenda pública, dicho debate podría llevar a un replantear la concepción de la ECE y convertirlo en un instrumento más potente.
Hasta donde yo se, no hay forma de ver ese efecto de modo sistemático. Cierto, yo sólo puse dos regiones de ejemplo, hay evidencia asistemática en varias partes. Lo que yo quiero plantear es justamente la necesidad de revisar a fondo la política de evaluaciones.
Eliminar