En este trabajo se presenta una evolución de lo expuesto en CACIC 2000, continuando la discusión planteada sobre los aspectos a considerar en la evaluación de software educativo y presentando una propuesta “mejorada” para medir calidad y resultados de un producto informático en el aula.
Esta propuesta surge como resultado de las experiencias realizadas con docentes y alumnos de la Facultad de Informática de la UNLP, donde se estudió sistemáticamente el Visual Da Vinci como herramienta informática utilizada durante el Curso de Ingreso, utilizando la planilla definida en el año 2000. Posteriormente se tomaron en cuenta las observaciones que se hicieron al uso de tal planilla y se realizaron ajustes (estudiando experimentalmente diferentes software educativos) que condujeron a la propuesta modificada que se expone.
El aporte más importante fue la división de la planilla original de evaluación en dos, una para el docente y otra para el alumno/usuario. Si bien muchos aspectos en estudio son comunes, resulta claro que hay elementos en la valoración de calidad que difieren según la “clase” de evaluador.
Los criterios tenidos en cuenta en la evaluación constituyen una base de juicio valorativo, que es sólo indicativa, pues estamos convencidos que no existen independientemente de un docente concreto y un grupo concreto de alumnos. Por lo tanto, los criterios considerados en la evaluación ofrecen orientaciones para una descripción del uso posible y pedagógicamente viable.