Archivos por Etiqueta: evaluación

psicología educativa UDIMA

Psicología educativa: del orientador a la educación no formal

Tras la última sesión del ciclo de conferencias de Y después de graduarme en psicología qué, la UDIMA ofreció a los egresados una mirada a la rama educativa de la psicología. Las profesoras María Luna y Ana Huertes dibujaron una «panorámica» de la psicología educativa en España. Es decir, qué salidas profesionales existen y dónde podemos encontrar psicólogos trabajando en este campo, según el contexto educativo. Un área «variada y cada vez más valorada para contribuir al aprendizaje y la calidad de vida de las personas», comentó Luna.

La profesora de Psicología del Aprendizaje y de la Educación de la UDIMA detalló primero cuáles son las funciones principales del psicólogo en esta especialidad. Y que incluyen tanto la investigación (generar conocimiento teórico), como la intervención y ayuda en actividades educativas. En qué grado pesará una más que la otra dependerá del contexto de acción. Si e us un contexto de educación formal (colegios y academias) o informal (desde familias o editoriales hasta asociaciones y organizaciones específicas).

No obstante, su trabajo sigue encaminado a mejorar la salud psicológica de las personas en los procesos de enseñanza-aprendizaje (psicología del desarrollo, aprendizaje, educación…). Áreas en las que el psicólogo «ya tiene herramientas de base», comentó Luna. En este sentido, entre las primeras opciones que aparecen está la de seguir formándose con másteres oficiales o no, entre los que destaca el Máster de Profesorado de Secundaria en la especialidad de Orientación Educativa.

Orientador académico y apoyo del aprendizaje

El título es obligatorio para acceder a una de las áreas «más relevantes» de la psicología educativa: la orientación; tanto en centros privados como públicos. Además es «muy valorado» (aunque no sea obligatorio) en las instituciones del contexto no formal (editoriales, empresas, gabinetes…). La profesora Ana Huertes de Psicología del Desarrollo y orientadora, explicó los entresijos del título (que entre otras cosas requiere un mínimo de B1 en inglés) que consta de 60 créditos ECTS y 1.600 horas de formación.

El máster (de dos o tres trimestres) cuenta con la especialidad de orientación entre sus 20 opciones. En esta, busca aumentar los conocimientos sobre las necesidades educativas especiales del alumnado en Infantil, Primaria y Secundaria. Y es que, aunque se ejerza como profesor/a de Secundaria, el título permite «prestar servicio» a las demás etapas. Un curso con un programa «bastante completo» de asignaturas sobre el proceso de enseñanza-aprendizaje, la acción tutorial o las necesidades especiales del alumno, defendió Huertes.

En el día a día del orientador, la profesora desgranó los tres pilares fundamentales de su trabajo: la orientación académica profesional (sobre todo en Secundaria, cuando escogen el itinerario e intentan «identificar su vocación» para elegir su rama y su Grado); el plan de acción tutorial, y el apoyo al proceso de enseñanza-aprendizaje. Todas ellas, en definitiva, tareas enfocadas a evaluar y mejorar la estancia y evolución educativa de los estudiantes. De ferias educativas a sesiones grupales o individuales con profesores y/o familiares, o pruebas y actividades psicopedagógicas y de convivencia (necesidades específicas, igualdad, prevención del acoso…).

«El orientador tiene una labor muy importante en los centros, y su trabajo es muy dinámico pues siempre está relacionado con las necesidades que van surgiendo en el centro», defendió la profesora de la UDIMA.

Visión no formal, también psicológica

La profesora Luna apuntó que estos profesionales no siempre trabajan dentro del centro escolar, sino que pueden formar parte de equipos «multidisciplinares» de atención temprana. Equipos que se vinculan y apoyan tanto al centro como a las familias. Así como equipos «de referencia» para tratar temas específicos como las discapacidades severas o las altas capacidades.

No obstante, las docentes trataron de «abrir un poco el foco» y salir de la educación formal. Así, también hay empresas e instituciones de muchos tipos donde la mirada educativa del psicólogo «tiene mucho que decir». Trabajando además de forma habitual con esos equipos multidisciplinares (pedagogos, maestros, sociólogos, trabajadores y educadores sociales…).

El abanico de puestos abarca lugares como editoriales, empresas de educación extraescolar (deportes, artes), museos, ludotecas, programas de televisión o videojuegos. También se mueve en Centros de Atención a las Familias (CAF), gabinetes de autoempleo o asociaciones y ONGs. Son ámbitos de trabajo que ofrecen productos o servicios donde podemos encontrar psicólogos apoyando procesos educativos (aunque no sea para conseguir un título oficial, pero donde «sí que se aprende», comentaba Luna).

El psicólogo participará en el diseño de contenidos educativos formales y no formales, en la formación docente y extraescolar (niños y adultos), así como en la transmisión de información pedagógica al público general (museos). Ahí la adaptación y evaluación de los contenidos será clave (TV, videojuegos), y prestará servicios fundamentales para familias y juzgados (donde «se podría aumentar» el número de puestos). También se coordinará con los servicios sociales, e instituciones que buscan atajar necesidades de ciertas zonas y comunidades concretas.

Ventajas y limitaciones de las rúbricas para la medición de competencias

Durante la última década, y tras la implantación del plan Bolonia en la educación universitaria, han surgido una serie de cambios en los procesos de enseñanza -aprendizaje. La evaluación educativa no es ajena a dichos cambios, pues ha pasado de basarse en un paradigma simplista en el que se evaluaban situaciones artificiales al final del curso o proceso educativo a una evaluación continua (no terminal) basada en competencias y situaciones reales en la que no se busca clasificar al alumno de acuerdo a sus conocimientos declarativos sino que se busca evaluar el logro progresivo en la adquisición de ciertas competencias básicas para su desempeño en un contexto.

Partiendo del aprendizaje a lo largo de la vida se entiende que la competencia es una serie de saberes que los alumnos ponen en acción para dar respuestas efectivas a las demandas de un entorno complejo y cambiante (Sánchez y Ballester, 2010). Las rúbricas, por su parte, las podemos definir como un instrumento de evaluación cuya finalidad es compartir los criterios de aprendizaje y evaluación con estudiantes y entre profesores, sirve además como una guía que muestra a alumnos y profesores las expectativas de consecución de logros en ciertas tareas.  las rúbricas se organizan en niveles (desde lo que se considera insuficiente hasta lo que se considera excelente) y tienen sus orígenes en las escalas de medida en las que se evalúa un constructo (competencia) con ítems cuantitativos.

La rúbrica es un instrumento en el que el alumno es el principal actor del proceso (implicacion personal en cada tarea y evaluación) puesto que puede ser usada para la evaluación por pares, para la auto-evaluación  y para a evaluación tradicional por parte del profesor.  Tiene numerosas ventajas entre las que podemos contar que permiten la evaluación activa en casos concretos y situaciones reales y contextualizadas, además, pueden ser usadas en todos los niveles educativos y para diversos tipos de tareas, se pueden emplear rúbricas con símbolos en las etapas pre-lectura, en primaria y secundaria para la evaluación de tareas y en niveles universitarios para la medición de competencias e incluso para evaluar tesis doctorales.

Entre las ventajas para los profesores se puede mencionar que son fáciles de utilizar y de explicar, hacen que el profesor tenga claros los criterios de evaluación y niveles de logro del alumno, proporcionan al profesor indicadores para evaluar el progreso y los puntos débiles de los alumnos y facilitan la calificación en temas complejos o subjetivos.

Entre las principales ventajas para los alumnos podemos contar que muestran qué se espera de él y cómo será evaluado, ayudan a comprender objetivos para regular esfuerzos, modificar estrategias y disminuir la ansiedad, proporcionan un feedback continuo sobre sus fortalezas y debilidades, lo que permite al alumno regular el aprendizaje, permite evaluar y revisar la versión final del trabajo, propician el aprendizaje crítico y reflexivo y fomentan el desarrollo de competencias metacognitivas.

Sin embargo, su uso no está exento de desventajas, por ejemplo, elaborar una buena rúbrica consume mucho tiempo y es difícil de hacer, en algunos casos las rúbricas mal elaboradas limitan la autonomía y la creatividad del alumno y pueden carecer de fiabilidad y validez si no se realizan bien. Además, como todo instrumento de medición es necesario analizar su calidad (validez, fiabilidad).

¿cómo medir los resultados del aprendizaje?

En toda evaluación educativa uno de los procesos que juega un papel fundamental es la medición ya que a través de ésta se pueden obtener puntuaciones válidas y fiables que van a permitir al evaluador (profesor) hacer inferencias apropiadas sobre los resultados de sus alumnos.

Si bien es cierto que la medición es una parte muy importante de todo proceso de evaluación, también es cierto que obtener puntuaciones válidas y fiables se convierte en una tarea bastante exigente y costosa. Por este motivo, gran parte del tiempo que se destina a un programa de evaluación es consumido por el diseño de los instrumentos de medida.

Para obtener una medición de calidad no es suficiente con tener buenas intenciones y definir con claridad unos objetivos de uso de dicha medida sino que se requiere un alto dominio teórico sobre el diseño y funcionamiento de los test. Es decir, se hace necesario comprender cómo se define una escala de medida, cuáles son las características que debe tener, cómo se debe interpretar, de qué forma se puede comprobar su validez y su fiabilidad, qué modelo teórico explica mejor su comportamiento, cómo se comunican sus características y resultados, qué consecuencias tendrá la evaluación en las personas y un largo etcétera.

Por lo tanto para llegar a construir una prueba (test, control, evaluación, examen…) apropiado es necesario seguir un proceso riguroso y estructurado en su diseño y construcción. En general dicho proceso se caracteriza por tener una claridad en los objetivos de la medida (para qué se va a medir) y posteriormente una definición de los atributos, habilidades o contenidos que se quieren evaluar (qué se va a medir). Posteriormente se define el cómo se va a medir, y es aquí donde es necesario diseñar el test y las preguntas de la forma más correcta posible. La construcción de preguntas es una parte importante del proceso de construcción de un instrumento pero se debe evitar a toda costa el error común de considerar que con la construcción de las preguntas se termina el proceso, por el contrario, sólo se ha comenzado a dar forma a un instrumento que va a permitir acceder a una medición correcta de los resultados de aprendizaje.

Una vez que se han definido las preguntas es necesario comprobar que existe una relación entre dichas preguntas con los atributos, habilidades y contenidos que pretendían medir y esta es la clave de la construcción de buenos exámenes. Para estudiar a profundidad esta relación es necesario aplicar la prueba a una muestra lo suficientemente amplia para analizar el potencial de calidad de las preguntas y su lugar en la definición de la escala de medida. Cuando se ha estudiado suficientemente la calidad de las preguntas se define la composición final del test y a partir de éste se podrá definir la escala de medida definitiva.

Por lo tanto el diseño y funcionamiento de un test aplicado a la medición de resultados de aprendizaje es un proceso que requiere mucha mucha dedicación, atención y trabajo.

Sonia Janeth Romero es Doctora en Psicología, Máster en Metodología de las ciencias del comportamiento y la salud y Especialista en Estadística. Su principal campo de investigación es la psicometría y el estudio de los modelos de diagnóstico cognitivo para la medición en Psicología y Educación.

 

 

 

 

 

 

 

 

Evaluando al docente: las apariencias engañan

«Mi subsistencia depende de lo que mis estudiantes digan de mí en sus evaluaciones». El Dr. Nate Kornell, profesor de Psicología en el Williams College (EE.UU), comienza con esta rotundidad una interesante reflexión en su blog «Everybody is stupid except you» (Todo el mundo es imbécil menos tú), donde se pregunta si las evaluaciones de los alumnos pueden considerarse un indicador fiable de la competencia de sus profesores y cuál es su auténtica relación con el conocimiento que realmente han adquirido.

Básicamente, Kornell plantea que las evaluaciones de sus alumnos determinan sus posibilidades de mantener su puesto, promocionar o ser despedido, pero que sin embargo no existe ninguna herramienta que evalúe cómo y cuánto han aprendido sus estudiantes, más allá de lo que reflejan sus calificaciones. Aunque en principio parece lógico considerar dichas calificaciones una medida fiable del grado en el que el alumnado ha asimilado los contenidos de una asignatura… ¿estamos seguros de que esto es así? ¿podemos considerar que las evaluaciones de los alumnos y las calificaciones de los profesores son medidas independientes?

Los estudiantes que obtengan buenas calificaciones evaluarán positivamente a sus profesores y, del mismo modo, es probable que quienes han obtenido peores notas no guarden muy buena opinión del responsable de la asignatura, pero eso no indica necesariamente que el docente en cuestión haya realizado un buen trabajo en el primer caso y deficiente en el segundo, al menos si consideramos que su principal función consiste en transmitir conocimiento. Por una parte, la heterogeneidad de contenidos, tareas, exámenes, criterios de calificación, etc. de las asignaturas implica que las notas obtenidas por los alumnos no siempre resulten una medida consistente a la hora de determinar su éxito académico. Además, los profesores podrían influir en las evaluaciones de sus alumnos «enseñando para el examen», inflando las calificaciones o reduciendo la carga lectiva de sus asignaturas (Carrell y West, 2010).

Entonces, ¿qué es lo que evalúan los alumnos exactamente? Considerando los resultados de algunos estudios publicados recientemente, más bien podemos saber qué es lo que NO evalúan:

1) ¿Pueden considerarse las evaluaciones de los alumnos un indicador fiable de la competencia de sus profesores?

Un reciente estudio entre cuyos autores se encuentra el propio Kornell (Carpenter, Wilford, Kornell y Mullaney; 2013) ha tratado de responder a esta pregunta. Los investigadores prepararon dos videos de un minuto de duración en los que se impartía una breve lección de genética y presentaron cada una de las versiones a un grupo diferente de participantes. En el primero de ellos, la profesora aparecía delante de una mesa, hablando con fluidez y explicando la lección mientras miraba a la cámara sin utilizar nota alguna. En la segunda versión del video, la misma profesora se situaba detrás de la mesa e impartía la clase leyendo sus notas sin mirar a la cámara. Los resultados mostraron que quienes vieron la primera versión consideraron que habían aprendido más y que la profesora era más eficaz. Sin embargo, cuando ambos grupos de participantes realizaron un test sobre el contenido de las lecciones, no se observó ninguna diferencia entre ellos: habían aprendido lo mismo. Por tanto, las valoraciones del alumnado respecto a la cantidad de conocimiento que han adquirido no estimarían la cantidad real de información asimilada, sino su percepción subjetiva de la capacidad del profesor… que además podría demostrarse errónea atendiendo a su rendimiento objetivo. Los autores del trabajo publicaron el estudio con el siguiente título: «Las apariencias engañan: la fluidez del profesor incrementa la percepción de aprendizaje sin aumentar el aprendizaje real».

Los resultados de Carpenter et al. (2013) replican parcialmente los obtenidos en el clásico estudio de Ambady y Rosenthal (1993), quienes mostraron que a los alumnos les bastaba analizar el aspecto físico y la conducta no verbal de los profesores durante menos de 30 segundos para emitir una valoración que posteriormente correlacionaba con la evaluación del profesor al final del curso. Sin embargo, aunque los resultados de Ambady y Rosenthal se han interpretado como una prueba de que la primera impresión del alumno puede predecir la capacidad del profesor, lo que en realidad demostrarían sería una elevada consistencia entre dos valoraciones subjetivas de los alumnos.

Por tanto, las evaluaciones de los alumnos parecen basarse en el análisis de variables no relacionadas con la capacidad docente de sus profesores. Su resultado se determinaría en pocos segundos y las posibilidades de que se produzcan cambios respecto al juicio inicial serían más bien escasas.

2) ¿Estas evaluaciones guardan relación con la cantidad y calidad de conocimiento adquirido?

Carrell y West (2010) realizaron un estudio utilizando una muestra de 10.534 estudiantes de la Academia de las Fuerzas Aéreas de los EE.UU., en el que los alumnos se asignaban de manera aleatoria a diferentes profesores encargados de impartir las mismas asignaturas, siguiendo el mismo programa y utilizando el mismo examen final. Los autores midieron la eficacia a corto y largo plazo de los profesores que impartían la asignatura troncal «Introducción al Cálculo», cuyos contenidos era preciso superar para poder cursar otras asignaturas en cursos más avanzados. Los alumnos que cursaron esta asignatura introductoria con docentes menos cualificados y experimentados obtuvieron mejores puntuaciones en el examen y, lógicamente, evaluaron mejor a sus profesores. Sin embargo, fueron los estudiantes que cursaron la asignatura con docentes de mayor experiencia y cualificación quienes rindieron mejor en las asignaturas de los cursos avanzados, aun cuando sus calificaciones en el curso introductorio habían sido más bajas. Los autores del estudio explican sus resultados concluyendo que los profesores experimentados trataban de ampliar los contenidos de la asignatura, promoviendo un aprendizaje más profundo y evitando «enseñar para el examen». Paradójicamente, los profesores que promovieron un aprendizaje profundo y cuyos estudiantes demostraron un mejor rendimiento académico con el paso del tiempo obtuvieron las peores valoraciones de sus alumnos.

En conclusión, el valor de este tipo de evaluaciones como indicador de la calidad y competencia docente parece cuando menos discutible.

Quienes nos dedicamos a la docencia intentamos impartir lecciones claras y amenas. Tratamos de facilitar al máximo la tarea de los estudiantes para despertar su interés y mantener su atención. Pero no deberíamos olvidar que nuestro principal objetivo es enseñar, y que para aprender a veces conviene errar… Y siempre es necesario esforzarse.

El Dr. Kornell concluye su reflexión contando una anécdota que merece la pena reproducir literalmente: «Tuve un profesor en el instituto cuyas lecciones eran tan increíblemente claras que me hizo pensar que la Física era la cosa más sencilla del mundo. Hasta que llegaba a casa e intentaba hacer los problemas. Él era realmente increíble, pero a veces pienso que era DEMASIADO bueno. Nunca tuve que esforzarme para entender sus lecciones… pero quizá hubiese debido hacerlo».

Sígueme en twitter: @msebastian_psi

REFERENCIAS:

Ambady, N. & Rosenthal, R. (1993). Half a minute: predicting teacher evaluations from thin slices of nonverbal behavior and physical attractiveness. Journal of Personality and Social Psychology, 64(3), 431-441.

Carrell, S.E., & West, J.E. (2010) Does Professor Quality Matter? Evidence from Random Assignment of Students to Professors. Journal of Political Economy, 118(3), 409-432.

Carpenter, S. K., Wilford, M. M., Kornell, N., & Mullaney, K. M. (2013). Appearances can be deceiving: instructor fluency increases perceptions of learning without increasing actual learning. Psychonomic Bulletin & Review. PMID: 23645413

La evaluación de la creatividad ¿cuál es la mejor herramienta?

La evaluación de la creatividad es una tarea ardua debido a la complejidad del constructo, que implica varios rasgos no sólo de personalidad, sino también cognitivos. Al no acotarse a un solo ámbito, la creatividad puede ser evaluada a través de distintos métodos, uno de los más conocidos es el empleo de test estandarizados. Antiguamente solían utilizarse e incluso equipararse los resultados obtenidos en pruebas de inteligencia, pero sobrada es la experiencia que ha demostrado que no siempre las personas con puntuaciones altas en este tipo de pruebas resultan altamente creativas, mediando en estas puntuaciones factores como la motivación o la habilidad y experiencia en tareas similares, por ello existen actualmente varios formatos de pruebas, tanto nacionales como internacionales, que centran su evaluación en este constructo.

Torrance creó un test desde la perspectiva psicométrica, el Torrance Test of Creative Thinking TTCT (Torrance, 1966), destinado a la evaluación del pensamiento divergente dentro del contexto escolar, Antes Guilford (1950), con la Prueba de Habilidades de la Estructura del Intelecto, o el Test de Wallach y Kogan (1965) y el Test de Asociaciones Remotas de Mednick (1967), como ejemplos de otras de las pruebas internacionales más conocidas y fiables para la medición del constructo, aunque no para población española. Al no verse cumplido este objetivo, al menos en nuestro país, estas pruebas han sido de gran utilidad para continuar con las investigaciones sobre creatividad, sirviendo de inspiración para algunas medidas no formales de la creatividad, como son:

- Situaciones inusuales

– Previsión de consecuencias

– Utilización no común de objetos

– Componer narraciones

– Completar dibujos a partir de unas líneas

– Asociación de palabras

En España, también han sido varios los intentos de evaluar, de manera formal, la creatividad. Aunque ha sido recientemente cuando se ha conseguido elaborar una prueba fiable y dedicada por entero a las características de la población española. Entre las pruebas más conocidas y comercializadas se encuentran tres:

– Test de Abreación para la Evaluación de la Creatividad (TAEC): Creada por De La Torre (1996), es el primer test baremado de creatividad que existe en España, se puede obtener una fiable puntuación de creatividad gráfica, aunque pasando por una complicada corrección.

– Test de Inteligencia Creativa (CREA), elaborada por Corbalán, F. J., Martínez, F., Donolo, D., Alonso, C., Tejerina, M. y Limaña, M. R. (2003) y baremada con un espectro amplio de edades (desde los seis años hasta adultos). Se trata de una prueba sencilla que nos permite conocer, de manera fiable, tan solo el índice de fluidez verbal de las personas evaluadas, tratándose de un aspecto concreto de la creatividad verbal.

– Prueba de Imaginación Creativa (PIC) de Artola, T., Ancillo, I., Mosteiro, P. y Barraca, J. (2004, 2008 y 2012) cuya fundamentación teórica se encuentra más en consonancia con los trabajos de Torrance. Supone un instrumento completo y fiable para la medida de la creatividad, tanto verbal como gráfica y consta de tres niveles separados por las edades de los sujetos:

· PIC – N (2004): Destinada sujetos de 8 a 12 años

· PIC – J (2008): Elaborada para sujetos de de 12 a 18 años

· PIC – A (2012): Destinada a sujetos adultos de más de 18 años.

Otra de las posibilidades existentes para determinar el grado de creatividad que posee una persona es la evaluación mediante expertos, también llamada CAT (Consensual Assesment Technique). Consiste en determinar la medida de la creatividad a través de expertos en un tema concreto, por ejemplo en arte o narrativa. Uno de sus handicaps puede considerarse que la evaluación se centra tan solo el producto, dejando a un lado el proceso de elaboración, siendo este factor de gran importancia en la creatividad ya que no importa tan solo el resultado, sino el camino elegido para llegar a él, pudiendo ser éste el elemento creativo de la tarea según la teoría de las cuatro “P” (Rhodes, 1961). Otro de los inconvenientes que tiene esta técnica de evaluación, es que sirve principalmente para comparar sujetos dentro de un mismo grupo, por lo que no resulta útil para valorar sujetos individuales.

Como alternativa a esta técnica, se encuentra la evaluación por parte de terceros, que aunque suele ser utilizada habitualmente dentro del contexto escolar, también puede darnos unos resultados fiables fuera de éste. Se trata de una técnica que utiliza cuestionarios, escalas de calificación o nominaciones por parte de terceros, de forma que la creatividad del sujeto es evaluada por parte de unos terceros que, se da por supuesto, que conocen y tienen una visión ajustada sobre lo que están evaluando. La validez de esta técnica recae, generalmente, en la objetividad del evaluador y la adecuación de los ítems de los instrumentos utilizados. Este hándicap convierte la técnica en una buena base de apoyo o complemento para la evaluación, pero no en un instrumento completamente útil para evaluaciones que requieran una validez de criterio y predictiva aparente.

Tras esta visión panorámica de las distintas herramientas, recaerá en el el evaluador la responsabilidad de elegir el instrumento más adecuado para el sujeto que pretende evaluar. Todos son instrumentos factibles y recomendados, como hemos visto, pero deberemos tener en cuenta las posibilidades y nuestros propios objetivos para poder elegir la o las mejores herramientas para nuestro caso.