Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Evaluación del currículum en los centros escolares, Guías, Proyectos, Investigaciones de Evaluación del Desempeño

Libro: “Evaluación del currículum en los centros escolares” Autor: Robert McCORMICK y Mary James Editorial: Ediciones Morata, S.L. CAPITULO VII

Tipo: Guías, Proyectos, Investigaciones

2023/2024

Subido el 07/07/2024

1 / 69

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Libro: “Evaluación del currículum en los centros escolares”
Autor: Robert McCORMICK y Mary James
Editorial: Ediciones Morata, S.L.
CAPITULO VII
Enfoques generales
Introducción
Parece innecesario decir que las técnicas de evaluación deben seleccionarse de acuerdo con su capacidad
para señalar problemas concretos. Sin embargo, da la sensación de que la elección de los métodos es con
frecuencia muy arbitraria y regida, no por su adaptacn al problema, sino por la comodidad, o por lo que
resulta compatible con las destrezas e intereses de los evaluadores. En el contexto de la evaluación del
curriculum en las escuelas, es comprensible, ya que es raro que las evaluaciones las efectúen evaluadores
profesionales. No es extraño, por tanto, que si un científico se inclina por la utilización de un modelo expe-
rimental, un matemático opte por técnicas estadísticas, un fotógrafo aficionado haga un registro fotográfico, un
profesor de inglés se muestre a favor del estudio de casos (aunque sea ficticio) o un director aplique la mayor
parte del tiempo que dedica a la evaluación a crear estructuras de comisiones para la consulta al profesorado.
Respecto a la evaluación interna (Capítulo V), SIMONS (1981) indica que es preciso reconocer la relativa
falta de dominio, de manera que las destrezas adecuadas para las actividades de evaluación se construyan
sobre o que ya poseen los profesores. En general, la bibliografía sobre técnicas de evaluación no tiene en
cuenta el grado de dominio previsible de los evaluadores ni las necesidades y objetivos prácticos que
caracterizan los distintos contextos de evaluación. En otras palabras, gran parte de lo que se ha escrito resulta
demasiado académico y alejado de las situaciones concretas, sobre todo cuando se trata de la bibliografía que
se centra casi exclusivamente en los modelos de evaluación (p. ej.: Open University 1976, unidades 19 y 20;
HAMILTON, 1976). Incluso DAVIS (1981), en un libro titulado Teachers es Curriculum Evaluators, recurre a
gran cantidad de modelos para estructurar su exposición. Tratando de evitar esta línea de discurso, hemos
organizado este capítulo en torno a una serie de cuestiones que surgen al considerar la elección de una
metodología. Como no es frecuente que los modelos ayuden a los evaluadores a decidir qué hacer en la
práctica, sólo se introducen cuando parecen ofrecer una solución a un problema concreto
1
. (En realidad,
muchos modelos aparecen como respuestas a problemas específicos.) Sin embargo, aunque nuestro
tratamiento de los modelos no es exhaustivo, en este capítulo, hemos optado por centrarnos sobre todo en
cuestiones teóricas, dejando para el Capítulo IX las de tipo más práctico.
Comenzamos reconsiderando qué objeto tiene la evaluación y la cuestión del centro de atención (es decir, qué
evaluar), antes de pasar a estudiar el “cómode la misma. Expondremos los puntos teóricos y metodológicos
fuertes y débiles de una serie de enfoques, examinando las distinciones entre investigación y evaluación y
entre descripción y juicio.
Qué objeto tiene la evaluación
En la Primera parte, examinamos un conjunto de contextos en los que la evaluación parecía desempeñar un
papel. Indicamos que diversas formas de evaluación facilitan una modalidad de rendición de cuentas (Capítulo
Primero), promueven el desarrollo profesional y el perfeccionamiento institucional (Capítulo II) y facilitan la
revisión curricular (Capítulo III). En la Segunda Parte, examinamos cómo las estrategias de evaluación tratan
de cumplir aquellos objetivos. En distintos momentos señalamos que una estrategia que satisface un objetivo
(p. ej., el de rendición de cuentas) no tiene por qué cumplimentar otros (p. ej., el desarrollo profesional).
Tenemos que considerar, en consecuencia, si es posible definir en general para qué sirve la evaluación.
La mayor parte de las definiciones de evaluación se derivan de la evaluación de programas y se centran en la
obtención de información para los responsables de las decisiones. Así:
...podemos definir la “evaluación” en general como la recogida y utilización de información con el fin de
tomar decisiones respecto a un programa educativo.
(CRONBACH, 1963. pág. 672.)
1
1 D. TAYLOR (1976) presenta una revisión muy breve y legible de los modelos de evaluación. Puede consultarse otra en LAWTON
(1980).
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26
pf27
pf28
pf29
pf2a
pf2b
pf2c
pf2d
pf2e
pf2f
pf30
pf31
pf32
pf33
pf34
pf35
pf36
pf37
pf38
pf39
pf3a
pf3b
pf3c
pf3d
pf3e
pf3f
pf40
pf41
pf42
pf43
pf44
pf45

Vista previa parcial del texto

¡Descarga Evaluación del currículum en los centros escolares y más Guías, Proyectos, Investigaciones en PDF de Evaluación del Desempeño solo en Docsity!

Libro: “Evaluación del currículum en los centros escolares” Autor: Robert McCORMICK y Mary James Editorial: Ediciones Morata, S.L. CAPITULO VII Enfoques generales Introducción Parece innecesario decir que las técnicas de evaluación deben seleccionarse de acuerdo con su capacidad para señalar problemas concretos. Sin embargo, da la sensación de que la elección de los métodos es con frecuencia muy arbitraria y regida, no por su adaptación al problema, sino por la comodidad, o por lo que resulta compatible con las destrezas e intereses de los evaluadores. En el contexto de la evaluación del curriculum en las escuelas, es comprensible, ya que es raro que las evaluaciones las efectúen evaluadores profesionales. No es extraño, por tanto, que si un científico se inclina por la utilización de un modelo expe- rimental, un matemático opte por técnicas estadísticas, un fotógrafo aficionado haga un registro fotográfico, un profesor de inglés se muestre a favor del estudio de casos (aunque sea ficticio) o un director aplique la mayor parte del tiempo que dedica a la evaluación a crear estructuras de comisiones para la consulta al profesorado. Respecto a la evaluación interna (Capítulo V), SIMONS (1981) indica que es preciso reconocer la relativa falta de dominio, de manera que las destrezas adecuadas para las actividades de evaluación se construyan sobre o que ya poseen los profesores. En general, la bibliografía sobre técnicas de evaluación no tiene en cuenta el grado de dominio previsible de los evaluadores ni las necesidades y objetivos prácticos que caracterizan los distintos contextos de evaluación. En otras palabras, gran parte de lo que se ha escrito resulta demasiado académico y alejado de las situaciones concretas, sobre todo cuando se trata de la bibliografía que se centra casi exclusivamente en los modelos de evaluación (p. ej.: Open University 1976, unidades 19 y 20; HAMILTON, 1976). Incluso DAVIS (1981), en un libro titulado Teachers es Curriculum Evaluators, recurre a gran cantidad de modelos para estructurar su exposición. Tratando de evitar esta línea de discurso, hemos organizado este capítulo en torno a una serie de cuestiones que surgen al considerar la elección de una metodología. Como no es frecuente que los modelos ayuden a los evaluadores a decidir qué hacer en la práctica, sólo se introducen cuando parecen ofrecer una solución a un problema concreto^1. (En realidad, muchos modelos aparecen como respuestas a problemas específicos.) Sin embargo, aunque nuestro tratamiento de los modelos no es exhaustivo, en este capítulo, hemos optado por centrarnos sobre todo en cuestiones teóricas, dejando para el Capítulo IX las de tipo más práctico. Comenzamos reconsiderando qué objeto tiene la evaluación y la cuestión del centro de atención (es decir, qué evaluar), antes de pasar a estudiar el “cómo” de la misma. Expondremos los puntos teóricos y metodológicos fuertes y débiles de una serie de enfoques, examinando las distinciones entre investigación y evaluación y entre descripción y juicio. Qué objeto tiene la evaluación En la Primera parte, examinamos un conjunto de contextos en los que la evaluación parecía desempeñar un papel. Indicamos que diversas formas de evaluación facilitan una modalidad de rendición de cuentas (Capítulo Primero), promueven el desarrollo profesional y el perfeccionamiento institucional (Capítulo II) y facilitan la revisión curricular (Capítulo III). En la Segunda Parte, examinamos cómo las estrategias de evaluación tratan de cumplir aquellos objetivos. En distintos momentos señalamos que una estrategia que satisface un objetivo (p. ej., el de rendición de cuentas) no tiene por qué cumplimentar otros (p. ej., el desarrollo profesional). Tenemos que considerar, en consecuencia, si es posible definir en general para qué sirve la evaluación. La mayor parte de las definiciones de evaluación se derivan de la evaluación de programas y se centran en la obtención de información para los responsables de las decisiones. Así: ...podemos definir la “evaluación” en general como la recogida y utilización de información con el fin de tomar decisiones respecto a un programa educativo. (CRONBACH, 1963. pág. 672.) (^1) 1 D. TAYLOR (1976) presenta una revisión muy breve y legible de los modelos de evaluación. Puede consultarse otra en LAWTON (1980).

La evaluación educativa es el proceso de delimitar, obtener y facilitar información útil para juzgar alternativas de decisión. (STUFFLEBEAM y cols., 1971, pág. 43.) La evaluación es el proceso de concebir, obtener y comunicar información para orientar las decisiones educativas en relación con un programa especificado. (MAcDONALD, 1973, págs. 1-2; citado en STENHOUSE, 1975, pág. 112.) La evaluación del curriculum es el proceso de delimitar, obtener y facilitar información útil para tomar decisiones y hacer juicios sobre los curricula. (DAVIS, 1981, pág. 49.) Es evidente que las definiciones de la evaluación han sufrido pocos cambios durante los últimos veinte años. Lo que ha cambiado es la concepción de quiénes son los responsables de las decisiones. Aunque CRONBACH (1963) señalaba tres tipos de decisiones a cuyo fin se utilizaba la evaluación (es decir, perfeccionamiento de cursos, decisiones sobre individuos y reglamentación administrativa), la preocupación existente, tanto en los Estados Unidos como en el Reino Unido, en relación con la evaluación de programas durante los años sesenta y primeros setenta, ponía de manifiesto la identificación de los responsables de las decisiones con los patrocinadores de programas o equipos directivos de proyectos. Con la evaluación de proyectos curriculares, como el Humanities Curriculum Project (HCP), el centro de atención comenzó a cambiar, empezando a considerarse a los consumidores de programas educativos, es decir, a profesores y escuelas, como los responsables clave de las decisiones. En último término, la puesta en práctica de las innovaciones dependía de su juicio y acción. Hoy día la situación es aún -más compleja y el papel del responsable de las decisiones puede recaer en miembros de grupos muy diferentes, según los contextos concretos de evaluación. De este modo, en contextos de rendición de cuentas, pueden considerarse responsables de decisiones los políticos, los administradores, los inspectores, el electorado, los padres y los governors, pues todos ellos tienen la capacidad de limitar o aumentar los recursos y el apoyo que reciban las escuelas. No obstante, en términos de revisión del curriculum, los principales responsables de las decisiones son el director y el profesorado, mientras que, en el contexto del desarrollo profesional, es probable que las decisiones sobre la práctica correspondan a profesores individuales o a grupos de profesores. La importancia concedida a la decisión en cuanto objetivo principal de la evaluación presupone que hay algo que exige el juicio y la acción. Esto nos hace volver un paso atrás en nuestra exposición: hay que decidir cuál es el problema. Como señala REID (1978), cuando se piensa en el curriculum y en la evaluación, con frecuencia se deja de lado esta cuestión. En algunos contextos, el problema no será muy específico, pudiendo percibirse como la necesidad de revisar la práctica con el fin de garantizar que todo se ajusta a como debe ser. Si los responsables de las decisiones quedan satisfechos, su única decisión consistirá en animar a seguir en la misma línea’. Algunas actuaciones relacionadas con la rendición de cuentas y la revisión curricular pueden concebirse en estos términos, aunque es difícil que la práctica satisfaga las aspiraciones en todos los aspectos. En la mayoría de los casos, “es posible mejorar”. Otras evaluaciones se centran en cuestiones específicas; un enfoque habitual en el contexto de las inspecciones formales (véase el Capítulo IV), en el del desarrollo curricular y en el de la formación permanente. Sin embargo, si las necesidades se convierten en el centro de atención, para comenzar la evaluación hará falta algún tipo de instrumento de análisis de necesidades, sobre todo si la actividad corre a cargo de los miembros de la institución (evaluación interna). Nos basamos para decir esto en el Schools and In-Service Teacher Education (SITE) Evaluation Project, que supervisó los considerables problemas que experimentaron las escuelas al desarrollar los programas de formación permanente basados en ellas mismas. Atendiendo al análisis de necesidades, afirma BAKER (1980): Los métodos utilizados en la mayoría de los casos carecían de complicaciones: no se utilizó ningún modelo formal de técnica de análisis de necesidades (cf. HOUSTON y cols., 1978). A partir de las respuestas a los cuestionarios y a las entrevistas, los evaluadores (del SITE) concluyeron que en muchas escuelas el análisis de necesidades se realizó de manera superficial, dudándose de la validez de las mismas. Esto se puso de manifiesto en el tipo de peticiones remitidas a los coordinadores del proyecto, en las que a menudo sólo se indicaban áreas generales (p. ej., matemáticas o lenguaje), sin tratar de especificar detalles. (BAKER, 1980, pág. 184.) En esta cita, BAKER alude a la fuente de un modelo de análisis de necesidades (HOUSTON y cols., 1978). Otra puede ser una adaptación de la Nominal Group Technique (HEGARTY, 1977; O´NEIL, 1981). Esta técnica puede utilizarse para descubrir y clasificar problemas en orden de importancia, uno de los cuales puede estar constituido por las necesidades. También puede utilizarse para recoger datos facilitados por los profesores, así como para la deliberación sobre el curriculum y la revisión del mismo. (Los detalles de esta técnica aparecen en el Capítulo VIII.) No obstante, la característica más significativa de esta técnica es el procedimiento que permite

proporcionar el tipo de pruebas a partir de las cuales puede desarrollarse el curriculum. El único tipo de acción que puede desencadenar consiste en mantener o no un programa o práctica existente. En consecuencia, de acuerdo con STENHOUSE (1975), “la crítica fundamental contra el modelo de objetivos es que valora sin explicar... Por eso, quien pretende desarrollar el curriculum no puede aprender nada de él” (pág. 120). Como indicamos en el Capítulo V, estas críticas contra el modelo de objetivos han dado lugar a diversas alternativas que pueden denominarse en sentido amplio modelos de evaluación de “procesos” (p. ej., SIMONS, 1981). Éstos dirigen la atención al “curriculum en acción” (ELLIOTT, 1979; Open University, 1981 b). Sin embargo, este cambio del centro de atención no evita el problema de establecer criterios mediante los que juzgarlos “procesos” eficaces. A falta de indicadores de calidad de enseñanza empíricamente validados y aceptados de manera general (cuestión que mencionamos en el Capítulo VI), los evaluadores que opten por centrarse en los procesos vuelven a utilizar con frecuencia las intenciones prefijadas (si no objetivos más específicos) como referencias para examinar las experiencias concretas de aprendizaje^2. En consecuencia, no es raro que las “llamadas” evaluaciones de procesos se ocupen fundamentalmente de los “desequilibrios en la actuación” o de las diferencias entre las “teorías en acción” de los profesores y sus “teorías aceptadas” (véase ELLIOTT, 1976). En cuanto tales, no difieren tanto de versiones más complejas de los enfoques de la evaluación por objetivos, es decir, de los que prestan cierta atención a lo que sucede entre input y output o los que tienen en cuenta tanto los objetivos de proceso como los de resultados 3 . En 1967, Robert STAKE propuso un marco de evaluación que quizá constituya aún la respuesta más completa a la cuestión de qué evaluar La primera y acaso más importante diferencia de la que se ocupa STAKE es la existente entre descripción y juicio (las dos actividades distintas aunque complementarias de la evaluación). Dejando por el momento de lado los juicios, atenderemos brevemente a los tipos de datos que considera importante recabar para poder describir por completo un curriculum o programa, antes de juzgar su valor. Presenta su análisis en forma de “matriz de descripción” [véase la Figura 7,1. (STAKE, 1967, pág. 533;reproducido en STENHOUSE, 1975, pág. 108; también, Open University 1982, Bloque 2, pág. 65)]. Primero, distingue tres aspectos en el proceso educativo:

  1. Antecedentes, es decir, “cualquier condición existente antes de la enseñanza y el aprendizaje que pueda relacionarse con los resultados” (STAKE, 1967, pág. 528). Como ejemplos, pueden citarse los factores ambientales, los procedimientos de la escuela, los intereses de los alumnos o los aprendizajes anteriores.
  2. Transacciones, como las interacciones que se producen entre profesores y alumnos, entre los alumnos mismos, entre los alumnos y los materiales y tareas curriculares o entre los alumnos y el medio físico, social y educativo.
  3. Resultados, que han de interpretarse en su más amplio sentido, de manera que abarquen los “inmediatos y a largo plazo, cognitivos y conativos, personales y comunitarios” (STAKE, 1967, pág. 528.) En segundo lugar, en relación con cada uno de estos aspectos, propone que se recaben datos relativos tanto a las intenciones (evita las connotaciones conductuales de términos como “objetivos” y “metas”) como a las observaciones. Esto se traduce en seis categorías de datos potenciales: antecedentes pretendidos, antecedentes observados, transacciones pretendidas, transacciones observadas, resultados pretendidos y resultados observados (que constituyen las seis casillas de la “‘matriz de descripción” de STAKE). La tarea siguiente consiste en establecer la naturaleza de la relación entre, por ejemplo, los datos correspondientes a las transacciones pretendidas y los que se refieren a los resultados pretendidos o entre los datos relativos a los resultados pretendidos y los datos acerca de los resultados observados. Con el fin de ayudar a efectuar este tipo de análisis, STAKE introduce otros dos conceptos: contingencia y congruencia. Es más, distingue la contingencia lógica de la contingencia empírica. La contingencia lógica tiene que ver con la valoración de la medida en que las intenciones relacionadas con los antecedentes (p. ej., los supuestos acerca de los aprendizajes anteriores de los alumnos) son coherentes, desde el punto de vista lógico, con las referidas a las transacciones (p. ej., el tipo de tareas de aprendizaje planeadas) y con los resultados que se pretenden (^2) Sin embargo, al menos un autor (SCRIVEN, 1971) afirma que la evaluación no debe contar con los objetivos. Según él, es probable que el conocimiento de los objetivos que se prevé que consiga un programa determinado deforme la percepción del evaluador y le impida percatarse de efectos imprevistos que pueden constituir los resultados más significativos del programa. No obstante, su insistencia en los efectos convierte a su enfoque en otra versión de la evaluación de productos. Es interesante observar que SCRIVEN afirma también que la emisión de juicios es responsabilidad del evaluador. Sin embargo, a falta de enunciados relativos a los objetivos del programa, tiene que buscar criterios alternativos mediante los cuales elaborar sus juicios. La solución de SCRIVEN a este problema consiste en proponer una ‘lista de comprobación letal’ de trece necesidades de un programa que cree independientes de los valores de los destinatarios. El incumplimiento de cualquiera de esos puntos hace dudar de la calidad del programa. En la evaluación escolar, la objeción contra este enfoque es evidente: los criterios de la escuela se sustituyen por los de la persona que realiza la evaluación, sin ninguna garantía de que tales criterios sean objetivos. (^3) EISNER (1969) establece una distinción entre los “objetivos instructivos” y los “objetivos expresivos". Dice que es perfectamente aceptable que los profesores planeen actividades que proporcionen a sus alumnos oportunidades para aumentar su experiencia y permitirles opciones personales. Sin embargo, como los resultados de esas actividades son imprevisibles por naturaleza, EISNER cree que hace falta un nuevo término. La noción de “objetivos expresivos” se adapta especialmente a las artes (EISNER es profesor de arte); una alternativa tan adecuada como ésta, con un campo de referencia algo más amplio, puede consistir en los “objetivos de proceso”.

(p. ej., los resultados previstos). A menudo, este tipo de valoración requiere alguna forma de análisis filosófico. Como indicamos en el Capítulo III, a veces, esta operación se denomina evaluación intrínseca, expresión utilizada por SCRIVEN (1967) para aludir a un juicio sobre la estructura de un programa educativo en sí mismo; por ejemplo, su diseño y supuestos previos. De igual modo, la valoración de la contingencia empírica puede denominarse como evaluación empírica. En este caso, el análisis de contingencia entre antecedentes y transacciones y entre transacciones y resultados se basa en los datos de las observaciones (es decir, en la Datos descriptivos Antecedentes pretendidos Antecedentes observados Contingencia lógica Contingencia empirica Transacciones pretendidas Transacciones Observadas Contingencia logica Contingencia empirica Resultados pretendidos Congruencia Congruencia Congruencia Resultados observados Figura 7.1.:Representacion del procesamiento de datos descriptivos (STAKE, 1967, pagina 533) evidencia empírica). Por ejemplo, pueden examinarse los procesos de clase en relación con: 1) la medida en que cumplen las previsiones derivadas de los datos de los aprendizajes anteriores de los alumnos, y 2) el grado en que los resultados pueden considerarse imprevistos. En contraste con esta descripción de contingencia, la idea de congruencia de STAKE se refiere a la relación entre las intenciones y las observaciones. En concreto, supone el análisis del grado en que se cumple realmente lo que se pretendía. Así, las transacciones observadas pueden compararse con las planeadas; los resultados observados pueden evaluarse en relación con los previstos, y las condiciones antecedentes reales pueden compararse con las que se suponían. En pocas palabras, el marco de STAKE nos ofrece un cuadro casi exhaustivo de los centros de atención adecuados para la evaluación. En cierto sentido, incorpora aspectos de los modelos de “objetivos” y de “proceso” porque, aunque STAKE concede gran importancia a los “procesos” (transacciones), no rechaza los datos de entrada ni del producto. (A diferencia de SCRIVEN, 1971, considera importantes las metas o intenciones de los profesores o realizadores de programas.) Sin embargo, por su misma estructura, su marco presume que las intenciones son explícitas, o pueden ponerse de manifiesto con facilidad. Parece, por tanto, pasar por alto las intenciones “ocultas” o las “teorías en acción” (ARGYRIS y SCHÓN, 1 974) que sólo pueden ponerse de manifiesto mediante un cuidadoso estudio de la práctica. Es necesario centrarse en éstas como paso previo a la toma de conciencia que, a menudo, es el principal fundamento de la evaluación de procesos. Cómo evaluar Aunque STAKE distingue seis tipos de datos pertinentes para la evaluación educativa y diferentes formas de análisis, se muestra a favor de un enfoque holista más que atomista. En otras palabras, cree que lo verdaderamente importante son las relaciones dinámicas entre los diversos elementos de un programa edu- cativo. Es más, con el fin de representar toda la complejidad de cualquier experiencia educativa, considera esencial contar con una “amplia base de datos”, idea que apoyan PARLETT y HAMILTON (1972) cuando

desarrollados en sociología, antropología y filosofía, algunos de los cuales están relacionados) hacen hincapié en la necesidad de tener en cuenta lo que es o hace una persona, en relación con lo que ella o sus iguales piensan que es o hace^5. Por eso, la investigación tiende a ser idiográfica, tratando de descubrir las características exclusivas del caso concreto (de ahí el “estudio de casos”), en vez de establecer leyes genera- les en relación con la conducta (como en la investigación nomotética). Este cambio de centro de atención favorece también una alternativa respecto al modo hipotético-deductivo de elaboración teórica. En vez de ocuparse de la “comprobación” de hipótesis a priori, se hace mayor hincapié en la generación de hipótesis durante el proceso de investigación. Por supuesto, toda la investigación científica “inductiva” atraviesa este proceso en algún momento, pero, en los enfoques interpretativos, la generación de hipótesis y el “descubrimiento de una teoría fundamentada” (GLASAR y STRAUSS, 1967) son relativamente mas importantes que la comprobación de hipótesis a efectos predictivos. En otras palabras, se considera más importante la comprensión que la previsión. Aunque el paradigma interpretativo pueda resultar muy atractivo a quienes no simpatizan con el positivismo, también ha recibido críticas. La insatisfacción con el conservadurismo implícito de los enfoques interpretativos que, al centrarse en la forma de verse las personas a sí mismas y a las demás, tienden a dejar de lado la cuestión relativa a lo que pueden llegar a ser, ha estimulado a ciertos científicos y filósofos sociales (sobre todo a los de la escuela de Frankfurt de Teoría Crítica) a señalar la necesidad de interpretaciones que critiquen de forma activa y trasciendan las propias autocomprensiones de las personas. El enfoque sigue siendo interpretativo o humanista en la medida en que trata de mejorar la comprensión de los significados que las personas atribuyen a su existencia, pero la explicación no se queda en el micronivel, es decir, en el del individuo o el grupo. Pretende, en cambio, relacionar los niveles micro y macro de análisis. En otras palabras, el análisis de Los constructos personales de los individuos se somete a un tipo de meta-análisis que suele llevarse a cabo con referencia a alguna macroteoría, como la teoría social marxista o la teoría psicoanalítica freudiana (algunos miembros de la escuela de Frankfurt eran psicoanalistas). De este modo, los teóricos críticos demuestran su preocupación activa por desafiar los supuestos de los que parten las personas, suscitando la consciencia de los mismos, con el fin de aumentar su grado de autonomía. Según Jurgen HASERMAS (1972), que quizá sea el miembro más influyente de la escuela crítica, este enfoque, a diferencia de los demás, se orienta a la acción en la medida en que está informado por un “interés emancipador”. En cierta medida, todos estos enfoques de la investigación social han influido en el desarrollo de plantemientos generales de la evaluación educativa. Gran parte de la primitiva evaluación de programas, sobre todo en los Estados Unidos, se realizó de acuerdo con el modelo clásico “científico” o “experimental”. La elegancia del diseño de investigación de FISHER (1953) resultaba eminentemente atractiva, de modo que la respuesta obvia a la pregunta de cómo evaluar parecía ser: administrar pretests a los alumnos, someterlos a distintas experiencias y medir después los resultados mediante postests. En la actualidad, están muy claros los problemas prácticos y éticos derivados del “auténtico” método experimental, pero aún hay quienes defienden un enfoque “científico” de amplia base (BYNNER, 1980) 6 En 1972, PARLETT y HAMILTON evidenciaron los defectos del paradigma experimental, acusando a los tradicionalistas de dar por sentado que los programas educativos diferían poco de los “tratamientos” agrícolas u hortícolas, pudiendo, en consecuencia, evaluarse de la misma manera. Defendiendo que la evaluación debía ocuparse más de describir e interpretar que de medir y prever, propusieron un enfoque socioantropológico. Denominaron a este tipo de evaluación “iluminadora”, porque pensaban que las decisiones sólo podían tomarse eficazmente sobre la base de una profunda comprensión de la forma de operar los curricula en situaciones específicas. Consideraban especialmente importantes dos tipos de comprensión: la del sistema instructivo, es decir, el modo de relacionarse los planes curriculares formalizados con las situaciones docentes concretas, y la comprensión del medio de aprendizaje, o sea, el complejo ambiente sociopsicológico y material en el que trabajan los alumnos. En consecuencia, el cometido de la evaluación iluminadora consistía en revelar las interacciones internas del sistema instructivo y del medio de aprendizaje y las que se producen entre ambos términos. Como es característico en los medios académicos, la formulación de la “evaluación iluminadora” de PARLETT y HAMILTON (1972) también recibió muchas críticas. Por ejemplo, PARSONS (1976) juzga el enfoque en relación con diversos aspectos. En primer lugar, y quizá de forma bastante injusta, dice que los defensores de la evaluación iluminadora no reconocen las relaciones de la misma con la ciencia social interpretativa y, al hacer hincapié en su utilidad para la adopción de decisiones, tratan de evitar la crítica en cuanto investigación. (^5) Véase en las unidades 7 y 8 Open University (1977) un informe sobre el enfoque etnográfico del análisis de la enseñanza, y en Open University (1979) informes mas completos sobre las diferencias entre los enfoques de investigación experimental, de encuesta y etnográfico. 6 BYNNER (1960) se manifiesta a favor de un enfoque de investigación que abarque orientaciones diversas, combinando elementos cualitativos y cuantitativos sin necesidad de un control aleatorizado. (En CAMPBELL y STANLEY, 1966 puede verse una formulación clásica.) Hay pruebas de que este modelo se utiliza aún en la evaluación de programas educativos. Por ejemplo, los módulos curriculares elaborados por el Dental Health Study del Healt Education Council se evaluaron de este modo (en 1982-1984). El director del Study afirmaba que esta forma de evaluación gozaba de la máxima credibilidad ante los patrocinadores del programa, muchos de los cuales sólo estaban familiarizados con los modelos “científicos” o “médicos”.

En segundo lugar, y de forma más contundente, dice que la concentración casi exclusiva método, sobre todo en la recogida de datos, ha contribuido a la omisión casi completa de consideraciones sobre el papel de la teoría formal. En la medida en que las teorías existentes pueden ayudar a “dar sentido” a los datos en determinadas circunstancias, cree que deben tener un lugar en el enfoque iluminador. En lugar, señala que la importancia otorgada al hecho de facilitar información responsables de las decisiones “aquí y ahora” es implícitamente conservado aceptar la perspectiva de los participantes, los evaluadores corroboran el a que al que quizá debieran oponerse. Por tanto, en este sentido, los enfoques iluminadores de la evaluación pueden estar vinculados al contexto y ser ahistóricos. En la crítica de PARSONS hay elementos que recuerdan mucho la crítica los teóricos críticos preocupados por la causalidad hacen de algunos enfoques exclusivamente interpretativos. En consecuencia, es interesante señalar que la evaluación educativa, así como en la investigación social, ha surgido una tercera tradición, dentro de la cual un conjunto de especialistas en educación están empezando a promover el concepto de la investigación-acción educativa como forma de dotar de teoría a las formas interpretativas de evaluación, admitiendo por tanto, la posibilidad de emancipación (KEMMIS, 1981a; BROWN, HENRY, HEENRY y McTAGGART, 1982; ELLIOTT, 1982b) 7

. (Como el núcleo característico de la investigación-acción es la acción misma, más que las técnicas específicas recogida y análisis de datos, nos ocuparemos de ella con más detenimiento en el capítulo Xl.) En este mismo capitulo, hemos indicado que los enfoques de la evaluación en concreto, la elección de los métodos, podían ser eclécticos porque, a diferencia de la investigación social, la evaluación no depende de la teoría. A la luz de la exposición anterior, este supuesto se hace problemático. Sin duda, los científicos sociales dirían que, en la medida en que los enfoques de la evaluación se derivan de la ciencia social, llevan consigo cierto bagaje teórico implícito. Así, cualquier intento de combinar distintos enfoques puede equivaler a procurar la reconciliación de puntos de vista fundamentalmente opuestos sobre la relación entre individuo y la sociedad, por ejemplo. En respuesta a esa objeción, debemos que, aunque nuestra postura pueda crear dificultades en el nivel de interpreta de los hallazgos, no provoca problemas graves en la etapa de recogida de datos. Así, podemos defender el enfoque ecléctico en el sentido de que el eclecticismo es de tipo metodológico más que teórico y pocas metodologías mantienen relación necesaria con perspectivas teóricas concretas. El positivismo suele primar los métodos cuantitativos, mientras que los enfoques interpretativos se inclinan a favor de los métodos cualitativos, aunque hay excepciones. Por ejemplo, aunque gran parte de la investigaciones arqueológicas, paleontológicas e históricas son positivistas, a menudo se ven obligadas a utilizar pruebas de casos únicos porque éstos son los disponibles. Como los “problemas” que trata de resolver la evaluación educativa son los propios de la normativa o de la práctica, cualquier método que ilumine la cuestión puede ser útil y. por regla general, “cuanto más, mejor”. A este respecto, es significativo que PARLETT y HAMILTON (1972) sugiriesen recabar datos mediante diversos métodos, incluyendo los que suelen relacionarse con el enfoque experimenta 88 . Aun entre los científicos sociales preocupados sobre todo por el desarrollo de la teoría formal (o sea, realizando investigación “pura”), hay quienes defienden decididamente un enfoque multimetódico. Por ejemplo, WEBB y cols. (1966) dicen que es difícil que alguna medida pueda abarcar todos los parámetros. Afirman, en cambio, que “la evidencia más persuasiva proviene de la triangulación de los procesos de medida” (pág. 3). Como veremos, la triangulación constituye un procedimiento de validación útil porque permite que los datos obtenidos mediante un método se contrasten con los recogidos de otra forma. En el próximo apartado nos ocuparemos con mayor detenimiento de algunos problemas relacionados con la elección de metodología. Consideraciones metodológicas Como se desprende de la exposición anterior, gran parte del debate que rodea los enfoques teóricos de la investigación y la evaluación tiene que ver con el tipo de hallazgos que se consideren más importantes. El enfoque clásico “científico" o “experimental” aspira a ser nomotético, haciendo hincapié en la necesidad de establecer reglas o leyes generalizables. Por otra parte, los diversos enfoques “interpretativos” o “iluminadores” tienden a primar el modo idiográfico de explicación porque tratan de describir y explicar las circunstancias exclusivas del “caso” único. En consecuencia, las ideas de tipicidad o representatividad tienen menor importancia y el único tipo de generalización adecuado consiste en lo que ocurre cuando parece pertinente la aplicación de las hipótesis generadas en un estudio de casos” a otro (una forma de efecto de “bola de nieve”). Estas diferentes concepciones de lo que trata de conseguir la investigación o la evaluación dan lugar a distintos puntos de vista respecto al tipo de datos que conviene recabar. Así, aunque todos los métodos derivados de la investigación social y educativa comparten algunos aspectos, como la concepción del muestreo, del análisis y (^7) En las ciencias sociales, la investigación-acción tiene una larga historia. La inició Kurt LEWIN en los Estados Unidos a mediados de los años cuarenta. No obstante, KEMMIS (1981a) señala que hay infinidad de pruebas que indican que LEWIN estaba al corriente de los trabajos de la teoría critica se estaban realizando en Alemania en la misma época. En otras palabras, la relación entre ambos desarrollos puede ser tanto cronológica como ideológica. (^8) PARLETT y HAMILTON (1972) instan a recabar datos sobre cuatro áreas: 1) observaciones; 2)entrevistas: 3) cuestionarios y pruebas, y 4) fuentes documentales y ambientales.

cuantificación, que aspira a formular generalizaciones que sean aplicables a la totalidad de la población objetivo. No obstante, inevitablemente, la reducción de un “caso’ a un número limitado de dimensiones que puedan identificarse en otros casos tiene la consecuencia de sacrificar la investigación de lo que es exclusivo con el fin de descubrir lo que es común. En algunas circunstancias, esto puede ser deseable o necesario, sobre todo en el área de la valoración de los alumnos en la que es importante su “clasificación”. En otras situaciones ocurrirá lo contrario. Por ejemplo, en relacion de nuevo con la valoración de los alumnos, el informe cualitativo de la experiencia y aprovechamiento educativos de un individuo (mediante la recopilación de un expediente de rendimiento) resultará, en ciertas circunstancias, más valioso que una relación de resultados en pruebas graduadas o en exámenes. Del mismo modo, para comprender las razones de la oposición del profesorado de una escuela a cualquier iniciativa sobre las relaciones entre escuela y comunidad, por ejemplo, quizá sea necesario estudiar la combinación específica de factores de la situación que afectan al trabajo de la escuela (p. ej., el apoyo de los padres, los recursos locales, las actitudes y conocimientos de los profesores. la organización de la escuela y el ingreso de nuevos alumnos). En otras palabras, en ciertos casos, un enfoque cualitativo será más adecuado para obtener el tipo de información que se requiere para tomar decisiones. Esto nos lleva de nuevo al punto inicial de este apartado: en el campo de la evaluación, es aceptable, y necesario incluso, que la eleccion de los metodos esté regida por valores utilitarios. Debe estar siempre presente el “problema” de la evaluación, de modo que las técnicas se escojan de acuerdo con su capacidad para iluminar los problemas prácticos involucrados en la acción presente y en la futura. Es obvio que esto no significa que esas técnicas puedan dejar de lado el tipo de rigor propio de la investigación. Como señalamos antes, para que la evaluación tenga credibilidad, es preciso demostrar lo que NUTTALL describe como el criterio de “aceptabilidad metodológica” (véase el Capítulo Primero y Open University 1982, Bloque 1, parte A). Validez y fiabilidad En todos los enfoques de investigación se hace hincapié en la validez y fiabilidad de los métodos. En otras palabras, se prevé que los investigadores demuestren que las observaciones que registran y analizan correspondan a lo que pretenden registrar y analizar. En esto consiste el concepto de validez. En segundo lugar, tienen que asegurarse de que evitan las fluctuaciones aleatorias en las observaciones que registran. En ello consiste el concepto de fiabilidad. Ambos conceptos encierran una serie de variantes o tipos de validez o fiabilidad. Como la fiabilidad es más fácil de describir, la analizaremos en primer lugar. Esencialmente, la fiabilidad está relacionada con la consistencia de los resultados y se refiere al requisito de que, al menos en principio, cualquier otro investigador, o el mismo científico en otra ocasión, podrá replicaría investigación original, consiguiendo unos datos o resultados comparables. En consecuencia, la fiabilidad puede ser de dos tipos:

  1. Fiabilidad interjueces, que alude al grado de acuerdo entre dos investigadores que registran sus observaciones de fenómenos iguales o similares.
  2. Fiabilidad intrajuez, que se refiere a la consistencia de las observaciones del mismo investigador en distintas ocasiones. Como la fiabilidad, la validez tiene que ver con los “errores” que pueden darse en el proceso de investigación. Sin embargo, en este caso, el centro de atención está constituido por los “errores sistemáticos” (o sea, sesgos), en vez de “errores aleatorios”. Aunque la validez de un método consiste básicamente en la medida en que las observaciones registradas son las que el investigador se proponía registrar, el concepto es bastante más complejo de lo que parece a tenor de este enunciado. Suelen distinguirse diversos tipos de validez:
  3. Validez aparente. Se trata del nivel más sencillo (y débil) de validez, pues sólo requiere que una medida, etc., parezca que mide lo que se pretende.
  4. Validez de contenido. Se alude a ella a veces como principio de “inclusividad” y se refiere al requisito de que los datos producidos abarquen todos los aspectos pertinentes de la cuestión de que se trate. Como señala DEALE (1975, pág. 30), constituye un aspecto muy importante de la validez para el profesor que pretenda construir pruebas de rendimiento o exámenes de clase, pues requiere que la prueba abarque de manera adecuada todo el programa.
  5. Validez referida a criterio. Este concepto alude a la concordancia entre las puntuaciones de una prueba y algún otro critério, como las estimaciones de capacidad de los profesores o los, resultados de un examen, por ejemplo. Este tipo de validez puede subdividirse en: a) validez predictiva, que requiere que la medida en cuestión prevea adecuadamente la conducta o los resultados, y b) validez concurrente, que requiere que la medida concuerde con otra medida de validez conocida o supuesta.
  1. Validez de constructo. Se trata de un concepto muy importante en la teoría de las pruebas. En este contexto, “la validación de constructo comprueba el grado de adaptación de la prueba al conjunto de predicciones teóricas sobre una variable interviniente cuya existencia o utilidad puede no ser sino una hipótesis del creador de la prueba” (Open University 1979, bloque 6, pág. 6). En otras palabras, la medida debe reflejar el constructo (p. ej., inteligencia, ansiedad) que ocupa a los investigadores, sin que deba comprobar ninguna otra cosa. Del mismo modo, si la teoría prevé el constructo como un rasgo unitario, el análisis no debe escindir los resultados en varios factores independientes.
  2. Validez interna. Esta expresión es de orden diferente a las anteriores, aunque, en algunos aspectos, las engloba. Se refiere fundamentalmente a la aceptabilidad de una explicación (o sea, silo que se interpreta como “causa” produce el “efecto”) y a la pertinencia del diseño de investigación y los instrumentos de medida para producir esta explicación.
  3. Validez externa. En contraste con la “validez interna”, ésta se refiere a la capacidad de generalizar los hallazgos. También puede subdividirse. La validez poblacional refuerza la investigación mediante encuesta porque se refiere a las generalizaciones de poblaciones de personas, mientras que la validez ecológica refuerza la etnografía, dado que alude a la generalización desde un conjunto de condiciones (p. ej., el caso, el ambiente, la cultura) a otro distinto^13_._ La importancia de la validez y la fiabilidad en el contexto de investigación se funda en que aumenta la posibilidad de réplica del diseño de investigación y, por tanto, la verificabilidad de los descubrimientos de la investigación. En la investigación experimental de las ciencias naturales, el proceso de réplica desempeña un papel central; los avances en el conocimiento científico se logran tanto a través de la refutación de las teorías aceptadas hasta el momento como por el descubrimiento de nuevas teorías^14. En la educación y en las ciencias sociales, la réplica es más difícil. La conducta humana nunca es estática y, como el control de ciertas variables no sería ético ni natural, ningún estudio puede replicarse exactamente, con independencia de los métodos o diseños de investigación que se utilicen. Sin embargo, sigue en pie la necesidad de que los descubrimientos sean creíbles, lo que ha estimulado a los investigadores a buscar otros medios de conseguir que su trabajo sea válido y fiable. Aunque sea una simplificación exagerada, podemos decir que el establecimiento de la validez de los resultados constituye el principal problema de los enfoques cuantitativos, mientras que los problemas de fiabilidad predominan en los enfoques cualitativos. Un procedimiento de validación de medidas cuantitativas, como los exámenes, consiste en pedir a ‘expertos” que juzguen qué destrezas, objetivos o contenidos mide cada pregunta. Se trata de una validación de contenido y se consigue sobre todo mediante un análisis intrínseco. Por otra parte, las pruebas normalizadas se basan ante todo en la validez de constructo, que se consigue mediante la demostración de que la medida obtenida concuerda con las previsiones derivadas de la teoría en relación con las propiedades del constructo. (^15) Como en el caso de la fiabilidad, esa demostración se realiza reuniendo muchas valoraciones o medidas de los fenómenos sometidos a observación, permitiendo un margen estadístico de error. Sin embargo, ni siquiera estas precauciones erradican todas las fuentes de error o de desequilibrio. Consideremos, por ejemplo, la administración de una prueba “de papel y lápiz”, que se supone validada, a un grupo de niños de enseñanza primaria cuyas clases se imparten de modo informal. El procedimiento de sentarlos solos y en silencio, dando sus respuestas por escrito puede resultarles tan extraño que desvirtúe gravemente tanto su ejecución como el tipo de curriculum que han experimentado en realidad. En otras palabras, la deformación provocada por el ambiente artificial puede invalidar los resultados obtenidos mediante un instrumento que, por lo demás, cumple todos los requisitos de la teoría clásica de las pruebas. En los enfoques cualitativos, el hecho de que sólo se dé un “caso” del fenómeno que se investiga y que su aparición pueda ser fugaz, dificulta la aplicación de una batería de medidas. Sin embargo, la idea de que, a partir de un acontecimiento único, pueden recogerse distintos tipos de datos y que éstos pueden utilizarse posteriormente para contrastarlos con otros casos, constituye el fundamento del principal procedimiento de validación utilizado en la investigación cualitativa, que se conoce como triangulación. De acuerdo con algunos investigadores que utilizan técnicas cualitativas y, sobre todo, etnográficas, la triangulación se ve afectada por problemas de validez (véase BLOOR, 1978). Por ejemplo, no existe garantía (^13) En Open University(1979, bloque 8,”Evaluation of Research” aparece una descripción más detallada de estos diversos tipos de validez y sus puntos fueres y débiles en las investigaciones experimental, de encuesta y etnográfica, véase también en DEALE (1975, págs. 29-38) una exposición respecto a la validez y la fiabilidad en la evaluación de tos alumnos 14_._ POPPER (1963,1972) afirma que ninguna observación es “pura”, en el sentido de que este libre de carga teórica, se trata siempre de interpretaciones a la luz de teorías previamente aceptadas. En consecuencia , el esfuerzo científico ha de orientarse hacia la critica de la teoría existente y a la evaluación del conocimiento (cf. El “cambio de paradigma” de KUHN, 1962). 15 Uno de los problemas que plantean las llamadas pruebas de CI consiste en que el constructo “inteligencia” sigue manteniéndose en el nivel de hipótesis. Por tanto, lo único que puede afirmarse con seguridad es que "¡los tests de CI prueban lo que prueban los tests de Cl!”

ciencia social cualitativa) no han tenido a influencia que se pensaba. Propone, en consecuencia, que se con- sidere la evaluación como una actividad artística con dos dimensiones: 1) conocimiento de la educación, y 2) crítica de la educación (EISNER, 1 979). La primera se ocupa de la apreciación, es decir, la capacidad para discernir cualidades sutiles, mientras que la segunda actúa como mediadora de la percepción. En términos prácticos, infiere la necesidad de que los informes sobre la educación sean tanto evocadores como analíticos 17 Aunque GIBSON (1981) no rechaza por completo la idea de que los métodos de crítica del arte sirvan para iluminar de algún modo los procesos que se desarrollan en la escuela y en el aula, se opone con vehemencia a una crítica del curriculum de esa clase por: 1) suponer, erróneamente, que el curriculum es una obra de arte y puede tratarse como tal; 2) aceptar supuestos equivocados respecto de la naturaleza de la crítica y dejar de lado su enorme variedad, y 3) suponer que, quienes aspiran a ser críticos, han de considerarse a sí mismos artistas para quienes ei uso artístico del lenguaje constituye una necesidad. Según GIBSON, este último supuesto ha tenido efectos desastrosos, pues ha estimulado la elaboración de informes sobre curricula centrados en sí mismos, narcisistas, en apariencia omniscientes, de estilo grandilocuente y buscando cons- cientemente los golpes de efecto. (Conviene tener en cuenta esta última crítica cuando consideremos el estilo y la forma de los informes sobre estudios de casos —Capítulo X— y, en especial, los que utilizan enfoques ficticios; WALKER, 1981.) Si examinamos los datos disponibles sobre la práctica de la evaluación curricular en las escuelas (p. ej., la Segunda parte de este libro), su conexión con la crítica de arte o con la investigación social y educativa no es evidente en absoluto. Sólo las pruebas de valoración de los alumnos y los exámenes elaborados por agentes externos (véase el Capítulo IV) parecen haber adoptado una metodología estricta del tipo de investigación (de corte cuantitativo). Las demás formas de evaluación curricular no parecen guardar relación explícita con ningún procedimiento formalizado tomado de otros ambientes, dado que la principal actividad consiste en diálogos y reuniones en los que se comparten y juzgan experiencias o en el ejercicio del ‘juicio profesional” individual (véanse los informes de actuaciones basadas en la escuela en el Capítulo V y las inspecciones en el Capítulo IV). Dada esta realidad, el motivo para incluir un amplio apartado sobre procedimientos de investigación en este capítulo (y en los Capítulos VIII y IX) se basa en la percepción de que, aun en el caso de que los procesos siguieran sin organizarse, toda evaluación incluye los pasos de recogida y procesamiento de observaciones y juicios. A la luz de las objeciones de GIBSON contra la crítica del curriculum, en su formulación presente, creemos que los métodos de investigación tienen todavía mucho que ofrecer, entre otras cosas porque parten de la premisa del rigor. Si la evaluación educativa aspira a lograr la aceptación de una amplia audiencia no puede considerarse exenta de las comprobaciones y balances normales que regulan la investigación. 18 Sin embargo, una importante diferencia entre evaluación e investigación (aparte de que la primera se centre en problemas prácticos más que teóricos, como señalamos antes) tiene que ver con la situación de la principal fuente de datos. En el contexto de la mayor parte de las investigaciones educativas y sociales, el investigador descubre sus datos ‘afuera”, en el mundo social. Aunque pueda considerarse a sí mismo parle de ese mundo social, no suele tenerse por fuente primaria de datos. En la evaluación curricular, sobre todo en la autoevaluación o revisión del curriculum, los profesores que realizan evaluaciones pueden considerarse así mismos como la fuente principal de información. Por tanto, uno de los cometidos de la evaluación consiste en poner de manifiesto la información que se deriva de las experiencias propias y de otros, y escrutar los supuestos y valores que llevan consigo. En este contexto, la puesta en común de informaciones en diálogo constituye una forma legítima de obtención y análisis de datos 19

. No obstante , lo más importante es que se produzca un intento deliberado de manifestar las posturas de valor con el fin de emitir juicios que, en la medida de lo posible, estén libres de amenazas e inclinaciones tendenciosas. En ciertos aspectos, esta concepción aspira a las características de lo que HABERMAS (1972) describe como situación ideal de conversación” (fundamento de la teoría crítica). Según él, ésta es una forma de diálogo que se ha liberado de manera tan clara de los intereses ideológicos y de poder que las consideraciones racionales por sí solas dictan el resultado de los intercambios entre individuos o grupos. Ya nos hemos referido a procesos semejantes de deliberación y diálogo en relación con la revisión del curriculum (Capítulo III) y nos ocuparemos nuevamente de ellos en el Capítulo VIII (véase en especial el apartado sobre el “Curriculum oficial”). El juicio La importancia del diálogo y la deliberación no es, sin embargo, exclusiva de ciertos tipos de evaluación, como (^17) Esta visión de la evaluación como crítica del curriculum (^) ha sido elaborada también por WILLIS (1978). (^18) No quiere decir esto que los métodos de investigación tengan que ser sólo los referentes a la experimentación científica social. Por ejemplo, STENHOUSE (1979a) señala el papel qué pueden desempeñar los métodos de los historiadores. (^19) Enfoque adoptado por LEWY (1977). El enfoque de ‘puesta en común de los informes” se explora más a fondo en un breve estudio de casos de la actividad de evaluación de una escuela primaria (Open University, 1982, Bloque 2, 2. parte).

la revisión curricular. Como indicamos antes, refiriéndonos al marco de STAKE (1967), el juicio constituye una parte esencial de cualquier evaluación curricular En la medida en que ese juicio supone el desarrollo y la aplicación de criterios de valor (o calidad), es inevitable alguna forma de deliberación, debiendo dirigirse con el mismo grado de cuidado y reflexividad que en las fases de recogida y análisis de datos. Parece ahora extraño que las definiciones de evaluación dadas al comienzo del capítulo hicieran hincapié en las actividades de adquisición de información y de decisión, mencionando poco o nada el acto mismo del juicio. En realidad, la valoración constituye la misma esencia de todo el proceso. Según STAKE (1967): “Para comprender completamente un programa educativo, es preciso describirlo y juzgarlo por completo” (pág. 525). Sin embargo, esto no significa que el evaluador tenga que ser el juez final de la calidad de un programa. Algunos evaluadores creen que deberían juzgarlo (p.ej., ScRIVEN, 1967), mientras que otros manifiestan que el papel del evaluador consiste en proporcionar los datos descriptivos que permitan juzgar a otros (los responsables de las decisiones). La insistencia de STAKE en la “representación” (STAKE,

  1. indica que se inclina a favor de esta última postura, aunque entiende la “representación” como descripción y, por tanto, como alternativa al análisis “en profundidad”, más que como alternativa al juicio. No obstante, es obvio que. desde su punto de vista, el evaluador tiene la responsabilidad de “procesar” los juicios (STAKE, 1967). En otras palabras, considera que los juicios subjetivos de diversos individuos y grupos de intereses son datos” pertinentes y forman parte de cualquier representación del mismo modo que los datos de tipo más “objetivo”. MAcDONALD (1977ª), con su concepto de “evaluación democrática”, ha desarrollado más esta idea. A diferencia de la evaluación burocrática, que corresponde a los intereses de los organismos gubernativos, patrocinadores de programas y políticos, o de la evaluación autocrática, al servicio de la comunidad universitaria de investigación, la evaluación democrática reconoce “la pluralidad de valores y trata de representar un conjunto de intereses en su formulación de valores. El valor básico consiste en una ciudadanía informada y el evaluador actúa como intermediario en los intercambios de información entre grupos diferentes” (MAcDONALD, 1977a, pág. 226). La importancia concedida por SIMONS (1981) al descubrimiento de los valores y supuestos que subyacen a la práctica de las escuelas (véase el Capítulo V) también forma parte de esta tradición. A diferencia de los programas de evaluación a gran escala, en la evaluación basada en la escuela, el evaluador y el responsable de las decisiones pueden ser la misma persona o grupo, en cuyo caso el debate respecto a si el evaluador debe o no juzgar se queda en una cuestión académica. No obstante, sigue teniendo sentido la postura de STAKE, que asigna igual importancia a las actividades complementarias (y quizá inseparables) de descripción y juicio, como también la idea de MAcDONALD respecto a que la evaluación, para que sea de verdad democrática, ha de reconocer la pluralidad de valores presentes en la escuela y en la comunidad. El debate sobre quién debe emitir los juicios ha distraído la atención de una cuestión mucho más fundamental sobre la misma naturaleza del juicio. Somos conscientes de que la cuestión del juicio puede resultar insoluble y no estamos totalmente convencidos de que la siguiente exposición la aclare mucho. Carecemos de pruebas de que las ideas que presentamos hayan sido puestas en práctica, aunque nos llaman la atención las posibilidades que ofrecen. La falta de claridad en el uso de los términos es en parte responsable del problema. Las expresiones “valores”, “normas”, “criterios” y “objetivos” suelen utilizarse casi como equivalentes (y nos tememos que también nosotros tengamos parte de culpa) y contribuyen a la extendida confusión sobre lo que supone el acto de juzgar. En un artículo sobre los orígenes y funciones de los criterios de evaluación, SADLER (1985) intenta poner orden en este campo (¿de minas?). Distingue primero los criterios de las normas, diciendo que los primeros se refieren a dimensiones importantes de una evaluación, mientras que las normas aluden a determinados niveles utilizados como puntos de referencia para efectuar atribuciones positivas o negativas de valor. Por ejemplo, el juicio sobre un conjunto curricular puede quedarse en los criterios relativos a la congruencia con las metas de la escuela, la viabilidad del mismo respecto a determinado grupo de alumnos o su coste. Sin embargo, las normas incluyen ideas de congruencia suficiente, bastante viabilidad y costes aceptables, lo que supone la calificación de niveles que operan como puntos de ruptura en relación con su aceptación o rechazo. La mayor parte de las evaluaciones formales hacen referencia a uno o dos fundamentos del juicio: son relativos o absolutos (STAKE, 1967). Según SADLER, los juicios relativos se refieren sólo a los criterios, porque el tema en cuestión se compara con la distribución de otros casos en relación con determinado criterio. Los casos se clasifican (X se considera mejor que Y), de modo que carece de interés la especificación de un punto de ruptura. En cambio, los juicios absolutos hacen referencia tanto a los criterios como a las normas, puesto que el caso se compara con lo que definen las autoridades como cualidad criterial. En este supuesto, entran en juego las ideas de suficiencia y aceptabilidad. Es interesante señalar que el resto del artículo de SADLER se ocupa de identificar los criterios y no las normas. Quizá le resulta inabordable el problema de éstas. ¿Acaso sólo son, como sugiere MAcDoNALD (1978), destilados subjetivos e idealizados del pasado? Pensemos en esta afirmación: “Los niveles [normas] eran más altos cuando yo estudiaba”. ¿Son, en realidad, relativos, en la medida en que las mejores actuaciones del pasado se convierten en el nivel calificador para el juicio de todas las actuaciones futuras o, en cierto sentido, las normas son —o deben ser— objetivas o absolutas y establecidas por acuerdo mediante el discurso racional? Aunque los

Figura 7.2: Un ejemplo de los criterios utilizados para evaluar los productos SSCR. (EBBUTT y WEST, 1984, pág. 13). valores subyácentes se dan a menudo por descontados y han de redescubrirse a partir de los criterios establecidos (como en el ejemplo de la SSCR antes citado). La tercera fase, que sigue a la de valoración primaria y a la de especificación criterial, consiste en el acto de prescripción, en el que los criterios se convierten en objetivos: “los objetivos son criterios que han sido paralizados y formulados de manera que operen como fines a la vista” (pág. 293). De este modo se convierten en centros de atención para la acción. A partir de aquí, SADLER indica que la concepción de que la evaluación consiste sin más en el proceso de medir hasta que punto se han alcanzado los objetivos preespecificados es muy natural porque cierra la relación circular valoración-criterios-objetivos. Sin embargo, indica también que los criterios especificados, explícitos, que, por naturaleza, son atomísticos, no suelen captar la naturaleza holística de las valoraciones a partir de las cuales se originan. En otras palabras, el todo es más que la suma de las partes; en realidad, puede haber conjuntos alternativos y contradictorios de criterios derivados del mismo valor genérico [McINTYRE, 1981, en un estudio originario de teoría moral, pone el ejemplo de principios de adquisición y dominio justos (ideología capitalista) frente a principios de distribución justa (ideología socialista), referidos ambos a la virtud supraordinada de la justicia]. Concluye SADLER: aunque todo conjunto de criterios de evaluación educativa debe, en general, hacerse explicito, en principio es indeseable su especificación completa antecedente. La razón de esta afirmación se basa en cuatro fundamentos: a) La descomposición de los principios de valor siempre es parcial; b) los criterios surgen de la experiencia y no pueden deducirse de los principios de valor; c) no pueden hacerse explícitos todos los criterios, y d) hay criterios para utilizar los criterios (p. ej., principios que exigen la suspensión de un criterio en beneficio de otro) (pág. 297). Por todas estas razones, SADLER está dispuesto a depositar cierta confianza en los conceptos de conocimiento experto (connoisseurship^ ∗ ) y crítica, elaborados por EISNER (1979) y WILLIS (1978). Se basan éstos en la aceptación de quienes no actúan como jueces de las evaluaciones holísticas de otros, bien porque pueden interpretar los juicios del connoisseur a la luz de experiencias propias semejantes o porque acepten sin más los juicios autorizados. Por desgracia, aunque quizá no fuera del todo imprevisible, SADLER no llega a indicar formas de realizar este análisis que sirvieran de orientación práctica para efectuar evaluaciones en las escuelas. Sin embargo, creemos posible extrapolar algunas indicaciones:

  1. Es importante observar que la especificación antecedente de criterios puede constituir una contraseña y que está muy justificado recoger información en relación con el área de interés a efectos de evaluación de manera libre y abierta.
  2. Es preciso reconocer también que los individuos elaboran juicios holísticos intuitivos sobre la base de la información que obtienen o reciben (el acto evaluador primario de SADLER). No obstante, debe estimulárseles para que organicen y aclaren sus juicios (sentimientos) por su cuenta o en el seno de un grupo de compañeros.
  3. Estos juicios organizados pueden examinarse en relación con sus valores subyacentes, planteando la cuestión: ‘¿por qué creo que esto es bueno o malo?” Esto debe llevar a la conclusión de que merece la pena conservar esos valores subyacentes o que, por el contrario, no son sino simples prejuicios. El proceso es similar al de tomar conciencia de algo y sólo resultará eficaz para el individuo si hay otros que participen en él, bien en calidad de “amigo crítico” (véase el Capítulo y), bien como grupo cooperativo (véase el Capitulo Xl).
  4. Una vez examinados los valores y los juicios, pueden formularse como criterios con contenido y utilizados como base del juicio formal. Como indica SADLER, esos criterios pueden convertirse en objetivos en la medida en que puedan utilizarse como orientaciones de las acciones futuras aunque, por las razones antes citadas, evite la consecuencia de que sean necesariamente los criterios de los juicios futuros. Aunque este proceso pueda parecer complejo, es en realidad de tipo naturalista, puesto que sólo pide a los evaluadores que hagan explícito lo que suelen hacer de forma intuitiva. Al ponerlo de manifiesto, los criterios ∗ (^) El concepto connoisseurship se deriva del Francés connoisseur (en la actualidad connaisseur), se traduce como conocedor”, pero con el matiz de “disfrute”,” gusto”, de “saborear” aquello en toque se es persona experta, un “connaisseur” es alguien que además de conocer en profundidad algo, es también una persona apasionada, que disfruta mucho con esa temática que domina, por ejemplo: la música barroca, la cultura maya, o las setas, etc. Se diferencia de la persona erudita en que ésta domina muy bien una determinada parcela del conocimiento, pero no tiene por qué ser una persona apasionada, que se implica emocionalmente en ese proceso de conocer. (N. del R.)

antes ocultos se hacen susceptibles de debate público sin necesidad de especificar de antemano determinados indicadores de calidad que deforman la experiencia y niegan la realidad del pluralismo de los valores^20. En muchos sentidos, el proceso en conjunto difiere poco del proceso de deliberación descrito en el Capítulo VIII. Como las observaciones de WALKER (1975) de la reflexión en grupo sobre las propuestas para la acción, los juicios pueden hacerse de manera autoconsciente y ordenada aunque, como en el caso de la deliberación, quizá sea más eficaz dentro de la estructura de los grupos cooperativos. Sin embargo, hay una diferencia: mientras que la acción exige el acuerdo, el consenso no es necesario en relación con el juicio. Por ejemplo, el profesorado de una escuela puede estar dividido respecto a la conveniencia de una iniciativa, aun después de un riguroso examen de sus juicios; estaría justificado presentar valoraciones diferentes (cf. la concepción del evaluador como “intermediario sincero” de MAcDoNALD, 1977). Sólo cuando se toma la decisión a favor de una acción en detrimento de otras, es preciso rechazar unos juicios en beneficio de otros. Esta actividad pone en juego otro nivel de juicio. Con independencia de que los evaluadores juzguen o no por su cuenta, esta categoría de juicios es prerrogativa de quienes tienen la responsabilidad de la decisión (aunque a veces los evaluadores independientes hagan recomendaciones). La cuestión de quiénes sean los responsables de las decisiones y cómo realicen esta tarea es competencia de la gestión (que tratamos brevemente en el Capitulo Xl). Lo que interesa a este respecto, así como a las cuestiones estudiadas por SADLER, es que el acto del juicio, en relación con la evaluación educativa, es complejo y tiene aspectos muy diversos. Esencialmente, en esta exposición nos hemos visto obligados a volver al concepto de evaluación intrínseca que exige poner en acción las destrezas del filósofo. Si, como indica STAKE, toda evaluación requiere una descripción sistemática y un juicio también sistemático, la tarea que se plantea a los profesores y a otros que traten de evaluar la práctica educativa es considerable. Si sus juicios han de tenerse por creíbles, justos y exhaustivos, no cabe duda de que necesitan ampliar sus roles tanto en el sentido de la investigación curricular como en el de la deliberación y lo que HABERMAS llama “razonamiento práctico”. A este respecto, la deliberación se aproxima a los métodos habituales de trabajo de los profesores y la investigación arranca de ellos. En el Capítulo VIII estudiaremos específicamente lo que sabemos sobre el uso que los profesores hacen de estos métodos, volviendo después a las cuestiones generales que rodean la acción de los profesores como evaluadores en el Capítulo IX. CAPITULO VIII Revisión de técnicas específicas Introducción Con independencia de la táctica que se adopte para la evaluación en una escuela, requerirá la utilización de determinadas técnicas. Es más, aunque algunas estrategias favorezcan el USO de ciertas técnicas (p. ej., las pruebas de rendimiento), suelen darse opciones diversas. Hasta aquí, el espíritu del libro se ha caracterizado por animar a las escuelas y a quienes participan en ellas a adoptar una visión amplia de la estrategia (de ahi el planteamiento del Capítulo VI). Esa misma postura se aplica en gran medida a las técnicas. Los principales enfoques de investigación expuestos en el Capítulo VII han dado origen a un importante conjunto de técnicas para realizar la recogida y el análisis de datos; en consecuencia, tanto los profesores como otras personas interesadas tienen que estar preparados para utilizar las más adecuadas con los problemas de evaluación a los que se enfrenten. La matriz de descripción de STAKE (1967) sirve de recordatorio del ámbito de fuentes potenciales de datos, por lo que utilizaremos sus categorías como marco general de este capítulo. No obstante, como ya hemos señalado, la evaluación no es sinónimo de investigación en cuanto a la selección de problemas, propósitos finales ni a su preocupación por la recogida de datos, lo que quizá sea aún más importante. Al presentar su matriz de descripción, STAKE nos recuerda que la evaluación no sólo tiene que ser una (^20) Al final del capitulo vi, hay una nota que indica que se han realizado diversos intentos de establecer criterios de proceso que sirvan de indicadores de calidad de enseñanza (véanse: JENCKS y cols, 1972: RUTTER y cols., 1979; OLSON, 1970; SIZER, 1979). Aunque existe un acuerdo evidente respecto a que una escuela tiene éxito en la medida en que es eficaz, desde el punto de vista educativo, siempre es discutible lo que pueda constituir la calidad de enseñanza. En el mejor de los casos, puede llegarse a un “consenso de trabajo” entre los profesores o entre ellos y otras partes interesadas. Parece, por tanto, que la búsqueda de criterios absolutos es una yana esperanza, si no una pérdida de tiempo.

Observación directa Introducción La preocupación creciente respecto a la observación que se percibe entre los evaluadores, sobre todo los relacionados con proyectos curriculares, procede de los partidarios del campo “iluminador” que se ocupan más de los procesos que de los productos del aprendizaje. Así, la experiencia con las técnicas de observación refleja los debates metodológicos de las dos tradiciones de investigación mencionadas en el Capítulo VII. En la investigación en el aula, esto se pone de manifiesto en dos enfoques: la observación estructurada (sistemática), y la observación no estructurada (informal).^1 Nos ocuparemos de ambos enfoques antes de considerar los problemas concretos que experimentan los profesores cuando observan, o sea, como participantes que se convierten en observadores. Observación estructurada Consiste en registrar la conducta que se desarrolla en el aula en relación con determinadas categorías especificadas de antemano y en reflejar la aparición de esas conductas en un cuadro de frecuencias o en sucesión. Proporciona así datos cuantitativos que pueden utilizarse a efectos de comparación de clases, práctica corriente en la investigación nomotética. Como puede suponerse, la observación estructurada tiene una historia de investigación más larga en los Estados Unidos que en la Gran Bretaña 2 y, en consecuencia, existen muchos sistemas relativos a este tipo de observación 3. Muchos de esos sistemas se basan en las lnteraction Analysis Categories de FLANDERS (1970), que codifican siete categorías de intervención oral del profesor (p. ej.: “alaba o estimula” y “hace preguntas”), dos de intervención del alumno (p.ej.: "responde al profesor y “el alumno habla por propia iniciativa”) y una de silencio o confusión. El sistema refleja un enfoque docente formal en el que domina la enseñanza dirigida a toda la clase. En este campo, los escritos generales dirigidos a profesores reflejan dos tradiciones: la relacionada con la evaluación del alumno, por ejemplo: GRONLUND (1981) y TÉNBRINK (1974); y la relacionada con la observación de niños pequeños (también con fines de valoración), por ejemplo: BOEHM y WEINBERG (1977); COHEN y STERN (1978); GOOD y BROPHY (1978), y GOODWIN y DRISCOLL. (1980). En el contexto británico, GALTON (1978) ha documentado un conjunto de más de cuarenta sistemas que, en contraste con los elaborados en los Estados Unidos, tienen que ver con tipos más flexibles de organización de clase^4 ; la escuela primaria constituye el principal Centro de atención de éstos 5

. Muchos sistemas de este tipo se centran en la actividad del alumno, en el contacto entre éste y el profesor y en la proporción del tiempo que el alumno utiliza “en su tarea”. En realidad, hay diversas formas de describir los sistemas de observación estructurada, pero todos deben resolver los siguientes problemas:

  1. El objetivo del estudio.
  2. Cómo se elabora el plan.
  3. Su centro de atención: el alumno, el profesor o ambos.
  4. El número y tipo de categorías.
  5. La frecuencia de registro.
  6. El período de observación.
  7. El número y la selección de personas observadas. (Adaptado de BENNETT y McNAMARA, 1979, págs. 36-37). EGGLESTON GALTON y JONES (1975) utilizan el “objetivo” como una dimensión de un mapa conceptual de la investigación mediante observación estructurada, aislando tres tipos distintos: proceso, para elaborar una descripción; comparativo, para comparar una clase o profesor con otros; proceso-producto, para relacionar la conducta con un cambio mensurable de los resultados. Todos ellos son pertinentes para la evaluación, aunque (^1) Son diversas las expresiones usadas en la bibliografía sobre observación para describirlas. La mas corriente es observación sistemática, pero no es correcto referirse a la observación no estructurada como “asistematica”. Del mismo modo, la división formal/informal es inadecuada; por eso preferimos utilizar las expresiones observación estructurada y no estructurada. 2 HAMILTON y DELAMONT (1974) y DELAMONT (1976) estudian su desarrollo en los Estados Unidos en relación con la observación no estructurada y el estado de la investigación británica en el aula. (^3) SIMON y BOYER (1974) y BORICH y MADDEN (1977) presentan detalles de gran número de sistemas de observación utilizados en los Estados Unidos, y ROSENSHINE y FURST (1973), BROPHY y GOOD (1974) y DUNKIN y BIDDLE (1974) revisan la investigación utilizando esos sistemas. (^4) BOYDELL (1975) trata la cuestión de cómo realizar observaciones sistemáticas (estructuradas) en clases informales. (^5) BENNETT y McNAMARA (1979) presentan una selección de sistemas de observación, utilizados en su mayoría en escuelas primarias. McINTYRE (1980) hace una selección no limitada a escuelas primarias

los estudios de procesos son los que están más al alcance de las escuelas 6

. El centro de atención del estudio y el número y tipo de categorías del sistema se relacionan con la conducta seleccionada para la observación. Esa muestra conductual puede clasificarse de acuerdo con el modo de desarrollo del plan: inductivo, comenzando con un conjunto amplio de conductas pertinentes y terminando con una teoría relativa a esas conductas: a partir de una teoría explícita de la conducta en clase que se operativiza mediante categorías o basada en objetivos curriculares que establecen cuáles son las conductas importantes. (Esto constituye la segunda dimensión del mapa conceptual elaborado por EGGLESTON, GALTON y JONES, 1975.) El muestreo de la conducta constituye también la base de tres tipos corrientes de sistemas:

  1. Sistema de indicios: lista de conductas mutuamente exclusivas, aunque no exhaustivas, a partir de la cual se registra la aparición de una conducta (con independencia del número de veces que se produzca) o se con- tabiliza la frecuencia en que aparece durante un período específico de observación.
  2. Sistema categorial: lista exhaustiva de conductas mutuamente exclusivas a partir de la cual puede calcularse la frecuencia de aparición y su sucesión.
  3. Escala de clasificación: expresa un juicio, que supone un nivel inferencial elevado, como una puntuación en una escala 7 . Las conductas que aparecen relacionadas en los sistemas de indicios y categorial deben ser directamente observables, con una inferencia mínima, garantía importante de fiabilidad. Es obvio que la frecuencia de registro en cada uno de los sistemas indicados es diferente: los sistemas de indicios dependen de la aparición del hecho en cuestión, independientemente de cuando suceda; un sistema categorial codifica la conducta a intervalos temporales especificados; la escala de clasíficacion suele puntuarse una sola vez (cada ítem) en un mismo período, como el correspondiente a una clase. Por desgracia, este campo del muestreo, tanto temporal como de hechos, se caracteriza por el uso de términos muy diversos. Algunos son sinonimos, otros plantean diferencias sutiles, pero pocos autores tratan de unificarlos. (Sin duda, habrá quienes no estarán de acuerdo con nuestra tentativa.) El muestreo de hecho^8 consiste en hacer una señal cada vez que aparece una conducta, perdiéndose, por tanto, la sucesión conductual. Por ejemplo, si tomamos dos categorías de conducta, el registro podría ser el siguiente: El profesor hace una pregunta El profesor alaba o estimula El muestreo instantáneo^9 requiere la selección de una categoría a intervalos regulares que represente la conducta que se produce en el momento de La observación. Se trata de una forma discontinua de registro que mantiene la secuencia entre apariciones. Por ejemplo, utilizando las mismas conductas que antes, la anotación en cada minuto nos proporcionaria un registro como éste: registro de intervalo^10 significa que, a intervalos regulares, se anota la conducta ocurrida durante los mismos. Esto proporciona un registro continuo, aunque se pierda la sucesión de conductas dentro de cada uno. (Las consecuencias de ello dependerán de la longitud del intervalo^11 ) Para un adecuado muestreo conductual, es importante tener en cuenta el período de observación, su longitud y el momento en que aparece la conducta 12 . El muestreo de alumnos puede real izarse de cuatro formas: mediante muestreo aleatorio; por observación de (^6) Los estudios comparativos requieren procedimientos de investigación experimental con exigencias rigurosas imposibles de cumplir en las escuelas, por ejemplo, la necesidad de utilizar muestras. Las manipulaciones estadísticas para los estudios proceso-producto constituyen también un problema para las -escuelas que no disponen de programas informáticos adecuados (p. ej., para el análisis de regresión). (^7) BORICH (1977) presenta un conjunto ligeramente distinto de definiciones de signo, categoría y clasificación; sin embargo, las que presentamos son las más corrientes. En todo caso, sus definiciones contienen los mismos elementos que las nuestras (o sea, exclusividad, exhaustívídad y nivel de inferencia) (^8) HOOK y cols, (1981) y BOEHM y WEINBERG (1977) lo utilizan, WRAGG y KERRY (1979) aluden a ello como una forma de muestreo natural”, o sea, se elabora un registro cuando se produce algún cambio de categoría, tema o hablante (GALTON, 1978), (^9) DUNKERTON y Cuy (1981) utilizan esta expresión. WRAGG y KERRY (1979) la denominan “muestra estática’ y GALTON (1978) y COOPER (1974) a denominan “muestra temporal”. (^10) COOPER (1974) utiliza esta expresión. GALTON (1978) emplea “unidad de tiempo” y WRAGG y KERRY (1979) la de “muestreo de unidades”. (^11) La longitud de los intervalos en el “muestreo instantáneo” y en el “registro de intervalos” depende de la naturaleza de las decisiones que ha de tomar el observador. Véase el debate entre DUNKERTON y GUY (1981) y EGGLESTON y GALTON (1981). (^12) GALTON (1979) señala que la representación excesiva de ciertas áreas curriculares puede darse cuando los alumnos escogen sus propias actividades en una clase de primaria.