32
PROBLEMÁTICAS EN TORNO A LA EVALUACIÓN INSTITUCIONAL. CRISTINA CONTERA RÍOS. UNIVERSIDAD DE LA REPÚBLICA-URUGUAY INTRODUCCIÓN En este artículo se aborda la problemática relacionada con la evaluación institucional a partir del análisis del carácter complejo de esta actividad, desde una perspectiva organizacional. Se reafirma la pertinencia de dar inicio a procesos de evaluación integral con el objetivo de llevar a cabo una revisión de las prácticas educativas habituales y contribuir a su re-lectura y análisis crítico. A continuación se describen los principios, criterios y valores que deberían orientar los procesos de evaluación desde la perspectiva naturalista. Se opta por un abordaje que vincula de forma pro-activa la investigación evaluativa y la planificación y se contraponen los paradigmas racionalista y naturalista para ilustrar las relaciones existentes entre las opciones metodológicas y los aspectos teórico- conceptuales que explican y fundamentan las elecciones que realiza el investigador. Por último, se desarrollan de forma sintética los pasos a dar para la formulación del diseño de la evaluación y los tipos posibles de evaluación. 1. Problemáticas en torno a la evaluación institucional La evaluación de las instituciones educativas es una práctica reciente que suscita debates y controversias derivadas sobre todo de su carácter polisémico y multidimensional. Un número importante de países tanto de Europa como de América Latina han incorporado esta práctica sobre todo a partir de la década de los 90. Con objetivos y 1

PROBLEMÁTICAS EN TORNO A LA EVALUACIÓN ... y, desde allí, dejar planteadas las continuidades y los cambios que se juzgan necesarios”. La segunda remite a la significación que

Embed Size (px)

Citation preview

PROBLEMÁTICAS EN TORNO A LA EVALUACIÓN INSTITUCIONAL.

CRISTINA CONTERA RÍOS. UNIVERSIDAD DE LA REPÚBLICA-URUGUAY

INTRODUCCIÓN

En este artículo se aborda la problemática relacionada con la evaluación institucional a partir del análisis del carácter complejo de esta actividad, desde una perspectiva organizacional. Se reafirma la pertinencia de dar inicio a procesos de evaluación integral con el objetivo de llevar a cabo una revisión de las prácticas educativas habituales y contribuir a su re-lectura y análisis crítico.

A continuación se describen los principios, criterios y valores que deberían orientar los procesos de evaluación desde la perspectiva naturalista. Se opta por un abordaje que vincula de forma pro-activa la investigación evaluativa y la planificación y se contraponen los paradigmas racionalista y naturalista para ilustrar las relaciones existentes entre las opciones metodológicas y los aspectos teórico-conceptuales que explican y fundamentan las elecciones que realiza el investigador.

Por último, se desarrollan de forma sintética los pasos a dar para la formulación del diseño de la evaluación y los tipos posibles de evaluación.

1. Problemáticas en torno a la evaluación institucional

La evaluación de las instituciones educativas es una práctica reciente que suscita debates y controversias derivadas sobre todo de su carácter polisémico y multidimensional. Un número importante de países tanto de Europa como de América Latina han incorporado esta práctica sobre todo a partir de la década de los 90. Con objetivos y

1

modos de concebirla diversos, la evaluación de instituciones se asocia generalmente a la intención fiscalizadora del Estado y a la “accountability” o rendición de cuentas, vinculada a la adjudicación diferenciada de los recursos provenientes del Estado. Otras experiencias, sobre todo de autoevaluación, y generalmente a iniciativa de las propias instituciones, posibilitan otras facetas de análisis asociadas sobre todo a la idea de evaluación participativa o democrática con el objetivo de perfeccionamiento y mejora de los centros.

Toda evaluación –independientemente de su tipo-involucra una serie de cuestiones problemáticas y en algunos casos dilemáticas que es conveniente explicitar a modo de orientación y guía práctica. A continuación se presentan algunas interrogantes que es necesario responder vinculadas con los protagonistas de la evaluación, los objetivos y la forma de medir los resultados obtenidos.

1.1. Entre las problemáticas más relevantes en este campo de estudio, cabe destacar las relacionadas con su origen. La pregunta que cabe hacerse es ¿quién lleva a cabo la evaluación? Dependiendo de la respuesta se abre un interesante abanico de opciones que permite señalar la existencia de procesos endógenos o exógenos a la institución. De esta manera podemos hablar de auto-evaluación, auto-estudio, evaluación interna o evaluación externa.

La evaluación interna según Nevo (1997) involucra a los profesores quiénes toman en sus manos la tarea. Justifica esto el hecho que el evaluador interno “conoce mejor el tema local de la evaluación y resulta menos amenazador a las personas que han de ser evaluadas”.(Nevo, 1997:56) Esta evaluación interna o auto-evaluación se sustenta en la idea que el sujeto de evaluación puede ser a su vez quién evalúa sin que el proceso pierda legitimidad.

La profesora argentina Susana Celman (2002) desarrolla un concepto de evaluación externa vinculada a las ideas de externalidad y ajenidad. La primera connota, según la autora, “el carácter de la lógica que organiza el enfoque, el lugar desde dónde emergen las decisiones de cuándo, dónde y quiénes realizarán las evaluaciones, el poder de establecer las normas y los referentes modélicos para juzgar el caso

2

concreto, y, desde allí, dejar planteadas las continuidades y los cambios que se juzgan necesarios”. La segunda remite a la significación que tiene para los sujetos. Estas acciones no se sienten como algo propio sino de otro (Celman,2002:5)

En ambos casos la decisión de evaluar puede ser el resultado de una decisión institucional o externa.

1.2. En segundo término debemos preguntarnos ¿con qué objetivo se lleva a cabo la evaluación? En este sentido es posible advertir la existencia de por lo menos dos respuestas: aquellas evaluaciones realizadas con el objetivo de valorar la eficiencia y eficacia institucional y las que persiguen el objetivo de perfeccionamiento institucional.

El primer caso agrupa las iniciativas que entienden la eficacia como la suma de las perfomances obtenidas. La escuela eficaz “school efectiveness”, noción desarrollada en Estados Unidos, elabora un modelo de escuela asociado a su desempeño con el objetivo de comparar establecimientos. Para ello transforman los desempeños en resultados estandarizados, y posteriormente agregados a un resultado global, que define la posición relativa ocupada por los alumnos o instituciones con respecto al conjunto de los casos evaluados. La discrepancia entre la perfomance esperada y la perfomance obtenida puede ser considerada el índice de perfomance.

La segunda posibilidad puede enfocarse vinculada a los procesos de aprendizaje institucional. Algunos autores (Nirenberg,Brawerman,Ruiz, 2000) relacionan este aprendizaje a la existencia de ciertos requisitos de la evaluación, entre los que es posible destacar los siguientes:

Debe ser útil a las personas comprometidas en el proceso;

Debe ser viable, es decir realizable dentro de cierto período;

Debe respetar los valores de las personas involucradas;

Debe estar bien hecha, con procedimientos adecuados, de modo de proveer información confiable.

3

Y agregan: “La evaluación es capacitadora e iluminadora pues busca en la teoría, la experiencia y el conocimiento, las argumentaciones que mejor expliquen los resultados y facilite el crecimiento, el desarrollo y el perfeccionamiento de los que intervienen en el proceso” (Nirenberg y otros, 2000:48)

Figari (1999) señala que en este debate interviene dos formas de concebir la evaluación asociada a dos culturas relacionadas con la preocupación por los “resultados” o por el “buen funcionamiento”. La elección por una u otra conduce a elegir no sólo entre dos prácticas de evaluación sino también entre dos tipos de establecimientos escolares: local de selección o local de aprendizaje, y entre dos concepciones educativas: calidad o cantidad. (Figari,1999:145)

Algunos autores como Stufflebeam y Shinkfield (1993) hablan además de pseudoevaluación y cuasievaluación.

En el primer caso se trata de aquellas evaluaciones donde quienes las llevan a cabo, ocultan, falsifican o manipulan los resultados para el logro de ciertos objetivos.(Stufflebeam y Shinkfield,1993:67) Se trata de aquellas evaluaciones que comienzan con un problema concreto y luego buscan la metodología adecuada para solucionar ese problema. Los estudios cuasievaluativos por su parte, pueden ser utilizados para enjuiciar el valor o mérito de un objeto, mientras que en otros su alcance es demasiado estrecho o sólo tangencial a las cuestiones del mérito o valor (Stufflebeam y Shinkfield,1993:70)

1.3. En tercer término entendemos importante analizar ¿qué unidades de medida se utilizan para valorar las instituciones?

Al respecto es necesario dirigir nuestra atención a la problemática referida a la utilización de indicadores y la forma cómo se construyen y aplican. De acuerdo a la taxonomía elaborada por Figari (1999) es posible establecer tres tipos de indicadores:

4

• El indicador como información privilegiada. En este caso el indicador constituye la información. Por ejemplo se procura conocer “el número de horas efectivamente dedicadas a la enseñanza” por parte de los profesores. La operacionalización de este indicador y la forma cómo se obtiene la información permite suponer que el análisis del centro educativo puede consistir en: a) la construcción de bases de datos y la realización de comparaciones entre varias instituciones; b) la definición de indicadores estadísticos de apoyo a la evaluación.

• El indicador como categoría representativa. En este caso el indicador se define como una categoría intelectual de aprehensión de la realidad. Los indicadores son considerados representativos de la realidad a evaluar.

• El indicador como concreción de un criterio. En la medida que es consecuencia de un modelo teórico global, y resultado de un proceso de análisis, se transforma en un dispositivo de la evaluación. La discusión teórica acerca de la selección de los indicadores es consecuencia, en este caso, de la delimitación conceptual previa acerca de los modelos, funciones y criterios de la propia evaluación.

Figari se pregunta si esta preocupación por definir indicadores precisos no se llevará a cabo en detrimento del esfuerzo de construcción de modelos descriptivos de la complejidad de lo real. Cuando la centralidad del proceso está en la aplicación de los indicadores previamente seleccionados, se deja de lado el problema sustantivo de la evaluación: las dimensiones a ser evaluadas, la definición de los criterios de valoración, etc. A nuestro criterio, los indicadores deben estar en función del modelo seleccionado y tienen el valor de “herramientas útiles” para la búsqueda de la información considerada relevante. En suma la evaluación de un centro educativo requiere la elaboración previa de una teoría acerca del centro, lo que equivale a la construcción del establecimiento escolar como objeto es estudio científico en correspondencia con un conocimiento profundo de sus procesos y de su identidad.

5

1.4. A partir de la práctica concreta relacionada con la gestión académica de procesos de evaluación institucional, es posible señalar otras constataciones.

En primer término el acto de evaluar desata reacciones adversas, independiente de cuán involucrados estén los actores. Evaluar implica un juicio de valor, “exponerse”, “mostrar” “hacer visible” prácticas y modos de trabajar que ocurren en la intimidad de las aulas, departamentos e institutos. Dichas reacciones se expresan en resistencias e inclusive malestar produciendo un escenario de difícil tránsito.

En segundo término, las tensiones derivadas de las inevitables comparaciones –entre instituciones, unidades académicas o profesores- enrarece el clima institucional dando lugar a reivindicaciones relacionadas con la libertad académica y la autonomía, concebidas y expresadas como actitud defensiva ante lo que se considera una intromisión. Imposible superar este estado de cosas. El evaluador en este caso tendrá que ingeniárselas para dotar de legitimidad y credibilidad su trabajo, generando un clima de confianza en torno a la idea de que el proceso no persigue una función fiscalizadora ni sancionadora, sino de mejoramiento institucional.

En tercer término, señalo el difícil tema de la toma de decisiones, cuando refieren a correcciones e inadecuaciones, o simplemente cambios. Aparece aquí el tema de la relación entre el plano técnico y el plano político-institucional, muchas veces poco definida. La falta de delimitación entre ambos planos conduce a conflictos entre dos formas de ver las cosas y dos racionalidades no siempre coincidentes. Si la toma de decisiones no es el resultado de un cierto consenso, su implementación posterior será extremadamente dificultosa.

En cuarto término, hago notar la importancia de trabajar en los espacios de contradicción existente entre un “deber ser” definido políticamente y el “deber ser” que los actores imaginan acerca de su

6

institución. Ambas dimensiones de análisis son importantes pero difícilmente se logre una coincidencia entre ambas. La posterior “lectura” de los resultados obtenidos entonces estará en relación directa con el rol que se desempeña en la institución y fuera de ella: alumno, docente, gestores, autoridades de la enseñanza, poder político, etc.

¿Cómo trabajar a pesar de estos obstáculos? Tengo la convicción de que la forma de desarrollar procesos de auto-evaluación participativos requiere sobre todo de una actitud propensa a tolerar lo desigual, contradictorio y en muchas ocasiones conflictivo. Para ello la alternativa más exitosa es contribuir con nuestras prácticas a la generación de una “cultura de la evaluación” vinculada a un proceso permanente de reflexión sobre lo que hacemos.

Coincidentemente con Leite,2005, Cousin y Earl,1995, Saul ,2000, Castro-Almeida y otros, 1999, creemos que es imprescindible la presencia de especialistas en el tema, ya que la evaluación institucional requiere del manejo de experticias complejas. Su tarea será trabajar con los gestores y actores, contribuyendo a su formación y comprensión de los aspectos técnicos del trabajo.

Por último quiero señalar algunos riesgos inherentes a la evaluación institucional: que se transforme en un ejercicio de autocomplacencia, o una actividad “lúdica”. Muchas veces se inician procesos en respuesta a demandas gubernamentales, necesidad de acceder a rubros especiales, acreditar instituciones, legitimarlas o ubicarlas en lugares privilegiados del “ranking” nacional o regional, etc. Entonces se manipulan los resultados para que la fotografía que se muestra sea en gran formato y tecnicolor. Otras veces es una especie de juego, de “como si” al estilo de: “Tú haz como que me evalúas y yo hago como que soy evaluado”. En ninguno de los casos la evaluación es un dispositivo de mejoramiento institucional sino una especie de gimnasia evaluatoria tendiente a mantener las cosas como están.

7

2. La naturaleza del objeto de evaluación

La valoración de las instituciones educativas no es un tema fácil de abordar, alerta Santos (1998)

En efecto, la valoración del “éxito” o “fracaso” educativo es una conceptualización completamente inadecuada que sólo puede entenderse a la luz de ciertos referentes. Importa el análisis del contexto, de la matriz cultural, de las metas definidas, etc. Por ejemplo, si quisiéramos medir el “éxito” de una institución exclusivamente a partir del número anual de egresos, seguramente nos equivocaríamos, ya que no estaríamos considerando las dificultades de los alumnos para conciliar trabajo y estudio, las dificultades derivadas de clases masificadas, insuficiente número de docentes, dificultades de infraestructura, etc.

En segundo lugar si el objeto de estudio es la “institución” será fundamental definirla y delimitar conceptualmente su carácter, perfil e identidad.

La institución educativa puede concebirse como ecosistema (Santos,1998) La aplicación del modelo ecológico al estudio comprensivo de la organización del centro, posibilita el surgimiento de una concepción sistémica de la evaluación institucional, atenta a estructuras y procesos, desde un enfoque metodológico de corte fundamentalmente cualitativo y cercano a la investigación cualitativa y de corte etnográfico.

La concepción sistémica de la organización –agrega el autor- conduce a la necesidad de abrir un proceso de evaluación integral ya que difícilmente puede entenderse una parte sin la otra: de poco sirve centrarse en los resultados sin haber tenido en cuenta el proceso, o en éste sin saber siquiera qué ha de concebirse como un buen resultado.

8

La construcción del objeto de la evaluación –en este caso los centros educativos- requiere prestar atención a los siguientes factores reseñados por Santos (1998):

1. Análisis de los contextos (historia y realidad actual).

2. Atender las relaciones e intercambios de carácter psico-social: las relaciones interpersonales tanto de autoridad, subordinación, de enseñanza, de aprendizaje, etc.

3. Interpretación representativa de los hechos y fenómenos. No se trata sólo de describir sino que también hay que analizar los resultados.

4. Subrayar el valor de los procesos. No se debe atender solamente cuántas cosas se hacen sino también cómo se hacen

5. Incorporar la opinión de los protagonistas: docentes, alumnos, comunidad.

6. Conservar una visión estructural de las instituciones. Se trata de superar una visión fragmentada para atender la organización en su globalidad

7. Priorizar la visión cualitativa de la evaluación.

8. Crear hábitos y actitudes que favorezcan la autorreflexión sistemática y rigurosa.

Otro aspecto que debería ser considerado, es el referido a la “cultura organizacional”. La institución concebida como organización –más o menos compleja- ofrece dimensiones nuevas de análisis, en condiciones de aportar complejidad al proceso evaluatorio. Destaco las siguientes elaboradas por Domínguez-Díez (2000):

9

La cultura de la organización como integradora/socializadora. La cultura organizacional identifica a sus miembros a través de formas de pensar y de actuar en el ámbito organizacional que le son comunes y que en consecuencia, les confiere una identidad colectiva. Como afirma Robbins (1987) la cultura transmite un sentido de identidad a sus miembros.

La función adaptativa que posibilita a los integrantes de la institución (docentes y alumnos) un relacionamiento con el entorno-en este caso educativo- favorable a sus necesidades de supervivencia. Dicha adaptación puede adoptar la forma de resistencia y otras de sumisión, más o menos explícitas.

La función legitimadora en tanto la cultura justifica el sentido y el valor de la organización. Refuerza la orientación y la finalidad de la organización, confiriendo inteligibilidad y sentido al comportamiento y al trabajo de los miembros de la organización.

La función motivadora dado que los valores compartidos y la adhesión a las metas institucionales pueden generar cooperación y compromiso de parte de los integrantes de la organización.

La función simbólica de la cultura organizacional en tanto representativa de la realidad social compleja de la vida de un grupo. En ella se condensa los valores, creencias e ideales compartidos.

De este modo es posible reflexionar acerca de la naturaleza del objeto de la evaluación a partir de la idea de que es posible iniciar procesos de evaluación, o mejor dicho de auto evaluación asimilado a la investigación cualitativa.

La investigación cualitativa orientada a la evaluación de as instituciones educativas se ofrece al análisis como una investigación-acción y como

10

investigación aplicada. Con respecto a la investigación-acción, Saul (2000) citada por Leite (2005) señala que la evaluación basada en la investigación-acción que Saul denomina emancipatoria, se construye a partir de tres vertientes teóricas: la evaluación democrática de Barry MacDonald, la idea de concientización de Paulo Freire y la investigación-acción. Autores como Suchman (1993) señalan que “la investigación evaluativa es un tipo especial de investigación aplicada cuya meta, a diferencia de la investigación no evaluativa, no es el descubrimiento del conocimiento, sino valorar la aplicación de este conocimiento” El énfasis se coloca en la utilidad ya que los resultados de la investigación deben proporcionar información para la planificación del programa, su realización y su desarrollo. (Suchman,1993:119)

3.- ¿Es necesario planificar la evaluación?

Muchos autores mencionan este paso como fundamental ya que la elaboración de un buen programa de investigación, coadyuva de forma decisiva en el cumplimiento de las metas trazadas. Dicho plan debe abarcar por lo menos los siguientes rubros: objetivos, actividades, resultados esperados, cronograma, costos, período que abarca el estudio, etc.

El carácter predominantemente cualitativo de la propuesta no debería estar reñido con la posibilidad de planificar los pasos a dar. Como bien señala Santos (1998) “El carácter emergente de la evaluación cualitativa no está reñido con la previsión” (Santos, 1998:51)

El mismo autor, citando a Kemmis y Mc Taggart (1988) define Plan de la siguiente manera: “El plan es acción organizada y, por definición, debe anticipar la acción: debe mirar hacia delante. Debe reconocer que toda la acción social es, hasta cierto punto, impredecible y, en consecuencia, un tanto arriesgada. El plan general debe serlo bastante flexible para adaptarse a efectos imprevistos y a limitaciones anteriormente indiscernibles. La acción prescrita por el plan debe estar informada críticamente en dos sentidos. En primer lugar debe tomar en consideración los riesgos que implica un cambio social y reconocer las limitaciones reales, materiales y políticas de la situación. En segundo

11

lugar, la acción críticamente informada debe ser elegida de tal modo que permita a los profesionales actuar eficazmente sobre un abanico más amplio de circunstancias y hacerlo más sabia y prudentemente”

Stufflebeam y Shinkfield (1993) citando a Cronbach, señalan que la planificación evaluativa debe realizarse en dos niveles: una planificación general que reparta prioridades y responsabilidades entre los miembros del equipo, y una detallada planificación interna del equipo, que debe dar como resultado planes basados en las experiencias y en las interacciones de los que constituyen el equipo.

Stufflebeam (1993:206) propone un esquema de documentación de las planificaciones evaluativas que resulta orientador:

Análisis de las tareas

Definición del objeto de la evaluación

Identificación de las audiencias

Propósito(s) de la evaluación (perfeccionamiento del programa, responsabilidad y/o comprensión)

Tipo de evaluación (del contexto, de entrada, del proceso o del producto) que va a emplearse.

Principios de una evaluación solvente (utilidad, viabilidad, propiedad y exactitud) que debe ser observados.

Plan para la obtención de información

Estrategia general (examen, estudio de casos concretos, grupos asesores o experimentos)

Presuposiciones de trabajo que sirvan de guía para la valoración, el análisis y la interpretación.

Recopilación de información (muestreo, instrumentalización y recopilación de datos)

Organización de la información (codificación, archivo y conservación)

Análisis de la información (tanto cualitativa como cuantitativa)

12

Interpretación de los resultados (identificación de las normas y elaboración de los juicios)

Plan para el informe sobre los resultados

Preparación de los informes

Difusión de los informes

Previsión para continuar las actividades con el fin de promover el impacto de la evaluación

“Meta-evaluación”

La simple enunciación de las tareas a realizar indica la complejidad del proceso evaluativo además de la necesidad de poder prever e inclusive anticipar los pasos a dar. Diseñar una evaluación implica un trabajo complejo y arduo y de carácter permanente.

La idea final de “metaevaluación” alude a dos circunstancias: por un lado la necesidad de valorar el proceso realizado y por el otro el imperativo de revisión del diseño a los efectos de lograr una cierta continuidad y mejoramiento de las actividades autoevaluatorias y evaluatorias de los Centros.

Scriven (1968) señala al respecto que la metaevaluación puede ser formativa si ayuda al evaluador a planificar y a realizar una evaluación solvente, o sumativa, si proporciona a los destinatarios pruebas independientes acerca de la competencia técnica del evaluador principal y de la solvencia de sus informes.

4. Los principios, criterios y valores de la evaluación .

Este apartado tiene el objetivo de mostrar que todo proceso de evaluación institucional, aunque no lo explicite con claridad, adopta algunos principios rectores que pautan su accionar y que le proporcionan un perfil peculiar.

13

David Nevo (1997) sugiere diez dimensiones para conceptualizar la evaluación, que utiliza como organizadores a los efectos de contribuir a la revisión analítica de la literatura sobre evaluación educativa. Las diez dimensiones que señala Nevo son las siguientes:

1. ¿Cómo se define la evaluación?

2. ¿Cuáles son los objetos de la evaluación?

3. ¿Qué tipo de información debe ser recogida?

4. ¿Qué criterios deben ser utilizados para juzgar el mérito y valor de un objeto evaluado?

5. ¿Cuáles son las funciones de la evaluación?.

6. ¿A quién debe servir la evaluación?

7. ¿Cuál es el proceso para hacer una evaluación?.

8. ¿Qué métodos de investigación deben ser usados en una evaluación?

9. ¿Quién debe hacer la evaluación?

10. ¿Por qué normas debe juzgarse la evaluación?.

De acuerdo con la sugerencia que realiza el autor, los docentes podrán usar las diez cuestiones reseñadas para organizar sus propias percepciones acerca de la evaluación y desarrollar alternativas particulares. Una discusión previa a la implementación orientada por las premisas señaladas, podría ayudar a resolver los problemas que surjan antes de introducirse en una aventura evaluativa dudosa (Nevo, 1997:20-21)

Las fases para desarrollar una evaluación de Centros según el autor, son cuatro: la formación básica, el establecimiento de equipos evaluadores, la institucionalización de la evaluación, un diálogo entre evaluación interna y evaluación externa.

14

Otras experiencias relacionadas con la evaluación institucional como las realizadas en Brasil o Uruguay, vinculan el éxito de los procesos al desarrollo de una “cultura de la evaluación” como consecuencia de una fase “preparatoria” o de “sensibilización” cuyos objetivos son los siguientes: debatir los objetivos de la evaluación, aunar criterios en torno a los conceptos a utilizar, sensibilizar acerca de la necesidad de conocer mejor la institución, etc. En segundo lugar se debe lograr que el proceso goce de cierta “legitimidad” y no se perciba como una actividad exógena. Se trata de alcanzar legitimidad tanto política como técnica. Para ello resulta de particular importancia la existencia de expertos en la temática acompañada de la “institucionalización” de los procesos.

La evaluación externa debe llevarse a cabo como forma de garantizar la máxima consistencia del proceso. Esta acción se vincula a los procesos de triangulación donde lo que se busca es sumar “miradas” y perspectivas con el objetivo de ampliar y complementar el acercamiento y la comprensión del objeto de estudio.

Subyacente a estos planteos está la cuestión relacionada con el origen de la evaluación. En este sentido la pregunta que debemos realizar es la siguiente:

¿A instancias de quién se lleva a cabo la evaluación? Cuando los impulsores de la acción se encuentran fuera de la institución es muy difícil convocar y lograr consensos ya que los actores no se sienten involucrados. Cuando se inicia el programa auto-evaluatorio a partir de una iniciativa institucional resulta muy sencillo lograr adhesión. En este caso, la discusión acerca de las dimensiones e indicadores a ser utilizados contribuyen a la toma de conciencia y el desarrollo de una cultura de la evaluación.

Otro aspecto a tener en cuenta es el de los valores que orientan la evaluación. La explicitación de éstos, desde el inicio posibilitará una más rápida toma de posición con respecto a la misma. Cuando dichos valores refuerzan un concepto de autonomía y perfeccionamiento institucional, estamos frente a una evaluación formativa.

15

Según Antonio Trinidad Requena (1995), la evaluación formativa se orienta por los siguientes principios básicos tanto en su aplicación como en su desarrollo:

Igualdad. Toda evaluación se interroga sobre el sentido y el valor de las realidades objeto de evaluación. Sin embargo, existen muy variadas dimensiones a tener en cuenta a la hora de juzgar el mérito de algo. Para cumplir con el proceso de adjudicar valor deben definirse claramente los criterios, contextos y peculiaridades de la Institución a evaluar. El evaluador aplica, asimismo, criterios de igualdad que deberán ser construidos por los propios implicados en el proceso de evaluación.

Diversidad. Cada aspecto de un programa educativo contiene tantas verdades como puntos de vista. El evaluador está obligado a conseguir consenso explicativo, teniendo en cuenta la variedad de explicaciones y demostrando cómo y porqué se produce.

Utilidad. Los estudios de evaluación deben ser un servicio, más que simples investigaciones, para proporcionar la ayuda necesaria y la información útil para la comunidad universitaria. Para ello es necesario utilizar el contenido de los informes de evaluación como punto de referencia para redefinir estrategias, consolidar otras y contribuir así a un mejor conocimiento de la realidad institucional.

Redundancia. La reiteración permite conocer y descifrar las claves de la realidad educativa. Los estudios y revisiones continuas de las instituciones en el proceso de mejora de su organización, sin olvidar los principios éticos, pretende mantener el difícil equilibrio entre el derecho a la privacidad y la necesidad de conocimientos y responsabilidad social de aquellos que están implicados en la realidad evaluada.

Generalización. Se deben generalizar los resultados de la evaluación ya que así se posibilita la multiplicación de la eficacia de la evaluación.

Responder a las necesidades y perspectivas de diferentes audiencias. La evaluación debe ser útil y dirigida a aquellas personas y grupos relacionados con la tarea de llevar a cabo lo que se está evaluando

16

Iluminar el proceso organizativo de enseñanza-aprendizaje utilizando procedimientos evaluativos que puedan ser aplicados fácilmente. Las normas de viabilidad del proceso de evaluación estarán concebidas para asegurar que una evaluación sea realista, práctica, prudente, diplomática, moderada y, sobre todo, que forme parte de las actividades normales de la institución educativa. Debe planificarse y dirigirse conociendo las posturas de los diferentes grupos de interés, con el fin de obtener cooperación y evitar las posibles influencias de estos grupos, en los resultados.

Facilitar decisiones públicas y profesionales relevantes desde la óptica profesional del evaluador. La ética de la evaluación debe basarse en compromisos explícitos que aseguren la necesaria cooperación, la protección de los derechos de las partes implicadas y la honradez de los resultados.

Claridad en la definición de objetivos, procesos y contexto. La evaluación debe revelar y transmitir una información técnicamente exacta acerca de las características de la institución para poder determinar su valor o su mérito, señalando como normas: identificación del objeto a evaluar, análisis del contexto, descripción de intenciones y procedimientos, identificación de fuentes de información fiables determinando su validez y exactitud, control sistemático de los datos, análisis de la información cuantitativa y cualitativa, justificación de sus conclusiones y por último, objetividad en el Informe.

Félix Angulo Rasco (1998:84), citando a Helen Simons (1982, 1987,1995), señala algunos supuestos a tener en cuenta en procesos de evaluación democrática :

Todo proceso de auto evaluación pretende mejorar la comprensión de la vida, la organización y las prácticas de las instituciones educativas.

17

La mejora de la comprensión se sustenta en la construcción de espacios públicos para la reflexión crítica compartida, es decir, para la expresión de la responsabilidad pública y profesional.

Dicha reflexión sólo es posible en tanto la institución universitaria asuma su autonomía profesional y su responsabilidad social a través de la autoevaluación misma.

A continuación, siguiendo a Simons (1982, 1987,1989, 1995); Kemmis y McTaggart (1988), Angulo (1998:85) reseña los criterios que componen el marco ético en el que eventualmente podrían llevarse a cabo programas de auto evaluación institucional.

Negociación: Partiendo de la idea de negociación en tanto “ejercicio de explicitez valorativa”, que implica formular las razones por las que se quiere iniciar la auto evaluación, los motivos e intereses, así como las funciones y necesidades que se supone pretende satisfacer.

Colaboración: Si bien resulta imprescindible, debe existir la posibilidad de autoexclusión.

Confidencialidad: Toda información debe ser negociada con quien la proporciona ya que le pertenece; sin embargo, una vez aceptada su inclusión, la información ha de conservar su anonimato.

Imparcialidad: se trata de preservar la imparcialidad sobre los puntos de vista divergentes, los juicios y percepciones particulares, los sesgos y presiones externas e internas.

Equidad: La evaluación no puede convertirse en una amenaza a particulares o grupos debiendo establecerse canales de réplica y discusión de los informes.

Compromiso con el conocimiento: se trata de concebir a la auto evaluación como un proceso de conocimiento de la realidad. Presupone un compromiso colectivo e individual de indagar hasta

18

donde sea posible, las causas, los motivos y las razones que generan y propician los acontecimientos estudiados.

De acuerdo a los lineamientos explicitados por José Dias Sobrinho (1997a, 1997b), los principios que deberían ser tenidos en cuenta en los procesos de evaluación son los siguientes:

Institucionalidad en tanto principio explicativo. Esa evaluación es institucional en un doble sentido: sujeto y objeto y en cuanto al modo de realización. A partir de la experiencia brasileña, el autor fundamenta la necesidad de que se trate de un verdadero programa, o sea “un conjunto articulado de ideas, principios, concepciones, prácticas y grupos de sujetos organizados que producen efectos en el campo de las acciones y de la teoría de la evaluación en forma intencional y sistemática. Es una producción colectiva de una obra que estará siempre en construcción. Las ideas de proceso, socialización, movimiento y transformación tienen ahí gran valor y relevancia. Son ellas las que aseguran la significación formativa de esa evaluación” (Dias Sobrinho,1997b:5).

Globalidad: como principio heurístico. La evaluación institucional deberá tener en cuenta todas las dimensiones a los efectos de obtener una visión global sobre la universidad, en toda su complejidad. “Ver globalmente es también percibir los detalles y los instantes, pero integrando sus relaciones en significaciones de conjunto” (Dias Sobrinho,1997b:5).

Calidad: como objetivo. Partiendo de una idea de calidad en tanto “construcción social e histórica, dinámica y plural” considera a la evaluación un programa esencialmente pedagógico y proactivo que se plantea construir la calidad, mediante procesos sociales participativos. Su intención no será por lo tanto, jerarquizar y mucho menos castigar (Dias Sobrinho, 1997b:6).

Evaluación como proceso pedagógico: Es un proceso formativo que busca fundamentalmente, producir una visión de conjunto de

19

la institución aportando además formas y medios para la articulación de sus funciones, potenciando las condiciones para un mejoramiento integral. “Privilegiar la función formativa es colocar el acento en los dispositivos de acción, en el dinamismo del proceso, en el desarrollo de las funciones pedagógicas” en contraposición a la orientación sumativa, procedimiento utilizado para “medir, contar, fiscalizar y clasificar” (Dias Sobrinho, 1997a:51)

Juan Fernández Sierra (1994) concibe la evaluación educativa como “un proceso de recogida y organización de información relevante para ponerla al servicio de los participantes (profesionales, usuarios y responsables sociales y políticos) a fin de facilitarles la comprensión y mejora de la acción” (Fernández Sierra, 1994:305).

Para que cumpla con esas funciones deberá orientarse por los siguientes principios:

Ha de ser holística e integradora. La unidad básica de evaluación debería ser la institución en su conjunto y el núcleo de expansión el claustro de profesores.

Tiene que ser contextualizada. “Los proyectos de evaluación han de tener en cuenta las peculiaridades del medio social y académico donde se realizan.

“Toda evaluación debe ser coherente en un doble sentido: a) epistemológicamente y b) con relación al proyecto educativo que se evalúa”.

Ha de ser formativa. “El conocimiento que se obtenga de la evaluación ha de utilizarse para hacer avanzar la acción educativa y aumentar la calidad de la enseñanza”.

“Ha de surgir y expandirse basándose en negociación y deliberación, o sea, discutida y acordada entre los promotores, evaluadores y evaluados”.

20

Ha de potenciar la participación y el trabajo colegiado., transformándose en una práctica cotidiana

Debe procurar ser comprensiva y motivadora. “La evaluación no puede reducirse a la medición del nivel de conocimiento adquirido, ni centrarse únicamente en las conductas observables”. Sólo una comprensión profunda de los fenómenos pondrá a la comunidad académica en condiciones de buscar las soluciones y alternativas más adecuadas para la solución de los problemas detectados y el desarrollo de programas de superación académica.

“Debe ser enfocada desde una perspectiva naturalista y emplear, preferentemente, métodos cualitativos para la recogida y el análisis de los datos”.

“Ha de estar regida por la ética formal. Toda evaluación encierra en sí misma una importante dimensión ética. El para qué evaluar es en educación más importante que el qué evaluar o el cómo evaluar. La evaluación no debe ser un arma coercitiva, de control impositivo, demostradora de quién tiene la autoridad y el poder, sino, un acto de reflexión compartida a partir de los datos recolectados, con la intención de ofrecer mejor servicio a las personas y la sociedad.” (Fernández Sierra, 1994:305-312)

5. Los Diseños y procedimientos de evaluación. Las modalidades de evaluación institucional.

Rodrígues (1999: 34)) basándose en Guba y Lincoln (1986:316) establece las diferencias existentes entre dos grandes paradigmas que de hecho orientan las investigaciones evaluativas y las opciones metodológicas.

21

Cuadro Nro 1

Axiomas acerca de Paradigma racionalista

Paradigma naturalista

Realidad Única, tangible, convergente, fragmentaria.

Múltiple, intangible, divergente, holista.

Relación investigador/actores

Independiente Inter.-relacionados

Naturaleza de las afirmaciones de verdad

Generalizaciones decontextuadas, énfasis en las homogeneidades.

Hipótesis dependientes del contexto, énfasis en las diferencias.

Relación con valores Libre de valores Dependiente de valores

Cuadro Nro 2

Posturas acerca de Paradigma racionalista

Paradigma naturalista

Fuente de la teoría A priori Emergente

Diseño A priori Emergente

Situación Laboratorio. Manipulable

Natural

Conocimiento utilizado Proposicional Intuitivo

Instrumentos utilizados

No humanos Humanos (investigador)

Métodos preferidos Cuantitativos Cualitativos

22

Como señala Rodrígues (1999:39) los axiomas a los que se refieren Guba y Lincoln se ubican en el plano ontológico y epistemológico de la metodología, aluden a paradigmas y no al diseño exclusivamente. El abordaje naturalista no es holista exclusivamente por el reconocimiento de las múltiples variables que interactúan en cada contexto, sino porque su característica distintiva se sienta en la suposición del carácter coherente y organizado de los fenómenos sociales. Éstos no se explican por la suma de sus elementos constitutivos sino por la interacción que se da entre ellos y el reconocimiento de las ideas, creencias, normas y reglas sociales que los integran. Desde esta perspectiva es posible concebir a los individuos como agentes activos en la construcción de la realidad social.

Sin duda, el investigador-evaluador, a partir de su opción paradigmática debe construir su diseño e inclusive planear la evaluación. Esta actividad –que no es solitaria sino compartida- no está exenta de valores. Para Guba y Lincoln toda investigación sufre la influencia de los valores en por lo menos cinco grandes momentos: 1. en la definición del problema; 2. en la elección de los paradigmas que orientan la investigación, 3. en la elección de la teoría que fundamente la recolección y la interpretación de los datos, 4. durante el proceso, a través de las presiones ejercidas por los valores existentes en el medio donde se desarrolla la investigación, 5. al final, como consecuencia de la producción de resultados coincidentes o no con esos valores. (Rodrígues, 1999:40)

A esto se le agrega que la evaluación implica una opción ética en tanto que el juicio que se emite afecta la vida de las personas. Entonces resulta pertinente referirnos a ala idea sostenida por House (1988) que sostiene que la evaluación se orienta por paradigmas morales de acción más que por paradigmas científicos. Más que establecer la verdad se trata de saber qué es lo legítimo, correcto y justo. (Rodrigues, 1999:45)

Tomando como base la clasificación de Rodrigues (1999:50) –basada en MacDonald (1983)-, acerca de los estudios de evaluación, es posible

23

concebir tres tipos posibles: la evaluación burocrática, autocrática o democrática

Tipos de evaluación

Factores

Burocrática Autocrática Democrática

Fuente de valores

Autoridades administrativas y/o políticas

Especialistas o comunidad científica a la que pertenece.

La comunidad, el colectivo, y las audiencias que lo componen.

Al servicio de: Agencias gubernamentales (Incondicionalmente)

Agencias gubernamentales (Condicionalmente

La comunidad. La gente interesada en la educación y la evaluación.

Papel del evaluador

Consejero de la administración

Consejero/especialista

Facilitador y educador.

Técnicas de recolección y presentación de datos

Creíbles para los políticos y administradores

Científicas Accesibles a personas no especializadas.

Propietario de la información producida

La Administración

La Administración y el autor (posibilidad de divulgación académica)

Difusión lo más amplia posible.

Conceptos-claves

Servicio, Utilidad, Eficacia.

Objetividad. Stándards y principios científicos, académicos y profesionales.

Secreto, confidencialidad, Negociación, Accesibilidad.

Concepto-clave La realidad del La El derecho a

24

que justifica la acción

poder. responsabilidad profesional

saber.

A partir del interjuego de la opción paradigmática inicial, la posterior elección metodológica y los valores y concepciones éticas que atraviesan las decisiones que el investigador debe tomar, es posible construir un diseño de la evaluación coherente a dichas opciones.

Este diseño, no resulta entonces, de una casual y errática selección de dimensiones, variables e indicadores, sino que éstos son el resultado de decisiones teórico-conceptuales y prácticas que se deberán tener en cuenta. De hecho, se trata de sopesar pros y contras, estimar plazos, atender los recursos disponibles, definir los objetivos a lograr, además de decidir en torno a las cuestiones que estimamos sustantivas: definir claramente los principios y valores que orientan la evaluación.

El diseño va emergiendo, a medida que avanzamos en estas delimitaciones y opciones, y resulta de la interacción del equipo encargado de la evaluación y los integrantes de la comunidad educativa.

Sin perder de vista el nivel de análisis en que nos ubiquemos: la institución en su conjunto, un programa, un plan de estudios, etc. se deberán establecer las etapas y fases del proceso, las principales dimensiones de análisis, las variables consideradas relevantes, los indicadores que permitirán recoger los datos necesarios en cada caso, las fuentes de información para el logro de dichos datos, los métodos y técnicas de recolección de la información.

En resumen, se parte de la idea de que para comprender e interpretar la realidad –en este caso educativa- es necesario elaborar marcos teóricos de comprensión, es decir, elaborar una teoría que articule y guíe el análisis de dicha realidad. Esa elaboración se sustenta en una serie de problemas específicos y de cuestiones preexistentes a los que

25

se pretende dar respuesta. En ese sentido Pereyra (1990: 45), afirma que “La iluminación de la respuesta –o de las respuestas- no es el resultado de un experimento ni de las propuestas de interpretación y explicación que hagamos, sino que experimento y teoría se construyen mutuamente”.

En este orden de cosas, la teoría bien sea concebida como reflexión de carácter metateórico o bien se refiera a la comprensión y explicación de objetos de conocimiento, sirve para:

Ofrecer criterios para comprender la complejidad de lo real, lo que supone delimitar objetos, elegir lo esencial del universo de información empírica y explicitar contenidos de la realidad social de dominio actual.

Ofrecer hipótesis verificables para enlazar factores o datos en los distintos dominios de la realidad, tanto de naturaleza económica como política, cultural, etc. así como relaciones causales, funcionales entre campos de acción, sistemas parciales, factores, etc.

Construir marcos conceptuales que permitan comparar diferentes realidades sociales. En el terreno de la investigación, señala Pereyra que frente a las comparaciones ingenuo-implícitas, caracterizadas por yuxtaponer datos, hay que contraponer las de carácter reflexivo ya que para extraer el óptimo posible de la comparación hay que utilizar formas de análisis y de síntesis más agudas, lo que exige el uso de la teoría y de las teorías (...) (Pereyra,1990:46) En este sentido es importante tener en cuenta las palabras de Merrit y Coombs (1977) los que sostienen que: “...la explicación de por qué algo sucede en un sistema dado requiere la aplicación de una teoría. El desarrollo y comprobación de una teoría exige comparaciones explícitas. Sin comparaciones sistemáticas entre sistemas no podremos desarrollar las teorías que necesitamos: sin esas teorías podremos explicar muy pocas cosas, incluso dentro de un solo sistema” (Citado por: Altbach,P,Kelly,G, 1990:314)

26

Para Nirenberg (2000) los atributos deseables de un diseño evaluativo son los siguientes:

1. Ser Holístico: Debe procurar la comprehensividad de modo de incluir la totalidad de los aspectos de la institución, incorporando elementos de estructura, de procesos y de resultados. Supone el uso de multiplicidad de técnicas cuantitativas y cualitativas, incluyendo aquellas que permiten incorporar la perspectiva de los distintos actores involucrados en los procesos.

2. Ser modular. La comprehensividad no significa que se deba evaluar todo al mismo tiempo. Hay que definir etapas o fases acordes a las características del objeto de evaluación, sin perder de vista que los tiempos institucionales no siempre coinciden con los tiempos del equipo evaluador.

3. Involucrarse en el proceso de gestión de todas las etapas, contribuyendo al aprendizaje institucional y a una retroalimentación permanente entre la evaluación y la programación. Debe apuntar a desarrollar capacidades institucionales de evaluación permanente y una cultura organizacional evaluativa (Nirenberg,2000:136)

4. Ser flexible: en concordancia con el carácter emergente del diseño, éste deberá poder adaptarse e inclusive modificarse a medida que se avanza en la evaluación.

En síntesis, podríamos esquematizar un posible diseño de la evaluación constituido por estos elementos:

1. Precisiones conceptuales

1.1. Marco teórico general

1.2. Las dimensiones, variables e indicadores: definiciones conceptuales y operativas

2. Aspectos metodológicos

2.1. Abordaje metodológico general

2.2. Técnicas sugeridas/instrumentos

27

2.3. Fuentes

2.4. Actores participantes

2.5. Cronograma de aplicación

3. Matriz sintética del diseño evaluativo

3.1. Expresión gráfica de la matriz

3.2. Operacionalización de los indicadores

3.3. Relevamiento y explicitación de fuentes

6.-Comentarios

En síntesis, se ha presentado una forma de transitar por un proceso de evaluación institucional, concebido como investigación aplicada, poniendo el énfasis en la legitimidad técnica del proceso. Dicha legitimidad se presenta estrechamente vinculada a la posibilidad de desarrollar un proceso participativo y consistente desde el punto de vista técnico.

Se insiste en la relación existente entre las decisiones técnicas y los paradigmas que orientan esas decisiones, sin perder de vista el carácter axiológico y ético de las prácticas evaluatorias. Esta forma particular de investigación, se encuentra estrechamente ligada a las consecuencias de su actividad. Por ello, no puede olvidar ciertos principios de acción que representan formas de concebir la actividad educativa desarrollada por las Instituciones Educativas y expresan formas culturales propias de los colectivos donde dicha actividad se lleva a cabo.

La insistencia en los aspectos metodológicos y sobre todo en la necesidad de planificar las acciones, está relacionada con la posibilidad de introducir cambios tanto en la cultura como en la organización de los

28

centros educativos ampliando las capacidades institucionales de gestión administrativa y académica.

La evaluación institucional refiere a un nivel de análisis donde lo que se evalúa es el proyecto educativo y académico institucional. La mirada global no resulta de la sumatoria de las partes sino que implica una visión holística y una mirada abarcadora e integral. La articulación entre instancias internas o autoevaluatorias y externas al centro aportaría a la comprensión global de la institución. El carácter cíclico e inclusive permanente de estos procesos contribuyen a fortalecer la vida institucional. Como complemento a estas actividades se incorpora la idea de “meta evaluación” con el objetivo de posibilitar la evaluación de la evaluación. Insistimos en el carácter inacabado y “en construcción” de la propuesta de evaluación así concebida. De esta forma, la participación de los colectivos es imprescindible.

REFERENCIAS BIBLIOGRÁFICAS

1. Altbach,P.;Kelly,G. (1990) Nuevos enfoques en educación comparada. Madrid: Mondadori.

2. Angulo Rasco,F.(1998) “La autoevaluación institucional como proceso de formación del profesorado”. Revista Avaliaçâo. Año 3, Vol 3, Nro.2 Campinas-Brasil

3. Angulo, J.F. (1988): “La evaluación de programas sociales: de la eficacia a la democracia” Revista de Educación, nº 286, pp. 193-207, Madrid.

4. Angulo, J.F. Contreras, J. y Santos, M.A. (1994): “Evaluación educativa y participación democrática”. En Angulo, J.F. y Blanco, N. (Comps.) Teoría y desarrollo del curriculum. pp. 343-354, Málaga: Aljibe.

5. Celman, S. (2002) “La evaluación democrática: remando contra la corriente” Ponencia. Jornadas internacionales de investigación sobre la Universidad. Universidad nacional de Río Cuarto. Argentina. 13 y 14 de junio de 2002.

29

6. Dias Sobrinho,J.(1997ª) “A Imprescindibilidade da Avalicao Institucional diante da Crise das Universidades”. En: Jackson Costa,M.J. (Org). Avaliaçâo Institucional. Desafio da Universidade diante de um Novo Século. Belém-Pará: Universidad Federal do Pará.

7. Dias Sobrinho,J.(1997b) “Evaluación Institucional: breve historia de conflictos y difícil solución”. Ponencia presentada en el Encuentro Formación del Docente Universitario, organizado por Cátedra UNESCO-AUGM. Montevideo: UdelaR.

8. Dominguez Fernández,G.; Díez Gutiérrez,E. (2000): “El cambio cultural de las organizaciones educativas” en: Cantón Mayo,I. (Coord.) Evaluación, cambio y calidad en las organizaciones educativas. Buenos Aires, FUNDEC, pp. 13-62.

9. Elliott,J.(1986). “La evaluación democrática como crítica social: o devolverle el juicio a la evaluación”. Open University Press.(Traducción de Eustaquio Martin, UNED, España), Madrid: Mimeo

10. Fernández Sierra,J.(1994) “Evaluación del currículum: perspectivas curriculares y enfoques en su evaluación”. En: Angulo,J.F.;Nieves,B. Teoría y desarrollo del currículum. Málaga: Aljibe

11. Figari,G. (1999): “Para uma referencializaçâo das práticas de avaliaçâo dos estabelecimentos de ensino” en Albano,E.;Nóvoa,A.(Org.) Avaliaçôes em educaçâo: novas perspectivas. Porto:Porto Editora, pp.139-154

12. Guba; E.G. (1981)“Criterios de credibilidad en la investigación naturalista”. En: Gimeno Sacristán, J., Pérez Gómez,A..I. (Comps.) La enseñanza: su teoría y su práctica. Madrid: Akal.

13. House,E (1981) “Tres perspectivas de la innovación educacional: tecnológica, política y cultura”. En: Revista de Educación. Nro. 286. Madrid.

14. House,E. (1994) Evaluación, ética y poder. Madrid: Morata.

30

15. Leite,D. (2005): Reformas universitarias. Avalliaçâo Institucional Participativa. Petrópolis,Río de Janeiro, Vozes.

16. Nevo,D. (1997) Evaluación basada en el Centro. Bilbao: Ediciones Mensajero.

17. Nirenberg,O.;Brawerman,J.;Ruiz, V. (2000) Evaluar para la transformación. Innovaciones en la evaluación de programas y proyectos sociales. Buenos Aires: Piados.

18. Norris,N.(1998) “Evaluación, economía e indicadores de rendimiento”. En: Revista HEURESIS. www2.uca.es/HEURESIS/, Cádiz.

19. Parlett, M.; Hamilton, D.(1972) “La Evaluación como iluminación”. En: Gimeno Sacristán, J.;Pérez Gómez, A.I. (Comp.) (1983) La enseñanza: su teoría y su práctica. Madrid: Akal.

20. Pereyra, M.A. (1990). “La comparación, una empresa razonada de análisis. Por otros usos de la comparación”. En: Revista de Educación. MEC. Madrid.

21. Rodrigues,P. (1999) “A avaliaçâo curricular” en Albano,E.;Nóvoa,A.(Org.) Avaliaçôes em educaçâo: novas perspectivas. Porto:Porto Editora, pp. 15-76.

22. Santos, M.A. (1998) 3ra Ed: Hacer visible lo cotidiano. Teoría y práctica de la evaluación cualitativa de los centros escolares. Madrid, AKAL.

23. Simons, H. (1999) Evaluación democrática de instituciones escolares. Madrid: Morata.

24. Simons,H.(1995) “La autoevaluación escolar como proceso de desarrollo del profesorado: En apoyo a las escuelas democráticas”. En: AAVV. Volver a pensar la educación (Vol II). Madrid: Morata.

25. Stake, R.E. (1995) The Art of Case Study. London: Sage.

26. Stenhouse, L. (1990) “Conducción, Análisis y Presentación del Estudio de Casos en la Investigación Educacional y

31

Evaluación”. En: Martínez Rodríguez, J.B. (Comp.) (1990) Hacia un enfoque interpretativo de la enseñanza.. Granada: Universidad de Granada.

27. Taylor , S.J. y Bodgan, R. (1986) Introducción a los Métodos Cualitativos de Investigación. Buenos Aires: Paidós.

28. Trinidad Requena, A. (1995) La evaluación de instituciones educativas. El análisis de la Facultad de Ciencias Políticas y Sociología de la Universidad de Granada. Granada: Universidad de Granada.

29. Walker, R. (1983) “La realización de estudios de casos en educación. Ética, teoría y procedimientos”. En: Dockrell, W.B.; Hamilton, D. (Comps.) Nuevas reflexiones sobre la investigación educativa. Madrid; Narcea. págs. 42-82.

30. Woods, P. (1987) La escuela por dentro. La etnografía en la investigación educativa. Barcelona: Paidós/M.E.C.

32