Se presentan dos casos de evaluación de proyectos bimodales desarrollados en universidades públicas de Argentina. Cada experiencia institucional se organiza por categorías que luego permiten comparar y diferenciar quiénes fueron los evaluadores, los propósitos y la finalidad que guió la búsqueda de datos, las dimensiones del objeto de análisis que decidieron conocer, la metodología que estructuró el proceso y las técnicas, y los instrumentos utilizados. A partir de esa descripción, se analizan los contextos singulares de cada organización superior que los llevó a cabo, y el enfoque político y epistemológico compartido de evaluación democrática que sostuvo a esos proyectos educativos. Se plantean aquí las diferencias respecto a cómo se construye en la metodología cualitativa la validez del conocimiento producido en un proceso de evaluación, inscripto en el paradigma hermenéutico-interpretativo. Palabras clave: evaluación de proyectos bimodales – evaluación democrática – metodología cualitativa – investigación evaluativa. |
La Bimodalidad ha sido un modo de inserción característico de la Educación a Distancia (EaD) en nuestro país en el nivel superior, a diferencia de lo sucedido en otras latitudes, donde se han generado organizaciones específicamente creadas para impartir enseñanza universitaria mediante esta modalidad (Watson y Marchisio, 2011). El Programa de Historia de la EaD en Argentina ha relevado los modos mediatizados de enseñanza, desarrollados especialmente por nuestras universidades públicas hasta el 2000, y si bien no hay acuerdos entre todos los investigadores (Martín, J. 2007; Carbone, G. 2004) respecto del lugar de la “investigación evaluativa” en las prácticas habituales de los proyectos del campo, este trabajo pretende analizar algunas dimensiones relevantes de dos casos desarrollados por equipos de especialistas en universidades nacionales, que evidenciaron una clara política de seguimiento sistemático de sus “haceres” en contextos de cambio.
I. Caso A: la evaluación de un proyecto centrado en la mejora de la gestión curricular mediatizada de los equipos docentes
La Secretaría de Gestión Académica de una Facultad desarrolló, a partir de 2007, un proyecto para la creación de aulas virtuales como complemento de la presencialidad.
Inicialmente, se trabajó con cuatro materias de la carrera de Ingeniería, correspondientes al 1er y 2do año. Cada equipo pudo decidir su involucramiento en el proyecto porque la participación de las asignaturas fue opcional.
Partieron de la premisa que, para lograr usos educativos de las TIC en el nivel superior, se requiere conformar grupos de trabajo en proyectos educativos que aprovechen las potencialidades y se cuestionen los métodos y modelos pedagógicos de enseñanza universitaria en contextos de virtualización. Los responsables del área académica de la facultad, buscaban dar un marco institucional a las variadas y dispersas iniciativas de innovación metodológica con la incorporación de TIC que los docentes venían generando, pero que no siempre lograban desarrollarse mediante un trabajo articulado y convergente entre presencialidad y virtualidad capaz de fortalecer la formación de los estudiantes.
El diseño de evaluación que implementaron fue configurado como parte integrada de la concepción del proyecto “Aulas virtuales” por los dos asesores que lo formularon en conjunto con la autoridad de la secretaría, pero en la evaluación participaron todos los involucrados: dos coordinadores tecno pedagógicos, los responsables de las cuatro cátedras, los tutores y los estudiantes.
Los acuerdos en los equipos docentes se sostuvieron coherentemente con una forma de apropiación distinta para cada aula virtual, por las asignaturas. Las cátedras reflexionaron críticamente la información recogida durante los procesos de desarrollo y fueron revisando y readecuando la propuesta inicial elaborada por cada coordinador de la asignatura.
Desarrollaron, así, una evaluación de proceso integrada a la implementación del proyecto con la intención de mejorar la primera experiencia, a partir de las reflexiones conjuntas de todos los protagonistas acerca de los datos sistematizados de su desarrollo. Para ello, la estrategia de reuniones periódicas mantenidas con cada cátedra apostó a que la calidad del diálogo entre evaluadores y participantes, potenciaría el poder formativo de la evaluación. En ese sentido, buscaron construir una relación colaborativa, crítica y constructiva de todos con el proyecto, que profundice la calidad de los niveles de apropiación del aula virtual por cada equipo.
Para el seguimiento del proyecto decidieron indagar en: a) la articulación presencialidad-aulas virtuales; b) los aspectos didácticos (configuración de aulas, materiales, recursos, actividades, tutoría, funciones); c) los aspectos tecnológicos y d) los aspectos referidos a la gestión institucional y de los equipos.
La metodología construida articuló el enfoque cualitativo con el cuantitativo para ir elaborando el conocimiento de lo que iba siendo el proyecto. En los foros desarrollados en la plataforma virtual, se observaron las relaciones entre los componentes (docentes-alumnos-contenidos-medio) mediante la técnica del análisis de contenido de la interacción que se producía durante los intercambios. Este análisis se retomó en entrevistas exploratorias abiertas y grupales realizadas a los coordinadores, tutores y estudiantes que participaban del proyecto. A los que aún no habían decidido incorporarse, se les administraron encuestas para conocer el impacto que el uso de aulas virtuales tenía en el resto de las materias. Asimismo, fueron recogiendo los datos estadísticos que aportaba automáticamente la plataforma virtual, respecto de la cantidad de ingresos al aula, la frecuencia, los momentos y tiempos habituales de conexión y dedicación, organizando luego los datos en modos de visualización gráfica del grado de realimentación y aprovechamiento que realizaban los docentes y los estudiantes. El análisis integrado de los atributos cuantificados de la comunicación didáctica en el espacio de la tutoría, les permitió entender a los protagonistas docentes la potencia que las preguntas de los estudiantes tienen al quedar escritas en estos entornos, y la posibilidad que esta permanencia de las huellas le dan a los docentes, para poder reconocer en ellas los obstáculos epistemológicos que aparecen en el proceso de aprendizaje de los estudiantes. Los actores pudieron construir un criterio de interpretación compartido para valorar la “buena enseñanza”: el intercambio que se establece en torno al contenido y las ayudas en el quehacer académico requiere de respuestas ajustadas, coherentes y contextualizadas de los tutores hacia los estudiantes.
Caso B: la evaluación integral de un ciclo a distancia de una carrera de grado
En 2005, los investigadores del Departamento de Educación a Distancia (EaD) de una facultad perteneciente a una universidad nacional, publicaron los resultados de un proyecto que consistió en realizar la evaluación integral de la implementación de un ciclo a distancia de una carrera de grado, que habían iniciado dos años antes.
Si bien esta facultad venía trabajando en la modalidad EaD desde hacía más de una década, cuando en 1991 iniciaron la elaboración de un curso de posgrado pionero, luego centraron su experiencia en la articulación con el nivel medio con los cursos de nivelación para ingresantes, acciones que monitorearon mediante la investigación evaluativa para realizar los ajustes que atendieran mejor los problemas que les planteaba la masividad en el acceso a la Educación Superior. Pero nuevos sentidos construyeron con las transformaciones tecnológicas que se venían operando, articuladas con las dificultades de la crisis nacional de 2001, cuando crean un Ciclo Básico de la carrera, decidiendo posibilitar el acceso a la universidad frente a las particulares condiciones socioeconómicas de la población estudiantil, ampliando su alcance a toda la provincia, buscando garantizar condiciones de estudio sin traslados a la sede central. Con esta respuesta “política” quisieron volver a poner en foco el sentido democratizador que sostuvo la incorporación de modos mediatizados de enseñar en los años 80’, pues el discurso general venía proclamando un cambio de posición hacia un foco “técnico” en los 90’, que fue priorizando la lógica del mercado –neoliberal– por sobre la de la academia.
La intención de igualar oportunidades con el desarrollo del Ciclo a distancia buscó reforzar estrategias de calidad encaminadas a solucionar problemas, como las dificultades en el acceso, la deserción, el retraso y el fracaso académico que se observaban en los primeros años de la carrera de grado. Se estudió la cohorte 2003, durante el primer y segundo año de cursado, en el que inauguraban la incorporación de la plataforma e-ducativa como nuevo entorno virtual para complementar la propuesta curricular. Hicieron el análisis estadístico del rendimiento académico (nivel de aprobación, desgranamiento y deserción), comparando resultados obtenidos con los que cursaron de modo presencial.
En el diseño de la evaluación integral de la propuesta bimodal en la virtualidad contemplaron, también, métodos cualitativos para abordar otras dimensiones a indagar como: los aspectos de gestión y organizacionales; la producción, articulación y uso de materiales y medios; las características sociodemográficas de alumnos y sus conocimientos y experiencias en el uso de las TIC; el uso de la plataforma por la cátedra; las valoraciones del contenido, materiales y medios de estudio, opiniones acerca de las interacciones virtuales y la organización general del dictado de las materias. Para recoger estos datos se realizó una encuesta a una muestra de estudiantes cursantes de las 12 asignaturas que constituían el Ciclo. Así, pudieron identificar grupos característicos de población en función de variables de interés que procesaron y analizaron estadísticamente (encontraron personas de más edad que los ingresantes, que trabajaban y debían atender a su familia); la validez del ciclo fue confirmada, en la medida que una gran cantidad de esta población –más de mil–, verían restringida su posibilidad de estudio sin esta alternativa.
Se entrevistó a docentes y personal administrativo mediante un instrumento semi-estructurado que contemplaba como tópicos a recorrer los cambios en la metodología de enseñanza, problemas, resultados del dictado continuo (dictado-redictado), la evaluación de los aprendizajes, la articulación entre asignaturas del Ciclo Básico, los problemas de la gestión informatizada de alumnos, la disponibilidad de la infraestructura de apoyo en las sedes.
El estudio de las interacciones virtuales se realizó mediante la observación y el análisis de las producciones textuales de estudiantes y de docentes, registradas en la plataforma en los espacios de los foros y el correo interno. Se trabajó para ello sobre una muestra (de una asignatura por área disciplinar) y de una unidad didáctica por cada programa producidos.
Se entrevistó en profundidad a los docentes de esas asignaturas para analizar las variaciones en sus formatos comunicacionales de intervenir y sus posibles efectos en la forma de interesarse de los estudiantes, los resultados permitieron contextualizar la lectura de las producciones textuales.
Pero la apertura de la oferta académica al interior de la provincia planteó nuevas dimensiones de análisis del desarrollo del Ciclo y nuevos interrogantes a responder: ¿cuáles fueron las condiciones del apoyo tecnológico y logístico a los estudiantes?; ¿qué demandas formulan los Centros de apoyo a la universidad? Las entrevistas a informantes claves de estos Centros, les permitió conocer que tuvieron dificultades en 8 de los 12 que funcionaron, aspectos diferenciales que concluyeron en una serie de recomendaciones políticas para que la facultad mejore las debilidades en el servicio educativo del ciclo universitario en el interior de la provincia.
II. Análisis
House (2000) nos aporta una diferencia a tener en cuenta para situar claramente las condiciones en la que se inscribe el evaluador de un proyecto/programa, según sea un contexto privado o un contexto público donde se realiza la evaluación.
Nos advierte que en un contexto público, nuestro “cliente” no es un único interlocutor, sino que hay diferentes “audiencias”, pues los resultados de la evaluación de un proyecto público afectan a “todos” los involucrados. Señala así que:
“…la evaluación no es ya un asunto interpersonal sino colectivo. Debe tenerse en cuenta una comunidad más amplia de intereses pertinentes. Éste es el problema fundamental del evaluador moderno y es lo que echa sobre sus espaldas la carga más pesada de todas. Su evaluación no debe ser sólo veraz y creíble, también debe ser justa”. (House, p. 22).
En este sentido, encontramos evidencias en ambos casos acerca de atender los intereses no sólo del protagonista clave: la buena formación de los estudiantes, su adecuación a los tiempos y espacios posibles para estudiar; sino también fueron interlocutores las autoridades universitarias, que en un caso necesitaban saber cómo fortalecer institucionalmente al grupo de profesores deseosos de innovar con metodologías de enseñanza virtual (A) y en el otro, cómo estaban asegurando la calidad de las condiciones de acceso a la Educación Superior en toda la provincia. Además, el caso B, otra audiencia muy diversa incluye para valorar la pertinencia del proyecto cuando se plantearon tener en cuenta otros intereses al preguntarse: ¿qué demandas le formula la comunidad provincial a la universidad?
Una misma perspectiva política y epistémica del objeto a evaluar: compleja y democrática
La preocupación por que las TIC ocupen un lugar fecundo en el proceso de enseñanza ha sido un rasgo común en ambos casos. Los responsables de la evaluación integral del Ciclo (caso B) reconocieron –en ese momento de comienzo de siglo XXI– que estaba errada la creencia dominante que indicaba que la sola presencia de dispositivos técnicos y software asociado, implicaría innovación. De manera que entendieron, al igual que los otros responsables de la evaluación del proyecto (caso A), que enseñar supone la construcción de un conjunto de representaciones compartidas, que requiere el desafío de reconocer las posibilidades que ofrecen las TIC para integrarlas en proyectos educativos, que diversifiquen y enriquezcan las estrategias didácticas, posibilitando que los estudiantes construyan conocimientos relevantes.
Ambos casos se centraron por ello en conocer el proceso desarrollado, más que en los resultados obtenidos, pero no dejaron de tenerlos en cuenta. Este atributo compartido implica una ruptura y a su vez una continuidad con las prácticas de evaluación de proyectos iniciadas en los años 70. En los comienzos, se buscaba la medida del éxito de la acción, la medición de logros para determinar la productividad didáctica, gracias al uso de un nuevo medio de transmisión. Esto ocurría porque la evaluación estaba impregnada de la impronta positivista, que confería sólo valor a lo objetivamente resultante y medible, pues el interrogante que los motorizaba era cuán eficaz y eficiente en transmitir el contenido había sido el proyecto. Recordemos que fue el enfoque proceso-producto impregnado por una racionalidad técnica el que marcó la investigación del campo (Litwin, 1982; 1995;) y que hoy continúa vigente (Watson, 2008). En los inicios, evaluaban coherentemente con la comprensión restringida y superficial de la innovación en las prácticas educativas que tenían, pues usaban diseños experimentales, buscando controlar las variables en la situación educativa en la que el nuevo medio intervenía, cotejando en el análisis los resultados obtenidos por el modo mediatizado, con los logrados en el grupo control mediante la enseñanza presencial tradicional.
En estos inicios, el valor de la evaluación formativa centrada en los procesos de implementación, era ordenada en ciclos de control para el ajuste del derrotero del proyecto, tal como había sido concebido por los planificadores. Esta verticalidad y quiebre entre los “especialistas” que piensan y los que ejecutan el plan formulado, se rompe en ambos casos en estudio (A y B) en la medida que en ellos la validez de la evaluación del proyecto no está dada solamente por la rigurosidad científica de la metodología y técnicas analíticas utilizadas, sino por todos los involucrados, quienes participaron re elaborando sus significados acerca de los tópicos objeto de análisis durante (A), o a posteriori de su desarrollo (B). Es decir que, en los casos descritos, el reconocimiento del valor otorgado a la evaluación formativa de un proyecto continúa, pero han cambiado no sólo las preguntas, sino quienes son los responsables de recoger datos, analizarlos, interpretarlos y compartirlos en función de revisar la necesidad de realizar cambios en su implementación para mejorarlo. Según la terminología clásica, podemos afirmar que ambas facultades han inscripto su intención de conocer como proceso de “autoevaluación” o “evaluación interna”.
Pero evaluar ¿es sistematizar información para que los protagonistas decidan o para que otro tome las decisiones de mejora? ¿quién/es y cómo toma/n las decisiones?
Pérez Gómez (1984) y Ernest House, (2000) reconocen a Stufflebeam, D. y Shinkfield, A. (1993) como los clásicos de la evaluación de proyectos sociales que configuraron el modelo de evaluación como “Toma de decisiones” o “enfoque de decisión”. House, al revisar esta perspectiva, se pregunta: “¿por qué hay que darle tanta preferencia al responsable de las decisiones? (…) ¿acaso esto no hace a que la evaluación sea una ciencia desigual?” (p.214). Los adherentes a este enfoque responden que es este el único que puede modificar las cosas usando esa información. House plantea que la utilidad de la información no puede ser el único criterio al evaluar un proyecto. A esta crítica agregamos que si bien las condiciones de infraestructura (de todo tipo) y convenios con otras instituciones sedes que las provean, son responsabilidad de las autoridades universitarias, respecto de las decisiones didácticas-tecnológicas es el profesor y su equipo el que las toma, y no revisarán sus prácticas si no entienden el valor y sentido de modificar sus modos de enseñar. Nos detendremos entonces en otro enfoque de evaluación que inferimos sustentan ambos casos presentados.
El campo de la Educación Superior mediatizada reconoce desde su configuración la necesariedad del trabajo interdisciplinar de los equipos y el moverse entre la teoría y la práctica. Una de las diferencias marcadas con el modo de ejercer la docencia presencial, ha sido que el profesor experto disciplinar tiene que compartir las decisiones del currículum con otros especialistas –en tecnología educativa, en las tecnologías de la comunicación, en evaluación– (Watson,M.T., 2006: 9) pero el lugar de cada uno, su función, la ética y la dinámica de la relación entre los miembros, es definida por el enfoque organizacional y de gestión que estructura el proyecto de mediatización de la enseñanza. Y es desde una perspectiva hermenéutica e interpretativa que, coherentemente, pensamos el modo cómo en ambos casos se garantizo que la investigación evaluativa de los proyectos fortalecieran un proceso de aprendizaje institucional, hacia la “buena” Bimodalidad de la enseñanza superior.
Susana Celman (2005) ha denominado a este paradigma evaluador como educativo, participativo, democrático y alternativo en la medida que se diferencia de la lógica racionalista en el para qué evaluar y en quienes evalúan. El propósito es buscar la comprensión del proyecto, de lo que va siendo o es para todos, a través de un proceso de investigación-acción-reflexión que realizan los actores para generar conocimiento y poder reconstruirlo. Kemis (1986) define a la evaluación como “el proceso de organización de información y argumentos que permitan a los individuos o grupos participar críticamente en el debate sobre programas específicos”, enfatiza así la actividad del sujeto y es el distanciamiento que se establece con el objeto a evaluar, una condición clave para poder pronunciarse sobre él, formulando un juicio acerca de su valor.
Pero la dimensión política y ética que se logra al restituirle el poder y saber a los profesores no alcanza para configurar la validez a la evaluación. Existen también razones epistemológicas.
La construcción de la credibilidad, la ética de la validez intersubjetiva de la evaluación
Existe mucha literatura producida que caracteriza todos los parámetros que la “metodología cualitativa” buscó romper el paradigma positivista de la ciencia, para legitimarse como modo más pertinente y adecuado para pensar y producir conocimiento en las ciencias humanas y sociales. Retomaré sólo algunos rasgos clave aportados por autores reconocidos:
“Comprender una situación donde interactúan hombres con intencionalidad y significados subjetivos requiere tomar en consideración las diferentes posiciones, opiniones e ideologías mediante las cuales los individuos interpretan los hechos y los objetivos y reaccionan ante los intercambios. La posición del evaluador no es neutral, libre de consideraciones de valor. (…) Gronbach (1980) afirma que un programa de evaluación es un proceso mediante el cual los participantes aprenden sobre ellos mismos y la racionalidad de su comportamiento. La misión de la evaluación es facilitar un proceso plural y democrático mediante el esclarecimiento e ilustración de los participantes”. (Pérez Gómez, 1984).
En la metodología cualitativa (Eisner, Cronbach, MacDonald, Stenhouse, House, Cuban, Parlett, Hamilton, Elliot, Stake) los criterios de confiabilidad y validez son diferentes a los conferidos por los métodos cuantitativos.
Bertoni, Poggi y Teobaldo (1997) han señalado que mientras que la validez de una prueba se determina experimentalmente, hallando la correlación entre aquella y un criterio independiente, los informes de investigación deben validarse mediante la comparación de los resultados obtenidos por el investigador con otros informadores, observadores, así como con las personas implicadas en la evaluación. Este cuidado del proceso metodológico le otorga “objetividad” y “validez interna” al trabajo desarrollado. Cuando los resultados se transfieren a otros públicos, es necesario lograr “validez de significación”, producto de tomar en cuenta las idas y vueltas de la reflexión, a la vez subjetiva y objetiva, estructurante de las producciones verbales de los sujetos. Estas autoras sostienen que el paradigma interpretativo, plantea que el valor de “verdad” se produce, entonces, mediante “la credibilidad que se logra cuando se produce un ajuste, lo más correcto posible, entre la información evaluativa de los técnicos y especialistas y la realidad de los participantes (docentes y alumnos)”.
Pero nuestras experiencias profesionales están compuestas de muchas situaciones complejas ocurridas en la dinámica de los intercambios, en las que vivimos la conflictividad de estas relaciones que reducen la validez de lo informado ¿Cómo podemos posibilitar la construcción de la credibilidad en los hallazgos?
Bertoni et al.,1997 nos aportan varias pautas a tener en cuenta. La primera es pensar las cuatro pretensiones para la definición de validez que, según Habermas, son necesarias para obtener consenso en torno a la información que los investigadores comparten con “los informados”.
“La pretensión referida a la inteligibilidad: se satisface cuando se logra que el mensaje sea comprendido.
-
-
- La pretensión referida a la verdad: se pone en evidencia cuando los informados aceptan las explicaciones que les proporcionan quienes informan porque no observan discrepancia entre los hechos y lo que se les informa.
- La pretensión referida a la justicia: se manifiesta bajo la forma de confianza en el trabajo de los investigadores porque se considera que han obrado bien, con un modo adecuado de hacer las cosas.
- La pretensión referida a la sinceridad: cuando se duda; se plantean interrogantes como éste: ¿Me engañan?, ¿se engañan a sí mismos? Las respuestas de los docentes, cuando reciben la información, llevan a que otras personas crean o consideren sinceros a los investigadores (informantes), ya que los propios docentes han acordado este atributo a la información.
-
Estos cuatro postulados relativos a la validez permiten revisar la noción de objetividad en beneficio de la intersubjetividad. Ellos mantienen un alto grado de cientificidad gracias a la elaboración de los datos con otros observadores e informantes”.
El otro aporte valioso que recomiendan estos autores es superar la ambigüedad que se produce entre lo que piensan los docentes y lo que piensan los técnicos/investigadores mediante el establecimiento de una interacción más frecuente entre los actores, antes de la difusión pública de los resultados de la evaluación, porque la validez puede ser construida de diferentes formas: antes, durante o al final de la investigación. En el caso A se infiere que la validez la fueron construyendo “durante” el proceso de implementación; mientras que en el caso B, entendemos que la información se recoge, se analiza y se comparte al cierre de los dos años de la primera cohorte del ciclo. La “devolución” se constituye en un momento relevante, tanto por las implicancias que tienen para la práctica docente como para la investigación evaluativa. Y en relación a esta cuestión central, un último aporte de Bertoni y otros, es cuando señalan que:
“En el enfoque cualitativo el problema del lenguaje es crucial. Los puntos de vista de los actores/investigadores difieren. Las significaciones científicas y prácticas no son nunca dadas de una vez por todas. Por esta razón, es necesario que exista un mínimo de confianza entre los participantes. Lo que está en juego no es sólo un saber que se les restituye a los docentes, sino más bien conocer el valor de verdad que ellos atribuyen a los enunciados de la comunicación.(…) El investigador puede acceder al mundo subjetivo desde el que los actores expresan “el mundo” tal como ellos lo ven. Dentro de esta perspectiva, ¿qué puede ser aceptado como “verdadero”? ¿Qué enunciados son reconocidos como tales por los actores de la interlocución? La verdad de una proposición no es pues más que una promesa de tender a un consenso racional sobre lo que se ha dicho.
Es dentro de una acción comunicativa que se da a conocer la información sobre la evaluación. Se plantea una base de discusión que comporta argumentaciones explícitas e implícitas que definen la pretensión referida a la validez del discurso evaluativo”.
Un rasgo final para marcar es, que en ambos casos observados se manifiesta una búsqueda de articulación fecunda entre la evaluación y la investigación. Algunos autores han marcado como diferencias sus propósitos, en cuanto a que la evaluación tiene la intención de crear valor acerca de algo, mientras que la investigación busca resolver un problema. (Guba y Lincoln, 1986).
En cambio, nuestros referentes del campo de la Tecnología Educativa y la educación a distancia han coincidido con los responsables de los casos abordados al plantear que “La evaluación de los programas de EaD, al igual que evaluar el funcionamiento de cada una de las universidades, debiera ser parte de nuestras prácticas habituales, en tanto la única manera de mejorar es conocer” (Litwin,1992). Siguiendo a Samaja, Graciela Carbone (2007) ha señalado:
“Nada impide que los resultados de una práctica profesional particular se incorpore (tarde o temprano) a la base observacional de una investigación científica o que las ideaciones producidas durante la ejecución de las acciones se transformen en fuentes de inspiración para nuevas propuestas teóricas. Nada impide tampoco que un proyecto de intervención profesional se proponga tanto modificar la realidad, cuánto producir un resultado cognoscitivo en el marco de los cánones de la ciencia”. (Samaja J., 2004).
III. Cierre
El análisis teórico de dos casos empíricos de evaluación de proyectos bimodales universitarios, fue la estrategia para poder reflexionar acerca de los modos como se construye la confiabilidad y la validez al conocimiento que se genera mediante la metodología cualitativa, desde una hermenéutica que da consistencia a un enfoque de evaluación democrática, que resulta veraz, creíble y justa.
Bibliografía
Bertoni, A., Poggi, M. y Teobaldo, M. (1997), “Evaluación. Nuevos Significados Para una Práctica Compleja”. Buenos Aires: Kapelusz.
Carbone, Graciela (1994), “Investigación-acción en la gestión de proyectos curriculares a distancia”. En Litwin, E;. Maggio, M; Roig, H. Educación a distancia en los noventa. Desarrollos, problemas y perspectivas. Facultad de Filosofía y Letras, Programa de Educación a Distancia UBA XXI. Buenos Aires: Universidad de Buenos Aires.
Celman, Susana (2004), “Evaluación y compromiso público en la Argentina de los noventa”. En La formación docente en debate. Evaluaciones y nuevas prácticas en el debate educativo contemporáneo. II Congreso Internacional de Educación. Santa Fé: Universidad Nacional del Litoral.
Cicala Rosa, Giura, Marcelo y Cuzzani, Karina (2010), “Cuando el sentido formativo de la evaluación se entrama en un proyecto: el caso de las aulas virtuales FRBA”. En Cukierman y Virgili (comp) Tecnología Educativa al servicio de la educación tecnológica: experiencias e investigaciones en la UTN. Buenos Aires: Edutecne.
Coria, Adela y Pensa, Dalmira (comp) (2011), “Reseña. Investigaciones, experiencias y debates sobre educación a distancia”. 1ra ed.Córdoba: Universidad Nacional de Córdoba.
Flores, J. y Becerra M. (2005), “La educación superior en entornos virtuales”. 2da ed. Buenos Aires: UNQ Editorial.
House, Ernest (2000), “Evaluación, ética y poder”. Madrid: Morata.
Litwin, Edith (2000), “La educación a distancia”. Buenos Aires: Editorial Amorroutu.
Martín, J., (2007), “Frente a 20 años de educación a distancia en Argentina: su proceso de desarrollo y de la evaluación de la calidad”, Congreso EDUTEC. Madrid.
Pérez Gómez, A.I. (1984), “Modelos contemporáneos de evaluación”, en Gimeno Sacristán, J. y Pérez Gómez, A. I. (Comp.) 1984. La enseñanza: su teoría y su práctica. Madrid: Akal.
Popkewitz, T.H. (1998), “La evaluación educativa como forma política”. En Paradigmas e ideología en investigación educativa. Madrid: Mondadori.
Santos Guerra, (1990), “Hacer visible lo cotidiano. Teoría y práctica de la evaluación cualitativa de los Centros escolares”. Madrid: Akal.
Samaja, J. (2004), “Epistemología de la Salud”. Buenos Aires: Editorial Lugar.
Sautu, Ruth (2003), “Todo es teoría. Objetivos y métodos de investigación”. Lumiere. Buenos Aires.
Scribano, Adrián (2008), “El proceso de investigación social cualitativo”. Buenos Aires: Ed. Prometeo.
Stake, Robert (2006), “Evaluación comprensiva y evaluación basada en estándares”. Barcelona: Graó.
Stufflebeam, D. y Shinkfield, A. (1993), “Evaluación sistemática. Guía teórica y práctica”. Barcelona: Paidós.
Watson, M T. (2006), “Historia de la educación a distancia en Argentina: un contexto de surgimiento.” Revista RUEDA. Nº 6. Mar del Plata: UNMDP-Red Universitaria de Educación a Distancia.
Zavaleta, Esther Teresa de (1971), “Evaluación de materiales audiovisuales para la enseñanza”. Buenos Aires: Eudeba.
* Universidad Nacional de Luján.
* Un criterio puede ser una medida objetiva de rendimiento o una medida cualitativa como el juicio de la excelencia de un trabajo hecho.