jueves, 1 de julio de 2010

Educación Virtual

RESUMEN

En este trabajo se presenta un breve análisis de la educación virtual como un nuevo proceso de aprendizaje y transmisión del conocimiento a través de las redes modernas de comunicaciones, para determinar su efectividad mediante un breve análisis de sus éxitos y fracasos, definiendo sus ventajas y desventajas así como el futuro que se espera de ellas. Como primer punto se conceptualiza a la educación virtual para tener una apreciación general de ella y se analiza el modelo educativo que se debe implantar.
Como resultado de la breve investigación se encontró como coincidencia que la educación virtual es una muy buena alternativa de aprendizaje para aquellas personas que no pueden acceder a una escuela tradicional o llevar cursos de la forma tradicional. También es una buena alternativa de aprendizaje por que el modelo educativo que se debe desarrollar en ellas se basa en el aprendizaje significativo en el que el estudiante construye su propio conocimiento y el profesor solo le proporciona herramientas para que lo construya, y de esta manera le sirva de por vida, además de que el estudiante establece y organiza sus tiempos de aprendizaje.
INTRODUCCIÓN

En la actualidad, como consecuencia de la globalizaciónque se ha manifestado en la mayor parte del mundo, que ha traído consigo grandes avances en la tecnología y en la comunicación, diversos campos de actividad se han acogido de la nueva tecnología para proyectarse y expandirse, debido a la facilidad y rapidez con que se puede manejar gran cantidad de información. Uno de los campos que han aprovechado y están aprovechando esta nueva tecnología es el de la educación, ya que el Internet es un medio eficaz para garantizar la comunicación, la interacción, el transporte de información y, consecuentemente, el aprendizaje, en lo que se denomina enseñanzavirtual, enseñanza a través de Internet o teleformación.

Este tipo de entornos persigue el aprendizaje sin que se produzca una coincidencia entre estudiante y profesor ni en el espacio ni en el tiempo y asumen las funciones de contexto de aprendizaje que el aula desarrolla en el entorno presencial.
La incorporación de las tecnologías de información y comunicación en el ámbito académico ha traído consigo no sólo el dar soporte a las actividades curriculares y de investigación, sino que ha propiciado el intercambio de información entre alumnos y docentes de una manera dinámica a través de la Red, lo que ha dado origen al establecimiento de nuevos ambientes de aprendizaje basado en el uso de Internet como medio difusor de conocimientos.
Este enfoque de educación incorpora nuevos modelos pedagógicos de conducir el aula de clase para convertirla en un campo abierto de conocimientos en donde el docente debe desarrollar funciones de liderazgo al plantear ideas, teorías y métodos colaborativos virtuales a fin de mejorar el proceso de enseñanza aprendizaje. Por su parte el estudiante requiere de un alto nivel de responsabilidad para administrar el tiempo necesario en el desarrollo del curso, por lo que debe mostrar eficacia personal, practicar buenos hábitos y estrategiasde estudio, y disposición a aprender en un nuevo ambiente.

En la actualidad decenas de instituciones tanto públicas como privadas están desarrollando y ofreciendo programas de educación virtual
Concepto de educación virtual
Es un sistema de educación en el cual los alumnos y los profesores no están en el mismo lugar. (Jackson Bob).
Son aquellas formas de estudio que no son guiadas o controladas directamente por la presencia de un profesor en el aula, pero se beneficia de la planeación y guía de los tutores a través de un medio de comunicación que permita la interrelación profesor-alumno. (José Luis García Llamas, 1986)
Es un conjunto de procedimientos cuya finalidad es proporcionar instrucción por medios de comunicación impresos y electrónicos o personas que participan en un proceso de aprendizaje reglado, en lugares y horarios distintos de los del profesor o profesores. (Michael Moore, 1990)
Es una estrategia educativa, basada en el uso intensivo de las nuevas tecnologías, estructuras operativas flexibles y métodos pedagógicos altamente eficientes en el proceso enseñanza-aprendizaje, que permite que las condiciones de tiempo, espacio, ocupación o edad de los estudiantes no sean factores limitantes o condicionantes para el aprendizaje.
El modelo educativo de la educación virtual
El título de esta presentación es sin duda pretencioso. Digamos de una vez que estamos lejos de contar con un modelo pedagógico - por lo tanto teórico - que oriente con claridad la formas de diseñar y llevar a la práctica un proceso de enseñanza y de aprendizaje, caracterizado por eso que llamamos "virtualidad". Por eso preferimos el título en plural. Porque plurales y cambiantes son las prácticas educativas y las reflexiones teóricas con las que tratamos de comprenderlas y mejorarlas.

No obstante, es evidente que el tema acapara el mayor número de esfuerzos e iniciativas de los pedagogos y educadores de todo el mundo. Esta profusión de trabajos está logrando esclarecer los temas y problemas que las tecnologías de la información y las comunicaciones plantean a la educación. Contamos ya, si no con modelos acabados, con un conjunto de principios que permiten modelar la acción educativa, al menos en algunos de sus componentes esenciales.
Aclaración de términos

Se considera imprescindible una breve aclaración inicial de términos.

Por "modelo", entendemos estrictamente la definición del diccionario: ejemplar, patrón que se construye y luego se sigue o copia en la ejecución" (Real Academia de la Lengua Española 1977)
El término "pedagógico" hace referencia a un cuerpo de conocimientos teóricos y prácticos fruto de la reflexión sobre el fenómeno de la educación intencional (Fullat 1984). Con ello delimitamos el campo semántico del término, destacando su carácter de "saber" acerca de los procesos de formación del hombre; y ciñéndolo exclusivamente al caso en que esa formación sucede porque hay una intención bilateral: enseñar algo a alguien que quiere aprender.

El término "clase" puede parecer, en un primer momento, desafortunado; hace inevitable referencia al ambiente de enseñanza restringido a un espacio cerrado y neutro, en el que se reúne un profesor con un grupo de alumnos, generalmente numeroso, para ver qué aprenden de lo que el profesor dice o demuestra, casi siempre mediante comunicación verbal.

Pero es un referente inevitable al hablar de virtualidad; lo virtual, por su naturaleza, dice referencia a una realidad concreta, que se puede llamar objetiva; en educación ha de ser el campus, la escuela, la clase. "virtual". Por otra parte, esa idea convencional de "tener clase" nos permitirá un buen contraste con una forma diferente de concebir la clase: como un ambiente de aprendizaje (Proyecto CONEXIONES, 1988). Hablaremos, pues de la "clase" como un ambiente que se organiza intencionalmente para favorecer la construcción de conocimientos, habilidades o actitudes deseables

Más complicaciones presenta el ponerse de acuerdo sobre qué queremos decir con "virtual". Bette Collis (1998) iniciaba el pasado año una conferencia sobre universidad virtual señalando la variedad de escenarios a los que se aplica el término; desde la teleconferencia, hasta los grupos de investigación avanzada en laboratorios virtuales. Collis ofrece una definición que parece adecuada a nuestros propósitos: "El uso de la telemática con propósitos de aprendizaje" ("Using telematics for learning-related purposses").

Señala la autora que lo importante en su definición es que deliberadamente se omite la idea de "distancia"; el uso de la telemática hace irrelevante el lugar donde esté la persona con la que nos comunicamos, o la información con la que trabajamos. De manera que una clase virtual es un ambiente de aprendizaje que utiliza la telemática como entorno de interacción y comunicación, en el proceso intencional de enseñar-aprender.

Pretender hablar de un modelo pedagógico para este tipo de ambiente de aprendizaje exigirá determinar en qué formas el uso de la telemática podrá permitir llevar a cabo alguna de las acciones relacionadas con el aprendizaje, en forma mejor de como lo estamos haciendo sin ella. O bien, determinar las mejores formas de combinar la telemática, con los elementos pedagógicos óptimos para mejorar la calidad de la enseñanza y del aprendizaje.
La efectividad de la enseñanza virtual

La pregunta de si la enseñanza virtual es tan efectiva como la enseñanza presencial para el logro de resultados de aprendizaje, continuará siendo objeto de debates e investigaciones durante mucho tiempo. En un reporte sobre el tema Phipps y Merisotis (1999) señalan que los estudios realizados pueden agruparse en tres categorías: los que contrastan resultados alcanzados por los estudiantes, los que comparan las actitudes de los estudiantes frente al aprendizaje a través de estos medios, y los que evalúan el nivel de satisfacción de los alumnos con la enseñanza virtual. Por ejemplo, en una investigación realizada por Shutte (1996), los estudiantes de un curso sobre estadística social se asignaron aleatoriamente a una clase virtual y a una clase presencial.

Los contenidos de las clases y de los exámenes fueron comparables para ambos grupos. Se encontró que los estudiantes de la clase virtual obtuvieron mejores resultados en las pruebas. El investigador concluye que las diferencias en el desempeño pueden atribuirse a una mejor capacidad de los estudiantes para colaborar entre ellos cuando trabajan en línea. En efecto, se observó que los estudiantes con un mejor desempeño en ambos grupos también evidenciaron una mayor interacción con sus compañeros. Shutte señala que este factor colaboración es una variable clave que debe controlarse cuidadosamente en futuros estudios.

Según Phipps y Merisotis (1999) la mayoría de los estudios indican que los resultados de aprendizaje que se obtienen utilizando tecnologías para enseñar a distancia son similares a los que se obtienen mediante la enseñanza tradicional. También comentan que de acuerdo con resultados de muchas investigaciones, la tecnología no es un factor tan importante para el aprendizaje como la naturaleza de las tareas o actividades, las características del alumno, la motivación o la preparación académica del instructor. Así mismo, estos autores cuestionan algunos de estos estudios porque no han definido ni controlado adecuadamente ciertas variables, y porque se han apoyado más en métodos cualitativos que cuantitativos. Muchas investigaciones manejan el supuesto ilusorio de un "aprendiz típico", desconociendo así la enorme diversidad de estilos cognitivos y formas de aprender que caracterizan la población estudiantil.

Palloff y Pratt (2001), dos especialistas en el tema de educación virtual, comentan que su experiencia de trabajo con la enseñanza en-línea ha cambiado significativamente la manera como se acercan a los alumnos en una clase presencial; ya no centran su trabajo docente en exposiciones orales de los contenidos de los libros; ahora asumen que los estudiantes pueden leer estos contenidos, y por lo tanto conciben la clase como un espacio para estimular el trabajo colaborativo y autónomo.

El Modelo Educativo en Línea

En la educación virtual el aprendi
zaje está centrado en el alumno y su participación activa en la construcción de conocimientos le asegura un aprendizaje significativo.

En la modalidad basada en Internet se definen los contenidos y actividades para un curso partiendo de la estrategia didáctica diseñada por el profesor. El alumno realiza su proceso de aprendizaje a partir de dichos contenidos y actividades, pero sobre todo, a través de su propia motivación por aprender, de la interacción con otros compañeros y de la guía y asesoría de su profesor.El alumno de la educación virtual aprende de forma más activa pues no sólo recibe la instrucción del profesor, sino que aprende a través de la búsqueda de información, la autorreflexión y las diversas actividades que realiza de manera individual y colaborativa.
Ventajas y desventajas de la enseñanza virtual
Ventajas para el alumno:

Se siente personalizado en el trato con el profesor y sus compañeros.
Puede adaptar el estudio a su horario personal.
Puede realizar sus participaciones de forma meditada gracias a la posibilidad de trabajar off-line.
Podrá seguir el ritmo de trabajo marcado por el profesor y por sus compañeros de curso.
El alumno tiene un papel activo, que no se limita a recibir información sino que forma parte de su propia formación.
Todos los alumnos tienen acceso a la enseñanza, no viéndose perjudicados aquellos que no pueden acudir periódicamente a clase por motivos como el trabajo, la distancia, etc...
Existe feed-back de información, de manera que el profesor conoce si el alumno responde al método y alcanza los objetivos fijados inicialmente.

Se beneficia de las ventajas de los distintos métodos de enseñanza y medios didácticos tradicionales, evitando los inconvenientes de los mismos.
Para la universidad
Permite a la universidad ofertar formación a las empresas sin los añadidos que suponen los desplazamientos, alojamientos y dietas de sus trabajadores.
  • Permite a la universidad ampliar su oferta de formación a aquellas personas o trabajadores que no pueden acceder a sus cursos presénciales.
  • Permite superar la calidad de los cursos presénciales.
  • Aumenta la efectividad de los presupuestos destinados a la educación: en muchos países los presupuestos de educación están congelados aunque la demanda aumenta. Mientras que la financiación disminuye, los gobiernos piden niveles más altos y mayor relevancia del factor "profesionalizador" de los cursos.
  • Responsabilidad del sistema educativo: los gobiernos no sólo esperan que las instituciones educativas mejoren su relación coste-eficacia, sino que también esperan que éstas justifiquen el uso que hacen del dinero público

Desventajas

A pesar de las múltiples ventajas que ofrece el recurso virtual no se pueden desconocer los riesgos potenciales por el mal uso que se le puede dar, entre ellos tenemos:
La pasividad del sujeto frente a este medio, pues se percibe como un "medio fácil".
Inexistencia de estructura pedagógica en la información y multimediaTecnófobos y tecnófilos.
Dificultades organizativas, problemas técnicos y altos costos de mantenimiento.
Temor a que los estudiantes vean los medios con pasividad de mirar un programa de TV (telenovelas) caracterizado por una tendencia al facilismo inmediato, inconveniente para aprender ciertos contenidos.
La tendencia a trabajar cualquier aspecto o contenido de forma virtual, dejando de lado el uso de medios más sencillos como el retroproyector.
Falta de una estructura pedagógica adecuada, diseñada intencionalmente teniendo en cuenta los procesos cognitivos y las formas de aprender de los estudiantes.
Algunos éxitos y fracasos en educación virtual
Según un artículo del New York Times (Hafner, 2002), varios proyectos importantes de educación virtual han resultado menos rentables y exitosos de lo esperado. Por ejemplo la Universidad de Columbia, en asocio con otras prestigiosas instituciones como la Universidad de Chicago, la Universidad de Michigan, etc., inició hace algunos años un ambicioso proyecto denominado www.Fathom.com para ofrecer cursos en-línea a través de la Red, en la cual se invirtieron más de 25 millones de dólares.

El número de estudiantes interesados en los cursos válidos para obtener un título académico fue inferior a las expectativas, Fathom.com decidió redireccionar su oferta de cursos hacia la actualización, el entrenamiento profesional y la educación permanente.

Según los directivos de este proyecto la mayoría de la gente está poco familiarizada con el aprendizaje en-línea, y este tipo de cursos pueden ir generando mayor interés y confianza en la enseñanza virtual.

Otro programa de educación virtual que según el artículo de Hafner (2002) no ha tenido el éxito previsto es el proyecto NYUonline de la Universidad de New York, creado en 1998 con el objetivo de ofrecer capacitación y entrenamiento a las empresas. Los cursos desarrollados para este programa no estaban dirigidos a la obtención de títulos académicos, y se vendían como paquetes a los clientes corporativos. En dos años de funcionamiento la universidad de New York invirtió en este programa cerca de 25 millones de dólares; no obstante, las matrículas no alcanzaron los niveles esperados, llegando a un punto máximo de 500 alumnos. Por esta razón el programa fue prácticamente cerrado, trasladando algunas de sus funciones al Departamento de Educación Permanente de la Universidad, donde debió estar desde su inicio según opinión de uno de sus directivos. Una lección aprendida de esta experiencia es que si una institución universitaria quiere incursionar en el campo de la educación virtual puede hacerlo sin tener que crear nuevas unidades o centros académicos.
Contrastando con los dos ejemplos anteriores, la universidad de Phoenix online es un caso particularmente exitoso de educación virtual. En al año 1989 fue una de las primeras en obtener acreditación para sus programas vía Internet.

Su misión es ofrecer una oportunidad a personas adultas que trabajan para que adquieran los conocimientos y habilidades necesarias para alcanzar sus metas profesionales, mejorar la productividad de sus empresas o instituciones, y apoyar con liderazgo y servicio a sus comunidades. Busca una enseñanza equilibrada entre la teoría y la práctica apoyándose en un equipo docente que no sólo posee una preparación académica avanzada, sino amplia experiencia en su ejercicio profesional. Tiene alrededor de 37,600 estudiantes de pregrado, maestría y doctorado, residentes en más de 70 países diferentes, y matriculados en programas de Negocios, Administración, Tecnología, Educación, y Enfermería. Esta universidad ofrece el 100% del currículo a través de la Red. Utiliza un formato asincrónico que resulta muy flexible y conveniente para los alumnos. Los programas están diseñados para que se puedan aplicar inmediatamente en el ambiente de trabajo.

La Western Governors University es otro caso muy exitoso de universidad virtual que merece destacarse. Fue fundada en 1995 por los gobernadores de 19 estados en la región occidental de los Estados Unidos. Es una institución cuya enseñanza está basada en competencias, y que no otorga certificados o grados por un número determinado de créditos aprobados. Tampoco opera bajo un calendario académico tradicional; una clase puede empezar cualquier día, algunas duran unas pocas semanas, otras todo un semestre, y otras pueden durar lo que el alumno se demore para estudiar todo el material del curso.

Ofrece actualmente ocho programas de pregrado y postgrado en tres áreas: tecnologías de la información, administración de negocios y educación. Su catálogo en-línea ofrece más de 1000 cursos de 45 universidades y proveedores comerciales diferentes.
A los estudiantes no se les exige tomar ningún curso, y para obtener un título el único requisito es aprobar una serie de exámenes. La función de los profesores no es enseñar en el sentido convencional; actúan como consejeros que determinan lo que el estudiante sabe o desconoce, y los cursos que necesita para que pueda afrontar con éxito las pruebas. Para obtener un título se requieren competencias en dominios generales como la escritura y las matemáticas, y específicas del área. Todo el proceso para alcanzar un grado académico gira en torno al sistema de pruebas.
El futuro de la educación virtual

Según Miller y Miller (2000), se pueden identificar cuatro factores que juegan un papel crucial en el futuro de la educación virtual: la investigación sobre su efectividad, los avances tecnológicos, los costos y la competencia del mercado, y la respuesta a las influencias del mercado.
Los resultados que vayan arrojando las investigaciones sobre la eficacia de los cursos virtuales como medio de enseñanza y aprendizaje determinarán su lugar y vigencia en el porvenir. Los avances tecnológicos en equipos y programas para la comunicación en red ofrecerán nuevas herramientas para la educación virtual.

Los exploradores de Internet tendrán opciones más sofisticadas para controlar diversos medios audiovisuales, y los proveedores de conexión a la Red ofrecerán servicios cada vez más complejos y potentes, que simplificarán el intercambio de información y el trabajo colaborativo, la distribución y acceso a cursos con estructuras hipermediales y un alto nivel de interactividad (Miller y Miller, 2000).

Según el Departamento de Educación de los Estados Unidos, en 1978 el número de cursos universitarios a distancia era de 52.270, y la población atendida alcanzaba unos 710.000 alumnos, lo que equivalía a un 5% del total de alumnos matriculados en programas presénciales de pregrado en ese país. Cabe señalar que estos cursos se apoyaban en diversos medios como el correo postal, el correo electrónicoy las listas de destinatarios; unos pocos utilizaban aplicaciones informáticas, audioconferencias o videoconferencias. Actualmente, según datosde la Internacional Data Corporation, el número de alumnos que están tomando cursos en-línea puede llegar a 2.23 millones, cifra equivalente a un 15% de la población estudiantil universitaria (Ko y Rossen, 2001).
Es razonable suponer que el volumen creciente de servicios de capacitación e información, ventas, y transacciones financieras que se están realizando en la Red incentivarán cuantiosas inversionesen una mejor infraestructura de comunicación. Con un ancho de banda mayor, la enseñanza virtual podrá apoyarse más en estrategias sincrónicas; así, en vez de participar en una sesión de chattecleando comentarios, el docente y los alumnos pueden utilizar audio y videopara hablar directamente entre ellos, hacer exposiciones, y cooperar en tareas o proyectos. Las horas de oficina virtual serán más usuales, apoyadas en plataformas informáticas que permiten la comunicación audiovisual entre docentes y alumnos, la utilización conjunta de un programa, el examen y discusión de documentos en un tablero electrónico (Ko y Rossen, 2001).

Las conexiones de alta velocidadinfluyen igualmente en las formas de trabajo asincrónico, que también pueden incorporar video, audio, o animaciones tridimensionales. En ambientes de comunicación de banda ancha, donde la interacción alumno-docente es más directa y fluida, los docentes tienen la oportunidad de crear y suministrar ellos mismos los contenidos, y controlar mejor el desarrollo de los cursos, lo que influye significativamente en la calidad e impacto de la enseñanza (Ko y Rossen, 2001).

Las plataformas de administración de cursos, como WebCT, Blackboard, e-College, o Learning Space son fundamentalmente sistemas asincrónicos. Aunque incluyen la opción del chat, una herramienta sincrónica, asumen que los alumnos se conectan a una hora de su elección, examinan el material disponible en el sitio y realizan la mayor parte del trabajo sin estar conectados a la Red. No obstante, en ambientes con conexiones de alta velocidad y comunicación sincrónica se vive la experiencia de asistir a una clase virtual, es decir, entrar a una hora determinada e interactuar con el docente y los compañeros utilizando herramientas que soportan el flujo de información de doble vía. Este tipo de plataformas permiten que el profesor exponga en vivo la clase, los estudiantes pregunten, hagan discusiones, observen un video y lo analicen colectivamente, y respondan las preguntas de un examen. El docente tiene pleno controlde todas estas actividades, por ejemplo puede interrumpir una discusión para exhibir una fotografía o un gráfico, presentar un documento, una serie de diapositivas, o un video.

La educación virtual puede ser una alternativa considerablemente más barata que la enseñanza presencial. Se necesitan menos instructores, menos aulas de clase, y menos personal administrativo para atender un mayor número de alumnos. Esta reducción en los costos está estimulando la oferta de cursos virtuales en un número creciente de instituciones. A medida que la universidades ofrezcan más cursos y programas en-línea aumentará la competencia por atraer estudiantes. Esta competencia, sumada a unos costos menores, puede producir una caída dramática en el número de alumnos matriculados en los programas presénciales. A la luz de estas circunstancias, la educación superior sufrirá transformaciones profundas en su filosofía y organización (Miller y Miller, 2000).

Aunque los medios, los gobiernos, o las instituciones académicas sostengan que las nuevas tecnologías de la comunicación y la información son herramientas esenciales para la educación actual, la fuerza que jalonea estos cambios es el mercado. A medida que la enseñanza virtual vaya penetrando la educación superior, las universidades se verán obligadas a introducir reformas que les permitan sobrevivir en un mercado global, tales como: disminuir su planta de docentes, reducir su infraestructura física, disminuir los costos de la investigación y cobrar muchos servicios de apoyo, eliminar la estabilidad de los docentes, y evaluar su desempeño con criterios económicos. Estas fuerzas podrían alejar la educación superior de sus más caros ideales de democracia, formación liberal e investigación (Miller y Miller, 2000).
CONCLUSIÓN

Podemos considerar que el nuevo modelo educativo virtual está plenamente implantado, soportado tanto desde su perspectiva tecnológica como didáctica, y su uso se irá incrementando en los próximos años. Concretamente, en el caso de la enseñanza superior en nuestro país, prácticamente todas las Universidades públicas y privadas o bien imparten cursos virtuales en la actualidad o bien han iniciado o realizado ya distintos proyectos en el área de la teleformación.
En la educación virtual el aprendizaje está centrado en el alumno y su participación activa en la construcción de conocimientos le asegura un aprendizaje significativo. Los profesores (facilitadores) ya no centran su trabajo docente en exposiciones orales de los contenidos de los libros; ahora asumen que los estudiantes pueden leer estos contenidos, y por lo tanto conciben la clase como un espacio para estimular el trabajo colaborativo y autónomo.
En la actualidad decenas de instituciones tanto públicas como privadas están desarrollando y ofreciendo programas de educación virtual.

A medida que la enseñanza virtual vaya penetrando la educación superior, las universidades se verán obligadas a introducir reformas que les permitan sobrevivir en un mercado global, tales como: disminuir su planta de docentes, reducir su infraestructura física, disminuir los costos de la investigación y cobrar muchos servicios de apoyo, eliminar la estabilidad de los docentes, y evaluar su desempeño con criterios económicos.
REFERENCIAS
Electrónicas:
www.educaweb.com/esp/servicios/monografico/formvirt/opinion0.asp
www.utp/ac.pa/seccion/topicos/educacion_a_distancia/definiciones.html
http://www.expansionyempleo.com/edicion/noticia/0,2458,538571,00.html
http://www.tendencias21.net/t_blank
http://www.conocimientosweb.net/portal/article523.html
http://www.elearningamericalatina.com/edicion/octubre3/it_1.php
http://aiumexico.org/proceso.htm
http://www.hemphillschools.com/
www.eca.usp.br/.../trabalhos%20completos%20Bolivia%202002/GT%2015%20delia%20crovi/particia%2
http://www.infoage.ontonet.be/levy
http://www.wiche.edu/telecom/Article1.htm/t_blank
http://www.universitas.edu.au/index.html
http://eltintero.ruv.itesm.mx/num_01/investigacion_3_c.htm
http://www.mty.itesm.mx/ http://www.ruv.itesm.mx/ http://cc.viti.itesm.mx/rediseno/rediseno.nsf
http://www.mty.itesm.mx/dinf/dit/si/public.htm http://www.ruv.itesm.mx/cursos/pgade/sep98/mt289/

Evolución de los medios tecnológicos en la docencia

INTRODUCCIÓN

En estos tiempos que corren en los que para mejorar la educación siempre se recurre al tópico de “compremos COMPUTADORES para los alumnos” es necesario detenernos un momento para reflexionar, ver de dónde partimos, dónde estamos actualmente y, sobre todo, adónde vamos, en la aplicación de las nuevas tecnologías. Con este artículo pretendo dar mi punto de vista desde mi experiencia y capacitación de la situación actual en cuanto a la aplicación de los nuevos medios que la técnica pone a disposición de los docentes. Es evidente que este punto de vista es ciertamente partidista dada mi condición de profesor en la especialidad de Informática, pero también soy un convencido defensor de la idea de que en el proceso de enseñanza-aprendizaje el elemento primordial es el profesor y el resto son herramientas y medios puestos a nuestra disposición para mejorar nuestro trabajo, nunca para remplazarlo.

Comenzaremos viendo un breve repaso histórico al uso de las tecnologías en la enseñanza, dedicando un mayor espacio a las decisiones tomadas en las últimas décadas, ya que no es cuestión de adentrarnos en varios siglos atrás. Después veremos la situación actual en la que destaca la entrega de ordenadores a los alumnos de 5 de primaria (el llamado Plan Escuela 2.0). Y finalmente nos adentraremos en el terreno de la ciencia ficción, o quizás no tanto, ya que algunos de los medios que voy a describir ya se están empezando a usar en centros de alta tecnología de algunos países desarrollados.

2. LOS MEDIOS DE ENSEÑANZA HASTA LA IRRUPCIÓN DEL COMPUTADOR
Si tuviéramos que elegir la herramienta más utilizada por los enseñantes del mundo, desde épocas pasadas a la actualidad, sin duda esa sería la tiza, con su correspondiente pizarra, por supuesto. No es cuestión de hacer una tesis doctoral sobre la tiza, aunque se podría destacar cómo han evolucionado en calidad y, sobre todo, en forma con la aparición de las tizas redondas allá por finales de los 70 y principios de los 80. Esa sempiterna tiza todavía se sigue utilizando en muchos centros, aunque haya sido reemplazada paulatinamente por las pizarras “Velleda” y los rotuladores.

El objetivo de estos dos simples medios no ha sido otro que el de transmitir ideas al mayor número de alumnos posible utilizando un utensilio fácil de utilizar y barato. El siguiente paso en la evolución de materiales de enseñanza se podría establecer en el proyector de diapositivas. Este elemento, imprescindible para los profesores de Historia del Arte, no pretende transmitir ideas sino imágenes, que de otra forma debían ser comentadas en pequeñas fotografías incrustadas en los libros de texto y en las que no se podía distinguir con claridad los múltiples detalles que necesitan ser comentados en ciertas especialidades.

Un pariente cercano del proyector de diapositivas es el proyector de transparencias, ya que el principio en el que basa su funcionamiento es el mismo. En este caso se unen los dos objetivos perseguidos por las herramientas antes comentadas: transmisión de ideas y de imágenes. Sólo adolece de una gran desventaja, junto con el proyector de diapositivas: la falta de flexibilidad. Aparte de la sencillez y la economía el gran éxito de la tiza estriba en posibilidad de poder utilizarse infinitas veces, además de su inmediatez y flexibilidad, teniendo como único límite la pericia del maestro. Aunque he visto casos en los que el profesor preparaba una nueva transparencia utilizando rotuladores especiales, e incluso añadía información a la expuesta por una transparencia mediante el uso de rotuladores en la imagen relejada, estos “remedios” no han hecho sino destacar la gran carencia de este tipo de herramientas.

De todas formas debo romper una lanza a favor de estos medios que han ayudado durante décadas a todos los profesores, entre los que me incluyo. Fue evidente la mejora en la enseñanza gracias a la llegada a los centros de estos dispositivos, de forma escasa en los años sesenta y principio de los setenta, y más generalizada en los últimos setenta y primeros ochenta. También destacar el esfuerzo realizado por aquellos profesionales que aceptaron y utilizaron estos medios con gran ilusión, adaptando sus enseñanzas a su uso con el único objetivo de mejorar su trabajo.

3. LLEGA UNA NUEVA HERRAMIENTA
Durante este tiempo empieza a irrumpir un nuevo elemento en los centros: el ordenador. En los institutos y colegios importantes llegan directamente desde los organismos encargados de gestionar el material, uno o dos a lo sumo por centro. En los pequeños se hace un esfuerzo y se compra con los recursos propios. Aunque en lo que si coinciden todos los centros, independientemente de su tamaño, es en dos frases utilizados por los docentes ante su irrupción: “¡Este es el futuro!” y “Esto a mi no me pilla”. Estas simples expresiones resumen el espíritu que se vivía en aquellos años: por un lado aquellos que debido a su edad, o bien a que no habían perdido la ilusión por su trabajo, sabían que habían aparecido unas nuevas máquinas que iban a cambiar el mundo y la escuela no iba a ser una excepción, y por otro lado aquellos que también por edad, por no creer necesaria una evolución en su práctica educativa, o directamente por miedo a lo desconocido, esperaban esquivar ese nuevo y extraño artefacto.

La llegada y posterior expansión de los ordenadores por los centros educativos fue
difícil, aún hoy lo es, por:
- Al principio por su precio. Hay que tener en cuenta que los ordenadores eran caros cuando empezaron a llegar a los centros, allá por principios y mediados de los años ochenta. Con el dinero que costaba un ordenador se podían comprar muchos libros, mobiliario o equitación para el gimnasio. Los centros andaban escasos de material y ese nuevo gasto no parecía muy justificado.

- ¿Qué utilidad puede tener un ordenador en mi práctica educativa? Esa era la pregunta que se hacían los docentes. Era evidente que con uno o dos ordenadores no se podía hacer ningún cambio en las técnicas de enseñanza, más allá de la preparación de clases. Esto mejoró con la bajada de precios y la implicación de las administraciones mediante en envío e instalación de aulas completas, como el programa TIC.

- No encontrar sentido a perder el tiempo en preparar las clases utilizando el ordenador para que vean todos los alumnos lo mismo en pantalla si para eso puedo utilizar el proyector. Han sido muchos los compañeros que me han preguntado cómo podían utilizar el ordenador para que lo que hicieran ellos en pantalla lo pudieran ver todos los alumnos en sus pantallas. Es evidente que para eso está el proyector, pero ese es un recurso que se debe utilizar de forma puntual en alguna explicación, pero nunca durante toda una clase ya que los alumnos a los cinco minutos perderían interés.

- Con la llegada de la conexión a Internet surgieron dos nuevos problemas: que los alumnos durante su práctica pudieran coger algún tipo de virus o bien que pudieran meterse en alguna página de contenido no recomendable. Para el primer punto hay herramientas y medios para evitarlo y cualquier docente puede utilizarlas o bien pedir ayuda al encargado de mantenimiento; los virus actuales son bastante inofensivos para nuestra práctica diaria y lo único que pretenden es conseguir datos importantes de un ordenador, que en las máquinas de los alumnos no es significativo. En el caso de Andalucía y siempre que se utilice Guadalinex, ese problema no existe, ya que es muy seguro y no necesita antivirus. En cuanto al segundo punto con ir paseando por los ordenadores y ser un poco perspicaz es suficiente. De todas formas, como en el problema anterior, hay medios para evitarlos y no dar la idea que durante nuestras clases los alumnos se dedican a meterse donde no deben. Un comentario aparte merece el proyector o también llamado “cañón”. Su momento de irrupción fue paralela al ordenador, o un poco posterior, habiéndose extendido su uso debido, sobre todo, a la bajada de precios. Este elemento se ha venido utilizando de dos maneras: para conectarlos a un ordenador y ver presentaciones preparadas como apoyo a una exposición, o bien para ver películas.

4. SITUACIÓN ACTUAL

En la actualidad los medios informáticos están totalmente aceptados como herramienta de apoyo para la enseñanza, de eso no cabe ninguna duda. Incluso nos encontramos con programas de extensión de uso de las nuevas tecnologías en los centros, tales como los centros TIC que todos conocemos, o más recientemente el programa Escuela 2.0 mediante el cual se dota de ordenadores portátiles a los alumnos de 5 de primaria, para ir paso a paso entregando ordenadores al resto de cursos.

Eso en cuanto a los distribución de medios informáticos, pero, ¿se están usando realmente estos medios? Por desgracia el uso es bastante bajo. Las administraciones han elegido el camino fácil y efectista, como es la compra de grandes cantidades de ordenadores que quede bien en los discursos pero poco más. Este desembolso no ha ido acompañado de una política integral y coordinada con los elementos que intervienen en la educación: profesores, alumnos, padres, centros, etc. Así nos encontramos en estos momentos con muchos ordenadores sin utilizar en los centros, quedándose obsoletos de forma paulatina y sin que nadie quiera o sepa utilizarlos.

Encontrar una solución a este problema no es sencillo y por más que he preguntado a los distintos colectivos que forman este mundo, nadie tiene una solución real y práctica. Si le preguntamos a la administración el problema está en los profesores que no realizan cursos en el uso de las nuevas tecnologías, o incluso te encuentras respuestas de que no existe tal problema ya que la mayoría de los profesores conocen y utilizan las nuevas tecnologías. Si le preguntas a los padres culpan a los profesores de que no trabajan lo suficiente, con todas las vacaciones que tienen, y de la administración que tendría que ofrecer más medios en forma de ordenadores gratuitos para sus hijos y cursos de nuevas tecnologías para ellos. Y si preguntas a los profesores el problema surge de la falta de tiempo entre preparar y dar clases, preparar recursos y corregir exámenes, ya que adaptar todo el material que utilizan habitualmente para el uso de las nuevas tecnologías sería un trabajo enorme. Como siempre, todos tienen su parte de razón y quizás coger un poquito de cada opinión sería lo idóneo.

5. PREVISIBLE FUTURO DE LOS MEDIOS TECNOLÓGICOS

En este apartado he decidido poner tanto medios que ya se encuentran en los centros, aunque apenas utilizados, como otros que se están desarrollando y que serán una realidad en los próximos años, o puede que décadas.

PIZARRA DIGITAL

La Pizarra Interactiva, también denominada Pizarra Digital Interactiva (PDi) consiste en un ordenador conectado a un video-proyector, que proyecta la imagen de la pantalla sobre una superficie lisa y rígida, sensible al tacto o no, desde la que se puede controlar el ordenador, hacer anotaciones manuscritas sobre cualquier imagenproyectada, así como guardarlas, imprimirlas, enviarlas por correo electrónico y exportarlas a diversos formatos.

Ya las podemos encontrar en muchos centros aunque se suele utilizar para proyectar películas y poco más. Si preguntas cómo se utiliza siempre existe un profesor que es el único que la utiliza y al que se debe preguntar. Seguro que esta tendencia va cambiando con el tiempo puesto que es el mismo caso que se daba cuando empezaron a llegar los ordenadores a los centros. Además no es difícil construir nuestra propia pizarra digital por medio de un computador conectado a un proyector y un mando de la videoconsola WII.

Si nos damos una vuelta por Internet podemos ver también que ya son numerosos los recursos de diversas disciplinas compartidos por compañeros para utilizar con la pizarra digital. Sólo es cuestión de animarse y hacer algún curso para aprender su utilización. Si no hay ningún curso disponible seguro que entre unos cuantos compañeros se puede proponer a nuestro centro de profesores más cercano o bien al sindicato.

Las ventajas de esta herramienta son evidentes, destacando sobre todo la que incidíamos anteriormente en la pizarra de toda la vida: la flexibilidad.

PANTALLAS EN TRES DIMENSIONES

Se trata de pantallas en gran formato que permiten la visualización en tres dimensiones sin necesidad de usar gafas especiales ni ningún tipo de accesorio adicional. Este tipo de pantallas usadas de forma conjunta con la pizarra digital interactiva, sería el paso lógico en cuanto a herramientas usadas en la docencia.

Este dispositivo permitiría solventar un problema con el que nos encontramos los profesores en los últimos años y que no es otro que la falta de pensamiento tridimensional en los alumnos. Parece ser que este problema surge por la falta de estimulación con conceptos de este tipo durante la maduración del cerebro cuando adquiere el pensamiento abstracto, entre los siete y diez años. Ello es debido a la saturación de elementos en dos dimensiones como la televisión y últimamente los ordenadores.

En enseñanzas como el dibujo, y sobre todo el dibujo técnico, es imprescindible tener la capacidad de pensamiento espacial para poder comprender ciertos conceptos y habilidades. Por esa razón, y gracias a las pizarras dotadas de este tipo de pantallas les sería más sencillo visualizar y comprender este tipo de disciplinas.

REALIDAD AUMENTADA
La realidad aumentada es el término para definir una visión directa o indirecta de un entorno físico en el mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta a tiempo real. Consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real. Para que nos hagamos una idea es como cuando nos situamos sobre una imagen del satélite que hayamos adquirido con el ordenador y le superponemos los nombres de los lugares e información relevante. Pero claro, en el mundo real.

Ya se están dando los primeros pasos en este sentido, aunque la andadura de esta tecnología comenzó en los años sesenta. Actualmente es posible disponer de un teléfono móvil con GPS de tal forma que apuntándolo hacia cierto monumento y pidiendo información, el teléfono me ofrece información superpuesta a la imagen.

Actualmente la mayoría de aplicaciones de Realidad Aumentada para proyectos educativos se usan en museos, exhibiciones, parques de atracciones temáticos, etc.; puesto que su coste todavía no es suficientemente bajo para que puedan ser empleadas en el ámbito educativo. Estos lugares aprovechan las conexiones inalámbricas para mostrar información sobre objetos o lugares, así como imágenes virtuales como por ejemplo ruinas reconstruidas o paisajes tal y como eran en el pasado.

En nuestra labor docente, y cuando el precio de esta tecnología baje, el campo de utilización es muy amplio: desde la posibilidad de visualizar pasos intermedios no comprendidos en el desarrollo de un problema matemático, hasta la ampliación de la información aportada en cualquier tipo de imagen.

REALIDAD VIRTUAL

Realidad virtual es un sistema o interfaz informático que genera entornos sintéticos en tiempo real, representación de las cosas a través de medios electrónicos o representaciones de la realidad. Una realidad ilusoria, pues se trata de una realidad perceptiva sin soporte objetivo, sin red extensa, ya que existe sólo dentro del ordenador. Por eso puede afirmarse que la realidad virtual es una pseudorrealidad alternativa, perceptivamente hablando.

miércoles, 30 de junio de 2010

Generaciones de la computadora

Para dar una mejor explicación en cuanto a computación se describirán a continuación las generaciones de la computadora, recalcando los aportes más importantes:

Primera Generación: Válvulas de vacío (1945-1955).

Para el momento en que Howard Aiken había terminado la Mark II, las computadoras basadas en relés ya eran obsoletas. El principal estímulo para desarrollar computadoras electrónicas estuvo en la segunda guerra mundial. Los submarinos alemanes, que destruían a la flota inglesa, se comunicaban por radio con sus almirantes en Berlín. Los británicos podían captar las señales de radio, pero los mensajes estaban encriptados usando un dispositivo llamado ENIGMA. La inteligencia británica había podido obtener una máquina ENIGMA robada a los alemanes, pero para quebrar los códigos era necesaria una gran cantidad de cálculo, que debía hacerse a alta velocidad.
Para decodificar estos mensajes, el gobierno británico construyó un laboratorio para construir una computadora, llamada COLOSSUS. Alan Turing, T. Flowers y M. Newman construyeron esta computadora (1943), que fue la primer computadora electrónica de la historia. Estaba construida de válvulas de vacío y no tenía dispositivos electromecánicos.

En EE.UU., simultáneamente, había interés de la armada para obtener tablas que pudieran usarse para mejorar la precisión en los disparos de artillería pesada (en particular para armas antiaéreas), ya que hacerlos manualmente era tedioso y frecuentemente con errores.

En 1943, John Mauchly y uno de sus alumnos, un joven ingeniero llamado John P. Eckert obtienen un subsidio de la armada para construir una computadora electrónica, que llamaron Electronic Numerical Integrator and Computer (ENIAC). La computadora consistía de 18000 válvulas de vacío y 1500 relés. Consumía 140 KW/h y pesaba 30 toneladas.

En este mismo año, John Von Neumann introduce el concepto de programa almacenado. Una de las cosas que le molestaba de las computadoras era que su programación con llaves y cables era lenta, tediosa e inflexible. Propuso que los programas se almacenaran de forma digital en la memoria de la computadora, junto con los datos. Por otro lado, se dio cuenta que la aritmética decimal usada por la ENIAC (donde cada dígito era representado por 10 válvulas de vacío - una prendida y 9 apagadas -) podía reemplazarse usando aritmética binaria. Este diseño, conocido como Arquitectura de Von Neumann, ha sido la base para casi todas las computadoras digitales.

En 1945, Eckert y Mauchly comienzan a trabajar en un sucesor de la ENIAC, llamada EDVAC (Electronic Discrete Variable Automatic Computer). También en este año, Aiken comienza a construir la Mark II. En el mismo año, trabajando con un prototipo de la Mark II, Grace Murray Hopper encuentra el primer "bug": una polilla que provocó una falla en un relé.

En 1946, la ENIAC estaba operativa, funcionando en la Universidad de Pennsylvania. A pesar que no pudo ser usada para su propósito original de cálculos de balística, la finalización de la ENIAC provocó una explosión de interés de desarrollo de computadoras electrónicas. Luego que la guerra terminó, comenzó una nueva era para la computación científica. Los recursos dedicados a la guerra fueron liberados y dedicados a la ciencia básica. En particular, el departamento de Marina y la Comisión de Energía Atómica de los EE.UU. decidieron continuar soportando el desarrollo de computadoras. Las principales aplicaciones eran la predicción numérica del tiempo, la mecánica de fluidos, la aviónica, el estudio de resistencia de los barcos a las olas, el estudio de partículas, la energía nuclear, el cálculos de reactores, el modelado de automóviles, etc.

En 1947, la Mark II estuvo operativa en Harvard. En el mismo año se introduce el tambor magnético, un dispositivo de acceso aleatorio que puede usarse como almacenamiento para computadoras. En este mismo año William Shockley, John Bardeen y Walter Brattain, de los laboratorios Bell, inventaron la resistencia de transferencia (transfer resistor), comúnmente conocida como Transistor. El concepto estuvo basado en el hecho de que el flujo de electricidad a través de un sólido (como el silicio) puede controlarse agregándose impurezas con las configuraciones electrónicas adecuadas. Las válvulas de vacío requieren cables, platos de metal, una cápsula de vidrio y vacío; en cambio, el transistor es un dispositivo de estado sólido.

En 1948, Claude Shannon presenta su "Teoría matemática de las comunicaciones". En el mismo año, entra en operación la Manchester Mark I, la primer computadora de programa almacenado. Fue diseñada por F. C. Williams y T. Kilburn en la Universidad de Manchester, y era un modelo experimental para probar una memoria basada en válvulas de vacío.

En 1949, el laboratorio de Los Alamos, se empieza a construir la computadora MANIAC I, que se terminó en Marzo de 1952. Esta computadora tenía un tambor auxiliar de 10.000 palabras de 40 bits en paralelo, y la unidad de entrada/salida tenía una cinta de papel de 5 canales, y un drive de cinta de un solo canal. También tenía una impresora de línea.

Se dice que en este año, John Mauchly desarrolla el lenguaje "Short Order Code", que sería el primer lenguaje de programación de alto nivel. En 1950 la EDVAC se pone operativa, pero la Remington Rand Corporation (que se transformaría más adelante en la Unisys Corporation) compra la Eckert-Mauchly Computer Corporation.

La primer UNIVAC I (Universal Automatic Computer) es puesta en funcionamiento en la Oficina de Censos. Esta computadora pasó a ser la número uno en el mercado comercial.
Durante todos estos desarrollos, IBM se había transformado en una pequeña compañía que producía perforadoras de tarjetas y ordenadoras mecánicas de tarjetas. IBM no se interesó en producir computadoras, hasta que en 1952 produjo la IBM 701. Esta computadora tenía 2K de palabras de 36 bits, con dos instrucciones por palabras. Fue la primera de una serie de computadoras científicas que dominaron la industria en la década siguiente.

En 1955 apareció la 704, que tenía 4K de memoria y hardware de punto flotante.
En 1953, la IBM 650 sale a la venta, y fue la primer computadora fabricada en serie.

Segunda Generación: Transistores (1955-1965).

En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primer computadora comercial UNIVAC puramente basada en transistores. Los microprogramas permitieron que las órdenes pudieran ser diseñadas cuidadosamente, menos dependientes de accidentes del hardware. La computadora ejecutaba una instrucción simple en unos 20 microsegundos, y una multiplicación precisaba 250 microsegundos. La lectora de papel leía 1000 caracteres por segundo, y la perforadora perforaba 300 caracteres por segundo. La salida se seguía imprimiendo en una telelimpresora.

En 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN (FORmula TRANslator).

En 1958 se funda la compañía Digital, como fue mencionado principalmente. Inicialmente la DEC sólo vendía plaquetas con pequeños circuitos. En el mismo año, se producen los primeros circuitos integrados basados en semiconductores (en las compañías Fairchild y Texas Instruments), y también el proyecto Whirlwind se extiende para producir un sistema de control de tráfico aéreo. En 1959 se forma el Comité en Lenguajes de sistemas de Datos (CODASYL - Commitee On Data Systems Language) para crear el lenguaje COBOL (Common Business Oriented Language), y John Mc. Carthy desarrolla el Lisp (List Processing) para aplicaciones de inteligencia artificial.

En 1964, aparece el primer modelo de la computadora IBM 360. IBM había construido una versión con transistores de la 709, llamada 7090, y posteriormente la 7094. Esta tenía un ciclo de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas computadoras dominaron la computación científica en los '60s.
IBM también vendía una computadora orientada a negocios llamada 1401. Esta podía leer cintas magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija. Tenía 4K de bytes de 8 bits cada uno. Cada byte contenía un caracter de 6 bits, un bit administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria a memoria movía datos de la fuente al destino hasta que encontraba el bit de fin de palabra prendido.

El problema era la incompatibilidad de ambas computadoras: era imposible compartir el software, y de hecho era necesario tener dos centros de cómputos separados con personal especializado. La IBM System/360 fue una computadora diseñada con múltiples propósitos. Era una familia e computadoras con el mismo lenguaje de máquina, pero mayor potencia. El software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el único problema era que, al portar un programa de una versión poderosa a una versión anterior, el programa podía no caber en memoria). Todas las IBM 360 proveían soporte para multiprogramación. También existían emuladores de otras computadoras, para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados. Tenía un espacio de direcciones de 16 megabytes.
En este mismo año, Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code).
En 1965, la DEC fabrica la PDP-8, que fue la primer minicomputadora con transistores en módulos de circuitos integrados. Esta tenía un único bus (o sea, un conjunto de cables paralelos para conectar los componentes de la computadora, en lugar de las líneas multiplexadas de las computadoras de Von Neumann tradicionales).
Tercera Generación: Circuitos Integrados (1965-1980)

En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que los fabricantes habían duplicado la densidad de los componentes por circuito integrado a intervalos regulares (un año), y que seguirían haciéndolo mientras el ojo humano pudiera ver.

En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet con el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar el intercambio entre computadoras y periféricos.

En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados más pequeños y baratos. En 1971, Intel fabrica el microprocesador de 4 bits 4004, la primer computadora en un solo chip. Su objetivo era ser usado para una calculadora. Ya en 1972, Intel fabrica el 8008, primer microprocesador de 8 bits (que es reemplazado por el 8080, debido al límite de memoria de 16k impuesto por los pins en el chip).

En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration) permiten poner 10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año, John Metcalfe propone el protocolo Ethernet para comunicación en redes locales. En 1975, la primer computadora personal, la Altair 8800, aparece en la revista Popular Electronics, explicando cómo construirla. También en ese año, IBM introduce la primer impresora láser.

En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que consiste principalmente de un tablero de circuitos. IBM introduce las impresoras a chorro de tinta en ese mismo año, y Cray Research introduce la Cray 1, una supercomputadora con una arquitectura vectorial. También Intel produce el 8085, un 8080 modificado con algunas características extra de entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era una computadora de 8 bits comparable al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido por el 6809 que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits.

En 1977, Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es anunciada públicamente. En 1978, Intel produce el 8086, una CPU de 16 bits en un chip. Este procesador es completamente combatible con el 8080, y también lo fue el 8088, que tenía la misma arquitectura y corría los mismos programas, pero con un bus de 8 bits en lugar de uno de 16, haciéndolo más lento y barato. En este año DEC introduce la VAX 11/780, una computadora de 32 bits que se hizo popular para aplicaciones técnicas y científicas.

En 1979, Motorola introduce el procesador 68000 que sería más adelante el soporte para las computadoras Macintosh, Atari, Amiga y otras computadoras populares. Este procesador no era compatible con el 6800 o el 6809. Es un híbrido entre arquitecturas de 16 y 32 bits, y puede direccionar 16 Mb de memoria. De aquí en más los procesadores 680x0 siguen siendo muy similares desde el punto de vista del programador, con pocas instrucciones agregadas en cada versión nueva. También en este año aparecen los videodiscos digitales.
En 1980 se produce la primer computadora portable: la Osborne 1. David Patterson, en la UC. Berkeley, introduce el concepto de RISC, y junto con John Hennessy, de Stanford, desarrollan el concepto.
En 1981 se lanza la computadora de arquitectura abierta IBM-PC, y un año mas tarde se produce el primer "clon" de esta computadora.

Cuarta Generación: Computadoras personales y VLSI (1980 - ).

En la década del '80, fue posible la Integración a Muy Alta Escala (VLSI - Very Large Sacel Integration) poniendo cientos de miles (y posteriormente millones) de transistores en un chip.



Computadoras en la actualidad

Evolución de la computadora




Desde tiempos inmemorables, la humanidad ha desarrollado y usado por su conveniencia o por necesidad, accesorios que le facilitan y abrevian la práctica del cálculo. Ejemplos de estos, han sido los guijarros y los ábacos de civilizaciones antiguas.
La utilización de accesorios mecánicos ocurre hasta el siglo XVII. Casi simultáneamente, Schickard (1624) y Blaise Pascal (1645), conciben y realizan mecanismos capaces de sumar y construidos con engranajes de 10 dientes, cada diente representaba a uno de los dígitos del 0 al 9.
En el año de 1675 Gottfried Wilhelm von Leibnitz construye, a partir de los mismos principios y con un mayor perfeccionamiento, una máquina que además de realizar las cuatro operaciones elementales, también permitía el cálculo de raíces. Más tarde, al iniciarse el siglo XVIII,

En 1811 Charles Babbage, un ingeniero inglés, concibe un dispositivo mecánico que denomina “máquina diferencial'', su diseño aprovecha el principio de diferencias finitas para realizar los cálculos. En el año de 1822, somete a la consideración de la Royal Society, una nueva versión mejorada de su diseño, la “máquina analítica'', que se empieza a construir en el año de 1840 sin llegar a concluirla, aunque el intento impulsó el desarrollo del instrumental mecánico. En el diseño de la “máquina analítica'' de Babbage, se perciben ya los cuatro elementos esenciales de las modernas computadoras: unidad aritmética, unidad de control, memoria y comunicación con el exterior.

jueves, 24 de junio de 2010

Hablar de Computacion es Hablar de Educacion

En el caso de la educación la computacion junto a la informática se han incorporado para los estudiantes y docentes con la finalidad de apoyar y mejorar los procesos de enseñanza y el aprendizaje a la cual le hemos denominado informática educativa. Es tal su influencia que en muchos sistemas educativos de otros países, incluso en el nuestro propio, están firmemente sustentados en una plataforma tecnológica que amplía la posibilidad de enseñar y aprender por parte del profesor y el alumno respectivamente. Es decir que los avances científicos y tecnológicos tienen una influencia notable en la formación de los individuos.
para profundizar mas sobre el tema visitar el siguiente sitio web