lunes, 23 de agosto de 2010

Historia de los ordenadores



Cuando un avance espectacular ocurre en la construccion, programacion, presicion o en la forma de usar una computadora la llaman Generacion de Computadoras; principalmente son 5 generaciones hasta el momento, sin embargo se baticina una sexta edad, una sexta generacion, la generacion de las super-computadoras, computadoras cuanticas.

La primera generacion “Todo comienza con un genesis” (1940-1958)

Como en toda historia siempre hay una prehistoria, y en las computadoras no es la excepcion antes de que las maquinas adoptaran el termino computadora existian aparatos semiautomaticos que precen a todo, como la Pascalina, una sofisticada y elegante maquina de sumar, inventada por Blaise Pascal alla por 1645 y podemos citar algunas otras posteriores a esta que merecen estar dentro del genesis. Pero nos enfocaremos a la edad de oro de las maquinas-mounstruo, donde una computadora ingeria cantidades bestiales de energia, ocupaban espacios enormes, comenzaron a usar la aritmetica binaria, el acceso aleatorio, los bulbos (tubos de vacio) eran la maxima tecnologia, y el lenguaje maquina era la tendencia.

En esta epoca grandes ingenieros y matematicos sumaron esfuerzos para crear la mejor computadora posible, empresas y universidades llevaron esta idea a los limites de la epoca, muchas se quedaron en prototipos, pocas se produjeron en serie, puesto que la premisa de epoca era; “Mas grande, mas potente”, asi enumeraremos las mas sobresalientes, notables, importantes y complejas computadoras de la epoca:

1936 - El ingeniero, pionero y visionario Konrad Zuse construye la serie Z, una serie de calculadoras con memoria, en un inicio limitada, y programables. Tambien llamadas las Zuses, eran maquinas mecanicas, pero con un concepto muy interesante de sistema binario, poco presiso en un principio, esto se vio con la mitica Z1 terminada en 1938 justo antes de comenzar la guerra, factor que aceleraria la investigacion y desarrollo de las siguientes Z2 y Z3. Cabe mencionar que la Z3, terminada en 1941 fue la primera computadora funcional controlada mediante programas, estaba basada en reles de telefono, inspirada en la tesis de Claude Shannon llamada “Un analisis simbolico de circuitos de reles e interruptores”

Ademas Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, pero conocido hasta 1971.

19(40-44) - En algún punto de la ya madura segunda guerra mundial, fue construida una maquina tan poderosa para la época por los británicos, que sus planos fueron ocultados y los prototipos destruidos por ordenes del mismísimo Winston Churchill; La Colossus, construida por el profesor Max Newman y su equipo donde estaba el genial Alan Turing, para romper los códigos Alemanes de comunicación, fue el primer dispositivo de computo totalmente electrónico, sin relés, solo tubos de vacío

1947 - ENIAC la primera computadora digital electrónica, Sin embargo esta computadora experimental no era programable en el sentido actual, del tamaño del sótano de universidad de Pennsylvania, donde fue construida con 18,000 bulbos y alimentada con varios kilowatts, era capaz de efectuar 5,000 sumas por segundo. Con muchos prototipos varios años antes ayudo a mejorar su marca y lograr unos asombrosos 100,000 cálculos simples por segundo y adoptar la ejecución de programas almacenados en la memoria de tabla de función.

1949 – EDVAC fue la primera computadora programable, prototipo de laboratorio, pero tiene el merito de incluir en su diseño las ideas que conforman una computadora actual.

1949 - computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo de William para memoria, y también introdujo registros de índices.

1951 – UNIVAC I Diseñada para ser comercial, lo logro, la universal automatic computer, Usaba 5.200 tubos de vacío y consumía 125 KW. Utilizó una línea de retraso de mercurio capaz de almacenar 72-bit de palabras para memoria. En contraste con las primeras máquinas no usó un sistema de tarjetas perforadas, sino una entrada de cinta de metal, esto para la época era lo mejor que se podia tener.

1953 – La IBM 701, el nacimiento de un imperio, en esta peculiar maquina, para introducir los datos, empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial por el francés Jacquard y perfeccionadas mas tarde. Años después introducirían el tambor magnético como mecanismo de almacenamiento masivo, que daría paso al disco magnético de hoy.

Posteriormente durante la primera generacion se innovaron y perfeccionaron algunas computadoras mas, pero eldiseño y las premisas eran las mismas, algunos logros de estas computadoras; La ENIAC pudo calcular PI con dos mil sifras decimales, he hizo el calculo de viavilidad para la bomba H lo que daria confianza y luz verde para el proyecto, Los dispositivos magneticos hacen posible borrar la informacion y sustituirla por otra.



Segunda Generacion “Del Nobel a la rapidez del calculo” (1958 – 1966)

Cuando William Shockley invento el transistor en 1951, nunca se imagino el impacto que causaria en las computadoras ni mucho menos que le darian el Nobel de fisica en 1956. En esto se basa la Segunda Generacion de computadoras; EL TRANSISTOR que remplazo a los bulbos, ahora las computadoras son mas pequeñas y consumen menos electricidad, ahora su velocidad se mide en microsegundos, generalizan en ellos el uso de medios magneticos de gran capacidad, se implementan las memorias externas, ahora se tienen dispositivos de entrada y de salida, las primeras impresoras tienen lugar aquí, se desarrollan lenguajes de alto nivel para programarlas: FORTRAN, COBOL, ALGOL y LISP

El transistor, una maravilla moderna, dio paso a la logica binaria en una forma mas clara y limpia, sus disyunciones hacian posible la programacion en su mas estricta forma, las compuertas logicas tambien hacen su aparicion, se podria decir que es la primera revolucion para obtener las computadoras de hoy.

1959 – La International Bussnies Machine (IBM) envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general, haciéndola la máquina más exitosa en la historia de la computación. tenía una memoria de núcleo magnético de 4.000 caracteres que luego seria después se extendió a 16.000 caracteres.

1961 – El ATLAS, diseñado por el profesor Kilburn, en Manchester, empleo por vez primera la memoria virtual como mecanismo para ampliar y extender la memoria central, y tiene un concepto muy peculiar para controlar los dispositivos E/S.

1964 – El CDC 6600 fue el primer ordenador que contenía varias unidades aritmetico-logicas trabajando en paralelo para aumentar la rapidez de calculo.

1964La hegemonía de IBM lo lleva a concebir la serie S/360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética.

1966El BESM-6 soviético (БЭСМ-6) es el mas conocido de la serie, diseñado como una supercomputadora, lo logro, una maquina de 48-bit a una velocidad de reloj de 10 MHz con dos instrucciones de tipo pipelins* con control separado, un logro y orgullo soviético, daría la pauta para el enfrentamiento no armado mas espectacular de la historia: la guerra fria, donde se desarrollan computadoras mas potentes y sofisticadas.

Tercera generación “El Microchip da paso al Boom” (1966 - 1974)

El circuito integrado o microchip inventado por Jack Kilby en 1958 cuando trabajaba en la Texas Instruments, pero no es implementado de inmediato, sino que tiene que esperar algunos años, esto dio suficiente tiempo para perfeccionarlo y a que Ted Hoff inventara el microprocesador en los laboratorios Intel, que no es otra cosa mas que muchos microchips juntos allá por finales de 1960 para dar paso al “boom” ya que las aplicaciones fueron infinitas en todos los ramos, no solo para la informática y una cosa que lo hizo posible; su precio, mucho mas barato que los transistores, su tamaño, el menor consumo de energía, el teleproceso es decir, varias terminales remotas pueden acceder a un ordenador central para consultas, la multiprogramación, y por supuesto la velocidad ahora son nanosegundos.

Los ordenadores destacados: encontraremos que estas computadores por su forma de construccion y comercializacion ya no son numeradas por años ya que los modelos eran mejorados en cuestion de meses.

El IMB 370, la gran estrella de la tercera generacion, barato, multifuncional, y bien programable y compatible con lenguajes de programacion diversos.

La serie 1.100 de la empresa Remington Rand

El CDC 7.600 de Control Data Corporation, considerado durante algun tiempo el ordenador mas potente del mundo

Es bueno citar que en esta etapa de crecimiento aprecen las empresas de construccion de microprocesadores, y ademas aparecen los miniordenadores de uso comercial, pero aun no muy populares debido a su costo. Estas computadoras lograron calcular el numero PI con 500,000 decimales, algo nunca antes imaginado por los ingenieros.

Cuarta generacion “Se reafirma el microprocedador” (1971 - 1988)

Esta generacion empieza con INTEL; la empresa estaba capacitada para integrar dos mil transistores en una sola capsula o chip, pero los empleaban en calculadoras de bolsillo, no muy impresionante, pero cuando los ingenieros notaron que podian fabricar un tipo de circuito integrado con inteligencia propia, es decir, capaz de interpretar y ejecutar un conjunto de instrucciones. Y ha esto aunado a la aparcion de las Random Acces Memory (RAM), las Read Only Memmory (ROM) y los nuevos controladores para teclado y video, la revolucion estaba lista y vaya que si, desde entonces los microprocesadores no han dejado de evolucionar,

Ahora habia algo llamado Personal Computer o PC, el tamaño habia sido reducido enormemente, la rapidez de calculo, que nunca ha dejado de aumentar desde entonces, Se producen avances en los discos magneticos, mejorandose su velocidad y capacidad al punto que los demas dispositivos se usen cada vez menos, comienzan su aparicion los dispositivos de almacenamiento optico como CD-ROM y las WORM, se desarrollan los sistemas de E/S, el monitor de video y el teclado extingen las targetas perforadas, los nuevos luenguajes no dejan de aparecer, DBASE, C, LISP y PROLOG, se mejoran las redes de ordenadores, se mejoran los sistemas de teleproceso, y claro, no podian faltar, aparecen los primeros virus informaticos, capaces de destruir la informacion almacenada en los ordenadores de forma telematica, y con estos, hacen su aparicion en escena los piratas informaticos.

Con todo esto nuevas empresas constructoras comenzaron a aparecer, no solo en los estados unidos, sino en paises como japon inglaterra, que ademas fabricaban sus propios microprocesadores ya que aquí el enemigo era la IBM o como diria Steve Jobs “El gran hermano” tomado de la novela 1984, pues dominaba todo el mercado, sin embargo su poder fue desapareciendo a raiz de que los procesadores eran faciles de hacer y sobretodo baratos. INTEL en 1971 lanzo el 4004, resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que podía realizar 60.000 operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Algunas de estas arquitecturas han son vistas en aulas de clase, pues su salto con respecto a otros ha sido notable.

Quinta generación “La inteligencia artificial en casa” (1989 – 2010*)

Esta generación fue muy particular pues se podría definir como la generación perdida, por vez primera un país que no fuera estados unidos tomaba la iniciativa en el siguiente nivel de los ordenadores, así que comienza como un ambicioso proyecto lanzado por Japón a finales de la década de 1970. Se plantearon como objetivo el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software usando el lenguaje PROLOG al nivel del lenguaje de máquina o ensamblador y serían capaces de resolver problemas complejos, como la traducción automática. Sin embargo resulto ser desastroso, puesto que la velocidad de ejecución incluso a nivel maquina era odiosamente lento, lo cual suponía todo un problema, ya que si al ejecutar el lenguaje maquina tan lento, ¿que se podría esperar del lenguaje de alto nivel?

Estas generaciones trataron de incorporar para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration). Sin embargo las computadoras actuales siguieron así, es decir, por un lado estaba la propuesta de la quinta generación y por el otro se perfeccionaban los procesadores y demás hardware lo que llevo a una encrucijada, seguir con lo que estaba funcionando o darle oportunidad a lo que no la tenia, bueno, la respuesta ya la conocemos al saber que once años después de la propuesta japonesa ya no existe.

La próxima generación “Los ordenadores quánticos.”

Basados en el uso de qubits en lugar de bits, da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

Aun seria muy pretencioso sugerir la implementación de esta tecnología, puesto que hay muchos problemas que aun no se resuelven, uno de ellos es el hardware, el cual debe tener ciertos requisitos para funcionar, tales como un sistema que pueda inicializarse, esto es, llevarse a un estado de partida conocido y controlado. Hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier otra puerta lógica posible). este sistema ha de mantener su coherencia cuántica a lo largo del experimento. Además ha de poder leerse el estado final del sistema, tras el cálculo. deberá ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional. Entre otras muchas características.