Son 5 Generaciones:
La primera generación de computadoras (1946-1954): se caracteriza por el rasgo más prominente de la ENIAC Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico): tubos de vacío (bulbos) y programación basada en el lenguaje de máquina.Medía aprox 16 metros de altura y tenia un sistema de refrigeración. Si se quemaba una válvula durante un trabajo había que reiniciarlo después de cambiar la misma.
Durante la década de 1950 se construyeron varias computadoras notables, cada una contribuyó con avances significativos: uso de la aritmética binaria, acceso aleatorio y el concepto de programas almacenados.
Las máquinas eran así:
Estaban construidas con electrónica de válvulas
Se programaban en lenguaje de máquina
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).
La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
1947 ENIAC. Primera computadora digital electrónica de la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos.
1949 EDVAC. Primera computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.
1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.
1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de 1960 almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el discomagnético.
Segunda generación (1955-1963): Estas computadoras comenzaron a utilizar transistores. Se comunicaban mediante lenguajes de alto nivel.
El invento de los transistores significó un gran avance, ya que permitió la construcción de computadoras más poderosas, más confiables, y menos costosas. Además ocupaban menos espacio y producían menos calor que las computadoras que operaban a bases de tubos de vacío.
abarca el periodo comprendido entre 1954 y 1964, caracterizándose por la invención del transistor.
Por los años 50, los transistores reemplazaron a las válvulas de vacío en los circuitos de las computadoras.
Las computadoras de la segunda generación ya no son de válvulas de vacío, sino con transistores son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.
Las características más relevantes de las computadoras de la segunda generación son:
Estaban construidas con electrónica de transistores
Se programaban con lenguajes de alto nivel
1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU
1956, IBM vendió su primer sistema de disco magnético, RAMAC [Random Access Method of Accounting and Control]. Usaba 50 discos de metal de 61cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un costo de $10.000 por megabyte.
El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).
1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70.
1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de mas de 60.000 dígitos decimales.
DEC lanzo el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación.
1964, IBM anunció la serie S/360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en 1968.
DEC lanzo la máquina más pequeña PDP-8, también pensada para ser usada por personal técnico en laboratorios y para investigación.
Tercera generación (1964-1970): Son las computadoras que comienzan a utilizar circuitos integrados. La IBM 360 es el símbolo de esta generación.
A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie 360.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
Esto es lo que ocurrio en (1964-1971) que comprende de la Tercera generación de computadoras:
Menor consumo de energía
Apreciable reducción del espacio
Aumento de fiabilidad
Teleproceso
Multiprogramación
Renovación de periféricos
Minicomputadoras, no tan costosas y con gran capacidad deprocesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
Se calculó π (Número Pi) con 500.000 decimales
Cuarta Generación (1971-1988): Se caracteriza por la integración a gran escala de circuitos integrados y transistores (más circuitos por unidad de espacio).
Desde 1971-1988, dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacénen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.
Quinta Generación:(1988-presente) Las computadoras de quinta generación son computadoras basados en inteligencia artificial Usando Lo que se puede denominar micro chip inteligente.
fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
El proyecto duró diez años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto nos llevará se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
Wednesday, August 19, 2009
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment