martes, 2 de abril de 2013

Generaciones de computadoras

Historia

En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos integrados basados en semiconductores. Las primeras computadoras, incluyeron a la ENIAC, el Electronic Numerical Integrator and Computer, que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la Universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora que se llamó Saly fue ampliamente comercializada, la UNIVAC I, comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.
En 1952 entra en funcionamiento la primera de las llamadas IAS machines, diseñadas por John von Neumann y que incorporaban notables mejoras respecto a sus predecesoras y en 1962, Steven Russell creó el primer juego para computadoras, Spacewar.


Primera Generación (1938-1958)

En esta época las computadoras funcionaban con válvulas, usaban tarjetas perforadas para entrar los datos y los programas, utilizaban cilindros magnéticos para almacenar información e instrucciones internas y se utilizaban exclusivamente en el ámbito científico o militar. La programación implicaba la modificación directa de los cartuchos y eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.


Segunda Generación (1955-1963)

Características de está generación: Usaban transistores para procesar información. Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Producían gran cantidad de calor y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación. Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los Estados Unidos desarrolla el primer simulador de vuelo,Computadora Whirlwind Surgieron las minicomputadoras y los terminales a distancia. Se comenzó a disminuir el tamaño de las computadoras.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.


Tercera Generación (1964-1970)

Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.






Cuarta Generación (1971-1983)

Fase caracterizada por la integración de los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina. Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI - Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras.
Características de está generación: Se desarrollaron circuitos integrados para procesar información. Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas. Surge la multiprogramación. Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos. Emerge la industria del "software". Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1. Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes. Consumían menos electricidad, por lo tanto, generaban menos calor.



Quinta Generación (1984 -1989 )

La quinta generación vio la introducción de máquinas con cientos de procesadores que podían estar trabajando de manera simultánea en diferentes partes de un mismo programa. La escala de la integración en los semiconductores continuó a una velocidad estrepitosa al grado de que para 1990 era posible construir pastillas de una pulgada cuadrada con un millón de componentes, y de manera análoga las memorias hechas de semiconductores se volvieron estándar en todas las computadoras.
Uno de los nuevos desarrollos que alimentaron el crecimiento de los equipos paralelos fue la utilización de redes de computadoras y estaciones de trabajo de un solo usuario. Para antes de 1985 el procesamiento paralelo a gran escala era visto como un objetivo de investigación, sin embargo, en 1984 fueron liberados al mercado dos equipos de cómputo que utilizaban procesamiento en paralelo: la DEC VAX-780 y la Sequent Balance 800.

Estas máquinas tenían hasta 20 procesadores que compartían la memoria principal, y cada uno tenía su propia caché local. Cada procesador trabajaba en un trabajo distinto del usuario. Sin embargo Sequent proveía de una librería de subrutinas que permitía desarrollar programas que podían utilizar más de un procesador, y la máquina fue utilizada ampliamente para explorar técnicas de programación y algoritmos paralelos.

En 1985 Intel presenta la iPSC-1, bajo el seudónimo 'Hipercubo' (Hypercube), misma que contaba con una aproximación distinta, integrando cada procesador con su propia memoria y contaba con una interfaz de red para conectar los procesadores. Esta arquitectura de memoria distribuida significaba que la memora ya no era una limitante y se podrían construir sistemas con una mayor cantidad de procesadores. La iPSC-1 más grande contaba con 128 procesadores.

Para el término de este período se desarrolló un tercer tipo de procesadores paralelos conocidos por paralelo-datos o SIMD, en los que podían existir varios miles de procesadores muy simples trabajando coordinadamente con una misma unidad de control; esto es, todos los procesadores trabajaban en la misma tarea con variables locales. La computadora más representativa de este último tipo es la Connection Machine de Thinking Machines, Inc., y la MP-1 de MasPar, Inc.

La computación científica durante este período seguía estando dominada por el procesamiento vectorial. La mayoría de los fabricantes de procesadores vectoriales introdujeron modelos paralelos con pocos procesadores, de 2 a 8, en estas computadoras.




Sexta Generación (1999 hasta la fecha )



 Esta generación se inicia en 1990 teniendo como característica la evolución de las comunicaciones a la par de la tecnología.

La computación paralela sigue avanzando al grado de que los sistemas paralelos comienzan a competir con los vectoriales en términos de poder total de cómputo.

La miniaturización de componentes y su consecuente reducción en costo y necesidades técnicas coadyuvan a obtener sistemas de muy alta capacidad en donde las estaciones de trabajo compiten y superan en capacidad a las supercomputadoras de la generación anterior.

Dentro de los eventos que forjaron el inicio de este período están: La actualización de la especificación IEEE 802.3, para incluir cableado de par de cobre trenzado con 10 Base T; Tim Berners-Lee trabaja en una interfaz gráfica de usuario navegador y editor de hipertexto utilizando el ambiente de desarrollo de NeXTStep, bautizando "WorldWideWeb" al programa y "World Wide Web" al proyecto; Motorola presenta el concepto del Sistema Iridium para comunicación personal global. complementando los sistemas de comunicación alámbrica e inalámbrica terrestre; Formalmente se cierra ARPAnet, que es reemplazada por la NSFnet y las redes interconectadas, dando origen a la participación pública en el desarrollo de lo que se convertiría en la red de redes, Internet, y la formación del grupo de trabajo para redes inalámbricas IEEE802.11 (Wireless LAN Working Group IEEE 802.11).

La implementación de redes de datos digitales se vuelve un asunto cotidiano, no solo alcanzando altas velocidades, sino además creando esquemas jerárquicos de transmisión de datos permitiendo la integración de servicios de video de alta calidad con movimiento total, voz y otros datos digitales multimedia en tiempo real. 






El siguiente paso tecnológico consistió en la integración de computadoras en red para trabajo simultáneo o computación distribuida, en donde un proceso en una computadora en red puede encontrar tiempo de procesador en otra de la misma red para realizar trabajos en paralelo. El ejemplo más grande es SETI, un proyecto para la identificación de vida extraterrestre, que permite a usuarios de Internet instalar una pequeña aplicación que descarga y procesa datos localmente, regresando los resultados a SETI. De esta forma se pueden conseguir millones de procesadores de distintas tecnologías trabajando en paralelo en una misma tarea.

0 comentarios:

Publicar un comentario