HISTORIA DE LA COMPUTACIÓN
La historia de la computadora es muy interesante ya que muestra como el hombre logra producir las primeras herramientas para registrar los acontecimientos diarios desde el inicio de la civilización, cuando grupos empezaron a formar naciones y el comercio era ya medio de vida. La evolución histórica del procedimiento del procesamiento de datos se divide en cuatro partes:
1. Técnica de registro
2. Dispositivo de cálculo
3. Programas de tarjetas perforadas
4. Computadores electrónicos.
Una computadora procesa datos. Las empresas desarrollan departamentos de procesamiento de datos (programación de computadoras), pues las computadoras procesan datos para producir información significativa.
Los datos se construyen de hechos y cifras en bruto (sin procesar). La información está constituida por los datos procesados; la información tiene significado, los datos no. La computadora y sus programas llevan a cabo el procesamiento en la entrada; por lo tanto el programa convierte los datos en información útil.
Los datos generalmente se introducen por medio de algún dispositivo de entrada, como un teclado. La información generalmente se envía a un dispositivo de salida, como una pantalla, una impresora o un archivo en disco. La entrada y salida de la computadora pueden provenir de y dirigirse a muchos tipos de dispositivos distintos.
La computadora es un dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien copilando y correlacionando otros tipos de información. El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas maquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación son herramientas esenciales prácticamente en todo los campos de investigación y en tecnología aplicada.
Historia del computador
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfecciono esta máquina e invento una que también podía multiplicar. El invento francés Joseph Marie Jacquard, al diseñar un telar automático, utilizo delgadas placas de madera perforadas para controlar el tejido en los diseños complejos.
Durante la década de 1880 el estadístico estadunidense Herman Hollerith consiguió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard para procesar datos. Hollerith consiguió copilar la información estadística destinada al censo de población de 1890 de estados unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. También en el siglo XIX el matemático e inventor británico Charle Babbage elaboro los principios de la computadora digital moderna. Invento una serie de maquinas, como la maquina diferencial, diseñada para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica, Augusta Ada Byron (1815-1852), hija del poeta ingles Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus aceptados conceptos; pero una de sus invenciones, la maquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanentemente el registro.
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX . Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas maquinas se evaluaba las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Durante la II guerra mundial (1939-1945), un equipo de científicos y matemáticos que trabajan en Bletchley Park, al norte de Londres, crearon lo que se considero el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el colossus, que incorporaba 1500 válvulas tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Ala Turig para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, Jhon Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en la lowa state collage (EEUU). Este prototipo y las investigaciones posteriores se realizaron en anonimato, y más tarde quedaron eclipsadas por el desarrollo del calculador e integrador numérico electrónico (en ingles ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en ingles ABC, Atanasoff.Berry computer), obtuvo una patente que caduco en 1973, varias décadas más tarde.El ENIAC contenía 18000 válvulas de vacío y tenía una velocidad de varios ciento de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyo un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadunidense Jhon Von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que libera el ordenador de las limitaciones de velocidad de lector de cinta del papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor de los ordenadores marco el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las maquinas con válvulas. Como los transistores utilizan mucho menos energía y tiene una vida útil más prolongada, a su desarrollo se debió el nacimiento de maquinas mas perfeccionadas que fueron llamadas ordenadores o computadores de segunda generación. Los componentes se hicieron mas pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilito la fabricación de varios transistores en único sustrato de silicio en el que los cable de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.