Invención de las Computadoras, Historia y Evolucion de las Computadoras

0
Advertisement

¿Cuándo y cómo se inventó de las Computadoras? La historia de las Computadoras. Información sobre la invención y desarrollo de las Computadoras.

La Historia de las Computadoras

A lo largo de la historia humana, lo más cercano a una computadora fue el ábaco, que en realidad se considera una calculadora ya que requería un operador humano. Las computadoras, por otro lado, realizan cálculos automáticamente siguiendo una serie de comandos integrados llamados software.

En el siglo 20, los avances en tecnología permitieron las máquinas de computación en constante evolución que vemos hoy. Pero incluso antes del advenimiento de los microprocesadores y las supercomputadoras, hubo ciertos científicos e inventores notables que ayudaron a sentar las bases de una tecnología que desde entonces ha cambiado drásticamente nuestras vidas.

El lenguaje antes del hardware

El lenguaje universal en el que las computadoras llevan a cabo las instrucciones del procesador se originó en el siglo XVII en forma de sistema numérico binario. Desarrollado por el filósofo y matemático alemán Gottfried Wilhelm Leibniz, el sistema surgió como una forma de representar números decimales utilizando solo dos dígitos, el número cero y el número uno. Su sistema fue parcialmente inspirado por explicaciones filosóficas en el texto clásico chino «I Ching», que entendía el universo en términos de dualidades como luz y oscuridad y masculino y femenino. Si bien en ese momento su sistema recién codificado no tenía ningún uso práctico, Leibniz creía que era posible que una máquina hiciera uso algún día de estas largas cadenas de números binarios.

Advertisement

En 1847, el matemático inglés George Boole introdujo un lenguaje algebraico de reciente creación construido sobre el trabajo de Leibniz. Su «álgebra de Boole» era en realidad un sistema de lógica, con ecuaciones matemáticas utilizadas para representar afirmaciones en lógica. Igual de importante fue que empleó un enfoque binario en el que la relación entre diferentes cantidades matemáticas sería verdadera o falsa, 0 o 1. Y aunque no había una aplicación obvia para el álgebra de Boole en ese momento, otro matemático, Charles Sanders Pierce, pasó. décadas ampliando el sistema y, finalmente, descubrimos en 1886 que los cálculos se pueden realizar con circuitos de conmutación eléctrica. Y con el tiempo, la lógica booleana se volvería instrumental en el diseño de las computadoras electrónicas.

Los primeros procesadores

Se atribuye al matemático inglés Charles Babbage el haber reunido las primeras computadoras mecánicas, al menos técnicamente hablando. Sus máquinas de principios del siglo XIX ofrecían una forma de ingresar números, memoria, un procesador y una forma de generar los resultados. El intento inicial de construir la primera computadora del mundo, que llamó «motor de diferencia», fue un esfuerzo costoso que se abandonó después de que se gastaron más de 17,000 libras esterlinas en su desarrollo. El diseño requería una máquina que calculara los valores e imprimiera los resultados automáticamente en una tabla. Debía ser manipulado a mano y habría pesado cuatro toneladas. El proyecto fue finalmente eliminado después de que el gobierno británico cortara los fondos de Babbage en 1842.

Esto obligó al inventor a pasar a otra idea suya llamada el motor analítico, una máquina más ambiciosa para la informática de propósito general en lugar de solo la aritmética. Y aunque no pudo seguir y construir un dispositivo de trabajo, el diseño de Babbage presentaba esencialmente la misma estructura lógica que las computadoras electrónicas que entraría en uso en el siglo XX. El motor analítico tenía, por ejemplo, memoria integrada, una forma de almacenamiento de información que se encuentra en todas las computadoras. También permite la bifurcación o la capacidad de las computadoras para ejecutar un conjunto de instrucciones que se desvían del orden de secuencia predeterminado, así como bucles, que son secuencias de instrucciones repetidas sucesivamente.

A pesar de sus fallas en producir una máquina de cómputo completamente funcional, Babbage se mantuvo firme y sin inmutarse en perseguir sus ideas. Entre 1847 y 1849, diseñó diseños para una segunda versión nueva y mejorada de su motor de diferencia. Esta vez calculó números decimales de hasta treinta dígitos, realizó cálculos más rápidos y estaba destinado a ser más simple ya que requería menos partes. Sin embargo, el gobierno británico no encontró que valiera la pena su inversión. Al final, el mayor progreso que Babbage hizo en un prototipo fue completar una séptima parte de su primer motor de diferencia.

Durante esta temprana era de la computación, hubo algunos logros notables. Una máquina de predicción de mareas, inventada por el matemático, físico e ingeniero escocés-irlandés Sir William Thomson en 1872, fue considerada la primera computadora analógica moderna. Cuatro años después, a su hermano mayor James Thomson se le ocurrió un concepto para una computadora que resolvía problemas matemáticos conocidos como ecuaciones diferenciales. Llamó a su dispositivo una «máquina integradora» y en años posteriores serviría como base para los sistemas conocidos como analizadores diferenciales. En 1927, el científico estadounidense Vannevar Bush comenzó a desarrollar la primera máquina que se le dio ese nombre y publicó una descripción de su nuevo invento en una revista científica en 1931.

Amanecer de las computadoras modernas

Hasta principios del siglo XX, la evolución de la computación era poco más que la de los científicos que incursionaban en el diseño de máquinas capaces de realizar eficientemente diversos tipos de cálculos para diversos propósitos. No fue hasta 1936 que finalmente se presentó una teoría unificada sobre lo que constituye una computadora de propósito general y cómo debería funcionar. Ese año, el matemático inglés Alan Turing publicó un artículo titulado «En números computables, con una aplicación para el problema Entscheidung», que describe cómo un dispositivo teórico llamado «máquina de Turing» se puede usar para realizar cualquier cálculo matemático posible ejecutando instrucciones. . En teoría, la máquina tendría memoria ilimitada, leer datos, escribir resultados y almacenar un programa de instrucciones.

Si bien la computadora de Turing era un concepto abstracto, fue un ingeniero alemán llamado Konrad Zuse quien construiría la primera computadora programable del mundo. Su primer intento de desarrollar una computadora electrónica, la Z1, fue una calculadora binario que leía instrucciones de una película de 35 milímetros perforada. El problema era que la tecnología no era confiable, por lo que siguió con el Z2, un dispositivo similar que usaba circuitos de relé electromecánicos. Sin embargo, fue en el montaje de su tercer modelo que todo se juntó. Dio a conocer en 1941, el Z3 era más rápido, más confiable y más capaz de realizar cálculos complicados. Pero la gran diferencia fue que las instrucciones se almacenaron en una cinta externa, lo que permitió que funcionara como un sistema totalmente operacional controlado por programa.

Advertisement

Lo que quizás sea más notable es que Zuse hizo gran parte de su trabajo en forma aislada. No había sabido que el Z3 era Turing completo, o en otras palabras, capaz de resolver cualquier problema matemático computable, al menos en teoría. Tampoco tenía conocimiento de otros proyectos similares que se llevaban a cabo aproximadamente al mismo tiempo en otras partes del mundo. Entre los más notables se encuentra el Harvard Mark I, financiado por IBM, que debutó en 1944. Sin embargo, más prometedor fue el desarrollo de sistemas electrónicos como el prototipo informático Coloso de Gran Bretaña de 1943 y el ENIAC, el primer propósito general electrónico totalmente operativo. Computadora que se puso en servicio en la Universidad de Pennsylvania en 1946.

Fuera del proyecto ENIAC surgió el siguiente gran salto en la tecnología informática. John Von Neumann, un matemático húngaro que había consultado sobre el proyecto ENIAC, sentaría las bases para una computadora de programa almacenada. Hasta este punto, las computadoras operaban en programas fijos y modificaban su función, como por ejemplo, desde realizar cálculos hasta procesamiento de textos, requerían tener que volver a cablearlos y reestructurarlos manualmente. El ENIAC, por ejemplo, tardó varios días en reprogramarse. Idealmente, Turing había propuesto tener el programa almacenado en la memoria, lo que permitiría ser modificado por la computadora. Von Neumann estaba intrigado por el concepto y en 1945 redactó un informe que proporcionaba en detalle una arquitectura viable para la computación de programas almacenados.

Su artículo publicado se distribuiría ampliamente entre equipos de investigadores que trabajan en varios diseños de computadoras. Y en 1948, un grupo en Inglaterra presentó la Máquina Experimental de Pequeña Escala de Manchester, la primera computadora en ejecutar un programa almacenado basado en la arquitectura de Von Neumann. Apodada «Baby», la máquina de Manchester fue una computadora experimental y sirvió como el predecesor de la Mark I de Manchester. El EDVAC, el diseño de computadora para el que originalmente se diseñó el informe de Von Neumann, no se completó hasta 1949.

Transición hacia transistores

Las primeras computadoras modernas no se parecían en nada a los productos comerciales utilizados por los consumidores en la actualidad. Eran elaborados artilugios que a menudo ocupaban el espacio de una habitación entera. También chuparon enormes cantidades de energía y fueron notoriamente buggy. Y dado que estas primeras computadoras funcionaban con tubos de vacío voluminosos, los científicos que esperan mejorar las velocidades de procesamiento tendrían que buscar habitaciones más grandes o encontrar una alternativa.

Afortunadamente, ese avance tan necesario ya había estado en las obras. En 1947, un grupo de científicos de los Laboratorios Bell Telephone desarrolló una nueva tecnología llamada transistores de contacto puntual. Al igual que los tubos de vacío, los transistores amplifican la corriente eléctrica y se pueden usar como interruptores. Pero lo que es más importante, eran mucho más pequeños (aproximadamente del tamaño de una píldora), más confiables y usaban mucho menos energía en general. Los co-inventores John Bardeen, Walter Brattain y William Shockley serían finalmente galardonados con el Premio Nobel de física en 1956.

Y mientras Bardeen y Brattain continuaron realizando trabajos de investigación, Shockley se movió para desarrollar y comercializar aún más la tecnología de transistores. Una de las primeras contrataciones en su compañía recién fundada fue un ingeniero eléctrico llamado Robert Noyce, quien finalmente se separó y formó su propia firma, Fairchild Semiconductor, una división de Fairchild Camera and Instrument. En ese momento, Noyce estaba buscando formas de combinar a la perfección el transistor y otros componentes en un circuito integrado para eliminar el proceso en el que fueron ensamblados a mano. Jack Kilby, un ingeniero de Texas Instruments, también tuvo la misma idea y terminó presentando una patente primero. Sin embargo, fue el diseño de Noyce el que se adoptaría ampliamente.

Donde los circuitos integrados tuvieron el impacto más significativo fue allanar el camino para la nueva era de la computación personal. Con el tiempo, se abrió la posibilidad de ejecutar procesos alimentados por millones de circuitos, todo en un microchip del tamaño de un sello postal. En esencia, es lo que ha permitido a nuestros omnipresentes dispositivos de mano mucho más potentes que las primeras computadoras.

Leave A Reply

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.