La historia de la computadora en una breve cronología (1801-2020)

La historia de la computadora en una breve cronología (1801-2020)

Conoce la historia de la computadora desde sus humildes inicios en censos poblacionales hasta la revolucionaria potencia de las máquinas cuánticas de la actualidad… ¡todo en una cronología!

Es indudable que la llegada de la computadora al mundo cambió nuestras vidas para siempre. Muy distinto a lo que algunos podrían pensar de los orígenes de este artilugio, las primeras computadoras no nacieron para ser centros de entretenimiento o para enviar e-mail, sino por la necesidad de resolver una grave crisis relacionada, por supuesto con el conteo de números.

Para 1880, la población de los Estados Unidos había crecido tanto que se tardaron más de siete años en tabular los resultados del Censo de los Estados Unidos de ese entonces; en este sentido, el gobierno buscó una manera más rápida de hacer el trabajo, dando lugar a computadoras basadas en tarjetas perforadas que ocupaban habitaciones enteras.

Hoy en día, es evidente que tenemos más poder de cálculo en nuestros actuales teléfonos inteligentes que en aquellas gigantes computadoras. Para que tengas una idea de cómo ha sido la evolución de las computadoras, te mostramos este breve historial…

Siglo XIX

1801: En Francia, Joseph Marie Jacquard inventa un telar que utiliza tarjetas perforadas de madera para tejer automáticamente diseños de tela. Las primeras computadoras usarían tarjetas de perforación similares.

1822: El matemático inglés Charles Babbage concibe una máquina calculadora a vapor que sería capaz de calcular tablas de números. El proyecto, financiado por el Gobierno inglés, es un fracaso; sin embargo, después de un siglo, la primera computadora del mundo fue realmente construida.

1890: Herman Hollerith diseña un sistema de tarjeta perforada para calcular el censo de 1880, logrando la tarea en solo tres años y ahorrando al gobierno 5 millones de dólares. Establece una empresa que en última instancia se convertiría en la famosa IBM.

Siglo XX

1936: Alan Turing presenta la noción de una máquina universal, llamada más tarde máquina de Turing, capaz de computar cualquier cosa que sea computable. El concepto central de la computadora moderna se basaba en sus ideas.

1937: J. V. Atanasoff, un profesor de física y matemáticas en la Universidad Estatal de Iowa, intenta construir la primera computadora sin engranajes, levas, cinturones o ejes.

1939: Hewlett-Packard es fundada por David Packard y Bill Hewlett en un garaje de Palo Alto, California, según el Computer History Museum.

1941: Atanasoff y su estudiante graduado, Clifford Berry, diseñan una computadora que puede resolver 29 ecuaciones simultáneamente. Aquí se consolida por primera vez que una computadora sea capaz de almacenar información en su memoria principal.

1943-1944: Dos profesores de la Universidad de Pennsylvania, John Mauchly y J. Presper Eckert, construyen el Integrador Numérico Electrónico y la Calculadora (ENIAC). Esta máquina se considerado el abuelo de las computadoras digitales, y llena una sala de 20 pies por 40 pies con 18 mil tubos de vacío.

1946: Mauchly y Presper abandonan la Universidad de Pensilvania y reciben fondos de la Oficina del Censo para construir la UNIVAC, la primera computadora comercial para aplicaciones empresariales y gubernamentales.

1947: William Shockley, John Bardeen y Walter Brattain de Bell Laboratories inventan el transistor. Descubren cómo hacer un interruptor eléctrico con materiales sólidos y sin necesidad de un vacío.

1953: Grace Hopper desarrolla el primer lenguaje computacional, que eventualmente se conoce como COBOL. Thomas Johnson Watson Jr., hijo del CEO de IBM, Thomas Johnson Watson Sr., concibe el IBM 701 EDPM para ayudar a las Naciones Unidas a controlar a Corea durante la guerra.

1954: El lenguaje de programación FORTRAN, siglas de FORmula TRANslation, es desarrollado por un equipo de programadores de IBM dirigido por John Backus, según la Universidad de Michigan.

1958: Jack Kilby y Robert Noyce develan el circuito integrado, conocido como el chip de computadora. Kilby fue galardonado con el Premio Nobel de Física en el año 2000 por su trabajo.

1964: Douglas Engelbart muestra un prototipo de la computadora moderna, con un ratón y una interfaz gráfica de usuario (GUI). Esto marca la evolución de la computadora de una máquina especializada para científicos y matemáticos, a una tecnología más accesible al público en general.

1969: Un grupo de desarrolladores de Bell Labs produce el UNIX, un sistema operativo que aborda problemas de compatibilidad. Escrito en el lenguaje de programación C, UNIX era portátil en múltiples plataformas y se convirtió en el sistema operativo de elección entre mainframes de grandes empresas y entidades gubernamentales. Debido a la naturaleza lenta del sistema, nunca ganó suficiente atención entre los usuarios domésticos de la PC.

1970: El recién formado Intel lanza el Intel 1103, el primer chip de memoria de acceso dinámico (DRAM).

1971: Alan Shugart lidera un equipo de ingenieros de IBM que inventan el «disquete», permitiendo compartir datos entre computadoras.

1973: Robert Metcalfe, miembro del equipo de investigación de Xerox, desarrolla Ethernet para conectar varios ordenadores y otros equipos.

1974-1977: Varias computadoras personales llegaron al mercado, incluyendo Scelbi y Mark-8 Altair, IBM 5100, la TRS-80 de RadioShack, cariñosamente conocida como «Trash 80» – y el Commodore PET.

El PET (Personal Electronic Transactor) era un ordenador doméstico producido por Commodore a partir de 1977.-

1975: La edición de enero de la revista Popular Electronics presenta el Altair 8080, descrito como el «primer kit de minicomputadores del mundo que rivaliza con los modelos comerciales». Dos geeks informáticos, Paul Allen y Bill Gates, se ofrecen a escribir software para el Altair, utilizando el nuevo lenguaje BASIC. El 4 de abril, después del éxito de este primer esfuerzo, los dos amigos de la infancia forman su propia compañía de software, Microsoft.

1976: Steve Jobs y Steve Wozniak comienzan con Apple Computer el día de los inocentes y lanzan el Apple I, la primera computadora con una placa de un solo circuito, según la Universidad de Stanford.

1977: La producción inicial de RadioShack del TRS-80 fue de solo 3 mil unidades. Sus ventas fueron una locura. Por primera vez, el usuario general podía escribir programas y hacer que una computadora hiciera lo que quisieran.

Por su parte, Jobs y Wozniak muestran el Apple II en la primera feria informática de la Costa Oeste. Ofrecía gráficos en color con una unidad de cassettes de audio para el almacenamiento.

1978: Los contadores se alegran de la introducción de VisiCalc, el primer programa computarizado de hoja de cálculo.

La familia de computadores Apple II fue la primera serie de microcomputadoras de producción masiva hecha por la empresa Apple Computer.-

1979: El procesamiento de textos se convierte en una realidad cuando MicroPro International lanza WordStar. «El cambio definitivo fue añadir márgenes y ajuste de palabras», dijo el creador Rob Barnaby en un correo electrónico a Mike Petrie en el año 2000. «Otros cambios incluyeron deshacerse del modo de comando, agregando una función para hacerlo, dejarlo hecho, y documentarlo».

1981: Se introduce la primera computadora personal de IBM, llamada «Acorn». Utiliza el sistema operativo MS-DOS de Microsoft. Tiene un chip Intel, dos disquetes y un monitor de color opcional. Sears & Roebuck y Computerland venden las máquinas, marcando por primera vez que una computadora esté disponible a través de distribuidores externos. En este momento, también se populariza el término PC.

1983: Lisa de Apple es la primera computadora personal con una GUI. También incluye un menú desplegable e íconos. Fracasa a nivel comercial; pero, eventualmente evoluciona en el Macintosh. El Gavilan SC es la primera computadora portátil con el conocido factor de forma y el primero en ser comercializado como un “laptop”.

1985: Microsoft anuncia Windows, según la Enciclopedia Británica. Esta fue la respuesta de la empresa a la interfaz gráfica de usuario de Apple. Commodore devela el Amiga 1000, que cuenta con avanzadas capacidades de audio y video.

El A1000, o Commodore Amiga 1000, fue el primer modelo de computador personal multimedia de Commodore.-

1985: El primer nombre de dominio «.com» se registra el 15 de marzo, años antes de que la World Wide Web marcara el comienzo formal de la historia de Internet. La Symbolics Computer Company, un pequeño fabricante de computadoras de Massachusetts, registra Symbolics.com. A un poco más de dos años, solo se habían registrado 100 dominios.

1986: Compaq lleva el Deskpro 386 al mercado. Su arquitectura de 32 bits proporciona una velocidad comparable a la de los mainframes.

1990: Tim Berners-Lee, investigador del CERN, el laboratorio de física de alta energía de Ginebra, desarrolla el HyperText Markup Language (HTML), dando lugar a la World Wide Web.

1993: El microprocesador Pentium avanza en el uso de gráficos y música en PCs.

1994: Las PCs se convierten en máquinas de juego como Command & Conquer, Alone in the Dark 2, Theme Park, Magic Carpet, Descent y Little Big Adventure, junto a otros hit del mercado.

1996: Sergey Brin y Larry Page desarrollan el motor de búsqueda de Google en la Universidad de Stanford.

1997: Microsoft invierte 150 millones de dólares en Apple, poniendo fin al juicio de Apple contra Microsoft en el que alegaba que la empresa dirigida por Bill Gates había copiado la «apariencia» de su sistema operativo.

Sergey Brin y Larry Page desarrollan el motor de búsqueda de Google en la Universidad de Stanford.-

1998: El sistema operativo Windows 98 de Microsoft domina gran parte del sector de administración y uso personal. También Apple presenta su exitoso iMac G3, el primer Macintosh en prescindir de la unidad de disco flexible (disquetera) y del Apple Desktop Bus para incluir puertos USB, el único hasta esa fecha en estar disponible en una amplia gama de colores. Ejecutaba el sistema operativo Mac OS 9 y posteriormente utilizó Mac OS X v10.1 luego de su lanzamiento.

1999: El término Wi-Fi se convierte en parte del lenguaje informático y los usuarios comienzan a conectarse a Internet sin cables.

Siglo XXI

2001: Apple presenta el sistema operativo Mac OS X, que ofrece una arquitectura de memoria protegida y multitarea preferencial, entre otros beneficios. Para no quedarse atrás, Microsoft lanza Windows XP, que tiene una GUI significativamente rediseñada.

2003: El primer procesador de 64 bits, Athlon 64 de AMD, se pone a disposición del mercado consumidor.

2004: Mozilla Firefox 1.0 desafía el popular Microsoft Internet Explorer, el navegador web dominante. Facebook, -un sitio de redes sociales-, se lanza.

2005: YouTube, un servicio de video compartido, es fundado. Google adquiere Android, un sistema operativo para teléfonos móviles basado en Linux.

2006: Apple presenta el MacBook Pro, su primera computadora móvil con núcleo dual basado en Intel, así como un iMac basado en Intel. También la consola Wii de Nintendo llega al mercado.

2007: El iPhone llega al mercado, con muchas funciones de computadora abriendo paso a la era del smartphone.

2008: El supercomputador IBM Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.

El primer iMac de Apple gozó de gran popularidad debido a su estética alternativa, diferenciándose del resto de computadoras personales del mercado.-

2009: Microsoft lanza Windows 7, que ofrece la posibilidad de asignar aplicaciones a la barra de tareas y avances en el reconocimiento táctil y de escritura, entre otras características.

2010: Apple revela el iPad, cambiando la forma en que los consumidores ven los medios de comunicación y lanzan el segmento de computadoras tipo tablet.

2011: Google lanza la Chromebook, una computadora portátil que ejecuta el sistema operativo Google Chrome.

2012: Apple Inc., lanza al mercado la nueva MacBook Pro Retina Display, con la mayor resolución en pantalla del mundo.

2013: Microsoft lanza al mercado la versión Windows 8.1; por su parte, Apple Inc., lanza también la nueva versión Mac OS X Mavericks 10.9.

2014: Apple Inc., presenta su versión de “smartwatch» cuyo nombre es Apple Watch.

2015: Microsoft lanza al mercado la versión Windows 10.

2016: Se creó el primer ordenador cuántico reprogramable. «Hasta ahora no ha habido ninguna plataforma de computación cuántica que tuviera la capacidad de programar nuevos algoritmos en su sistema, sino que cada uno de ellos está adaptado para atacar un algoritmo particular», dijo el autor principal del estudio, Shantanu Debnath, físico cuántico y ingeniero óptico en la Universidad de Maryland, College Park.

2017: La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) está desarrollando un nuevo programa de «Informática Molecular» que utiliza moléculas como computadoras. “Chemistry ofrece un rico conjunto de propiedades que podremos aprovechar para el almacenamiento y el procesamiento de información rápida y escalable», dijo Anne Fischer, directora de programa de la Oficina de Ciencias de Defensa de DARPA, en un comunicado. «Millones de moléculas existen, y cada molécula tiene una estructura atómica tridimensional única, así como variables como la forma, tamaño o incluso el color. Esta riqueza ofrece un amplio espacio de diseño para explorar nuevas formas y múltiples valores para codificar y procesar datos más allá de los 0s y 1s de las actuales arquitecturas digitales basadas en lógica».

2018: En enero se hace público el conjunto de vulnerabilidades críticas de seguridad Meltdown y Spectre que afecta a la mayoría de procesadores del mercado; por su parte, en el mes de octubre, Apple lanza los modelos iPhone Xs, iPhone Xs Max y iPhone Xr.

2019: IBM presenta su primera computadora cuántica comercial, la IBM Q System One, de la mano de Map Project Office y Universal Design Studio. También revela su computadora cuántica más grande de 53 cúbits. 

Por su parte, Nike Dattani y sus colaboradores descifran la arquitectura de Pegasus de D-Wave y hacen que su descripción esté abierta al público; asimismo, físicos austríacos demuestran la simulación cuántica variante, autoverificante, híbrida de modelos de red en materia condensada y física de alta energía utilizando un circuito de retroalimentación entre una computadora clásica y un coprocesador cuántico.

2020: Honeywell anuncia el lanzamiento de una computadora cuántica con un volumen cuántico de al menos 64, el doble de la próxima alternativa en la industria. Los investigadores de Honeywell han pasado más de una década trabajando en formas de ayudar a diseñar y acelerar el desarrollo de la computación cuántica.

Con información de: livescience – Artículo original por Charles Q. Choi / Wikipedia / Greencarcongress

  • Me encanta68
  • Me divierte12
  • Me asombra21
  • Me entristece12
  • Me enoja94



Es tendencia