1.2. Breve historia de la computación
Podemos remontarnos varios siglos a la hora de rastrear los primeros trazos de tecnologías que han contribuido al desarrollo de la computación (calculadoras, autómatas…), pero no será hasta entrado el siglo XX cuando nos encontramos con el primer ejemplo de lo que hoy conocemos como ordenador. Se trata del proyecto ENIAC (Electronic Numerical Integrator And Calculator), desarrollado durante los años cuarenta y que es el primer ejemplo de computadora electrónica de uso general. Al contrario que máquinas predecesoras que estaban diseñadas para resolver problemas específicos (como la Colossus en la que trabajó Alan Turing para descifrar las comunicaciones alemanas durante la Segunda Guerra Mundial), ENIAC se podría configurar para llevar a cabo distintas labores, se podría reprogramar. Para ello, era necesario recablear la máquina desde cero, por lo que el proceso era bastante tedioso, más aún si tenemos en cuenta que pesaba casi treinta toneladas y ocupaba un sótano entero de la Universidad de Pensilvania.

Fuente: Wikipedia.
A finales de los años cuarenta se desarrolló la SSEM (Manchester’s Small Scale Experimental Machine), cuya principal innovación consistía en que podía almacenar programas en su memoria.
Durante los años cincuenta del siglo pasado se produjeron muchas otras innovaciones, entre estas la creación de la computadora LEO I, la primera pensada para uso comercial (se encargaba de realizar inventarios, elaborar pedidos o calcular necesidades de producción). También en estos años se empiezan a desarrollar los primeros lenguajes de programación de alto nivel, que permiten crear programas usando un lenguaje más «humano», algo en lo que profundizaremos en los siguientes temas.
En los años sesenta podemos destacar la creación del lenguaje BASIC, puerta de entrada a la programación para múltiples generaciones. También la llegada del Apollo XI a la Luna gracias a 145.000 líneas de código o la conocida como MOAD (Mother Of All Demos), una presentación de Douglas Engelbart de 1968 donde muestra de manera visionaria tecnologías que serán clave en los años venideros, como el ratón, la videoconferencia, los entornos colaborativos, los procesadores de texto o los hipervínculos.

Fuente: Ars Technica.
Los años setenta verán el nacimiento de, entre otras cosas, el primer producto de Microsoft, el lenguaje C, el sistema operativo UNIX (en el que se basan Linux y MacOS) o el primer videojuego (PONG). Sin embargo, por encima de todas estas innovaciones debemos destacar la irrupción de los microprocesadores, que permitirán que los componentes electrónicos se miniaturicen y sean más baratos, lo que posibilitará la entrada de los ordenadores al ámbito doméstico.
La década de los ochenta será la del PC (personal computer), con ordenadores personales entrando en miles de hogares de la mano de empresas como Apple, Amstrad o Sinclair con su Spectrum. Durante esta época también se asienta el modelo de interfaz basada en ventanas que usamos hoy día y nacen tecnologías como el CD-ROM o la WWW (World Wide Web).
Internet será el gran protagonista de los años noventa, con navegadores como Netscape y la irrupción de Google en 1997. Otras tecnologías, como el formato JPG para comprimir imágenes, serán consecuencia del crecimiento del uso internet y de la creciente demanda de contenido audiovisual.
En la primera década del siglo XXI, dos de los hitos más destacables son la popularización de los teléfonos inteligentes (primer iPhone en 2007) y el desarrollo de lo que se conoce como la web 2.0, la internet social (Facebook nace en 2004).
Quizá sea pronto para juzgar con perspectiva, pero en la década pasada también hemos visto grandes innovaciones. ¿Cuáles diríais que han tenido mayor impacto? Dejad vuestro comentario en el foro «Hitos de la computación 2010-2020», habilitado en el aula.