Computación en la nube y su historia
Los comienzos de la computación en la nube nos llevan a los nombres de Herb Grosh, J.C.R Licklider y John McCarthy, quienes fueron los primeros en manejar estos conceptos.
El primer y gran aporte a la computación en la nube lo dio Herb
Grosh, el cual afirmó más o menos por la década de 1950 que las economías se
podrían adaptar mejor si confiaban en el almacenamiento de datos centralizado,
mas no en equipos individuales con almacenamiento de unidades.
Unos años después John McCarthy introdujo el concepto de
inteligencia artificial, en el que mencionó la idea de tiempo compartido, que
entre los años 1960 y 1970 fue usado en oficinas de Estados Unidos al dar
servicios de computo y transferencia por horas. Parecido a lo que hace Amazon AWS o Google Cloud actualmente.
Al poco tiempo, J.C.R Licklider incluyó el concepto de red de
computadoras, que son las que se utilizarían más adelante para dar información
a los diferentes usuarios. Licklider llamaba
a esta red conectada de equipos como «Red Galáctica».
El término «nube» se usa como una metáfora de Internet,
basado en el dibujo de nubes utilizado en el pasado para representar a la red
telefónica, y posteriormente para representar a Internet en los diagramas de
red de computadoras como una abstracción de la infraestructura subyacente que
representa.
En 1970 inició el concepto de máquinas virtuales (VM), que
gracias al uso de aplicaciones de virtualización hizo que fuera posible
ejecutar varios sistemas operativos en un solo equipo informático. Después, la
agencia DARPA del Departamento de Defensa de EE.UU comenzó a dar vida al
proyecto ARPANET, que ulteriormente daría origen al Internet moderno que
tenemos hoy en día.
Las
primeras máquinas virtuales
Las máquinas virtuales fueron muy populares durante los 70’s,
pero su uso prácticamente desapareció en la época de 1980 a 1990. Con la
llegada de las primeras computadoras personales en 1980 comenzó la revolución
de la informática, y este campo creció exponencialmente hasta nuestros días.
En su libro «El desafío de la utilidad de la computadora»,
Douglas Parkhill empezó a explorar lo que después serían las características
fundamentales de la computación en la nube, como por ejemplo la elasticidad de
recursos de las máquinas virtuales. En ese mismo año, 1996, Sean O’Sullivan y
George Favaloro, altos directivos de Compaq, fueron quienes por primera vez
usaron el término «cloud computing» (computación en la nube).
Cloud computing moderno
Con la década de 1990 y luego la expansión de Internet hacia
todo el mundo, se gestaron las primeras bases de la virtualización ofrecida por
empresas de web hosting, para que más adelante diferentes empresas las usaran
de forma masiva hasta el 2000, donde la computación en la nube comenzó a tomar
mejor forma cuando apareció en 2002 Amazon Web Services, Google Cloud en 2006.
Ya en el 2010 fue cuando tuvo su mayor auge y se volvió más
masivo con populares servicios como el iCloud de Apple o Windows Azure de
Microsoft. En diciembre de 2011 la Unión Europea financió el llamado VISION
Cloud, un proyecto que perseguía el objetivo de brindar una arquitectura e
implementación de infraestructura de almacenamiento virtualizada.
Al siguiente año se publicó un software denominado
«Meghdoot», desarrollado por el Centro de desarrollo para Computación Avanzada
open source y totalmente alojado en la nube, y ya en el 2013 se lanzó el
proyecto BonFire con un centro de pruebas y experimentación en la nube, la cual
permitiría el posterior acceso a recursos cloud, para poder seguir a futuro
desarrollando, diseñando y observando las tecnologías en la nube.
Y la nube sigue creciendo cada día, todos los servicios lo
integran y hacen uso de él, está presente en las redes informáticas, en tu
tablet, en el smartphone que tienes en la mano, y hasta en tu reloj
inteligente. ¿Llegará un punto en que la nube dejará de estar de moda o llegó
para quedarse para siempre?
Tomado de: https://blog.infranetworking.com/computacion-en-la-nube-la-historia/

No hay comentarios.:
Publicar un comentario