Síguenos:
Cloud
20 de Febrero de 2017

Cloud computing, ¿el final de una era?

Cloud computing, ¿el final de una era?

Cloud computing, ¿el final de una era?

Escrito por , 20/02/2017

Una de mis películas favoritas es Regreso al futuro. Hace poco vi de nuevo la imagen del marcador del DeLorean conducido por Marty McFly en su primer viaje al futuro. Han pasado treinta años de mi vida y, comparado con la historia de la humanidad, puede ser poco, pero en el mundo de las TIC este periodo de tiempo se corresponde prácticamente con la historia en mayúsculas del sector.

Si pensamos en esa primera fecha del 26 de octubre de 1985, muchas de las empresas tecnológicas que lideraban la revolución del ordenador personal, Commodore, Spectrum o Amstrad, estaban en su más tierna infancia y muchas de ellas no llegaron a la edad adulta, desaparecieron frente a la competencia feroz de los ordenadores clónicos y los procesadores x86 de Intel. Hoy en día son solo un recuerdo de nuestra más tierna infancia. Ciertamente la estandarización de los ordenadores personales aceleró este mercado. Es llamativo que si comparamos la capacidad de integración de los transistores de un Intel 386 frente al procesador que incorpora hoy un i Phone 7 estemos hablando de 12.000 veces la capacidad de hace treinta años.

Pero, como decía Charles Darwin, “la historia se repite, es uno de los errores de la historia“, y en tecnología este axioma no es menos cierto. La computación y el uso de los recursos TIC siempre ha oscilado de un extremo al otro, desde el data center al dispositivo del usuario final y destaco la palabra dispositivo porque hoy en día, dado al crecimiento exponencial de Internet de las cosas (IoT), ya no podemos hablar de que los ordenadores personales o los móviles sean el elemento final de la cadena de consumo de las TIC.

Durante tres décadas los ingenieros hemos intentado ir adaptando la tecnología para esquivar los diferentes cuellos de botella que el estado del arte nos presentaba, y podemos hablar de tres etapas:

  • Una primera, de los años sesenta a los ochenta, en la que el mainframe y los terminales tontos con pantalla verde eran los que permitían ejecutar el procesamiento por lotes en bancos, universidades, etc.
  • En los años ochenta comienza una nueva etapa cliente-servidor que, junto a la revolución y popularización de la web, consiguió extenderse hasta finales de siglo. Marcó un nuevo desarrollo tecnológico en torno a las tecnologías de la computación y el almacenamiento de datos.
  • La tercera fase llegó gracias a la popularización de los dispositivos móviles y a cloud computing, lo que supuso la industrialización del negocio de la computación y el almacenamiento de datos, así como los entornos de desarrollo y consumo de servicios finales desde la red, como el correo electrónico.

En mi humilde opinión, en este momento estamos en los albores de una nueva etapa. La generalización y el uso masivo de los dispositivos móviles y de los servicios cloud es tal, que las necesidades actuales están ampliamente cubiertas, pero no es así para los nuevos retos que plantea IoT. La cantidad de datos que se manejarán y transmitirán desde estos dispositivos hará inviable que la tecnología que hoy conocemos y da soporte a los grandes proveedores de cloud computing sea capaz de atender las nuevas necesidades que están surgiendo: el coche autónomo, chat-bots, drones…

Hace poco me sorprendió leer “Data will kill the cloud” (“La información acabará con la nube”). Y me hizo reflexionar sobre si cloud, como lo conocemos hoy en día, será capaz de atender todas las demandas y necesidades tecnológicas que los nuevos desarrollos implicarán. Y creo que hay que matizar la afirmación, ya que los datos no serán el problema, sino que éste radica en la gestión de capacidad. Desde mi punto de vista el cuello de botella vuelve a estar en la red, y no porque el desarrollo de la tecnología de transmisión no vaya acorde a las demandas del mercado, sino por el alto grado de centralización que los servicios cloud tienen en la actualidad.

Como escribía en un post anterior, para mí la próxima era estará marcada por el edge computingla inteligencia artificial y el machine learning. Y es que en este momento la latencia es el eslabón más débil de la cadena en el proceso de la toma de decisiones de un coche autónomo, por ejemplo: el vehículo no puede esperar que la información atraviese la red, llegue al data center y vuelva, para resolver una decisión que requiere de milisegundos, como evitar el atropello de un peatón.

La realidad es que los coches autónomos y, en general, la gran mayoría de los dispositivos IoT acabarán convirtiéndose en data centers móviles capaces de analizar los datos de su entorno vía sensores y cámaras, para inferir cuál es la realidad y poder, gracias al machine learning y la inteligencia artificial, tomar decisiones de forma inmediata. Luego habrá un segundo nivel en el que se procesarán datos de manera distribuida en la capa del edge para aquellos servicios no tan críticos pero muy dependientes de la latencia y, por último, lo que hoy conocemos como cloud se convertirá en un repositorio global de información relevante, con patrones de información, reconocimiento y aprendizaje que se irán alimentando desde el resto de capas.

Pero, como bien decía Peter Drucker, la mejor manera de predecir el futuro es crearlo.

Imagen: faungfupix/shutterstock

Sobre el autor

Alejandro de Fuenmayor

Alejandro de Fuenmayor

Ingeniero de Telecomunicación y MBA, apasionado de la música, el deporte y la tecnología. Vivo en las nubes desde hace ya unos cuantos años. Convencido de que las TIC tienen que hacernos la vida aún más divertida.
Ver todos sus artículos »