
Cómo la hiperconvergencia y las plataformas de Cloud computing afectan el performance y la configuración de los datacenter
Realmente es difícil mantenerse al día en este dinámico mundo de la tecnología que cambia rápida y constantemente. La Hiperconvergencia es la nueva palabra de moda en el sector del Datacenter. La Tercera plataforma; el Internet de las cosas; el almacenamiento basado en objetos; el Datacenter definido por Software; en fin, todas estas tendencias están marcando el comienzo de una nueva era en TI, donde las organizaciones de todo el mundo están tratando de adaptarse y convertirse en el más eficiente en IT para poder vencer a su competencia.
Pero ¿Cuál es la tecnología más adecuada que debe adoptar una organización para lograr el éxito? ¿Realmente vale la pena adoptarlas o simplemente son modas pasajeras adornadas con términos de marketing que los vendedores de tecnología usan para enganchar grandes contratos?
La mayoría de los avances en tecnología son fundamentales para acelerar la dinámica, ayudando a mejorar los costos y la velocidad de adopción de los despliegues de tecnología.
Un buen ejemplo, de esto fue el desarrollo de los primeros ordenadores, que al ser construidos en torno a la tecnología existente en ese momento, cuyos circuitos se basaban en tubos de vacío, su tamaño y costo no eran accesibles para la mayoría de las empresas.
La invención del transistor de silicio cambió todo el panorama, permitiendo equipos más potente y mucho más pequeños en comparación con sus gigantes predecesores. La gran ventaja de esta nueva tecnología además de rapidez y menor tamaño, es que permitió reducir los costes de fabricación y se hace menos costoso comprar. ¡Es difícil conseguir alguna otra solución que además de mejorar en el tiempo, se haga cada vez más accesible en coste!
Históricamente, las tendencias de la implementación de tecnología vienen en oleadas, y tienden a darse en ciclos de distribución y convergencia. Si usted tiene algo de experiencia en la industria de TI, muy probablemente sepa a lo que me refiero.
Tomemos, por ejemplo, las tendencias actuales de la hiperconvergencia y la nube. Lo último en hiper-convergencia es: la computadora central (All in one), y lo último en distribución es la nube. ¿Cuál es la mejor manera de avanzar? ¿Se convertirá la nube en el nuevo estándar en la implementación de TI?, o la tendencia irá hacia la hiperconvergencia donde el administrador deseará tener más control de sus sistemas y datos. Es necesario comprender la historia de las TI para emitir juicios.
El primer desarrollo fueron los famosos «Mainframe Computers» donde se centralizó el poder de cómputo, pero los usuarios finales utilizaban terminales «tontos» de pantalla verde para acceder a la computadora central a través de la red. Muchas empresas utilizaban el tiempo compartido en la red para tener acceso a la computadora central y ejecutar sus aplicaciones en particiones lógicas, o dentro de una porción de tiempo virtual asignado a su proceso. (Suena un poco como la nube, ¿Ahh?) Los Mainframes eran muy cosotoso, por lo que sólo estaban disponibles para un grupo selecto de organizaciones con bolsillos muy grandes.
Luego vino el mini-ordenador desarrollado por la Digital Equipment Corp, que ofrecía un pequeño datacenter al alcance de casi cualquier negocio. Un tiempo después explotó el boom del PC, que trasladó el poder de cómputo más cerca de los usuarios finales, y así nació la computación distribuida.
Microsoft y Novell impulsaron la adopción de la pequeña informática basada en servidor y la agrupación, lo que permitió a Compaq y Dell ganar cuotas de mercado, conviertiendo al mini-ordenador en irrelevante. Durante esos días, el almacenamiento se adquiría como parte del sistema, los usuarios descubrieron que buena parte de los datos quedaban «varados» dentro de los servidores, dando inicio al (SAN: Storage Area Networking).
Los ordenadores de escritorio estaban por todas partes, las redes tenían que mantenerse al día con todo el tráfico entre los usuarios de PC y los servidores, la red de almacenamiento era diferente de la red IP, por lo que se requierían múltiples equipos para manejarlo todo.
Todas las noches eran necesario hacer copias de seguridad de todos los datos, tanto en los PC como en los servidores; la gran cantidad de componentes, los sistemas distribuidos y el almacenamiento se convirtieron en una pesadilla para la gestión.
Fue entonces cuando «utility computing» entró en escena, y los términos SaaS (Almacenamiento / Software as a Service) fueron inventados. Las empresas migraron de un modelo de compra, construcción y gestión hacia un modelo de contrato de arrendamiento y de ejecución (lease and run model);
Todo esto fue por la época en la que Internet despegó y nació la era punto com; mucho antes de que la virtualización entrara en vigor, las empresas pensaban que lo que necesitaban eran servidores y almacenamiento de determinados fabricantes. Los costos de red y hardware siguieron subiendo hasta que finalmente todo se vino abajo con un ruido sordo como el estallido de la burbuja punto com.
Todo el mundo se fue de nuevo al modelo tradicional de compra y acumulación, gastando miles de millones en el desarrollo y la racionalización de los grandes poderosos centros de datos consolidados. Entonces la tecnología de virtualización llegó a quedarse y lo cambió todo.
La virtualización permitió a los administradores de datacenters consolidar y diversificar sus sistemas de computo y almacenamiento de nuevo con distintos fabricantes. Esto permitió que tanto el flujo de datos como el de aplicaciones mejorara notablemente, permitiendo así el inicio de la nube.
Las plataformas de Cloud Computing, permitieron regresar al modelo de servicio para volver a estar de moda, por lo que una vez más las empresas comenzaron la externalización de sus IT. Ahora los proveedores de la nube están tratando de reducir los costos al consolidar aún más, lo que nos lleva de nuevo a la hiperconvergencia.
El siguiente paso lógico en esta dirección nos redirecciona a la década de 1970 y al mainframe. ¿Usted ve la tendencia de cómo la industria oscila entre los conceptos de computación distribuida y centralizada (basada en red)?. Es como el latido del corazón de un ser vivo. Durante todo este período, con la invención del protocolo HTTP y World Wide Web, Internet nació, se desarrolló, y ahora se ha convertido casi en el cerebro de la humanidad.
Internet se ha convertido en la red neuronal de la humanidad, lo que eventualmente contendrá pensamientos y recuerdos de todo el mundo en forma de tweets, vídeos y fotos (junto con la ventaja añadida de ser capaz de buscar cosas!)
Los avances de la tecnología están cambiando el mundo. Note lo rápido que hemos pasado del PC, al ordenador portátil, a las tabletas, y ahora los teléfonos inteligentes. La tecnología es la única zona que conozco donde las cosas se venden más baratas a medida que se hacen más pequeñas y más potentes.
El poder de procesamiento se ha movido desde el mainframe hasta el límite con pequeños dispositivos de gran alcance, pero parece que el poder real está en movimiento una vez más hacia un modelo hiperconvergente centralizado alrededor de la red, donde los datos se convierten en información y se almacena para que todos los vean .
Al final, podremos ver una combinación híbrida de los centros de datos hiperconvergentes con el poder detrás de una red basada en la nube altamente distribuida. Sólo el tiempo lo dirá.