Hybrid cloud

Hybrid cloud

¿Por qué algunos vendedores no pueden vender OpenStack para empresas?

Etiquetas: , Cloud Infrastructure, Hybrid cloud No comments
featured image

Descubra por qué algunos vendedores no pueden contar una historia convincente para vender OpenStack que pueda concretar contratos firmados en el sector de empresas

En casi todos los eventos OpenStack que he tenido oportunidad de asistir, se ha repetido una patrón similar:  existe un muy fuerte deseo de penetrar en el mercado empresarial, el cual según mi opinión, pareciera ser el reto más difícil para los vendedores que gravitan alrededor del ecosistema OpenStack; la mayor parte de  ellos no saben cómo articular una historia convincente para vender OpenStack y ganar el mercado de empresas; creo que simplemente no saben cómo venderlo.

No creo en la histeria generada por la prensa ni el marketing, que sostiene que la penetración de OpenStack en el gran mercado de la empresa es mínimo. Como todo en la vida, existen excepciones a la regla, como lo demuestra el famoso caso de estudio de PayPal.

Sin embargo PayPal no representa el típico caso del banco, ni de la empresa de seguros, o inclusive de la organización de atención médica promedio. Al revisar los casos de éxito de la página de OpenStack, encontrará un montón de referencias de clientes muy bien documentadas, pero no las del segmento empresarial tradicional que son precisamente la que los vendedores buscan.

¿Entonces por qué los vendedores no saben cómo vender OpenStack y no pueden contar una historia sobre OpenStack que logré convencer a los miembros de IT y CEO de las empresas a tomar una decisión favorable?

Existen al menos cuatro razones:

1) La falta de claridad acerca de lo que realmente OpenStack  hace y lo que no hace.

Durante los últimos años, la prensa especializada erróneamente ha posicionado OpenStack como una alternativa a las soluciones comerciales que Gartner ha denominado  plataformas de gestión de nube (CMPS).

Desde el punto de vista arquitectónico y funcional, OpenStack debe considerarse como una CMP comercial para aquellas empresas que necesitan una sólida gestión de procesos, una sofisticada capacidad de gestión y posibilidades avanzadas de automatización.

Subbu Allamaraju (Ingeniero Jefe de eBay a cargo de la nube privada OpenStack) opina que: OpenStack es un software de controlador de la nube. Aunque la comunidad hizo un buen trabajo en la elaboración de este software, una instancia de una instalación OpenStack no hace una nube. Como operador que tendrá que lidiar con muchas actividades adicionales los cuales no todos los usuarios ven, incluyendo infraonboarding; boostrapping; remediación, gestión de configuración, parches, embalaje, actualizaciones, alta disponibilidad, monitoreo,  métrica, soporte a usuarios, previsión de capacidad y gestión, facturación, regeneración, seguridad, cortafuegos, DNS, integración con otras herramientas de infraestructura interna o herramientas, por ejemplo… Estas actividades consumen una cantidad significativa de tiempo y esfuerzo; OpenStack da algunos elementos clave para construir una nube, pero per sé no es la nube en una caja”

Es aceptable que la prensa no pueda establecer las diferencias tanto arquitectónicas como funcionales entre OpenStack y los CMP comerciales dirigidos al cloud computing privado. Pero los vendedores si conocen esta diferencia. Nadie (o probablemente muy pocos de forma tímida) en los últimos años han dicho claramente lo que OpenStack puede y no puede hacer por una empresa.

El resultado neto es que la gran mayoría de las consultorías con empresas interesadas en conocer más sobre OpenStack se centran en aclarar la arquitectura y el conjunto de características en comparación con soluciones como VMware vCloud Suite o BMC Cloud Lifecycle Management.

Por el contrario, el marketing ha estado centrado en la construcción de  una asociación muy vaga entre OpenStack y el concepto general de “la nube”. Nadie reconoce que OpenStack puede resolver un conjunto específico de los problemas relacionados con la construcción de una nube, pero no todos ellos.

Las empresas no hacen negocios con proveedores que no pueden presentar claramente su propuesta de valor, en la que describa cuál es el problema que resuelven y por qué lo resuelven mejor que otros.

2) La falta de transparencia acerca del modelo de negocio en torno a OpenStack.

No tengo dudas de que algunas personas realmente creen en la promesa de OpenStack y su potencial a largo plazo, por ejemplo: la nube hibrida.

La mayoría de los vendedores emplean OpenStack con fines de lucro. Es conveniente identificar cual de los siguientes esquemas, o combinación de ellos, aplican:

  • Algunos vendedores pueden beneficiarse de la complejidad de OpenStack mediante la venta de servicios profesionales de consultoría.
  • tros se benefician de la falta de funcionalidades de clase empresarial de OpenStack orientando a los clientes a sus soluciones CMP comerciales.
  • odos los proveedores se benefician de la naturaleza de código abierto de OpenStack, ofreciendo soporte a nivel empresarial más allá del ciclo de vida de 6 meses de cada versión de OpenStack.
  • e igual manera todos los proveedores toman ventaja de OpenStack, se apalancan en aprovechar los administradores de recursos proporcionados por otros proveedores, en lugar de desarrollar sus propios puntos de integración. Es un enorme costo de I + D que se descarga en la comunidad OpenStack.
  • Las empresas tienen que entender la viabilidad a largo plazo de las tecnologías que consideren para su adopción. Sin un modelo de negocio claro la empresa no puede avanzar de manera eficiente.

3) La falta de visión y la diferenciación a largo plazo.

Es fundamental tener claro el perfil del mercado de plataformas de gestión de la nube junto a la segmentación al momento de vender OpenStack

¿Qué valor añaden al código de OpenStack vainilla que las empresas pueden (pero no quieren) bajar por sí mismos? ¿Cuál es la diferencia entre todas estas distribuciones?

Para demasiados, todo se trata de número de contribuyentes de código y simplificar el proceso de instalación, en este orden exacto.

El número de contribuyentes de código no dice nada acerca de la visión de los vendedores y la diferenciación a largo plazo. ¿Cuántos desarrolladores contribuyen a una CMP comercial? ¿Importa si el producto no resuelve las necesidades de hoy y mañana que una organización tiene? Andrew arcilla Shafer, ex VP de Ingeniería de CloudScaling (un Usuario Dorado Fundación OpenStack), lo llamó vanidad de métricas.

Los Problemas de instalación de OpenStack no son nada nuevo, y es de alguna manera chocante que después de varios años siga siendo tan complejo de instalar. Es lógico pensar que si el proceso de instalación fuera mas sencillo eso permitiría aumentar las ventas ¿seguro?.

¿Alguna vez ha instalado VMware vCloud Suite? O BMC Nube Lifecycle Management? O Cisco suite Automatizado de Nubes? O Microsoft System Center? O IBM SmartCloud Orchestrator? O HP Cloud Service Automation? O CA automatizada Suite para la nube?

La mayoría de estos CMP comerciales son sistemas de múltiples niveles super complicados. En algunos casos, el proveedor requiere servicios profesionales incluso sólo para desplegarlas. Sin embargo, las grandes empresas siguen comprando, estos productos, que les permiten construir sus nubes privadas. Las organizaciones empresariales exigen simplificación de software, pero si un proceso de instalación más sencillo es el único valor que un proveedor OpenStack puede ofrecer, no resulta realmente impresionante.

Cuando las grandes empresas deciden construir una nube privada, se comprometen a un largo y complejo proceso de implantación que suele durar  varios años, e implica altas inversiones.

En consecuencia, las organizaciones deben evaluar la viabilidad a largo plazo (es decir, aspectos como: Adquisición; posibilidad de quiebra;  cambios radicales de la dinámica de mercados, entre otros) referentes al proveedor seleccionado, y como su visión se alinea con los aspectos relacionados con los objetivos del negocio.

Las empresas no compran una solución tecnológica basándose en torno a cuán grande es la instalación del software y cuantas líneas de código usted es capaz de escribir…

4) La falta de pragmatismo.

Los vendedores de soluciones OpenStack puristas siguen diciendo que OpenStack no puede ser un entorno de nube de propósito general.

Este grupo, pequeño por demás; es el que ignora cómo muchas grandes empresas siguen solicitando información sobre lo que OpenStack es y cómo lo podrían aprovechar para reducir su dependencia de VMware.

Esta facción también ignora la complejidad y la cantidad de tiempo que la organización empresarial debe dedicar para adoptar los patrones del  entorno cloud.

Irónicamente, esta facción incluye a actores que no pierden el tiempo en criticar a los proveedores de virtualización o de gestión empresarial establecidos por no ofrecer “verdaderas” soluciones en la nube. Sin embargo, los clientes empresariales siguen comprando “no verdaderas” soluciones cloud, por este motivo, la adopción de OpenStack en este segmento del mercado sigue siendo mínima.

A las empresas no les gustan aquellos vendedores que demuestran falta de conciencia acerca de los problemas técnicos, organizativos, culturales y políticos que afectan a sus entornos. ¿Cómo pueden estos vendedores ser buenos socios de negocios?

cta-origin-stacks-1024x445

El verdadero coste de la hiperconvergencia

Etiquetas: Hybrid cloud 6 comments
featured image

Cuentas claras: el precio de la hiperconvergencia

En esta ocasión me voy a permitir la licencia de tomar prestadas, traducir y glosar algunas partes del post de Howard Marks en Network Computing con la sana intención de ofrecer alternativas viables desde el punto de vista económico y mucho más ajustadas a nuestro mercado que las propuestas basadas en EVO:RAIL, Simplivity, Nutanix y otros sistemas de hiperconvergencia del mercado.

“Está bien que un EVO:RAIL disponga de cuatro servidores el almacenamiento necesario para las máquinas virtuales de los servidores, pero 180.000 euros me parece un precio un poco excesivo.”

Si nos centramos en el modelo de hiperconvergencia, que ya hemos tratado en otros posts, estaríamos hablando de sistemas de hardware commodity compuestos por servidores con almacenamiento interno que mediante soluciones de software conforman un proveedor de recursos de virtualización o incluso una cloud privada, dependiendo de las funcionalidades que incorpore.

Siguiendo esta definición, sería plausible pensar que este tipo de soluciones deberían ser más económicas que las soluciones convergentes, que tienen más componentes físicos y específicos de cada fabricante, e incluso más económicas aún que las soluciones Taylor-made creadas con lo mejor de cada casa.

Pues bien, una vez sentadas las premisas, veamos el análisis de Howard Marks para NetworkComputing.com

“…pero cuando nos ponemos a averiguar si -como los defensores alegan- los sistemas de hiperconvergencia en realidad son menos costosos que sus equivalentes convencionales, lo que encontramos fue todo lo contrario.

Cuando quisimos confirmar que EVO:RAIL efectivamente costaba los 175.000 euros que habíamos escuchado, nos fue imposible conseguir información detallada para los modelos de Dell o de EMC. Sí conseguimos un anuncio en Internet ofreciendo por 150.000 euros la solución Supermicro SYS-2027TR-VRL002. Aunque es 20% menos que lo que hablamos escuchado al principio, aún queríamos saber si se trataba de una buena oferta.

Tras un par de horas de búsqueda en Internet fuimos capaces de sumar cuánto costaría construir un sistema al estilo EVO:RAIL; evidentemente sin la misma interfaz y el resultado fue de unos 22.000 euros.

En este sentido, hemos visto que la interfaz de usuario de EVO:RAIL es realmente útil, especialmente a la hora de instalar el sistema; sin embargo, sospechamos que una vez que el sistema está listo y andando, lo más probable es que cualquier administrador prefiera utilizar el vCenter client, que la interfaz de usuario de EVO:RAIL.

También fuimos a la página web de Dell donde configuramos un servido R720, 2U para montaje en rack, con los procesadores, memoria y almacenamiento equivalente a un nodo EVO:RAIL. El precio de esto sumó poco más de 9.000 euros, aproximadamente 36.000 en el caso de un conjunto de cuatro.”

En cuanto a software

Una vez encontradas un par de opciones de precio para el hardware, Howard analiza la pila de software.

“EVO:RAIL incluye un interesante paquete de software, que está compuesto por vSphere, una edición de Enterprise Plus, la aplicación de vCenter Server, VSAN, Log Insight, y, por supuesto, las herramientas de EVO:RAIL para manejo e instalación.

Nos fue un poco difícil asignar un valor a Log Insight, porque todos los centros de datos suelen disponer de una solución de captura y análisis de Logs, y Log Insight es muy buena, sin embargo, si ya usas Splunk o SumoLogic, puede que no tengan sentido los 220 euros que piden por cada dispositivo.

En cualquier caso, suponemos que vamos a utilizar Log Insight para 100 dispositivos, por lo que el el costo total del software equivalente a EVO:RAIL sería de de poco menos de 81.000 euros; Sumando hardware y software tendríamos un precio total por encima de 100.000 euros, nada más y nada menos que unos 40.000 euros menos que un verdadero EVO:RAIL”

Y ahora nos preguntamos… ¿Realmente hay que pagar 100.000 euros por un sistema de virtualización hiperconvergente? Desde Telecomputer no podemos por menos que decir ¡¡¡NOOOOOOO!!!! Y por supuesto tenemos nuestras poderosas razones.

La primera es que desde hace un año tenemos desarrollado, junto con otras empresas, una solución de virtualización Hiperconvergente basada en Openstack y software Opensource que se llama ORIGINstack y tiene un precio de entrada desde 25.000 €  para un cluster de tres servidores. Si lo equiparamos a cuatro servidores, estaríamos hablando de 33.000 €, ¡¡¡casi un 70% menos!!

¿Cómo es esto posible? Pues bien, utilizamos hardware commodity, y cuando digo commodity nos vamos tan al extremo que utilizamos discos de tipo consumer para almacenar las máquinas virtuales. Eso sí, utilizamos un sistema de ficheros ditribuido con una protección basada en réplicas de bloque y no en stripping que nos permite perder bastantes discos antes de poner en peligro la integridad de los datos y además acelera las recuperaciones de la consistencia del almacenamiento de forma sorprendente.

Si queréis investigar, estos sistemas de ficheros se llaman GlusterFS, Lustre, Ceph, etc.. y son la base del almacenamiento y de la vitualización de muchos de los grandes sistemas de cloud pública que triunfan en todo el mundo. ¿Alguna duda sobre su fiabilidad? Y una reflexión más incisiva ¿quién utiliza VSAN de Vmware?¿porque nos empeñamos en creer que es más fiable una solución de una empresa que todavía no ha usado nadie frente a soluciones de “nadie” que utilizan a diario millones  de usuarios?  Como poco es llamativo, ¿no?

Para terminar, sobre estos sistemas de almacenamiento que exportan por iSCSI o NFS “sólo” tendríamos que decidir la virtualización que queremos, siempre en Linux, claro y añadir un sistema de gestión de la virtualización, como por ejemplo oVirt. El resultado sorprende por el nivel de rendimiento y por la fiabilidad.

El otro sabor del que disponemos en Telecomputer, quizás más aceptable para los que suelen sucumbir a los miedos que despiertan las propuestas alternativas, es FusionCube de Huawei. FusionCube es una solución software desarrollada por Huawei, el mayor proveedor de operadoras de telecomunicaciones del mundo, que integra todos los elementos necesarios para desplegar una solución de Software Defined Datacenter, e incluso una Cloud Privada con todas las letras y con un coste de entrada de unos 55.000 euros para 4 servidores, con toda la garantía que da el soporte de una grandísima multinacional.

Por lo tanto, si pensabas que la hiperconvergencia lleva implícita una reducción de costes.. te animamos a que sigas pensándolo y a que nos preguntes como empezar a disfrutar de los beneficios de la virtualización sin los costes que se asocian tradicionalmente.

La nube híbrida está aquí para quedarse

Etiquetas: , Hybrid cloud No comments
featured image

Expande tu negocio con la nube híbrida

Las empresas están comenzando a aceptar la idea de que las nubes públicas y privadas pueden utilizarse en conjunto, para el beneficio de la organización, especialmente con la implementación de nuevas aplicaciones.

Según una encuesta realizada por InformationWeek en 2013, 79% de las personas que utilizan servicios de nube están suscritos a distintos proveedores. De igual manera, en un reciente informe de Gartner se indica que cerca de la mitad de las grandes compañías estarán implementando funciones de nube híbrida para finales de 2017.

Con esto y la tendencia creciente que hemos evidenciado en nuestro negocio, podemos afirmar que la tendencia de la nube híbrida está aquí para quedarse, al menos por un buen tiempo.

Pensar en híbrido tiene sentido para aquellas organizaciones que quieren aprovechar algunas de las ventajas de las nubes públicas pero no quieren, por ejemplo, confiar todos sus datos a estos proveedores, o bien consideran que pueden correr algunas de sus aplicaciones, a menor precio o con mejor rendimiento, utilizando sólo recursos internos.

Los costes asociados al uso de nubes públicas está siendo analizado a fondo: de 392 personas que contestaron a la encuesta Cloud ROI Survey de InformationWeek, el 89% de aquellos que estaban utilizando o considerando utilizar los servicios de nube pública, aseguran estar en algún grado preocupados por los costes indirectos que estas tecnologías generan.

Al menos el 50% de los encuestados considera estos factores financieros entre las tres principales prioridades asociadas al ROI de la nube: coste inicial, gastos operativos y coste a largo plazo. El uso de una nube híbrida podría hacer que estos números fuesen más fáciles de predecir, a la vez que permitiría tener más control sobre las aplicaciones que funcionasen sobre recursos de computación internos.

Este tema toma especial importancia si el mensaje de uso de la nube pública se entiende de forma incorrecta. La nube pública no es un, o no debería ser, un recurso que se use de forma habitual y continuada y para ilustrarlo creo que no hay nada mejor que un ejemplo del día a día.

Por muchos beneficios financieros que pueda aportar un modelo de renting de automóviles y dejando aparte el ahorros en las retribuciones a las personas que implica el coche de empresa, nadie puede negar que el coste de una operación de este tipo es superior a lo que supondría una compra financiada. En este punto estaremos pensando en los costes de mantenimiento, talleres, etc… y si, tienen razón, en el modelo de los automóviles aplica porque la empresa ni tiene talleres, ni tiene mecánicos en plantilla y el renting de un vehículo consolidaría en una factura todos los costes de una actividad que no es core del negocio, pero… ¿qué ocurre si hablamos de IT?, ¿qué cambiaría?

Principalmente que, a día de hoy, casi todas las compañías disponen en mayor o menor medida de un departamento de IT con personal técnico, por lo tanto en un modelo de renting de IT, que es lo que es una cloud pública, la única forma de no pagar dos veces esos costes de gestión de la infraestructura sería deshacerse de los recursos técnicos propios de IT… pero me temo que este no es el camino de la mayoría… a día de hoy es necesario disponer de conocimiento interno para ser competitivo y la externalización seguiría implicando un modelo de doble pago.

Con este dato en la cabeza, vamos a poner encima de la mesa otro… ¿conocen a alguien que teniendo que utilizar un coche a diario para ir a su trabajo lo alquile según una tarifa basada en horas o días? Yo no, pero todo es posible… bromas aparte, si necesito desplazarme a diario, invierto en un coche de uso particular que es infinitamente más económico, más confortable y quizás… hasta más seguro, tan sólo en el caso de desplazarme más allá del entorno habitual de uso de mi coche, por ejemplo, si me desplazo en avión a una ciudad alejada o a una isla, me plantearía alquilar un coche en base a una tarifa de horas o días.

En el caso de la nube pública ese sería el modelo de uso, alquilaré recursos las horas o días necesarios para cubrir una situación que se sale de lo normal, porque en caso con

trario, estaré pagando una cantidad elevadísima de dinero por lo mismo y lo que es peor, pagando dos veces por un servicio.

Pero como todos sabemos, a los CIO se les exige ser capaces de responder rápidamente a las exigencias del entorno del negocio, y uno de los principios clave de la nube es la capacidad de proporcionar recursos al instante: cualquiera que haya utilizado los recursos de la nube alguna vez sabe que este es justamente uno de sus atractivos y como esperamos haber dejado claro, uno de sus peligros si no diseñamos correctamente nuestra estrategia de IT con respecto a la nube.

¿Por qué Híbrido?

Aunque no es un proceso sencillo, esta metodología permite a los negocios controlar sus procesos y su información internamente y a la vez disponer de recursos en los servicios de uno o más proveedores de nube pública, según sea necesario y luego retirar esos recursos cuando la crisis o el incremento de demanda hayan pasado.

Esta clase de escenarios siempre genera dudas a nivel de dirección y gestión, por supuesto ciertas dificultades técnicas y el hecho añadido de que la creación de un servicio de nube propio puede parecer que va a exigir a las compañías mucha inversión para poder disponer de la capacidad de expandirse con facilidad en la medida que las necesidades lo vayan exigiendo. Pues bien, soluciones como ORIGINstack están ayudando a que estas percepciones se eliminen cada vez con mayor facilidad.

La realidad es que el objetivo final para la mayoría de las empresas es que el usuario, el negocio, la producción o la venta pueda manejar y obtener datos, software y acceso a plataformas, sin saber si provienen de una fuente de información interna o externa.

Para obtener este equilibrio en el manejo de la información, basado en el uso y la demanda, hacen falta soluciones como ORIGINstack diseñadas para formar parte de y gestionar sistemas híbridos bien estructurados. El término clave en este punto es: bien estructurado.

Costos y capacidades 

Este punto que comentamos es clave porque los costos y capacidades de los proveedores de nubes públicas están en constante cambio y esto, para los equipos de IT puede ser tanto bueno como malo.

Por una parte, la competencia de precios entre los principales proveedores, como Amazon, Web Services, IBM SoftLayer y Microsoft Azure, son buenas noticias para los consumidores porque están bajando los precios de sus productos y servicios. Resulta incluso mejor, que las compañías sientan la necesidad de igualar y mejorar las capacidades de la competencia.

El lado negativo de esta rápida transición y expansión de estos servicios, es que podría resaltar los vicios y fallos de un sistema mal estructurado, y esto, en segunda derivada, evitaría que la compañía pudiera adaptarse y aprovechar los precios bajos y sus continuas actualizaciones.

Hoy en día, un sistema puede volverse anticuado en un año por lo que el concepto de protección de la inversión rara vez había sido tan relevante, como ahora que el CIO tiene que decidir cómo llevar a cabo la construcción de nuestra nube, y si queremos ser competitivos en costes y flexibilidad para tener fidelizado al cliente interno no se puede dejar de contemplar firmemente la posibilidad de expansión hacia la nube pública, pero siempre desde la racionalidad que implica un modelo híbrido.

 

Nube híbrida

Hiperconvergencia: pasado, presente y… ¿futuro?

Etiquetas: , , Cloud Infrastructure, Hybrid cloud No comments
featured image

La hiperconvergencia pisa fuerte y seguro   

Fue tan sólo hace dos años cuando el CTO de VMware Steve Chambers, utilizó por primera vez el término “hiperconvergencia” para diferenciar los sistemas de cómputo combinado que Nutanix, SimpliVity y Scale Computing estaban introduciendo frente a los sistemas de convergencia como Vblock de VCE.

Hoy, desde el vendedor de soluciones de IT hasta emprendedores en el ámbito del software de almacenamiento sostienen que la hiperconvergencia es el futuro, o al menos una opción muy posible, tal y como ya adelantaban las predicciones de importantes consultoras tecnológicas como IDC en 2012.

“This IDC study highlights that the overall spending on converged systems will grow at a compound annual growth rate (CAGR) of 54.7% from $2.0 billion in 2011 to $17.8 billion in 2016.”

Worldwide Converged Systems 2012–2016 Forecast: Adoption Fueled by Faster Time-to-Market Demands. 2012 November

Al igual que muchas otras soluciones de IT, la hiperconvergencia nace en una startup, pero al igual que el tsunami comienza con un terremoto en el lecho marino, la puesta de largo oficial de la hiperconvergencia comenzó con la creación de la plataforma EVO:RAIL de VMware, era la confirmación del líder sobre la viabilidad de un nuevo producto.

Para quien no haya tenido la oportunidad de analizar el concepto, diremos que EVO:RAIL es un diseño estándar de cuatro servidores de alta densidad, que los fabricantes de hardware pueden construir a partir de sus respectivos contenedores de piezas. Esto implica que uno puede comprar sistemas EVO:RAIL de Fujitsu, Dell, Supermicro, directamente de la casa matriz de VMware, EMC, o más recientemente de HP e Hitachi Data Systems, donde el hardware es básicamente el mismo ofreciendo cada uno de los nodos procesadores Xeon E5-2620 v2 duales, 192 GB de memoria, 400 GB de SSD y tres discos duros de 1.2 TB.

cta-origin-stacks

 

Algunos proveedores puede que elijan distintos chips de Ethernet de 10 GB o que algunos usuarios prefieran los iLO de HP, sobre los DRAC de DELL, pero los sistemas de EVO:RAIL son básicamente intercambiables.

¿Dónde reside entonces la diferencia con otros sistemas de virtualización? Y pues en el software de VMware, que incluye no sólo vSphere y vSAN, sino también un sistema automatizado de instalación y una consola de mando simplificada.

La falta de confirmación por parte de HP de su apoyo a esta iniciativa en los primeros anuncios de EVO:RAIL, hizo pensar a la mayoría de los expertos que en vez de funcionar con el paquete de software completo de VMware, HP construiría sus módulos de hiperconvergencia alrededor de su producto StoreVirtual VSA, que es el nuevo nombre de la tecnología VSA de Lefthand iSCSI que viene usándose desde la presentación de esta familia de almacenamiento, hace ya más de 5 años.

Finalmente ha resultado que teníamos más o menos razón, porque el sistema HP ConvergedSystem 200-HC Store Virtual hace precisamente eso. El modelo básico utiliza discos SAS, debido a que, por ejemplo, el SQL Server necesario para administrar una docena de cajas registradoras no necesita más que unos cientos de IOPs.  También se presentó un modelo para tareas más exigentes que incorpora SSD y saca provecho del procesamiento por niveles del sub-LUN de StoreVirtual. En cualquier caso HP decidió finalmente proteger su apuesta incorporando al producto el paquete de software de VMware para convertirlo en EVO:RAIL.

No obstante, por más exitoso que el EVO:RAIL sea, no es lo más interesante que está sucediendo en el mundo de la hiperconvergencia. Los especialistas en Gridstore, como los de Scale Computing antes, se dieron cuenta de que si su sistema para Hyper-V funcionaba bajo Windows en un Xeon sencillo, podrían utilizarlo en un servidor más poderoso y utilizar Hyper-V para procesar cómputos también, así los servidores en sus 4 nodos alojados en 2U son bastante poderosos también, con procesadores E5-2690 10 core.

Aunque algunos consideran que la tecnología flash y la hiperconvergencia son dos grandes tecnologías, pero que nos van bien juntas, las compañías están ofreciendo sistemas de hiperconvergencia completamente flash. Nutanix tiene la NX-9000 con 6×1.6TB de flash para 3.2TB de capacidad usable con 3-way mirroring en cada uno de sus nodos de 20 core.

Incluso Gridstore tiene su modelo 100% flash recurriendo a 1 TB de SSD de alto rendimiento como cache, frente a 5TB de SSD orientados a lectura en cada nodo. El controlador virtual de Gridstore utiliza un modelo de protección de datos de paridad distribuida, que tiene significativamente menos sobrecarga que el más típico de 3 espejos.

En el caso de ORIGINstack, el fabricante español de sistemas hiperconvergentes, la apuesta en el hardware es dejarlo abierto a las necesidades del cliente.

Con un solo modelo de nodo y una configuración inicial que arranca en tres nodos, ORIGINstack permite elegir procesadores desde 4 hasta 12 cores y cantidades de memoria desde 64 Gb hasta 512 Gb por nodo para adaptarse de manera abierta a las cargas de trabajo de cada cliente.

En cuanto al almacenamiento, ORIGINstack apuesta por un sistema distribuido de almacenamiento en el que cada nodo es una controladora activa de un sistema y en el que la protección se puede definir utilizando réplica sencilla o doble de cada bloque escrito para alcanzar ratios de disponibilidad de hasta siete nueves 99.9999999%.

Para solucionar el espinoso asunto del rendimiento de disco, además del incremento que ofrece de por sí la paralelización de lecturas y escrituras, se ha diseñado un sistema que permite utilizar discos SATA de gran volumen apoyados por tecnologías SSD que aceleran el rendimiento como cache. El resultado es un sistema hiperconvergente que ofrece hasta 24 Tb netos con 4 Tb de cache SSD en un chasis de 2U, junto con el cómputo y la virtualización. En cualquier caso, la elección de discos está abierta y ORIGINstack puede configurarse con todos los discos SAS o SSD para cargas de trabajo específicas.

Ahora resulta evidente que aunque los sistemas de hiperconvergencia no se conviertan en la arquitectura dominante de la próxima década – como los servidores Blade, antes que ellos – sí serán la opción correcta para buena parte de las empresas.

Cloud Computing nube híbrida: un huracán de posibilidades

Etiquetas: , , Hybrid cloud, La nube que es No comments
featured image

Cloud Computing nube virtualizada: El poder de las nubes híbridas y el nuevo rol de IT

De acuerdo a las investigaciones más recientes, cualquier empresa de IT que esté sacando provecho a la nube híbrida debería revaluar no sólo su infraestructura, sino su rol en el negocio.

En este sentido, para muchos es momento de que los equipos de IT cambien su percepción de sí mismos, y pasen de ser operadores de tecnología, a consejeros de confianza, prestadores de servicios y generadores de negocio. Otros llevan el nuevo rol del equipo de IT un paso más allá, argumentando que deben evolucionar para convertirse en maestros de la información.

Bajo esta perspectiva sería necesario que colaboraran con las unidades de negocio en el desarrollo e implementación de nuevas maneras de hacer negocio a través de Internet, Redes Sociales, la Nube o cualquiera que sea la tecnología emergente.

Un amplio conocimiento de estas nuevas tecnologías y su potencial impacto, tanto negativo como positivo, sobre el negocio es ahora tan valioso como su conocimiento en materia de  redes, configuración de equipos y mantener nuestros ordenadores funcionando. Sin este conocimiento los equipos de IT de hoy se arriesgan a tornarse irrelevantes.

Para mantenerse útiles y relevantes en este mundo del Cloud Computing, los equipos de IT deben asumir su nuevo papel innovador. Esto significa unificar los silos de IT, sistemas, almacenamiento, redes y seguridad en una sola unidad, enfocada en los procesos de negocio, aplicaciones y cargas de trabajo, y a su vez determinar cómo encajan las necesidades del negocio en un en un modelo eficiente en costes como el que plantea una nube híbrida.

cta-origin-stacks

La clave para ello es darse cuenta de que las aplicaciones determinan el funcionamiento de la nube, no su estructura física. Esto quiere decir que es necesario desarrollar aplicaciones que tomen en cuenta el tamaño, los tipos de datos y su volumen, los requerimientos de la red, integración, seguridad, protección de la información y por supuesto el presupuesto disponible, para luego utilizar esta información en el diseño del modelo de nube híbrida que mejor se adapte a estas necesidades.

También implica que debemos ser inteligentes en el momento de negociar los contratos y sobre todo los niveles de servicio con los proveedores que tengan la capacidad de atender nuestras necesidades de escala, rendimiento y capacidad, ya que en ellos descansa la satisfacción que esperamos encontrar en este tipo de modelos.

Los grandes creadores de tendencias nos están llevando a pensar que al adoptar nubes híbridas el equipo de IT deberá implementar políticas de migración de recursos de IT que minimicen el impacto sobre empleados, clientes y consumidores. Esto está bien, si consideramos que la nube híbrida es un cluster, un conjunto de recursos homogéneos distribuido geográficamente, pero la realidad es que la nube híbrida, a día de hoy, no es homogénea, ya que las tecnologías de la parte privada y pública son distintas y yendo un paso más allá, hay importantes diferencias de enfoque y uso entre virtualización y cloud, tal como se entienden en entornos públicos y privados.

Analizar qué tipo de carga de trabajo se adapta a que entorno y herramienta y habilitar los mecanismos adecuados en cada caso, es el camino que garantiza que el equipo de IT mantendrá su valor y aportará un diferencial competitivo para un entorno que evoluciona rápidamente.

De igual manera, el CIO deberá garantizar que su equipo de IT cuente con los recursos adecuados para el soporte de aplicaciones y procesos, una vez todos los elementos de la nube híbrida estén en su debido lugar.

Afortunadamente, la adopción de una nube híbrida tiene un impacto positivo inmediato sobre la distribución de nuestros activos, minimizando, por ejemplo, la relevancia de la Ley de Moore. La automatización de servicios en tiempo real y la eliminación de los equipos heredados de la red corporativa ayudarán a las empresas a crecer y expandirse a nuevos mercados acelerando la generación de valor a través de la innovación y la implementación de nuevas maneras de pensar.

Mucha de esta innovación y nuevas perspectivas sobre lo que podemos hacer al adoptar los servicios de la nube, proviene directamente de los usuarios o “shadow IT”. Por esto, los equipos de IT deben asumir el rol de expertos de Shadow IT para ayudar a elegir los servicios de nube híbrida que permitan maximizar sus capacidades y a la vez mantener los niveles de control y seguridad requeridos por la empresa.

Por otra parte, muchos departamentos de IT se verían beneficiados si incorporaran expertos externos en servicios de nube, que ayuden a combinar los servicios disponibles para cubrir sus necesidades, sin perder nunca de vista, como ya hemos indicado, las cargas de trabajo y el entorno más adecuado para asumirlas sin perder eficiencia, velocidad ni seguridad.

Como conclusión, el nuevo mantra de los departamentos de IT debe ser Innovación. Aquellos CIOs y empresas de IT que repitan este mantra y entiendan completamente el fondo del concepto de la nube híbrida minimizarán riesgos y costes y garantizarán su éxito en el mundo IT por muchos años.

 

cta-origin-stacks

 

Cloud computing nube

Hiperconvergencia todo lo que debes saber sobre esta nueva tendencia

Etiquetas: , , Cloud Infrastructure, Hybrid cloud 2 comments
featured image

Hiperconvergencia: sistemas modulares al servicio de las necesidades de tu empresa

Si actualmente te encuentras investigando sobre las distintas alternativas existentes para refrescar tus servidores o tus plataformas de virtualización, entonces lo más probables es que ya te hayas topado con el término “Hiperconvergencia”. Lo primero que posiblemente haya pasado por tu mente es: ¿Qué son estos sistemas de hiperconvergencia y qué los diferencia de los sistemas de convergencia normales?

No obstante, lo ideal sería que nos preguntásemos primero qué son los sistemas de convergencia y en qué manera se diferencian de los sistemas clásicos de infraestructura, para luego pasar a los conceptos más nuevos.

Pues en este post haremos precisamente eso, repasaremos todos los conceptos clave para luego entender mejor las opciones que tenemos hoy a nuestra disposición.

Diferencias entre sistemas de convergencia y la infraestructura IT tradicional 

Los sistemas convergentes son una evolución natural de la infraestructura IT tradicional, la cual, por lo general estaba compuesta por silos de información (unidades que trabajan de manera aislada para cada aplicación de negocio y bastante habitualmente con un alto grado de descoordinación del plan estratégico de la empresa), por ejemplo: ERP, gestión de Recursos Humanos, producción, etc..

En este modelo, previo a la consolidación que ha generado la virtualización, cada unidad de negocio disponía de su propio entorno de IT, escudándose en las necesidades y requisitos de este o aquel fabricante de software y en la necesidad de garantizar los rendimientos que cada uno solicitaba a sus clientes. El resultado lo hemos visto todos en la inmensa mayoría de las empresas, que disponían de un auténtico SIMO, o para los lectores que no entiendan este localismo, una amplia y heterogénea colección de tecnologías y fabricantes. La segunda derivada de esta forma de trabajar era que cada unidad o departamento disponía de su presupuesto y sus preferencias, por lo que la eficiencia de las políticas de compra distaba mucho de lo óptimo.

Por esta razón y una vez que la virtualización entra en escena, cobra sentido el concepto de sistemas convergentes, ya que permite combinar dos o más de estas infraestructuras como una solución de ingeniería preestablecida, puesto que el producto final que se entregará es tan homogéneo como una máquina virtual, que además es apta para todas las cargas de trabajo imaginables en el 95% de los casos que se presentan en una empresa.

VCE, HP, IBM, Oracle son algunas de las compañías que han diseñado soluciones que hacen converger almacenamiento, cómputo y redes gestionadas bajo un mismo entorno software de gestión. La idea básica es tener un solo proveedor de todos los componentes necesarios y un servicio de soporte único para sólo tener que “fastidiar” a una persona en caso de necesitar soporte, eliminando las complejidades de ingeniería y operativas que implica una solución multivendedor.

Las ventajas más relevantes de estas soluciones es que ponen a nuestro alcance diseños relativamente simples para un entorno de infraestructura bastante compleja. Normalmente podría llevarnos meses diseñar una infraestructura utilizando una mezcla de las mejores tecnologías y los sistemas convergentes reducen los tiempos de implantación y sobre todo los riesgos de desviación de tiempo y presupuesto.

Al final, lo que estamos adquiriendo con una solución convergente es un proveedor de máquinas virtuales, una máquina que nos da recursos de computación de una manera tan automática como la máquina de café nos prepara un expresso a media mañana.

cta-origin-stacks

Hablemos de Hiperconvergencia 

Partiendo de las bases de la convergencia, parece en escena hace relativamente poco el concepto de SDx – Software Defined Anything, es decir, herramientas de software que nos permiten desacoplar de una manera efectiva las capacidades de los sistemas de almacenamiento, red y cómputo de un hardware específico y llevarlo a un entorno virtualizado y homogéneo, y todo esto, por supuesto, con unos costes absolutamente inferiores.

Por tanto, los sistemas de hiperconvergencia llevan este concepto de convergencia del que hablamos antes y lo llevan a otro nivel. Mientras que los sistemas de convergencia son componentes diseñados para trabajar bien en conjunto, los de la hiperconvergencia son sistemas modulares, basados en componentes homogéneos,  diseñados para ser sumados, agregando cada vez más módulos, en la medida que las tareas lo requieran.

Estos sistemas por lo general son diseñados alrededor de las capacidades de almacenamiento y cómputo ofrecidas por un único servidor de x86, interconectado por 10 GB de Ethernet. A primera vista esto puede parecer un servidor con mucha capacidad de almacenamiento y desde un punto de vista físico, lo es.

La diferencia entre un sistema de hiperconvergencia y un grupo de servidores con muchos discos, es la ingeniería y sobre todo el software. Las soluciones de hiperconvergencia sacan provecho de una nueva generación de software de control de almacenamiento, de red y de cómputo, permitiéndole a estos sistemas crecer casi sin límite. Mientras más módulos se le agregan, mejor rendimiento y mayor capacidad tendrán.

Por lo tanto, en vez de crecer mediante la inclusión de discos, memoria o CPUs, los sistemas de hiperconvergencia crecen mediante la adición de módulos. No obstante, su arquitectura no es su única ventaja, los sistemas de hiperconvergencia además gozan de un modelo de administración simplificado.

Esto, en términos sencillos, quiere decir que en vez de necesitar a un equipo de personas que se ocupe de tus unidades de almacenamiento, otro que se ocupe de virtualización y a otro que se dedique al servidor o la red, sólo necesitarás a un equipo (en algunos caso compuesto por una sola persona) que supervise el funcionamiento de tu unidad de hiperconvergencia ya que la automatización de procesos para desplegar recursos de IT está en su ADN.

Hay dos maneras en que se puede obtener una infraestructura de hiperconvergencia. Puedes comprar una de compañías como ORIGINstack, Nutanix o SimpliVity, quienes ofrecen diferentes tipos de soluciones para distintos tipos de compañías; o puedes construir tu propio sistema de hiperconvergencia.

Soluciones como VSAN de VMware y StoreVirtual de HP están diseñadas para clientes que quieren tener mayor control sobre los elementos del diseño de su sistema de hiperconvergencia. Con estos podemos elegir nuestro propio servidor de hardware y configurar los discos a nuestro gusto, siempre y cuando el hardware sea compatible con el software del proveedor.

Puntos débiles de la hiperconvergencia 

Una de las desventajas de la hiperconvergencia es que no nos permiten realizar pequeños cambios y mejoras a nuestro sistema ya que el crecimiento suele ser lineal.

Si un cluster está algo bajo de memoria, pero no de cómputo, igual tendremos que actualizar la capacidad de cómputo general agregando más módulos. De igual manera, si queremos mejorar la configuración de almacenamiento del disco esto será un problema.

La excepción a esta norma general la introducen sistemas como ORIGINstack, que basándose en una metodología de diseño OPENbay dispone de distintos niveles de procesador, y configuraciones de memoria y disco duro abiertas para adaptar el nivel de inversión a las necesidades de cada momento. Es decir, es un sistema modular asimétrico, ya que la homogeneización de los módulos se consigue a través del software y el hardware base, pero permite un alto nivel de flexibilidad.

Una segunda desventaja proviene de las barreras y trabas organizacionales que surgen cuando queremos combinar sistemas que tradicionalmente habían trabajado con silos de información u organizaciones aisladas. Si un grupo de la compañía quiere comenzar a trabajar con un sistema de hiperconvergencia, tendrá que lidiar con discusiones sobre presupuesto y diferencias de división con otros departamentos.

Conclusiones 

Los sistemas de hiperconvergencia ofrecen diseños más simples, disminución de los gastos administrativos y simplifica la gestión de proveedores en entornos altamente virtualizados.

Sin embargo, asegúrate de considerar las desventajas de los sistemas que hay en el mercado antes de decidirte a adoptar un fabricante de hiperconvergencia.

cta-origin-stacks

 

Hiperconvergencia

Cloud híbrido: lo mejor de dos mundos

Etiquetas: , Hybrid cloud No comments
featured image

Conexión, rendimiento y confianza con Cloud híbrido

Como ya adelantó Gartner en su predicción de tendencias tecnológicas empresariales para 2014, el Cloud Híbrido está empezando a ser relevante para el futuro de la informática empresarial. El cuarenta y siete por ciento de las casi 400 personas que contestaron la última encuesta sobre Cloud híbrido, de InformationWeek, ya implementaron o están haciendo pruebas piloto de Cloud Privada, adicionalmente 33% de los encuestados lo están considerando.

La mayoría de ese 47% han o están desarrollando modelos híbridos, en los que las cargas de trabajo puede lanzarse también en servicios de Cloud pública como Amazon Web Service, Google Cloud Platform, IBM SoftLayer o Microsoft Azure.

Este enfoque híbrido se está extendiendo hacia todas las industrias. “Debido a nuestra naturaleza y a la cultura empresarial de nuestro centro médico nos sentimos inclinados hacia el almacenamiento interno/privado de la información de todas nuestras actividades, servicios y aplicaciones”, expresó uno de los encuestados. “No obstante, debido a la consolidación de ciertas relaciones con otros grupos médicos, comenzaremos a expandir nuestros recursos para incluir el uso de Cloud híbrido. Algunos servicios permanecerán en nuestros equipos, mientras que otros pasarán a servicios de Cloud externo, que incluirán cierta información de pacientes y quizás algunos videos que sea necesario compartir”.

Este comentario demuestra porque esta tendencia continuará avanzando. Lo híbrido ofrece lo mejor de los dos mundos: la seguridad, control, previsibilidad y fácil acceso a grandes cantidades de información de una nube privada y la conveniencia, flexibilidad, rendimiento, coste, movilidad y los beneficios de colaboración asociados de nube pública.

Sin embargo, como era de esperar, nada es perfecto al 100%. El Cloud híbrido es más difícil de diseñar, integrar, manejar, monitorizar y securizar. Es casi seguro que además generará roces entre los distintos equipos de IT, y, a su vez, a menos de que seamos capaces de comprender bien y observar cuidadosamente las cargas de trabajo podrían generar repentinos e inesperados gastos.  

cta-origin-stacks

Puntos medios

Cerca del 77% de las grandes empresas tiene nubes privadas en funcionamiento o en producción y el 17% de ellas está utilizando este servicio para la mayoría, si no todas, sus aplicaciones. La adopción de los servicios en la nube es una tendencia innegable, y para la mayoría de las compañías el debate no es entre privado y público, sino en conseguir la mejor manera para combinarlos.

En algunos círculos los sistemas híbridos son muy populares, pues ofrecen lo mejor de dos tecnologías que compiten entre sí. Para los equipos de IT esta posibilidad se hace aún más atractiva cuando tomamos en cuenta que ya existen muy buenos programas para gestionarlas, como Citrix CloudPlatform, IBM SmartCloud, HP Cloud Service Automation y VMware vCloud Automation Center. Éstas permiten a los usuarios controlar nubes tanto públicas como privadas desde una sola consola administrativa.

Las empresas también están dispuestas a invertir en estas tecnologías. En 2014 cerca de 22% de las empresas estaban dispuestas a destinar hasta 20% de su presupuesto anual en virtualización y Cloud. Muchos aseguran que la principal razón es el ahorro de dinero.

La desventaja del Cloud híbrido es que al ser una tecnología nueva, aún sufre por los mismos problemas de ambos mundos: las nubes tanto públicas como privadas. La mayoría de los especialistas de IT se preocupan por la protección, seguridad y privacidad de los datos.

Otras preocupaciones son rendimiento, fiabilidad y disponibilidad, servicio e integración de datos, cumplimiento normativo, la disponibilidad del servicio y costos asociados difíciles de anticipar.

 

cta-origin-stacks

Cloud híbrido