Adoptar una tecnología basada en la nube permite aumentar las capacidades de las comunicaciones unificadas. ¿Las Comunicaciones unificadas en la nube suenan complicadas? La verdad es que posiblemente ya las hayas probado. La encuesta sobre seguimiento de las comunicaciones de la CDW en 2011, puso de manifiesto que el 69 por ciento de las organizaciones ya están evaluando, implementando o han implementado completamente Comunicaciones unificadas basadas en la nube. Herramientas como Gmail, SharePoint, Google Docs o WebEx emplean Comunicaciones Unificadas a través de la nube.
¿Necesitas aún más motivación para salir de tu zona de comfort? La encuesta de la CDW mostró que implementar Comunicaciones unificadas en la nube lo hace más sencillo y rápido, y el 65 por ciento de los encuestados dijo que la implementación de Comunicaciones unificadas en la nube es más rentable, una gran ventaja para las pequeñas empresas con presupuestos ajustados.
Las Comunicaciones unificadas y la nube
Es difícil encontrar pequeñas empresas que no utilicen dispositivos móviles como ordenadores portátiles, smartphones y tablets. Las opciones de movilidad de las comunicaciones unificadas son una ventaja clara en el mundo de las empresas móviles en el que vivimos. La encuesta sobre seguimiento de las comunicaciones de la CDW en 2011 mostró que las soluciones de Comunicaciones unificadas en la nube más implementadas incluyen smartphones y escritorios móviles.
El mismo informe también halló que uno de los principales beneficios de las Comunicaciones unificadas en la nube es el soporte móvil. La posibilidad de acceder al correo electrónico y al buzón de voz del trabajo desde un smartphone o recibir mensajes de voz a través del correo electrónico es invaluable para una pequeña empresa que está siempre en movimiento. Tus empleados a distancia también te lo agradecerán, ya que muchos de los tele-trabajadores dependen enormemente del correo electrónico, de la mensajería instantánea, de las video conferencias o de otras plataformas de Comunicaciones unificadas en la nube para mantenerse conectados.
Como otras tendencias tecnológicas, la movilidad no carece de retos. Ahora que los empleados tienen un mayor acceso móvil, las pequeñas empresas enfrentan el reto adicional de asegurar que toda la información esté disponible de manera remota o a través de los dispositivos móviles. Con un presupuesto y un personal informático reducido, esto puede ser difícil.
Si tu empresa apoya el BYOD para pequeñas empresas (trae tu propio dispositivo al trabajo), asegúrate de que tus empleados reciban formación sobre la seguridad móvil, y exige que todos los dispositivos personales cumplan con unos estándares de seguridad antes de que puedan acceder a tu red.
¿Estás listo para empezar con las comunicaciones unificadas en la nube?
Los beneficios de las Comunicaciones unificadas en la nube están claros, pero como con cualquier otra solución, la investigación y la planificación antes de la implementación son fundamentales:
Empieza por visualizar los resultados de las Comunicaciones unificadas en la nube en tu pequeña empresa, y como éstas pueden afectar de manera positiva la forma en que tu organización colabora y se comunica.
Asegúrate de mantener una mente abierta cuando estés considerando las diferentes opciones. Las Comunicaciones unificadas en la nube son un grupo de soluciones que cambian rápidamente, así que intenta conseguir que tu pequeña empresa tenga la capacidad de adaptarse en la medida en que el mercado cambie.
No te olvides de la seguridad. Es estupendo que los empleados se sientan cómodos comunicándose a través de tantos canales y dispositivos, pero asegúrate de implementar unas condiciones equivalentes de seguridad con cualquier solución de Comunicaciones unificadas en la nube o de movilidad.
Lo más importante es que no dudes en buscar ayuda cuando la necesites. Una persona de confianza especializada puede darte consejos sobre las opciones de UC, así como sobre la manera de implementarlo o sobre los beneficios que puedes obtener gracias a esta tecnología.
Si quieres saber más sobre las Comunicaciones unificadas en la nube le invitamos a descargar el ebook Las comunicaciones Unificadas y el ahorro en costes en la empresa
¿Dispone su empresa actualmente de una solución de correo electrónico que ayude a la colaboración entre empleados y donde además de poder leer y enviar emails pueda gestionar eficientemente su agenda de contactos, tareas y notas?
Los trabajadores necesitan simplificar las tareas más complejas y poder acceder a la información de forma sencilla desde cualquier gestor de correo: Outlook, Thunderbirds, por webmail o desde su propio smartphone independientemente del sistema operativo que utilice.
Las empresas andan buscando un verdadero entorno de colaboración efectiva. Disminuir las consecuencias de los retrasos, fechas de entrega no cumplidas, errores con clientes es crucial para las empresas. Cada vez es mas común, encontramos en el entorno empresarial moderno, que existe más personal realizando su trabajo desde la distancia de forma remota, lo que aumenta la dificultad de contactar a otros cuando es necesario. Es necesario la coordinación y colaboración para que no ocurran retrasos en la toma de decisiones importantes y no se complique el poder comunicar de forma efectiva la información de vital importancia para la organización.
Las empresas preocupadas por alentar y otorgar facultades a los empleados dentro de todas las partes de la organización para trabajar en conjunto están apostando por plataformas de colaboración como IP BRICK que integra correo, contacto, agendas, tareas y notas.
Los beneficios que ofrece una plataforma de herramientas de colaboración son:
Puedes acceder a tu buzón de correo electrónico desde cualquier dispositivo, donde todo el correo se sincroniza automáticamente entre todos los dispositivos, tanto los contactos, como las tareas.
Puedes contar con funcionalidades avanzadas a un coste razonable. Por ejemplo, IP BRICK es igual de potente que las soluciones Exchange de Microsoft, pero sin licencias por usuario
Puedes acceder rápidamente a todos los contactos de la empresa Un trabajado puede acceder a los contactos corporativos compartidos o solo a sus contactos privados.
Puedes contratar el servicio en la modalidad de pago por uso a través de una plataforma colad con las ventajas de flexibilidad y movilidad que ello conlleva
Que características técnicas y requerimientos debe buscar una empresa en una plataforma de herramientas de colaboración
Calendario basado en Web: que le permita crear un nuevo evento o programar un recurso para ser añadido a un calendario, compatible con eventos recurrentes (con excepciones y diversas opciones de supresión), como los cumpleaños de sus contactos, alarmas, funciones de importación y exportación a formatos estándar (formatos iCalendar y CSV), invitaciones iCalendar, múltiples vistas de calendario, calendarios compartidos, visualización de las tareas de la Lista de Tareas y la capacidad de mostrar los eventos en una pantalla de resumen.
Invitaciones para citas: La plataforma de herramientas de colaboración debe permitir agregar participantes a sus eventos e invitarlos a todos ellos. Cada participante recibirá una invitación y si la acepta, la cita será añadida automáticamente a su calendario. Usted será informado sobre el estado de los participantes del evento y se le notificará acerca de los cambios a la cita. También es posible hacer arrastre de eventos y soltarlos en donde desee. Los eventos pueden ser procesados desde dispositivos móviles, aumentando así la capacidad de respuesta.
Gestión de tareas: Busca una plataforma herramientas de colaboración que le permita crear tareas y fijar su fecha de vencimiento con recordatorios. Crear subtareas, arrastrarlas y soltarlas donde desee que estén. Marcar tareas como importantes o establecer el grado de terminación. También debe tener la posibilidad de compartir las tareas con otros e incluso dejarles crear tareas para usted.
Filtrado de Contenido: La plataforma de herramientas de colaboración de permitirle definir los criterios para los emails que se filtran en diferentes carpetas de correo. El filtrado debe suceder en el servidor después de que se reciba el correo. De esta manera, sus emails son exactamente los mismos en todos los dispositivos.
Información libre/ocupado de los participantes a un evento: La interfaz de la plataforma de herramientas de colaboración debe permitirle ver si los participantes de los eventos están libres o muy ocupados, sin revelar ninguna información sobre lo que están haciendo en estos momentos. Esto le permite programar eventos y asegurarse de que todo el mundo pueda participar.
Diferentes vistas del calendario: La plataforma de herramientas de colaboración debe permitir diferentes vistas por día, semana o mes. Cuando usted busca eventos, sólo debe mostrarle los resultados y ver en todas las diferentes vistas de la agenda al cambiar entre ellas. También debe ser posible definir una visión de “agenda”, que se construya a partir de los calendarios seleccionados.
Transmisión de email: La plataforma de herramientas de colaboración debe asegurar la transmisión de Email al servidor de correo interno. Realiza filtrado de virus y email no deseado mediante el uso de software de seguridad.
El 73% de las empresas no disponen de un servidor de correo centralizado que permita al usuario acceder a sus emails desde cualquier dispositivo. Si actualmente no tiene acceso a sus emails y contactos de una forma segura o no puede consultar, gestionar y compartir calendarios y tareas en una única plataforma y totalmente integrada las comunicaciones de su empresa, debe empezar a buscar una plataforma de herramientas de colaboración con acceso a la información a través de múltiples clientes (Thunderbird, Outlook, Webmail o Dispositivos Móviles).
Ahora es posible que toda la documentación y conocimientos de tu empresa, estén a tu alcance, para su consulta, acceso y reutilización desde cualquier lugar y en cualquier momento, pero sobretodo, con seguridad. Actualmente existen aplicaciones de gestión de documentos que te permiten tener todos tus documentos digitalizados y archivados con control de versiones, restricción de acceso en función del usuario y accesibles de forma rápida y sencilla.
Existe una máxima que indica que prácticamente todos los documentos de una oficina, empresa o institución tiene un proceso asociado y que no existen procesos sin varios documentos asociados, por lo tanto las aplicaciones de gestión de documentos y gestión de procesos no se pueden separar.
¿Quien necesita una aplicación de gestión de documentos y flujos de trabajo?
Empresas con problemas de espacio en el archivado de su documentación.
Empresas con elevados costes en material fungible como tóner, tinta, papel, etc.
Empresas que necesiten la capacidad de poder acceder a la información por multiples usuarios a la vez.
Empresas que necesiten ser muy eficaces en la búsqueda y localización de la información.
Por norma general toda la información que se lleva manualmente dentro de una empresa, a través del escaneo, el envío por mail o simplemente su archivo, se le pierde el rastro. Contar con los servicios de un sistema de gestión de documentos te ayudará a ordenar y automatizar la información, ahorrando tiempo en su búsqueda y contando con flujos que te avisen en qué proceso está.
Cuando integras la gestión de documentos en las redes de comunicación de la empresa consigues lo siguiente:
Logras eliminar el papel y tienes toda la documentación de tu empresa archivada en formato digital, pudiendo acceder a ella de forma rápida y sencilla desde cualquier lugar y dispositivo.
Consigues que la información esté accesible por múltiples usuarios a la vez. Los usuarios tendrán acceso a los documentos en base a sus privilegios, toda acción queda registrada pudiendose auditar de forma sencilla el manejo de los documentos.
Seguridad y trazabilidad. El perfil y tipo de acceso de los usuarios marcarán de qué manera y a qué documentos están autorizados. La trazabilidad de los documentos permite conocer quién y cuándo han sido consultados, modificados o enviados los documentos.
Logras un manejo único y sencillo de la información de tu empresa. Toda la documentación de tu empresa centralizada, organizada, segura y accesible con un simple click desde un único interfaz web.
Mejor gestión del ciclo de vida de los documentos.Gracias a los flujos de trabajo, los documentos irán pasando por las distintas personas que tienen que revisar o aprobar el documento antes de ser archivado.
Puedes localizar la información que buscas en un solo clic. Una buena plataforma de gestión de documentos cuenta con una potente herramienta de búsqueda que permite realizar multitud de filtros que te permitirán acceder al documento que precises de forma rápida y sencilla.
Control de versiones de documentos. Cualquier acción que se realice sobre un documento e implique modificación, genera automáticamente una nueva versión del documento, que permitirá consultar versiones antiguas al estar asociadas a la última versión del documento.
iPortalDoc es la plataforma para la gestión de documentos y flujos de trabajo ofrecida por IP BRICK que soporta la desmaterialization de procesos y que se ha desarrollado para las empresas que tienen la necesidad poder gestionar documentos a través de su red de comunicaciones. Se trata de una plataforma simple e intuitiva, que además es accesible desde un navegador web.
Además de los beneficios que hemos nombrado anteriormente esta plataforma también te permite:
La creación de un repositorio único para toda la información.
Gestión y la calidad del control de documentos y Procesos.
Escaneo, grabación y gestión de todos los enviados y recibidos (cartas, faxes, correos electrónicos , etc).
La normalización de los diseños de los documentos.
Acelerar los procesos de toma de decisiones.
Ahorrar mucho tiempo y dinero.
Reduce los costos y gastos de operación con los archivos físicos.
Es capaz de integrarse con varias aplicaciones de negocio.
Los clientes, proveedores y socios pueden entrar, presentar documentos y consultar e integrar los flujos de trabajo.
El acceso online hecho a través de permisos da la garantía de seguridad en la administracion de archivos.
Da autonomía en el acceso a la información, debidamente clasificado.
Todos los documentos estarán organizados según tus necesidades en un árbol jerárquico de carpetas y subcarpetas. Sólo los usuarios con privilegios podrán acceder a determinados niveles de la jerarquía para la consulta de los documentos.
Todas las notificaciones de la gestión de documentos se realizan por email. Además podrá asociar los correos recibidos o enviados a documentos concretos, mediante la incorporación de la referencia de documento en el asunto o en el cuerpo del email.
Si quieres saber más sobre la plataforma de gestión de documentos iPortalDoc y cómo puede ayudarte a ser más rápido y productivo contacta ahora con uno de nuestros especialistas para que te entreguen más información.
Cómo la hiperconvergencia y las plataformas de Cloud computing afectan el performance y la configuración de los datacenter
Realmente es difícil mantenerse al día en este dinámico mundo de la tecnología que cambia rápida y constantemente. La Hiperconvergencia es la nueva palabra de moda en el sector del Datacenter. La Tercera plataforma; el Internet de las cosas; el almacenamiento basado en objetos; el Datacenter definido por Software; en fin, todas estas tendencias están marcando el comienzo de una nueva era en TI, donde las organizaciones de todo el mundo están tratando de adaptarse y convertirse en el más eficiente en IT para poder vencer a su competencia.
Pero ¿Cuál es la tecnología más adecuada que debe adoptar una organización para lograr el éxito? ¿Realmente vale la pena adoptarlas o simplemente son modas pasajeras adornadas con términos de marketing que los vendedores de tecnología usan para enganchar grandes contratos?
La mayoría de los avances en tecnología son fundamentales para acelerar la dinámica, ayudando a mejorar los costos y la velocidad de adopción de los despliegues de tecnología.
Un buen ejemplo, de esto fue el desarrollo de los primeros ordenadores, que al ser construidos en torno a la tecnología existente en ese momento, cuyos circuitos se basaban en tubos de vacío, su tamaño y costo no eran accesibles para la mayoría de las empresas.
La invención del transistor de silicio cambió todo el panorama, permitiendo equipos más potente y mucho más pequeños en comparación con sus gigantes predecesores. La gran ventaja de esta nueva tecnología además de rapidez y menor tamaño, es que permitió reducir los costes de fabricación y se hace menos costoso comprar. ¡Es difícil conseguir alguna otra solución que además de mejorar en el tiempo, se haga cada vez más accesible en coste!
Históricamente, las tendencias de la implementación de tecnología vienen en oleadas, y tienden a darse en ciclos de distribución y convergencia. Si usted tiene algo de experiencia en la industria de TI, muy probablemente sepa a lo que me refiero.
Tomemos, por ejemplo, las tendencias actuales de la hiperconvergencia y la nube. Lo último en hiper-convergencia es: la computadora central (All in one), y lo último en distribución es la nube. ¿Cuál es la mejor manera de avanzar? ¿Se convertirá la nube en el nuevo estándar en la implementación de TI?, o la tendencia irá hacia la hiperconvergencia donde el administrador deseará tener más control de sus sistemas y datos. Es necesario comprender la historia de las TI para emitir juicios.
El primer desarrollo fueron los famosos «Mainframe Computers» donde se centralizó el poder de cómputo, pero los usuarios finales utilizaban terminales «tontos» de pantalla verde para acceder a la computadora central a través de la red. Muchas empresas utilizaban el tiempo compartido en la red para tener acceso a la computadora central y ejecutar sus aplicaciones en particiones lógicas, o dentro de una porción de tiempo virtual asignado a su proceso. (Suena un poco como la nube, ¿Ahh?) Los Mainframes eran muy cosotoso, por lo que sólo estaban disponibles para un grupo selecto de organizaciones con bolsillos muy grandes.
Luego vino el mini-ordenador desarrollado por la Digital Equipment Corp, que ofrecía un pequeño datacenter al alcance de casi cualquier negocio. Un tiempo después explotó el boom del PC, que trasladó el poder de cómputo más cerca de los usuarios finales, y así nació la computación distribuida.
Microsoft y Novell impulsaron la adopción de la pequeña informática basada en servidor y la agrupación, lo que permitió a Compaq y Dell ganar cuotas de mercado, conviertiendo al mini-ordenador en irrelevante. Durante esos días, el almacenamiento se adquiría como parte del sistema, los usuarios descubrieron que buena parte de los datos quedaban «varados» dentro de los servidores, dando inicio al (SAN: Storage Area Networking).
Los ordenadores de escritorio estaban por todas partes, las redes tenían que mantenerse al día con todo el tráfico entre los usuarios de PC y los servidores, la red de almacenamiento era diferente de la red IP, por lo que se requierían múltiples equipos para manejarlo todo.
Todas las noches eran necesario hacer copias de seguridad de todos los datos, tanto en los PC como en los servidores; la gran cantidad de componentes, los sistemas distribuidos y el almacenamiento se convirtieron en una pesadilla para la gestión.
Fue entonces cuando «utility computing» entró en escena, y los términos SaaS (Almacenamiento / Software as a Service) fueron inventados. Las empresas migraron de un modelo de compra, construcción y gestión hacia un modelo de contrato de arrendamiento y de ejecución (lease and run model);
Todo esto fue por la época en la que Internet despegó y nació la era punto com; mucho antes de que la virtualización entrara en vigor, las empresas pensaban que lo que necesitaban eran servidores y almacenamiento de determinados fabricantes. Los costos de red y hardware siguieron subiendo hasta que finalmente todo se vino abajo con un ruido sordo como el estallido de la burbuja punto com.
Todo el mundo se fue de nuevo al modelo tradicional de compra y acumulación, gastando miles de millones en el desarrollo y la racionalización de los grandes poderosos centros de datos consolidados. Entonces la tecnología de virtualización llegó a quedarse y lo cambió todo.
La virtualización permitió a los administradores de datacenters consolidar y diversificar sus sistemas de computo y almacenamiento de nuevo con distintos fabricantes. Esto permitió que tanto el flujo de datos como el de aplicaciones mejorara notablemente, permitiendo así el inicio de la nube.
Las plataformas de Cloud Computing, permitieron regresar al modelo de servicio para volver a estar de moda, por lo que una vez más las empresas comenzaron la externalización de sus IT. Ahora los proveedores de la nube están tratando de reducir los costos al consolidar aún más, lo que nos lleva de nuevo a la hiperconvergencia.
El siguiente paso lógico en esta dirección nos redirecciona a la década de 1970 y al mainframe. ¿Usted ve la tendencia de cómo la industria oscila entre los conceptos de computación distribuida y centralizada (basada en red)?. Es como el latido del corazón de un ser vivo. Durante todo este período, con la invención del protocolo HTTP y World Wide Web, Internet nació, se desarrolló, y ahora se ha convertido casi en el cerebro de la humanidad.
Internet se ha convertido en la red neuronal de la humanidad, lo que eventualmente contendrá pensamientos y recuerdos de todo el mundo en forma de tweets, vídeos y fotos (junto con la ventaja añadida de ser capaz de buscar cosas!)
Los avances de la tecnología están cambiando el mundo. Note lo rápido que hemos pasado del PC, al ordenador portátil, a las tabletas, y ahora los teléfonos inteligentes. La tecnología es la única zona que conozco donde las cosas se venden más baratas a medida que se hacen más pequeñas y más potentes.
El poder de procesamiento se ha movido desde el mainframe hasta el límite con pequeños dispositivos de gran alcance, pero parece que el poder real está en movimiento una vez más hacia un modelo hiperconvergente centralizado alrededor de la red, donde los datos se convierten en información y se almacena para que todos los vean .
Al final, podremos ver una combinación híbrida de los centros de datos hiperconvergentes con el poder detrás de una red basada en la nube altamente distribuida. Sólo el tiempo lo dirá.
Revisa la grabación del webinar 7 maneras de ahorrar en virtualización y descubre la plataforma hiperconvergente basada en OpenStack que reduce tus costes un 80%.
Hay otras formas de ver y hacer las cosas en IT. Si estás buscando cómo adaptar tus operaciones a la nube híbrida para reducir costes y sólo te ofrecen Hosting, o si te gustaría saber cómo volverte híbrido, debes revisar este Webinar.
Es muy complicado encajar en costes y requerimientos funcionales soluciones diseñadas con mentalidad americana para “pequeñas” empresas americanas, esta solución está pensada para el mercado español.
Aprovecha esta oportunidad para ponerte en primera línea en cuanto a conocimiento de tecnologías de ahorro en virtualización y plataformas hiperconvergentes. Si tienes necesidades concretas y urgentes en virtualización y poco presupuesto para acometerlo en este año, Telecomputer tiene la solución perfecta. Fiable, Enterprise y Asequible.
En este Webinar te mostramos:
Por qué los grandes operadores Cloud obtienen grandes beneficios a pesar de sus enormes infraestructuras.
Cuál es el siguiente paso en la evolución de las tecnologías de virtualización para empresas.
Cómo disminuir tus inversiones en virtualización, costes de licencias, almacenamiento y networking.
Cómo mejorar la rentabilidad de tu negocio innovando e incorporando la última tecnología. No vayas a la guerra con una espada por no dedicarnos diez minutos, ¡tenemos ametralladoras!
Descubrirás que ya no vas a necesitar un carísimo almacenamiento y gastar miles de euros para disfrutar de la virtualización
Conocerás una forma fácil y efectiva de disponer de recursos de virtualización para tus proyectos.
Cómo racionalizar la inversión en tu plataforma de virtualización sabiendo que el futuro va a ser híbrido.
Te daremos la fórmula para no parar tu negocio por el miedo al coste que supone ampliar tu infraestructura IT
Descubra por qué algunos vendedores no pueden contar una historia convincente para vender OpenStack que pueda concretar contratos firmados en el sector de empresas
En casi todos los eventos OpenStack que he tenido oportunidad de asistir, se ha repetido una patrón similar: existe un muy fuerte deseo de penetrar en el mercado empresarial, el cual según mi opinión, pareciera ser el reto más difícil para los vendedores que gravitan alrededor del ecosistema OpenStack; la mayor parte de ellos no saben cómo articular una historia convincente para vender OpenStack y ganar el mercado de empresas; creo que simplemente no saben cómo venderlo.
No creo en la histeria generada por la prensa ni el marketing, que sostiene que la penetración de OpenStack en el gran mercado de la empresa es mínimo. Como todo en la vida, existen excepciones a la regla, como lo demuestra el famoso caso de estudio de PayPal.
Sin embargo PayPal no representa el típico caso del banco, ni de la empresa de seguros, o inclusive de la organización de atención médica promedio. Al revisar los casos de éxito de la página de OpenStack, encontrará un montón de referencias de clientes muy bien documentadas, pero no las del segmento empresarial tradicional que son precisamente la que los vendedores buscan.
¿Entonces por qué los vendedores no saben cómo vender OpenStack y no pueden contar una historia sobre OpenStack que logré convencer a los miembros de IT y CEO de las empresas a tomar una decisión favorable?
Existen al menos cuatro razones:
1) La falta de claridad acerca de lo que realmente OpenStack hace y lo que no hace.
Durante los últimos años, la prensa especializada erróneamente ha posicionado OpenStack como una alternativa a las soluciones comerciales que Gartner ha denominado plataformas de gestión de nube (CMPS).
Desde el punto de vista arquitectónico y funcional, OpenStack debe considerarse como una CMP comercial para aquellas empresas que necesitan una sólida gestión de procesos, una sofisticada capacidad de gestión y posibilidades avanzadas de automatización.
Subbu Allamaraju (Ingeniero Jefe de eBay a cargo de la nube privada OpenStack) opina que: OpenStack es un software de controlador de la nube. Aunque la comunidad hizo un buen trabajo en la elaboración de este software, una instancia de una instalación OpenStack no hace una nube. Como operador que tendrá que lidiar con muchas actividades adicionales los cuales no todos los usuarios ven, incluyendo infraonboarding; boostrapping; remediación, gestión de configuración, parches, embalaje, actualizaciones, alta disponibilidad, monitoreo, métrica, soporte a usuarios, previsión de capacidad y gestión, facturación, regeneración, seguridad, cortafuegos, DNS, integración con otras herramientas de infraestructura interna o herramientas, por ejemplo… Estas actividades consumen una cantidad significativa de tiempo y esfuerzo; OpenStack da algunos elementos clave para construir una nube, pero per sé no es la nube en una caja»
Es aceptable que la prensa no pueda establecer las diferencias tanto arquitectónicas como funcionales entre OpenStack y los CMP comerciales dirigidos al cloud computing privado. Pero los vendedores si conocen esta diferencia. Nadie (o probablemente muy pocos de forma tímida) en los últimos años han dicho claramente lo que OpenStack puede y no puede hacer por una empresa.
El resultado neto es que la gran mayoría de las consultorías con empresas interesadas en conocer más sobre OpenStack se centran en aclarar la arquitectura y el conjunto de características en comparación con soluciones como VMware vCloud Suite o BMC Cloud Lifecycle Management.
Por el contrario, el marketing ha estado centrado en la construcción de una asociación muy vaga entre OpenStack y el concepto general de «la nube». Nadie reconoce que OpenStack puede resolver un conjunto específico de los problemas relacionados con la construcción de una nube, pero no todos ellos.
Las empresas no hacen negocios con proveedores que no pueden presentar claramente su propuesta de valor, en la que describa cuál es el problema que resuelven y por qué lo resuelven mejor que otros.
2) La falta de transparencia acerca del modelo de negocio en torno a OpenStack.
No tengo dudas de que algunas personas realmente creen en la promesa de OpenStack y su potencial a largo plazo, por ejemplo: la nube hibrida.
La mayoría de los vendedores emplean OpenStack con fines de lucro. Es conveniente identificar cual de los siguientes esquemas, o combinación de ellos, aplican:
Algunos vendedores pueden beneficiarse de la complejidad de OpenStack mediante la venta de servicios profesionales de consultoría.
tros se benefician de la falta de funcionalidades de clase empresarial de OpenStack orientando a los clientes a sus soluciones CMP comerciales.
odos los proveedores se benefician de la naturaleza de código abierto de OpenStack, ofreciendo soporte a nivel empresarial más allá del ciclo de vida de 6 meses de cada versión de OpenStack.
e igual manera todos los proveedores toman ventaja de OpenStack, se apalancan en aprovechar los administradores de recursos proporcionados por otros proveedores, en lugar de desarrollar sus propios puntos de integración. Es un enorme costo de I + D que se descarga en la comunidad OpenStack.
Las empresas tienen que entender la viabilidad a largo plazo de las tecnologías que consideren para su adopción. Sin un modelo de negocio claro la empresa no puede avanzar de manera eficiente.
3) La falta de visión y la diferenciación a largo plazo.
Es fundamental tener claro el perfil del mercado de plataformas de gestión de la nube junto a la segmentación al momento de vender OpenStack
¿Qué valor añaden al código de OpenStack vainilla que las empresas pueden (pero no quieren) bajar por sí mismos? ¿Cuál es la diferencia entre todas estas distribuciones?
Para demasiados, todo se trata de número de contribuyentes de código y simplificar el proceso de instalación, en este orden exacto.
El número de contribuyentes de código no dice nada acerca de la visión de los vendedores y la diferenciación a largo plazo. ¿Cuántos desarrolladores contribuyen a una CMP comercial? ¿Importa si el producto no resuelve las necesidades de hoy y mañana que una organización tiene? Andrew arcilla Shafer, ex VP de Ingeniería de CloudScaling (un Usuario Dorado Fundación OpenStack), lo llamó vanidad de métricas.
Los Problemas de instalación de OpenStack no son nada nuevo, y es de alguna manera chocante que después de varios años siga siendo tan complejo de instalar. Es lógico pensar que si el proceso de instalación fuera mas sencillo eso permitiría aumentar las ventas ¿seguro?.
¿Alguna vez ha instalado VMware vCloud Suite? O BMC Nube Lifecycle Management? O Cisco suite Automatizado de Nubes? O Microsoft System Center? O IBM SmartCloud Orchestrator? O HP Cloud Service Automation? O CA automatizada Suite para la nube?
La mayoría de estos CMP comerciales son sistemas de múltiples niveles super complicados. En algunos casos, el proveedor requiere servicios profesionales incluso sólo para desplegarlas. Sin embargo, las grandes empresas siguen comprando, estos productos, que les permiten construir sus nubes privadas. Las organizaciones empresariales exigen simplificación de software, pero si un proceso de instalación más sencillo es el único valor que un proveedor OpenStack puede ofrecer, no resulta realmente impresionante.
Cuando las grandes empresas deciden construir una nube privada, se comprometen a un largo y complejo proceso de implantación que suele durar varios años, e implica altas inversiones.
En consecuencia, las organizaciones deben evaluar la viabilidad a largo plazo (es decir, aspectos como: Adquisición; posibilidad de quiebra; cambios radicales de la dinámica de mercados, entre otros) referentes al proveedor seleccionado, y como su visión se alinea con los aspectos relacionados con los objetivos del negocio.
Las empresas no compran una solución tecnológica basándose en torno a cuán grande es la instalación del software y cuantas líneas de código usted es capaz de escribir…
4) La falta de pragmatismo.
Los vendedores de soluciones OpenStack puristas siguen diciendo que OpenStack no puede ser un entorno de nube de propósito general.
Este grupo, pequeño por demás; es el que ignora cómo muchas grandes empresas siguen solicitando información sobre lo que OpenStack es y cómo lo podrían aprovechar para reducir su dependencia de VMware.
Esta facción también ignora la complejidad y la cantidad de tiempo que la organización empresarial debe dedicar para adoptar los patrones del entorno cloud.
Irónicamente, esta facción incluye a actores que no pierden el tiempo en criticar a los proveedores de virtualización o de gestión empresarial establecidos por no ofrecer «verdaderas» soluciones en la nube. Sin embargo, los clientes empresariales siguen comprando «no verdaderas» soluciones cloud, por este motivo, la adopción de OpenStack en este segmento del mercado sigue siendo mínima.
A las empresas no les gustan aquellos vendedores que demuestran falta de conciencia acerca de los problemas técnicos, organizativos, culturales y políticos que afectan a sus entornos. ¿Cómo pueden estos vendedores ser buenos socios de negocios?
Las empresas cada vez son más eficientes en el proceso de migración a la nube y en la migración de los datos, así como de aplicaciones al entorno Cloud, pero todavía no escapan a algunas trampas
La migración a la nube ya es una realidad. Todo el mundo inicialmente pensaba que sería una carrera de velocidad, pero en la práctica se ha demostrado que es más bien una carrera de fondo, la cual se incrementa progresivamente cada año. Justamente ese es el ritmo preferido por las empresas que se encuentran en el proceso de adopción de cualquier nueva tecnología, y el cloud computing no escapa a esta realidad.
En este momento podríamos decir que estamos en el segundo o tal vez en el tercer ciclo de proyectos de migración a la nube; es preocupante observar que las empresas continúan repitiendo los mismos errores una y otra vez.
Algunos problemas se corrigen rápidamente, mientras que otros están siendo un auténtico quebradero de cabeza en los proyectos de cloud computing.
El primer error es perder de vista el TCO (total cost of ownership) o (coste total de propiedad) una vez que se despliega la solución en la nube y se pone en producción. Se requieren aplicar métricas complejas para determinar si la nube va a ahorrar dinero para su organización; pero lamentablemente en la práctica la mayoría de los departamentos de TI de las empresas parecieran no estar dispuestos a profundizar en estos números.
Más aún lo recomendable sería, contar con un sistema que permitirá contabilizar el uso de recursos en tiempo real y el verdadero impacto de los costes de dichos recursos contra el valor o beneficio obtenido de las aplicaciones o servicios migrados al entorno de Virtualización Cloud.
En segundo lugar, muchas empresas no son eficientes a la hora de conseguir DevOps .DevOps es la práctica de las operaciones y los ingenieros de desarrollo que participan juntos en todo el ciclo de vida del servicio (producto o solución), desde el diseño hasta el proceso de desarrollo de apoyo a la producción.
Aprovechar el enfoque DevOps puede resultar muy valioso para la organización, siempre y cuando se aplique su metodología con el enfoque adecuado. Lamentablemente, muchas empresas se lanzan a procesos de integración continua, despliegue, sin tener en cuenta los cambios organizativos o de procesos. Esto puede afectar directamente en el resultado, haciendo que el proceso de migración a la nube (Cloud) de las aplicaciones no cumpla con las del proyecto fijadas por la empresa.
Por último, pero no menos importante ,se debe hacer especial énfasis en conseguir los niveles de seguridad y la denominada IT Governance adecuadas.
La IT Governance, o gobernabilidad corporativa, consiste en una estructura de procesos orientadas a la consecución de objetivos y que busca un equilibrio entre el riesgo y la inversión de tecnologías de información; su foco principal gira en tres aspectos clave: la gestión del riesgo inherente al uso de los sistemas de información; la optimización del rendimiento del sistema y la alineación de la estrategia de IT con la empresa.
En muchos aspectos, los que migran aplicaciones a la nube no piensan acerca de la seguridad y la gobernabilidad operativa, derivando esta responsabilidad hacia el área de arquitectura estratégica e infraestructura IT; a su vez el «otro» equipo piensa que la gobernabilidad y la seguridad deben ser responsabilidad de los que migran las aplicaciones; el resultado: el problema es resulto cuando efectivamente sucede algo malo.
Estamos aprendiendo a medida que avanzamos, en una especie de ensayo y error; pero la frecuencia de estos errores es francamente preocupante. Debemos ser cada vez más inteligentes y evitar repetirlos a medida que avancemos.
OpenStack puede ser una alternativa para aquellas empresas que necesitan implementar software o infraestructura como servicio, pero siguen manteniendo reservas a la hora de hacerlo utilizando los servicios de nube pública. Descubra si las soluciones de OpenStack son adecuadas para su negocio.
El interés sobre el proyecto OpenStack crece cada vez más. Desarrollado inicialmente por Rackspace Hosting y NASA en 2010, ha logrado evolucionar hasta convertirse en una gran comunidad de desarrolladores que colaboran en un sistema operativo en nube de código abierto estándar.
Están disponibles varias versiones de software de OpenStack, y todo el código se puede descargar libremente bajo la licencia Apache 2.0.
Desde su creación, la Fundación OpenStack ha atraído a más de 200 empresas. La tecnología se conoce y ha sido implementada en organizaciones reconocidas como Best Buy, Bloomberg y PayPal. Este artículo echa un vistazo a los beneficios de OpenStack y explora algunas prácticas que puede implementar en sus empresas.
Propuesta de Valor de OpenStack
Antes de ver cómo se puede implementar una solución OpenStack, es importante entender primero la propuesta de valor que ofrece. En concreto, OpenStack es una plataforma de software de nube dirigida a empresas que buscan desplegar su propia infraestructura de nube privada y que complementa en el ámbito privado el ya de por si amplio catálogo de soluciones de nube pública, haciendo que esté disponible la misma tecnología en los dos ámbitos de la nube de forma natural.
Su atractivo: Las debilidades de las plataformas de nube pública.
Servicios en la nube como: Amazon (AWS), Google Compute Engine y Microsoft Azure son plataformas propietarias que “encierran” automáticamente a los usuarios en su plataforma. AWS, por ejemplo, tiene su propia interfaz de programación de aplicaciones (API) y su propio conjunto de software, lo que significa que las empresas no podrían migrar fácilmente a un proveedor de la nube de la competencia. Como podemos imaginar, esto podría ser un gran problema para una empresa que desarrolla una aplicación estratégica.
Todos los servicios en la nube ofrecen un acuerdo de nivel de servicio (SLA), que tiende a ser el mismo para todos los clientes, en algunos casos, es insuficiente. Pero si decidimos optar por Openstack, dispondremos de una gran cantidad de proveedores de servicios de OpenStack, lo que teóricamente hace que sea más fácil encontrar un proveedor adecuado que ofrezca un tiempo de respuesta adecuado.
También podemos echar un rápido vistazo a los distintos cortes y pérdidas de servicio de la nube, que dejan claro que las empresas no pueden controlar cuando tienen lugar – y aún menos disponer de la información exacta sobre la gravedad de la caída y el estado exacto de los trabajos de restauración.
Otro punto a tener en cuenta es la privacidad de datos, que puede ser el enemigo número uno del OpenStack y en general de cualquier servicio de nube pública, ya que dependiendo de los servicios que se ofrezcan, o el tipo de organización, o el país del usuario, algunos datos pueden que no esté permitido por ley que sean almacenados en una infraestructura de nube pública.
Sin embargo una implementación de nube híbrida, con la misma tecnología OpenStack desde un extremo al otro, podría resolver el problema alojando esos datos sensibles en las instalaciones propias (Cloud Privado) y frente a los cortes y pérdidas de servicio, sería difícil que un ataque DDoS que afecta a un proveedor de cloud pública, por ejemplo, lo hiciera al mismo tiempo en nuestro datacenter propio o alquilado.
Primeros pasos en OpenStack: Cuide las cargas de trabajo
La primera cosa que debe hacer antes de la implementación OpenStack es identificar la carga de trabajo que va a ejecutar utilizando OpenStack: Todo comienza y termina con la carga de trabajo y más si tenemos claro que virtualización y cloud no son estrictamente lo mismo.
Por lo tanto es altamente recomendable que las empresas dispongan de un socio con un conocimiento probado y profundo para el despliegue y la gestión de OpenStack y la adaptación a sus necesidades específicas. Este es un paso fundamental que contribuirá significativamente a hacer más fácil y atractivo para las empresas la adopción de OpenStack y maximizará el beneficio que ofrece la implementación de una nube híbrida, más allá de poder disponer de un gestor de entornos de virtualización y cloud.
Implementando OpenStack: Use su imaginación
Hay dos maneras de implementar OpenStack: la primera sería trabajar con un proveedor de servicios, y la otra es descargar una distribución OpenStack en servidores locales.
OpenStack ofrece una gran flexibilidad, tanto en términos de migración entre múltiples proveedores de la nube de acuerdo a las necesidades cambiantes y de acuerdo a los precios y condiciones del mercado. Pero en nuestro mundo de IT, la flexibilidad tiene un alto precio en lo que a complejidad se refiere, y puede hacer que sea difícil para los no iniciados visualizar adecuadamente los casos prácticos de uso disponibles para OpenStack.
Las soluciones de OpenStack son especialmente adecuadas para la construcción de cualquier aplicación de software como servicio en entorno de cloud computing, ya sea como nuevos desarrollos o como mejoras en las soluciones existentes y sin embargo quizás no sean la solución más adecuada para despliegues de aplicaciones cliente-servidor tradicionales.
Beneficios de las soluciones de OpenStack:
Openstack puede servir como base para la entrega de almacenamiento de autoservicio y servicio a la carta para los usuarios que necesitan servicios de TI.
Se puede utilizar para ofrecer almacenamiento de objetos o almacenamiento de bloques bajo demanda. OpenStack Swift permite disponer de almacenamiento de bajo costo y de fácil administración.
También disfrutaremos de un importante ahorro de licencias al cambiar las máquinas o servicios virtuales que se ejecutan en VMware hacía el hipervisor KVM que es la opción nativa de OpenStack.
Conclusiones
Para aquellas empresas que crean que implementar soluciones de OpenStack consiste en simplemente presionar un botón es muy probable que queden decepcionados. Sus departamentos de TI necesitan prepararse para este nuevo paradigma y adoptar una mentalidad no sólo de «hágalo usted mismo» en el despliegue de su primera infraestructura OpenStack, sino que habrá que tomar decisiones respecto a la arquitectura de las aplicaciones, identificando los elementos de las mismas que son flexibles o pueden ser fácilmente puestos en alta disponibilidad bajo un esquema de replicación de nodos.
Implementar OpenStack por lo tanto, supone algo más que la adopción de una plataforma de infraestructura nueva: en realidad se trata de la adopción de un nuevo modelo de trabajo en IT orientado a ofrecer agilidad en el despliegue de infraestructura, en realidad, el modelo cloud. Es una oportunidad para construir algo desde cero, y se justifica por la capacidad de la plataforma en la nube para lograr ahorros mediante superando los modelos de virtualización que propuso VMware hace ya más de 10 años.
Telecomputer, que cuenta en su haber con el desarrollo de ORIGINstack, el appliance hiperconvergente basado en Openstack creado para permitir a las pequeñas empresas dar ese primer paso hacía OpenStack, cuenta con el conocimiento necesario para analizar su entorno de IT y proponer una solución de transformación de su infraestructura de virtualización en una solución de Cloud Híbrida.
Fue tan sólo hace dos años cuando el CTO de VMware Steve Chambers, utilizó por primera vez el término “hiperconvergencia” para diferenciar los sistemas de cómputo combinado que Nutanix, SimpliVity y Scale Computing estaban introduciendo frente a los sistemas de convergencia como Vblock de VCE.
Hoy, desde el vendedor de soluciones de IT hasta emprendedores en el ámbito del software de almacenamiento sostienen que la hiperconvergencia es el futuro, o al menos una opción muy posible, tal y como ya adelantaban las predicciones de importantes consultoras tecnológicas como IDC en 2012.
“This IDC study highlights that the overall spending on converged systems will grow at a compound annual growth rate (CAGR) of 54.7% from $2.0 billion in 2011 to $17.8 billion in 2016.”
Al igual que muchas otras soluciones de IT, la hiperconvergencia nace en una startup, pero al igual que el tsunami comienza con un terremoto en el lecho marino, la puesta de largo oficial de la hiperconvergencia comenzó con la creación de la plataforma EVO:RAIL de VMware, era la confirmación del líder sobre la viabilidad de un nuevo producto.
Para quien no haya tenido la oportunidad de analizar el concepto, diremos que EVO:RAIL es un diseño estándar de cuatro servidores de alta densidad, que los fabricantes de hardware pueden construir a partir de sus respectivos contenedores de piezas. Esto implica que uno puede comprar sistemas EVO:RAIL de Fujitsu, Dell, Supermicro, directamente de la casa matriz de VMware, EMC, o más recientemente de HP e Hitachi Data Systems, donde el hardware es básicamente el mismo ofreciendo cada uno de los nodos procesadores Xeon E5-2620 v2 duales, 192 GB de memoria, 400 GB de SSD y tres discos duros de 1.2 TB.
Algunos proveedores puede que elijan distintos chips de Ethernet de 10 GB o que algunos usuarios prefieran los iLO de HP, sobre los DRAC de DELL, pero los sistemas de EVO:RAIL son básicamente intercambiables.
¿Dónde reside entonces la diferencia con otros sistemas de virtualización? Y pues en el software de VMware, que incluye no sólo vSphere y vSAN, sino también un sistema automatizado de instalación y una consola de mando simplificada.
La falta de confirmación por parte de HP de su apoyo a esta iniciativa en los primeros anuncios de EVO:RAIL, hizo pensar a la mayoría de los expertos que en vez de funcionar con el paquete de software completo de VMware, HP construiría sus módulos de hiperconvergencia alrededor de su producto StoreVirtual VSA, que es el nuevo nombre de la tecnología VSA de Lefthand iSCSI que viene usándose desde la presentación de esta familia de almacenamiento, hace ya más de 5 años.
Finalmente ha resultado que teníamos más o menos razón, porque el sistema HP ConvergedSystem 200-HC Store Virtual hace precisamente eso. El modelo básico utiliza discos SAS, debido a que, por ejemplo, el SQL Server necesario para administrar una docena de cajas registradoras no necesita más que unos cientos de IOPs. También se presentó un modelo para tareas más exigentes que incorpora SSD y saca provecho del procesamiento por niveles del sub-LUN de StoreVirtual. En cualquier caso HP decidió finalmente proteger su apuesta incorporando al producto el paquete de software de VMware para convertirlo en EVO:RAIL.
No obstante, por más exitoso que el EVO:RAIL sea, no es lo más interesante que está sucediendo en el mundo de la hiperconvergencia. Los especialistas en Gridstore, como los de Scale Computing antes, se dieron cuenta de que si su sistema para Hyper-V funcionaba bajo Windows en un Xeon sencillo, podrían utilizarlo en un servidor más poderoso y utilizar Hyper-V para procesar cómputos también, así los servidores en sus 4 nodos alojados en 2U son bastante poderosos también, con procesadores E5-2690 10 core.
Aunque algunos consideran que la tecnología flash y la hiperconvergencia son dos grandes tecnologías, pero que nos van bien juntas, las compañías están ofreciendo sistemas de hiperconvergencia completamente flash. Nutanix tiene la NX-9000 con 6×1.6TB de flash para 3.2TB de capacidad usable con 3-way mirroring en cada uno de sus nodos de 20 core.
Incluso Gridstore tiene su modelo 100% flash recurriendo a 1 TB de SSD de alto rendimiento como cache, frente a 5TB de SSD orientados a lectura en cada nodo. El controlador virtual de Gridstore utiliza un modelo de protección de datos de paridad distribuida, que tiene significativamente menos sobrecarga que el más típico de 3 espejos.
En el caso de ORIGINstack, el fabricante español de sistemas hiperconvergentes, la apuesta en el hardware es dejarlo abierto a las necesidades del cliente.
Con un solo modelo de nodo y una configuración inicial que arranca en tres nodos, ORIGINstack permite elegir procesadores desde 4 hasta 12 cores y cantidades de memoria desde 64 Gb hasta 512 Gb por nodo para adaptarse de manera abierta a las cargas de trabajo de cada cliente.
En cuanto al almacenamiento, ORIGINstack apuesta por un sistema distribuido de almacenamiento en el que cada nodo es una controladora activa de un sistema y en el que la protección se puede definir utilizando réplica sencilla o doble de cada bloque escrito para alcanzar ratios de disponibilidad de hasta siete nueves 99.9999999%.
Para solucionar el espinoso asunto del rendimiento de disco, además del incremento que ofrece de por sí la paralelización de lecturas y escrituras, se ha diseñado un sistema que permite utilizar discos SATA de gran volumen apoyados por tecnologías SSD que aceleran el rendimiento como cache. El resultado es un sistema hiperconvergente que ofrece hasta 24 Tb netos con 4 Tb de cache SSD en un chasis de 2U, junto con el cómputo y la virtualización. En cualquier caso, la elección de discos está abierta y ORIGINstack puede configurarse con todos los discos SAS o SSD para cargas de trabajo específicas.
Ahora resulta evidente que aunque los sistemas de hiperconvergencia no se conviertan en la arquitectura dominante de la próxima década – como los servidores Blade, antes que ellos – sí serán la opción correcta para buena parte de las empresas.
Hiperconvergencia: sistemas modulares al servicio de las necesidades de tu empresa
Si actualmente te encuentras investigando sobre las distintas alternativas existentes para refrescar tus servidores o tus plataformas de virtualización, entonces lo más probables es que ya te hayas topado con el término “Hiperconvergencia”. Lo primero que posiblemente haya pasado por tu mente es: ¿Qué son estos sistemas de hiperconvergencia y qué los diferencia de los sistemas de convergencia normales?
No obstante, lo ideal sería que nos preguntásemos primero qué son los sistemas de convergencia y en qué manera se diferencian de los sistemas clásicos de infraestructura, para luego pasar a los conceptos más nuevos.
Pues en este post haremos precisamente eso, repasaremos todos los conceptos clave para luego entender mejor las opciones que tenemos hoy a nuestra disposición.
Diferencias entre sistemas de convergencia y la infraestructura IT tradicional
Los sistemas convergentes son una evolución natural de la infraestructura IT tradicional, la cual, por lo general estaba compuesta por silos de información (unidades que trabajan de manera aislada para cada aplicación de negocio y bastante habitualmente con un alto grado de descoordinación del plan estratégico de la empresa), por ejemplo: ERP, gestión de Recursos Humanos, producción, etc..
En este modelo, previo a la consolidación que ha generado la virtualización, cada unidad de negocio disponía de su propio entorno de IT, escudándose en las necesidades y requisitos de este o aquel fabricante de software y en la necesidad de garantizar los rendimientos que cada uno solicitaba a sus clientes. El resultado lo hemos visto todos en la inmensa mayoría de las empresas, que disponían de un auténtico SIMO, o para los lectores que no entiendan este localismo, una amplia y heterogénea colección de tecnologías y fabricantes. La segunda derivada de esta forma de trabajar era que cada unidad o departamento disponía de su presupuesto y sus preferencias, por lo que la eficiencia de las políticas de compra distaba mucho de lo óptimo.
Por esta razón y una vez que la virtualización entra en escena, cobra sentido el concepto de sistemas convergentes, ya que permite combinar dos o más de estas infraestructuras como una solución de ingeniería preestablecida, puesto que el producto final que se entregará es tan homogéneo como una máquina virtual, que además es apta para todas las cargas de trabajo imaginables en el 95% de los casos que se presentan en una empresa.
VCE, HP, IBM, Oracle son algunas de las compañías que han diseñado soluciones que hacen converger almacenamiento, cómputo y redes gestionadas bajo un mismo entorno software de gestión. La idea básica es tener un solo proveedor de todos los componentes necesarios y un servicio de soporte único para sólo tener que “fastidiar” a una persona en caso de necesitar soporte, eliminando las complejidades de ingeniería y operativas que implica una solución multivendedor.
Las ventajas más relevantes de estas soluciones es que ponen a nuestro alcance diseños relativamente simples para un entorno de infraestructura bastante compleja. Normalmente podría llevarnos meses diseñar una infraestructura utilizando una mezcla de las mejores tecnologías y los sistemas convergentes reducen los tiempos de implantación y sobre todo los riesgos de desviación de tiempo y presupuesto.
Al final, lo que estamos adquiriendo con una solución convergente es un proveedor de máquinas virtuales, una máquina que nos da recursos de computación de una manera tan automática como la máquina de café nos prepara un expresso a media mañana.
Hablemos de Hiperconvergencia
Partiendo de las bases de la convergencia, parece en escena hace relativamente poco el concepto de SDx – Software Defined Anything, es decir, herramientas de software que nos permiten desacoplar de una manera efectiva las capacidades de los sistemas de almacenamiento, red y cómputo de un hardware específico y llevarlo a un entorno virtualizado y homogéneo, y todo esto, por supuesto, con unos costes absolutamente inferiores.
Por tanto, los sistemas de hiperconvergencia llevan este concepto de convergencia del que hablamos antes y lo llevan a otro nivel. Mientras que los sistemas de convergencia son componentes diseñados para trabajar bien en conjunto, los de la hiperconvergencia son sistemas modulares, basados en componentes homogéneos, diseñados para ser sumados, agregando cada vez más módulos, en la medida que las tareas lo requieran.
Estos sistemas por lo general son diseñados alrededor de las capacidades de almacenamiento y cómputo ofrecidas por un único servidor de x86, interconectado por 10 GB de Ethernet. A primera vista esto puede parecer un servidor con mucha capacidad de almacenamiento y desde un punto de vista físico, lo es.
La diferencia entre un sistema de hiperconvergencia y un grupo de servidores con muchos discos, es la ingeniería y sobre todo el software. Las soluciones de hiperconvergencia sacan provecho de una nueva generación de software de control de almacenamiento, de red y de cómputo, permitiéndole a estos sistemas crecer casi sin límite. Mientras más módulos se le agregan, mejor rendimiento y mayor capacidad tendrán.
Por lo tanto, en vez de crecer mediante la inclusión de discos, memoria o CPUs, los sistemas de hiperconvergencia crecen mediante la adición de módulos. No obstante, su arquitectura no es su única ventaja, los sistemas de hiperconvergencia además gozan de un modelo de administración simplificado.
Esto, en términos sencillos, quiere decir que en vez de necesitar a un equipo de personas que se ocupe de tus unidades de almacenamiento, otro que se ocupe de virtualización y a otro que se dedique al servidor o la red, sólo necesitarás a un equipo (en algunos caso compuesto por una sola persona) que supervise el funcionamiento de tu unidad de hiperconvergencia ya que la automatización de procesos para desplegar recursos de IT está en su ADN.
Hay dos maneras en que se puede obtener una infraestructura de hiperconvergencia. Puedes comprar una de compañías como ORIGINstack, Nutanix o SimpliVity, quienes ofrecen diferentes tipos de soluciones para distintos tipos de compañías; o puedes construir tu propio sistema de hiperconvergencia.
Soluciones como VSAN de VMware y StoreVirtual de HP están diseñadas para clientes que quieren tener mayor control sobre los elementos del diseño de su sistema de hiperconvergencia. Con estos podemos elegir nuestro propio servidor de hardware y configurar los discos a nuestro gusto, siempre y cuando el hardware sea compatible con el software del proveedor.
Puntos débiles de la hiperconvergencia
Una de las desventajas de la hiperconvergencia es que no nos permiten realizar pequeños cambios y mejoras a nuestro sistema ya que el crecimiento suele ser lineal.
Si un cluster está algo bajo de memoria, pero no de cómputo, igual tendremos que actualizar la capacidad de cómputo general agregando más módulos. De igual manera, si queremos mejorar la configuración de almacenamiento del disco esto será un problema.
La excepción a esta norma general la introducen sistemas como ORIGINstack, que basándose en una metodología de diseño OPENbay dispone de distintos niveles de procesador, y configuraciones de memoria y disco duro abiertas para adaptar el nivel de inversión a las necesidades de cada momento. Es decir, es un sistema modular asimétrico, ya que la homogeneización de los módulos se consigue a través del software y el hardware base, pero permite un alto nivel de flexibilidad.
Una segunda desventaja proviene de las barreras y trabas organizacionales que surgen cuando queremos combinar sistemas que tradicionalmente habían trabajado con silos de información u organizaciones aisladas. Si un grupo de la compañía quiere comenzar a trabajar con un sistema de hiperconvergencia, tendrá que lidiar con discusiones sobre presupuesto y diferencias de división con otros departamentos.
Conclusiones
Los sistemas de hiperconvergencia ofrecen diseños más simples, disminución de los gastos administrativos y simplifica la gestión de proveedores en entornos altamente virtualizados.
Sin embargo, asegúrate de considerar las desventajas de los sistemas que hay en el mercado antes de decidirte a adoptar un fabricante de hiperconvergencia.
Utilizamos cookies para personalizar el contenido y los anuncios, para ofrecer funciones de redes sociales y para analizar nuestro tráfico. También compartimos información sobre el uso que usted hace de nuestro sitio con nuestros socios de medios sociales, publicidad y análisis, que pueden combinarla con otra información que usted les haya proporcionado o que hayan recopilado a partir del uso que usted hace de sus servicios. Usted acepta nuestras cookies si continúa utilizando nuestro sitio web.
Utilizamos cookies para personalizar el contenido y los anuncios, para ofrecer funciones de redes sociales y para analizar nuestro tráfico. También compartimos información sobre el uso que usted hace de nuestro sitio con nuestros socios de medios sociales, publicidad y análisis, que pueden combinarla con otra información que usted les haya proporcionado o que hayan recopilado a partir del uso que usted hace de sus servicios. Usted acepta nuestras cookies si continúa utilizando nuestro sitio web.
Las cookies necesarias ayudan a realizar un sitio web utilizable al permitir las funciones básicas como la navegación de la página y el acceso a áreas seguras del sitio web. El sitio web no puede funcionar correctamente sin estas cookies.
Las cookies de preferencias permiten que un sitio web recuerde la información que cambia la forma en que se comporta o mira el sitio web, como su idioma preferido o la región en la que está.
La estadística
Las cookies estadísticas ayudan a los propietarios de sitios web a comprender cómo los visitantes interactúan con los sitios web mediante la recopilación y presentación de información de forma anónima.
El márketing
Las cookies de marketing se utilizan para rastrear visitantes en sitios web. La intención es mostrar anuncios que sean relevantes y atractivos para el usuario individual y, por lo tanto, más valiosos para los editores y anunciantes externos.
Desclasificado
Las cookies no clasificadas son cookies que estamos en proceso de clasificar, junto con los proveedores de cookies individuales.