viernes, 17 de abril de 2015

El lado oscuro de la virtualización

Pocas tecnologías han obtenido tanta atención a lo largo de la década pasada como la virtualización de servidores. Y por un buen motivo. Hace diez años, la organización promedio sufría de problemas graves de servidores dispersos. ‘Una aplicación, un servidor’ fue el grito de batalla entonces. La seguridad y el desempeño previsible tuvieron prioridad sobre la eficiencia y la utilización de los servidores.

Los hipervisores y las máquinas virtuales han ayudado a poner orden en este asunto. Al permitir que múltiples aplicaciones compartan memoria, poder de procesamiento y otros recursos en el mismo servidor físico host, la virtualización ha reducido los costos y ha hecho que los centros de TI sean más ágiles. ¿Necesita poder de cómputo para una nueva aplicación de negocios? ¡Simplemente obtenga una máquina virtual en su servidor host y listo! Se pondrá en marcha. 

Pero existe un lado oscuro de la virtualización. Es un secreto que los grandes centros de TI conocen bien pero que casi nunca mencionan públicamente, y ciertamente no es culpa de los vendedores que ofrecen soluciones de virtualización. El secreto bien guardado consiste en lo siguiente: las tecnologías de virtualización tradicionales son magníficas para consolidar el trabajo de recursos pero no son nada adecuadas para las aplicaciones de las que las organizaciones dependen para ejecutar sus procesos más importantes, delicados y críticos para el negocio – como aquellos que guían las relaciones con los clientes, las transacciones financieras y las cadenas de suministro: aplicaciones de misión crítica, en otras palabras. 

Los motivos tienen que ver, en gran medida, con el desempeño y la seguridad. La virtualización trabaja bajo el principio de compartir recursos. Los recursos de cómputo y de memoria de los servidores físicos se agrupan en un entorno virtual. Las diferentes aplicaciones posteriormente van a esa agrupación para competir por recursos cuando los necesiten. 

Ese principio trabaja bien para aplicaciones de nivel más bajo que no requieren muchos recursos. Las aplicaciones de misión más crítica no juegan este juego tan bien. Se sabe, por ejemplo, que las aplicaciones de planificación de recursos empresariales (ERP) requieren de muchos recursos. Colóquelas en un entorno compartido y de repente usted tendrá un escenario darwiniano donde las aplicaciones mayores toman todos los recursos y crear cuellos de botella para todo mundo. 

La seguridad y la conformidad representan la segunda gran área de preocupación cuando tiene que ver con colocar aplicaciones de misión crítica en entornos virtualizados. Debido a que los servidores virtuales comparten recursos, es más difícil (si no imposible) aislar o endurecer aplicaciones y cargas de trabajo específicas para seguridad. Por lo que auditar dichas aplicaciones para estar en conformidad, llega a ser un problema. Por todos estos motivos, la virtualización ha golpeado el techo cuando tiene que ver con el mundo de aplicaciones de misión crítica. Gartner estima que aproximadamente 70% de los entornos de servidor fueron virtualizados en el 2013. El restante 30%, que representa en gran medida cargas de trabajo de misión crítica complejas, de transacciones intensas, permanece sin ser tocado por la virtualización. 

Particionamiento seguro: una tercera vía
 

Hasta hace poco, los directores de informática que intentan reducir costos y aumentar la flexibilidad de sus aplicaciones de misión crítica han enfrentado una elección difícil: tomar el riesgo de virtualizar estas cargas de trabajo y esperar que no se topen con contención de recursos, o mantener sus aplicaciones de misión crítica apartadas en servidores dedicados, caros y subutilizados, lo que realmente no es una opción. 

Pero con la aparición del cómputo en estructura, que utiliza interconexiones de alta velocidad para enlazar holgadamente recursos de cómputo en entornos elásticos, las organizaciones ven una nueva alternativa a la virtualización, una que entrega ahorros y flexibilidad de servidores virtualizados sin sacrificar rendimiento y seguridad. 

Esa opción, coloquialmente llamada ‘particionamiento seguro’, implica crear particiones dedicadas dentro de un entorno de estructura basado en procesadores estándar Intel x86. Estas particiones son dedicadas para servir a una aplicación de misión crítica específica, proporcionando toda la memoria, poder de cómputo, almacenamiento y otros recursos necesitados por aquellas cargas de trabajo para operar de manera segura y a niveles de desempeño y confiabilidad de misión crítica. Este abordaje elimina la competencia por recursos. 

En esencia, estas particiones actúan conectadas directamente en un servidor físico, pero debido a que se basan en software y residen en un entorno de estructura de alta velocidad, obtienen la ventaja de contar con una flexibilidad extrema. Las particiones seguras pueden ser juntadas y suministradas en minutos, y posteriormente desmontadas rápidamente cuando ya no se necesitan. Una partición segura también puede servir a usuarios finales y ubicaciones geográficamente dispersas. Los resultados son menos servidores físicos y ahorros significativos. 

Todo esto sin sacrificar la seguridad. Las particiones seguras pueden ser aisladas o pueden ser fortalecidas para cargas de trabajo altamente sensibles. Y de nuevo, todo esto puede ser hecho a través de software, no de hardware. 
Para el restante 30% de entornos de TI que no han sido virtualizados, estas son buenas noticias. Los directores de Informática ya no deben hacer concesiones en relación a sus aplicaciones de misión crítica. Pueden conseguir los beneficios de la virtualización a un costo razonable sin sacrificar seguridad y desempeño. 

jighInfo Ref