¿Cuáles son las nuevas promesas para el centro de datos en 2016? Las aplicaciones pilotearán el curso para una mejor protección de datos y exigirán más recursos de la arquitectura de escala.
Enero fue un tiempo para hacer predicciones obvias y resoluciones de corta duración. Ahora es el momento para el análisis inteligente de las aguas de alta tecnología infestadas de tiburones. El nuevo año es un buen momento para que las nuevas startups salgan de las sombras. Pero, ¿qué es simplemente brillante y nuevo, y qué va a afectar realmente a los centros de datos?
Desde la gestión de recursos centrados en aplicaciones hasta la arquitectura de escala, aquí hay algunas tendencias emergentes que seguramente tendrán un impacto en el centro de datos.
La protección de datos despierta
Es el regreso (o el tan esperado capítulo 7) del software de protección de datos que puede reducir o eliminar la mayor parte de los riesgos de continuidad del negocio. En este momento de lagos de datos a escala de petabytes, de proliferación de bases de datos y operaciones 24x7, ya no es suficiente mantener a la rutina de hacer una copia de seguridad completa en cinta. La ventana de respaldos se está reduciendo –incluso está por desaparecer– gracias a las aplicaciones que no pueden tomar mucho tiempo libre, si no es que ninguno. Los datos están creciendo demasiado como para volcarlos en una imagen masiva y restaurarlos desde copias de seguridad tradicionales. Ande, trate de restaurar un cluster Hadoop a partir de copias de seguridad. En 2016, busque nuevas capacidades de protección de datos como las ofrecidos por Talena que se refieren directamente a los almacenes de datos grandes, características directas de la matriz como "copia de seguridad plana" de HPE 3PAR que dirige sus instantáneas directamente a StoreOnce, y el dispositivo de Oracle Zero Data Loss Recovery, que simplifica la protección de todas esas grandes bases de datos de 24x7.
Convergencia de crecimiento modular
Las arquitecturas monolíticas de escala son tan 2005. Ahora tenemos diseños distribuidos, de escala modular, paralelos, conectados en red para todo, incluidos los servidores (nube/virtualización/datos grandes), procesos (microservicios basados en contenedores), almacenamiento (miles de millones de almacenes de objetos de archivo), e incluso rejillas (grids) de memoria. El problema es que la mayoría de nuestras aplicaciones no pueden aprovechar los recursos de la arquitectura de escala. Ellos tienden a preferir los recursos sencillos y centralizados. La buena noticia es que cada vez hay más capas de soporte que pueden mapear las aplicaciones heredadas en nuevas arquitecturas de TI. Por ejemplo, los sistemas de archivos paralelos como Lustre y GPFS están madurando hacia opciones de almacenamiento de centros de datos empresariales (por ejemplo, IBM Spectrum Scale). Los contenedores son cada vez más capaces de alojar aplicaciones grandes y de estado, incluyendo bases de datos, así como recursos definidos por software (como el almacenamiento). Los nuevos almacenes de objetos pueden contener miles de millones de objetos (por ejemplo Qumulo) para borrar la línea entre lo que solían ser los archicos de nivel 2 y el actual almacenamiento de objetos casi de nivel 1, consciente de los datos.
Este cambio en la arquitectura de escala modular no es necesariamente en términos literales de hardware, pero debe ser considerada en todos los niveles de la pila. Considere a los mainframes. El mainframe de hoy es técnicamente un impresionante anfitrión de contenedores de gran hiper-convergencia –el más grande fierro ejecutando números masivos de las cargas de trabajo más pequeñas. En este nuevo mundo, piense cuáles capas están mejor optimizadas como pools agregados, cuáles como un recurso consolidado centralizado, y cuáles como nodos estilo "Internet de las Cosas" verdaderamente distribuidos o como mezclas de nube híbrida. Sólo entonces será posible hacer que sean completamente opacas para las aplicaciones y permitir que TI optimice el alojamiento de aplicaciones de forma dinámica.
Las aplicaciones guían el rumbo
Ya sea que usted crea en DevOps humanos, infraestructura de TI autonómica o la inteligencia invisible dentro de su proveedor de nube, las aplicaciones necesitan dictar los recursos y la calidad de servicio que necesitan –y lo harán de forma más dinámica. La infraestructura es cada vez más inteligente sobre cómo responder a los cambios dinámicos en la calidad de servicio de cada aplicación. VMware proporciona algunos ejemplos de grandes infraestructuras dinamicamente flexibles con recursos definidos por software como las redes NSX y el almacenamiento SAN virtual que aplica políticas de QoS en función de cada máquina virtual.
Los contenedores también prometen definir los recursos que cada componente de una aplicación requiere de forma dinámica. Por supuesto, lo que aún falta aquí es la meta-inteligencia para ayudar a las aplicaciones a asegurar a sus propios niveles de servicio. Esté atento a los sistemas de gestión basados en grandes datos que combinan vistas de infraestructura y gestión de rendimiento de las aplicaciones para la orientación operativa activa.
Se alarga la curva de valor de los datos vitalicios
El valor de los datos solía disminuir a medida que éstos envejecían, pero con los archivos activos y big data, la mayoría de los datos ofrece un valor mucho más allá de su uso operativo activo. Los lagos de datos, la analítica integrada y el almacenamiento de escala rentable están cambiando la curva de valor fundamental de los datos. Este es el año para buscar el valor oculto de sus datos. No se olvide de considerar nuevas fuentes de datos internas (por ejemplo, internet de las cosas) y externas (socios, cadena de suministro, terceros) en combinación.
Cada una de estas tendencias merece una evaluación más profunda –y una mente abierta. Si bien es tentador continuar con lo que sabemos, es redituable estar abiertos a nuevas ideas. Algunas personas podrían preguntarse qué tan inteligente tiene que ser nuestra infraestructura, pero la verdadera pregunta es ¿qué tan inteligente puede ser?