Descubra qué es lo más caliente, y qué no, en nuestra lista de tendencias de tecnología de almacenamiento de datos para este año.
Gestión de datos de copia
Gestionar numerosas copias físicas de los mismos datos desde múltiples herramientas sigue siendo caro, sigue siendo un dolor de cabeza de gestión e incluso plantea una amenaza a la seguridad. Es por eso que la gestión de datos de copia (CDM, por sus siglas en inglés), que utiliza un solo clon vivo para las copias de seguridad, archivado, replicación y otros servicios de datos, es una de las tendencias de las tecnologías de almacenamiento que representan una adopción más fuerte en 2016.
El mercado ha crecido para incluir a las nuevas empresas Cohesity Inc. y Rubrik, las cuales han presentado recientemente sus productos, junto con los proveedores tradicionales como Catalogic Software, Commvault, Hitachi Data Systems y NetApp. La firma de investigación IDC estima que la copia de datos costará a las organizaciones de TI casi $51 mil millones de dólares en 2018.
Actifio es el pionero en este espacio con su plataforma de virtualización de datos de copia que desacopla los datos de la infraestructura y consolida los procesos de protección de datos en silos.
Cohesity lanzó su plataforma de datos Cohesity, diseñada para converger todas las cargas de trabajo de almacenamiento secundario con un dispositivo 2U basado en Intel que sirve como un bloque de construcción para su arquitectura scale-out. Su software de arquitectura abierta para almacenamiento inteligente y escalable (Cohesity OASIS) incluye la gestión de la calidad del servicio para converger los análisis, procesos de archivo y protección de datos en una sola plataforma.
Rubrik liberó su producto de gestión de datos en 2015, con la venta de un aparato de 2U con software incorporado que realiza copias de seguridad, deduplicación, compresión y gestión de versiones. Hitachi mejoró su Hitachi Data Instance Director (HDID) y la plataforma de almacenamiento virtual de Hitachi para ayudar a reducir las copias.
CDM es muy diferente de la gestión del almacenamiento tradicional, ya que agiliza el proceso de silo en el que los clientes utilizan múltiples herramientas de múltiples proveedores, en particular para la protección de datos.
"Hoy en día, hay un montón de fragmentación en el almacenamiento secundario", dijo el CEO de Cohesity, Mohit Aron. "Un cliente va y compra un montón de diferentes productos de múltiples proveedores y de alguna manera tiene que lograr que interactúen entre sí de forma manual, gestionándolos a través de múltiples interfaces de usuario. Eso se convierte en un gran dolor de cabeza en la administración."
Aron reconoció la evolución de los productos del CDM con diferentes capacidades.
"La plataforma de Datos Cohesity converge todos sus flujos de trabajo de protección de datos en un aparato", dijo Aron. "Tenemos un solo panel de vidrio que se puede utilizar para administrar todas estas cargas de trabajo. La analogía que uso es que nuestra infraestructura es similar a lo que hizo Apple con el iPhone. Estamos construyendo la infraestructura y la plataforma que puedan implementar algunas aplicaciones nativas para resolver estos casos de uso de los clientes. En el futuro, queremos expandirnos y conseguir que otros proveedores, incluso terceros, escriban software en nuestra plataforma".
"Hay tres tipos de empresas que dicen que hacen gestión de datos de copia", dijo Ash Ashutosh, fundador y CEO de Actifio. "En primer lugar, están los tipos de la copia de seguridad. Toman la administración de instantáneas y la embellecen y luego la llaman gestión de copia de datos. También están los que dicen 'si tiene 14 dispositivos de almacenamiento, compre el nuestro como el decimoquinto’. Lo que hacemos es diferente. Somos completamente independientes de la infraestructura. Queremos gestionar los datos desde el momento en que son creados y a través de todo su ciclo de vida. Ofrecemos acceso instantáneo, y gestionamos los datos a escala, independientemente de donde están".
El objetivo de todos estos productos es mantener un equilibrio entre los datos seguros y accesibles al gobernar una cantidad de copias rebeldes de datos sensibles, creadas a través de plataformas de protección de datos convencionales.
Codificación de borrado
La creciente adopción del almacenamiento de objetos, el almacenamiento de copia de seguridad basado en la nube y la aparición de unidades de disco duro de alta capacidad (HDD) han elevado la temperatura de la codificación de borrado en los últimos años, y se prevé que sea una de las principales tendencias de la tecnología de almacenamiento en 2016. Los conjuntos de datos de escala de los petabytes y exabytes hacen uso de un RAID insostenible, dijo George Crump, presidente de la firma de analistas de TI, Storage Switzerland.
"A medida que avanzamos en el uso de unidades de 6 TB y 8 TB, la codificación de borrado es la única tecnología que puede proporcionar protección de datos factible para grandes volúmenes de datos. Si usted coloca unidades de alta capacidad en una matriz, esto resultará en semanas de recuperación con RAID. Con la codificación de borrado, esto pasará en horas", dijo Crump.
La codificación de borrado utiliza una fórmula matemática para romper los datos en múltiples fragmentos, y luego coloca cada fragmento en un lugar diferente dentro de una matriz de almacenamiento. Se añaden componentes de datos redundantes durante el proceso, y un subconjunto de los componentes se utiliza para reproducir datos originales en caso de que se corrompan o se pierdan.
El objetivo de la codificación de borrado es permitir la reconstrucción acelerada de unidades. El proceso de copia de datos y la dispersión a través de múltiples unidades es similar a RAID. Sin embargo, la codificación de borrado se diferencia de RAID en cuanto a la escala y la longevidad de los datos. Si los datos se corrompen o se pierden, sólo algunos de los fragmentos "borrados" son necesarios para reconstruir la unidad. La técnica también preserva la integridad de los datos al tolerar varios fallos de unidad sin degradación del rendimiento.
Hoy en día, el uso de la codificación de borrado se considera un juego de mesa para los proveedores de almacenamiento de objetos, incluyendo los proveedores líderes como Amplidata (adquirida por HGST), Caringo, IBM Cleversafe y Scality. Pero los vendedores de bloques y de almacenamiento de archivos se están sumando a la acción también. El proveedor de la matrices hiper convergentes Nutanix, integró en julio pasado la codificación de borrado propietaria EC-X en una actualización de la versión de su sistema operativo Nutanix. El proveedor de escala Nexenta Systems añadió soporte para el almacenamiento de objetos y el de bloques en una actualización de la versión de su software NexentaEdge en mayo de 2015.
La codificación de borrado es el mecanismo básico de protección de datos para el almacenamiento de objetos basado en la nube, debido a la capacidad de ampliación de la protección de grandes cantidades de datos. Hasta ahora, los usuarios mueven los datos a la nube sobre todo para casos de uso específicos, tales como la copia de seguridad y el archivo activo, una tendencia que se espera que aumente de forma continua.
"La codificación de borrado es el tipo de diseño que es ideal para un sistema de almacenamiento de objetos: una infraestructura de almacenamiento de escala de varios nodos. Es una manera de proporcionar una protección RAID en todos los nodos, en lugar de contenerlos dentro de un único sistema de almacenamiento", dijo Crump.
Redes de almacenamiento de próxima generación
Flash y la virtualización son factores clave que alimentan el auge de las redes de almacenamiento de próxima generación como una tendencia de las tecnologías de almacenamiento, ya sea que use canal de fibra (FC), Ethernet o InfiniBand.
Los envíos de switches y adaptadores FC de 16 Gigabit por segundo (Gbps) deberían permanecer como una tendencia caliente el próximo año, mientras que los mecanismos de 32 Gbps comienzan a calentarse. Brocade y Cisco centrarán sus planes de trabajo en interruptores de 32 Gig. QLogic puso a rodar el balón el otoño pasado con adaptadores Gen 5 FC de 16 Gbps que los clientes pueden actualizar a Gen 6 de32 Gbps este año.
Vikram Karvat, vicepresidente de productos, marketing y planificación en QLogic, dijo que los vendedores de almacenamiento flash estaban “tirando la puerta a golpes" para abrir paso a los adaptadores FC de 16 Gbps de cuatro puertos, capaces de entregar 16 carriles de PCI Express 3.0, para hacer frente a las demandas de la virtualización, la analítica y las cargas de trabajo de transacciones pesadas.
"Este nivel de rendimiento no es para todo el mundo, pero cuando se necesita, se necesita", dijo Karvat. "Ethernet es muy bueno en ciertas cosas. No he tenido un sesgo de un modo u otro. Sin embargo, hay ciertas cargas de trabajo para las que se ha ajustado el canal de fibra. Simplemente funciona."
Casey Quillin, director de investigación para los mercados de SAN, seguridad de redes y dispositivos de centros de datos en Dell'Oro Group, dijo que 16 Gbps FC ha sido en gran parte una historia de switches, hasta la fecha, porque no había muchos puertos de 16 Gbps en servidores o matrices de almacenamiento. Él espera que los adaptadores de 16 Gbps FC se "pongan al día" el próximo año y alcancen casi el 50% de los envíos totales de puertos FC a finales de 2016.
Quillin dijo que Brocade está trabajando con compañías de adaptadores FC para "asegurarse de que el ecosistema está más completo" con 32 Gbps de lo que estaba con 16 Gbps. Pero, todavía espera que la rampa de 32 Gbps a sea más lenta que la migración a 16 Gbps.
La tendencia principal en la creación de redes de almacenamiento basadas en Ethernet será el switch de 25 Gigabit y los chips de adaptadores con puertos que permiten a las empresas a utilizar la misma clase de cables que desplegaron con 10 Gigabit Ethernet (10 GbE). La hoja de ruta Ethernet original motivó a un salto de 10 GbE a 40 GbE, pero la tecnología 40 GbE requiere una actualización a cables más gruesos y más caros.
Los proveedores de redes se reunieron alrededor de estándares para los nuevos switches de un solo pin de 25 GbE y los chips de adaptadores en respuesta a las necesidades de los proveedores de servicios de nube de hiperescala. Los puertos de los nuevos chips de 25 GbE utilizan el mismo número de pines y carriles en el bus PCIe servidor que utilizan los puertos de 10 GbE. La hoja de ruta se extiende a 50 GbE y 100 GbE, este último con cuatro carriles de 25 GbE.
"La gran ventaja de 25 (GbE) a 50 (GbE) es que usted no tiene que reemplazar lo que tiene para llegar a 100. Es una progresión mucho más simple para obtener un mayor rendimiento sin agregar una gran cantidad de costos. Por eso va a despegar", dijo Marc Staimer, presidente de Dragon Slayer Consulting. "La próxima generación va a ser de 25 (GbE) a 50 (GbE); los 40 Gig terminarán muriendo en la vid."
Ya están disponibles opciones de red para ambas velocidades. Dan Conde, analista de redes empresariales de Enterprise Strategy Group, dijo que los usuarios están decidiendo si ir a 25 GbE o 40 GbE sobre la base de soporte del proveedor y ahorro de costes.
Mientras tanto, InfiniBand sigue centrándose en la computación de alto rendimiento (HPC). La velocidad dominante actual es de 56 Gbps, pero la transición a 100 Gbps debería ser más relevante en 2016, impulsado por HPC, big data y las aplicaciones Web 2.0, de acuerdo con Kevin Deierling, vicepresidente de marketing de Mellanox Technologies.
Sergis Mushell, director de investigación de Gartner Inc., dijo que el flash dará a los usuarios una razón para actualizarse a las redes de almacenamiento de nueva generación. "Debido a que el flash conducirá una mayor IOPS, el ancho de banda y la latencia se están volviendo más y más importante. Si usted realmente desea obtener el valor del flash, necesita una menor latencia y mayor ancho de banda", dijo.
Sin embargo, más que un mayor ancho de banda, la tendencia más prominente de almacenamiento de redes en 2016 podría ser la aparición de productos que soportan la memoria exprés no volátil (NVMe) sobre FC, Ethernet o tejidos InfiniBand, de acuerdo con Mushell. Dijo que la capa de protocolo NVMe más ligera reduce el conjunto de comandos para hacer frente a la matriz y mejora el rendimiento.
Deierling dijo que la cantidad cada vez mayor de datos que debe estar disponible en tiempo real comenzará a conducir almacenamiento flash definido por software utilizando el acceso de memoria remota directa (RDMA). Dijo que el almacenamiento flash necesita interconexiones veloces con capacidad RDMA, donde la creación de redes de mayor velocidad entra en juego.
El almacenamiento de objetos
Primero mencionamos que el almacenamiento de objetos sería una tecnología caliente en 2012, y es aún más caliente ahora. Con ofertas más completas de los vendedores y casos de uso concretos definidos, la tecnología está a punto de hacer un chapoteo grande entre las tendencias de la tecnología de almacenamiento en 2016.
A diferencia de los sistemas de archivos, los sistemas de almacenamiento de objetos almacenan datos en un espacio de nombres plano con identificadores únicos que permiten que los datos se recuperen sin que un servidor sepa dónde se encuentran los datos. El espacio de nombres plano también permite que una cantidad mucho mayor de metadatos se almacenen en un sistema de archivos típico, haciendo que tareas como la automatización y la gestión sean más sencillas para el administrador. En estos días, la tecnología se está utilizando para la retención de datos a largo plazo, copias de seguridad y compartir archivos.
Hasta hace poco, las opciones del sistema de almacenamiento de objetos eran limitadas –la mayoría eran sistemas que utilizan un protocolo basado en REST en hardware propietario. "Ahora, los vendedores de objetos están empacando sistemas de manera tal que la TI tradicional puede tomar ventaja de ellos", dijo Crump. "Ellos están proporcionando más acceso a protocolos como NFS, CIFS e iSCSI, y también están proporcionando más back-ends rentables."
Algunos de los vendedores de hoy se están centrando más en el software para que los usuarios puedan seleccionar su propio hardware a un menor costo y tengan una integración más fácil en el centro de datos principal. Caringo, proveedor de software de almacenamiento de objetos, por ejemplo, liberó en septiembre el software FileFly, el cual permite a los usuarios mover sus datos entre sistemas de archivos y sistemas de almacenamiento de objetos.
"La amplia adopción tiene que estar en el centro de datos legado, y el centro de datos heredado está viendo lo que hacen los proveedores de la nube y adoptando esa capacidad en ese caso de uso", dijo Crump.
Esto también se demuestra por la adquisición que HGST realizó en marzo pasado del proveedor de objetoe Amplidata, y la adquisición de de Cleversafe por parte de IBM en octubre –son señales de que los vendedores legados se dan cuenta de la importancia de la tecnología de objetos para las estrategias de copia de seguridad y archivo.
Uno de los principales inconvenientes de la tecnología de objetos es latencia introducida debido a la cantidad de metadatos. Pero los casos de uso más obvios son aquellos en los que el rendimiento no es una preocupación primordial. La sincronización y compartición de archivos internos, por ejemplo, es cada vez más popular como un medio para reducir la TI en las sombras y aumentar la productividad de las empresas.
También vimos un mayor interés en los grandes lagos de datos en el último año. La adición de soporte multi-protocolo de muchos vendedores de medios de almacenamiento de objetos es ahora muy adecuado para alojar estos datos debido a su naturaleza escalable de bajo costo.
"El mayor problema que lo detenía era que nadie iba a comprar almacenamiento de objetos sólo porque era almacenamiento de objetos. Tenía que resolver un problema y ahora tenemos mejor identificados cuáles son esos problemas", dijo Crump.
Dispositivos de almacenamiento definido por software
Después de dos años hablando sin parar del almacenamiento definido por software, los vendedores se están dando cuenta de que incluso el mejor software de almacenamiento aún requiere buen hardware para trabajar.
El péndulo comenzó oscilando al hardware en 2015. Vimos que la startup Savage IO liberó una variedad de hardware integrado para ejecutar el software de almacenamiento de otro proveedor. Los productos de almacenamiento definidos por software, como ScaleIO y Cloudian HyperStore de EMC, fueron liberados como appliances. Dell dio a conocer su proyecto Blue Thunder que hace que su hardware esté disponible para el software de almacenamiento de otros proveedores, y se alineó con VMware, Microsoft, Nutanix, Nexenta y Red Hat como socios.
SanDisk lanzó el InfiniFlash IF100, una matriz de puro flash que ejecuta el software de otros proveedores y se inscribió como uno de los primeros socios del proveedor de almacenamiento definido por software, Nexenta.
El hardware ni siquiera tiene que ser nuevo para ser parte de esta tendencia. Curvature Solutions incluso venderá almacenamiento de segunda mano incluido con DataCore SANsymphony-V, que era almacenamiento definido por software antes de que se enfriara.
Con más opciones de hardware disponibles, las reclamaciones descaradas de que los vendedores estaban orientados al software comenzaron a remitir. "Definitivamente no ofrecemos almacenamiento definido por software, ya que contamos con un dispositivo montado en bastidor", dijo Brian Biles, fundador y CEO de Datrium, cuando esta nueva empresa lanzó su sistema de almacenamiento flash DVX Server en julio pasado. ¿Cuándo fue la última vez que escuchó a un proveedor de almacenamiento decir eso? Datrium tiene software DVX, pero sólo se ejecuta en su almacenamiento. Sin embargo, los vendedores en los últimos años podrían haber tratado de colocar ese tipo de configuración como almacenamiento definido por software.
Savage IO tomó la noción de un dispositivo de almacenamiento encima de algunas muescas. El SavageStor 4800 es un sistema de 48 unidades 4U con procesadores de 12 núcleos, que soporta canal de fibra, InfiniBand y unidades de estado sólido. Está diseñado para computación de alto rendimiento, análisis de grandes volúmenes de datos y almacenamiento en la nube. Sin embargo, Savage IO no desarrolla software –SavageStor debe funcionar ya sea con software comercial de gestión de almacenamiento o aplicaciones de código abierto, como Lustre, OpenStack o CentOS. "Este es un sistema de propulsión de Ferrari que puede embonar con su software si necesita ese tipo de rendimiento", dijo John Fithian, director de desarrollo de negocios de Savage IO, al respecto de SavageStor.
Las aplicaciones del paquete del appliance EMC ScaleIO Node y Cloudian HyperStore FL3000 fueron diseñadas originalmente como almacenamiento definido por software en el hardware para los clientes que no quieren construir su propio almacenamiento. Y eso es al parecer la mayoría de los clientes.
"Los principales compradores de almacenamiento todavía quieren un dispositivo integrado", dijo Ashish Nadkarni, director del programa de IDC para el almacenamiento y los servidores empresariales. "Ellos quieren beneficiarse del almacenamiento definido por software, pero no están preparados para el cambiar eso por la comodidad de tener todo en una caja". Las tendencias tecnológicas más calientes para el almacenamiento de datos en 2016