El Instituto Internacional de Analítica (IIA) dio a conocer su listado de predicciones, que destacan el incremento de los microservicios de análisis y las herramientas de curación de datos.
El Instituto Internacional de Analítica (IIA) ha publicado su lista de predicciones para las tendencias de analítica en 2016. A diferencia de años anteriores, el IIA está dividiendo su lista en dos grupos distintos –el primero centrado en las predicciones de analítica; y el segundo se centró las prioridades de la analítica. El cofundador del IIA, Tom Davenport, y los investigadores Dan Magestro y Robert Morison, discutieron las predicciones y las prioridades durante un reciente webinar.
"En las conversaciones que hemos tenido con los líderes y profesionales a través de las organizaciones empresariales y de todos los sectores de la industria, hemos escuchado un montón de temas consistentes, y necesidades urgentes que los presionan. Y pensamos que esto sería una gran oportunidad para ofrecer una visión concisa de las prioridades y los temas que estamos escuchando", dijo Magestro, un ex profesional de analítica en Cardinal Health, JPMorgan Chase & Co. y Nationwide Insurance, que ahora dirige los esfuerzos de investigación en el IIA.
Además, la predicción de las tendencias de análisis año tras año puede ser repetitiva. "Toma un tiempo implementar los temas más relevantes, y lleva tiempo que lleguen a buen término", dijo Davenport, profesor distinguido de tecnologías y gestión de información en la presidencia del Babson College en Babson Park, Mass., y líder destacado de la analítica.
La lista de cinco tendencias de analítica de la firma de consultoría e investigación de Portland, Ore., incluye una combinación de tecnologías avanzadas y predicciones que sugieren que los análisis serán algo más que una cosa genérica, todos los días en el 2016. "Y tener los análisis como algo cotidiano es un reflejo del avance de la madurez", dijo Morison, consultor de análisis e investigador de la IIA y moderador del webinar.
Las cinco predicciones de analítica del IIA son las siguientes:
Nº 1: La tecnología cognitiva incluye análisis automatizados
Los CIO probablemente vean una analítica automatizada, lo que tendrá efecto sobre los resultados de sus análisis, a diferencia de la tecnología cognitiva, comúnmente asociada con tecnologías como IBM Watson. Pero en 2016, la distinción entre las dos comenzará a desvanecerse, según Davenport.
La línea que separa estas dos ya es "relativamente delgada", dijo, ya que muchas de las tecnologías subyacentes de computación cognitiva –como la regresión logística, el aprendizaje profundo y las redes neuronales– son ya bien conocidas por los profesionales de analítica. "Las tecnologías cognitivas son una manera de volver a empaquetar [las tecnologías conocidas] junto con otras capacidades que las organizaciones necesitan estos días con el fin de aliviar los cuellos de botella de conocimiento y para hacer frente a más información de la que los humanos realmente pueden comprender", dijo Davenport.
La predicción podría ser una buena noticia para los CIOs y profesionales de la analítica. Mientras que los datos han tomado un papel más importante en casi todas las organizaciones, los gerentes todavía tienden a basarse en criterios distintos de análisis para tomar decisiones. Pero la integración de herramientas que asumen algunas de las funciones de toma de decisiones de forma automática significará que la analítica no puede ser evitada, dijo Davenport.
Nº 2: Micro servicios analíticos integrados en los procesos
La analítica tradicional es a menudo considerada como un conjunto de capacidades, pero cada vez más, una técnica analítica específica de análisis -un micro servicio de analítica– está incrustado en los sistemas y procesos, a menudo a través de las API. Davenport ve que la tendencia de este análisis continuará en 2016.
"Aquellos de ustedes que siguen a IBM Watson saben que ya no es una aplicación monolítica de preguntas y respuestas", dijo. Watson ahora puede proporcionar 32 APIs diferentes, incluyendo el análisis de textos, traducción de texto y puntuación.
Una nota interesante: Los primeros usuarios de la tecnología de IBM Watson han sido a menudo los especialistas de dominio, como los cirujanos o los oncólogos, sobre todo porque la salud era un objetivo principal para la tecnología, según Davenport. "Pero a medida que esto permee a todas las empresas, y conforme hagamos más de este tipo de aplicaciones, creo que, en la mayoría de los casos, se combinará con los grupos de análisis dentro de las empresas", dijo.
No. 3: La ciencia de los datos, la analítica predictiva y la prescriptiva se fusionan
Las primeras charlas sobre big data la hacían sonar como si los CIOs y profesionales de la analítica tuvieran que pensar en ello como algo completamente separado de los análisis tradicionales, requiriendo incluso un grupo distinto para aislar y hacer minería de las franjas de datos que manejan las empresas. Según la investigación del IIA, esa perspectiva está cambiando. "Estas cosas, en muchos casos, se están combinando, y la ciencia de datos, en todo caso, se está convirtiendo en una rama especializada del grupo de análisis central", dijo Davenport.
En 2016, la distinción entre la ciencia y el análisis de datos continuará desdibujándose y confundiéndose, conforme los grandes volúmenes de datos se integran más profundamente en más negocios tradicionales. "Vamos a ver a grupos enteros de análisis a los que denominarán como grupos de ciencias de datos y viceversa", dijo.
Nº 4: Se facilitará la búsqueda del talento de analítica
Los CIOs probablemente saben de memoria esta predicción que McKinsey hizo en 2011: Para 2018, los Estados Unidos experimentará un déficit de 140 mil a 190 mil científicos de datos calificados. Pero, según Davenport, los dolores de encontrar un buen talento de analítica han desaparecido –hasta cierto punto.
Las empresas se están aprovechando de los programas universitarios que generan talento especializado en análisis, o han creado "programas de re-modelaje" para capacitar a los empleados de analítica en la ciencia de datos, o preparar a los empleados de negocios para la analítica, dijo. Se refirió a Cisco como un ejemplo de ello, el cual no sólo se ha centrado en el fortalecimiento de talento interno de científicos de datos", sino que también crea ejecutivos que entienden cómo funciona esto, y pueden aplicarlo en sus unidades de negocio y funciones", dijo.
No todos están de acuerdo con Davenport. "Realmente depende de quién eres, dónde estás, en qué industria estás y si hay desafíos interesantes", dijo Magestro del IIA. Señaló a dos empresas del Medio Oeste, que no quiso nombrar, que hablaron con él acerca de la dificultad de convencer al talento para moverse a las ciudades. "Puede que en su conjunto la crisis no sea tan aguda como se había previsto, pero a un nivel más micro y en el ámbito regional, se puede ver algo de esto", dijo.
Nº 5: La analítica de hoy conserva y gestiona los datos
La preparación de los datos es uno de los mayores sumideros de tiempo para los profesionales de la analítica y los científicos de datos. Pero están surgiendo nuevas herramientas que aplican "la analítica que utilizamos normalmente para analizar los datos y conservar los datos", dijo Davenport. En lugar de tomar un enfoque centralizado, de arriba hacia abajo, para la gestión de datos, herramientas de la talla de Tamr –donde Davenport es un asesor– Paxata y Trifacta trabajan de abajo hacia arriba, aprovechando el aprendizaje de la máquina para conservar y limpiar los datos. Davenport dijo que las herramientas han florecido en el último año, y que seguirán haciéndolo en 2016.
"Las cosas son demasiado complejas para hacerlo desde la parte superior hacia abajo en una gran organización", dijo Davenport. "No es raro tener 5.000 fuentes de datos diferentes que se refieren a lo mismo en algunas organizaciones." Tecnología cognitiva y microservicios encabezan la lista de tendencias de analítica para 2016