Reporte de Gartner analiza “big data” alrededor de tecnología de datos
Un nuevo ciclo de Gartner rompe el mercado de “big data” en 47 tecnologías a lo largo de las infladas expectativas.
La“big data” puede añadir otra línea su continuamente expansivo CV. Ahora tiene su nuevo ciclo. Consultancy Gartner Inc. con base en Stamford, Connecticut recientemente sacó el Hype Cycle for Big Data, 2012 –su primer nuevo reporte del ciclo, devoto únicamente a este tema.
El ciclo de big data incluye una definición fuerte (ver recuadro), así como una lista de 47 tecnologías de datos grandes y términos, que incluyen todo, desde datos científicos y los basados en el almacenamiento en la nube, para el análisis predictivo de datos abiertos y públicos. Estas tecnologías están repartidas en todo el espectro de Gartner y su gran ciclo de data, que documenta un viaje de la tecnología de la sobre promoción y desilusión hacia la madurez y la adopción masiva.
Definición de Gartner's de la big data
Gartner define la big data como: 'un gran volumen, velocidad o variedad de información que demanda formas costeables e innovadoras de procesamiento de información que permitan ideas extendidas, toma de decisiones y automatización del proceso.
"Es difícil hablar de big data en una sola tecnología,” dijo Hung LeHong, un investigador vice presidente de Gartner, en un reciente webinar. “Es en realidad un concepto, una compilación de tecnologías.”
Este conjunto de tecnologías, la mayoría agrupadas en las etapas tempranas del ciclo, se han vuelto cada vez más complejas, ya que los analistas de negocios claman por una visión más clara de sus datos y proveedores con "grandes soluciones de datos" para que etiqueten y ocupen más productos. Este año, Gartner decidió documentar la gran data del mercado en blanco y negro, especialmente cuando las empresas son capaces de llevar a cabo experimentos de bajo costo de datos grandes que utilizan servidores baratos, tecnología de código abierto y almacenamiento en las nubes, según el informe.
Mientras que el ciclo de visualización de la big data es una característica destacada, el documento está principalmente dedicado a la composición de cada tecnología en una página de uno a dos mini-análisis realizados por investigadores de Gartner.
¿Es un ciclo grande merecido?
"El concepto de hablar de big data – tiene una extraña dualidad”, dijo Mark Beyer, investigador vicepresidente y experto de gran data para Gartner. “Es muy real, pero también es grande”
De acuerdo con Beyer, la gran data es real gracias al avance de la tecnología y el tiempo. Cuatro grandes factores que influyen en el desenvolvimiento tecnológico – memoria, rendimiento de velocidad de almacenamiento, capacidad de procesamiento y de la red - se duplicaron en tamaño y velocidad en torno a 2009. No es inusual que estos factores influencien para experimentar un crecimiento (o velocidad) pero funcionan en ciclos separados y tienden a afectar a los hitos en diferentes momentos. Lo que es inusual es que los cuatro se hacen más grandes o más rápidos al mismo tiempo, como ocurrió en este caso.
En segundo lugar, los departamentos de TI se mostraron receptivos a las mejoras. La tecnología en estos cambios de departamentos están entre dos extremos: los avances que permiten un mejor rendimiento, más rápido, y el equipo que se encuentra fácilmente inundado por la demanda de datos, dijo Beyer. En 2010, los usuarios comenzaron a pedir más datos, empujando el péndulo TI en el abrumado mercado como maneras de aliviar la presión.
La búsqueda de más datos y de los avances tecnológicos para apoyar la demanda estaba alineada en el momento justo, pero ha creado también un hambre insaciable - un factor grande- que ha tomado a la industria por tormenta.
"La parte grande - ¿y qué?" dijo Beyer.
Mientras que la alineación de todos estos factores es rara, no es nueva. La industria ha estado aquí antes, en la década de 1980 a 1970, en que el Internet fue creado, y estará aquí de nuevo dentro de 15 a 18 años, dijo Beyer. Estos períodos han sido y seguirán siendo "momentos de grandes datos" que desafían a la industria a aprovechar la tecnología y la construcción de nuevas formas de recolectar, almacenar y analizar los datos.
Mientras que algunos analistas creen que las tecnologías actuales de big data se vuelven omnipresentes en los próximos dos años, Beyer tiene una perspectiva diferente. "Se convertirán en subsumido", dijo. Estas tecnologías, en otras palabras, van a desaparecer de la vista, ya que habrá sido absorbido completamente dentro del entorno tradicional de TI.
A mediados de agosto, y por segundo año consecutivo, los grandes volúmenes de datos también hicieron una aparición en Hype Cycle de Gartner de Tecnologías Emergentes. El año pasado, la consultora figuraba datos grandes como un "disparador tecnología", la primera de las cinco fases del ciclo. Este año, los grandes volúmenes de datos han avanzado a la segunda fase conocida como la meseta de expectativas infladas, que contiene el pico más alto del ciclo, y tiende a ser marcado por el tono cambiante de los medios de éxitos en fracasos.
"La big data está siendo un poco sobrevalorada por muchos en el mercado", dijo Bill Frank, autora de Taming the Wave Data, director de análisis para el almacenamiento de datos Teradata, con sede en Dayton, Ohio. "Sin embargo, yo no creo que se está creando para el otoño".
Tony Cosentino, vicepresidente y director de investigación de San Ramon, California de Ventana Research, estuvo de acuerdo.
"¿Cada tecnología debe caer antes de que tenga éxito?" Consentino preguntó.
Pero los expertos no eran los únicos que dudaban de la colocación, también cuestionó la inclusión de datos grandes en el ciclo, en primer lugar, una de las razones por las que Gartner decidió crear un informe independiente para grandes volúmenes de datos.
"Es como preguntarle a la gente en 1995 si pensaban que el 'Internet' se inflaba o no", dijo Laura Teller, director de estrategia de la ciudad de Jersey, Nueva Jersey, Opera Solutions LLC, un proveedor de plataforma de análisis. "El problema es que los datos importantes por sí solos no van a mejorar el negocio". Cosentino estuvo de acuerdo.
La big data está pasando por una evolución, que comenzó con la pregunta de "qué" y se ha convertido en la cuestión de "y qué". La respuesta, dijo, está en el análisis.
"Para usar la analogía del petróleo, estamos pasando de la perforación del petróleo a la refinación y distribución del mismo", dijo Cosentino. "No estoy seguro de si era posible hace cien años el descubrimiento del petróleo, y no estoy seguro de que es posible el descubrimiento de grandes volúmenes de datos en la actualidad."