Una encuesta a los profesionales de TI en los EE.UU. y el Reino Unido ha revelado un crecimiento explosivo en el volumen y la complejidad de los datos de rendimiento que se generan por infraestructuras de aplicaciones. Este torrente de datos se deriva de los estados de crecimiento, y está compuesta por un aumento en la frecuencia y la diversidad de métricas que se recogen gracias al uso de las herramientas de monitorización. Las herramientas APM han formado parte de la gran explosión de los datos en la recopilación de métricas, generando miles de solicitud por cada KPI mientras que se generaban decenas de ellas para un solo servidor). Así Netuitive afirma que en la última década, la cantidad de estos datos se ha duplicado o incluso triplicado, y que el 54% de las empresas recogen entre 10 y 30 métricas por cada herramienta utilizada, así como el 72% de los profesionales encuestados afirman recoger muchísimos más datos que hace diez años. De igual forma, la frecuencia en la recopilación de datos también ha aumentado considerable en estos últimos diez años, lo que muestra la importancia que tienen obtener esta información para los profesionales, y si hace diez años los datos se recogían con una frecuencia de quince minutos, hoy en día este tiempo se ha reducido hasta los cinco minutos, lo que expresa que cada vez más, los datos son importantes para las empresas y profesionales. No obstante, un 23% de los profesionales entrevistados afirma que su frecuencia de obtención de datos es de un minuto, con lo que los datos están continuamente actualizados. El 77% de los profesionales encuestados no están satisfechos o seguros con sus capacidades de análisis para correlacionar negocios, experiencia del cliente y las métricas de TI, y, respecto al impacto de los datos en las empresas, el 59% va más allá de los silos de IT y para ellos la correlación de los KPI de negocio y los datos de la experiencia del cliente es la clave para una visión completa del rendimiento de la aplicación. Las empresas más grandes son más propensas a estar insatisfechas con sus capacidades transversales de análisis, debido, en gran parte, a la complejidad y la naturaleza de aplicaciones distribuidas y la naturaleza de organizaciones que los apoyan. El 83% de los profesionales encuestados están de acuerdo con el estudio de Gartner que afirma que en los cuatro últimos años la recogida de datos procedente de las métricas ha crecido en un 300%. Sin embargo, 8 de cada 9 empresas sólo son capaces de analizar menos del 50% de los datos recogidos, lo que supone un 88%, y un 75% sólo tienen capacidad para analizar una cuarta parte de la información recopilada. Este auge en la recolección de datos conlleva un uso problema con grandes volúmenes de datos, donde profesionales de IT se enfrentan a un aluvión de datos de rendimiento obtenidos a partir de múltiples fuentes especializadas, que es imposible de relacionar e interpretar con instrumentos tradicionales.