El principal reto del Big Data ya no es la recopilación de datos. Hoy es posible disponer de datos de cualquier tipo, en cualquier momento y con una velocidad increíble, además de que disponemos de sistemas de almacenamiento que nos permiten segregar esos datos por clases para un procesamiento más rápido.
En 2019, el reto sigue siendo extraer el valor de los datos para su máximo aprovechamiento. Los datos son ya el activo más valioso para las compañías, y los esfuerzos deben ir en la dirección adecuada, la de conseguir extraer información útil y, sobre todo, conocimiento, de esos flujos de datos inagotables.
Los retos del #BigData para 2019: extraer valor de los datos del #IoT, importancia del EdgeComputing y streaming analytics Share on XExtraer el valor de los datos de IoT
El mercado de IoT será de los que más crezca, una vez más, en 2019. Se estima que se pasará de un negocio estimado en 2017 de 1,2 billones de dólares, a 6,5 billones en 2024. Junto a este incremento del negocio crecerán los datos generados y gestionados. Además, los propios dispositivos IoT son cada vez más comunes y tienen menor coste de adquisición, y cuentan con mayores capacidades.
Es por estos motivos que las empresas empezarán a invertir más en el desarrollo de tecnología IoT, para poder utilizar y sacar partido a los datos recopilados por los dispositivos —principalmente son datos con valor para entender al consumidor. Las estrategias para su correcta gestión, procesamiento y análisis serán de principal importancia.
2019 verá crecer en importancia al Edge computing
Hemos hablado de este concepto recientemente, con buenas razones para ello. El concepto de «computación en la frontera» será muy importante para mejorar la latencia, entre otras cosas, en sistemas como los vehículos autónomos. En general, cualquier sistema con requisitos de tiempo real estricto se verá beneficiado de la evolución del edge computing.
Por otro lado, la velocidad de análisis de los datos en los casos en que no sea necesaria la aplicación de complejos algoritmos de machine learning o deep learning se verá incrementada sustancialmente si se traslada la inteligencia a los propios dispositivos sensores. Asimismo, los costes asociados a la nube —almacenamiento, procesamiento, etc.— se verán reducidos.
Soluciones de código abierto para Big Data
Hablar de código abierto en las herramientas de big data disponibles en la nube siempre es una buena noticia porque implica beneficios para las pequeñas y medianas empresas. Esto significa que será más sencillo acceder a las soluciones —sean gratuitas, o no— y no tendrán los inconvenientes de las soluciones más cerradas o propietarias.
Streaming Analytics
Esta es una tendencia clara este año por la cantidad de posibilidades que permite el análisis de los flujos de datos en tiempo real gracias a tecnología de datos in-memory. Esto se consigue, además, aplicando los algoritmos de machine learning directamente sobre esos flujos de datos gracias a la velocidad de análisis que se puede obtener.
Con las técnicas de streaming analytics es posible analizar flujos de datos de diversas fuentes en tiempo real y correlacionarlos con datos propios del negocio para descubrir tendencias y patrones, pero también amenazas para las que se necesita una respuesta inmediata.
Deja tu comentario sobre "Las principales predicciones del Big Data para 2019"