Introducing G2.ai, the future of software buying.Try now

Las 5 principales predicciones de Big Data para 2021

4 de Octubre de 2019
por Devin Pickell

Se espera que el mundo del big data alcance la asombrosa cifra de 163 zettabytes, o 163 billones de gigabytes, para 2025. ¿Curioso sobre cuán grande es un zettabyte? Podría almacenar aproximadamente 2 mil millones de años de música.

Existen muchos conceptos e ideas para aplicar el big data, algunos ejemplos incluyen crear modelos de aprendizaje personalizados para estudiantes u ofrecer atención médica más personalizada. Sin embargo, el big data sigue siendo generalmente difícil y lento de procesar y analizar, y se está generando más rápido de lo que podemos manejar. Afortunadamente, al ritmo al que las tecnologías de big data están avanzando, estas dificultades podrían mitigarse en los próximos tres años.

De hecho, más empresas están ideando planes para adoptar el big data para el éxito futuro. El big data finalmente revelará nuevas oportunidades y eficiencias que podrían cambiar nuestra vida cotidiana, y es justo esperar que algunos de estos cambios se materialicen para 2021. Así que preguntamos a siete expertos en tecnología cuáles eran sus predicciones a tres años para el big data. Esto es lo que dijeron:

1. La demanda de científicos de datos seguirá aumentando

Harry Dewhirst, Presidente de Blis.

“Recientemente leí que la Harvard Business Review calificó este rol como el ‘trabajo más sexy del siglo XXI’. No se puede negar que los datos van a ser la moneda que impulse nuestra economía en el futuro; ya estamos bien encaminados en este camino. Lo que significa que los científicos de datos seguirán impulsando el futuro.

Es crucial que las empresas comiencen a planificar la integración de científicos de datos en sus estructuras organizativas ahora, y quizás más aún para que las universidades y otros educadores ofrezcan más oportunidades para que los futuros trabajadores exploren este campo. Los datos tienen poder de permanencia, no van a desaparecer pronto.”

Harry tiene toda la razón. La ciencia de datos es uno de los campos de más rápido crecimiento hoy en día debido a su importante papel en dar sentido al big data.

De hecho, un informe de IBM, titulado The Quant Crunch, estima que hasta 2.72 millones de empleos que requieren habilidades en ciencia de datos se publicarán para 2020.

Skipper Seabold, Co-Líder de I+D en Ciencia de Datos en Civis Analytics.

“El rol de 'científico de datos' dejará de ser una posición especializada para la que se contrata a personas. La caja de herramientas de la ciencia de datos se convertirá en un conjunto de habilidades que se espera que las personas en varios roles funcionales dentro de una organización tengan.

La mayoría de los científicos de datos ya no tendrán que pensar en sistemas distribuidos: Hadoop, Spark o HPCs. Las tecnologías antiguas, como las bases de datos relacionales tradicionales, alcanzarán en rendimiento y capacidades a estas tecnologías, y la necesidad de pensar y programar para múltiples máquinas conectadas a través de una red será eliminada por herramientas disponibles a través de los grandes proveedores de la nube.”

¿Quieres aprender más sobre Software de Análisis de Big Data? Explora los productos de Análisis de Big Data.

2. El big data será más accesible

Sam Underwood, VP de Estrategia de Negocios en Futurety.

“Para 2021, el big data se volverá mucho más accesible, y por lo tanto mucho más útil. Un desafío clave para muchas empresas hoy en día es unificar todos estos datos; por definición, ¡esto es un gran trabajo!

Construir lakes de datos y otros entornos de almacenamiento flexibles es una prioridad importante en 2018, y predecimos que para 2021, gran parte de estos datos críticos estarán alojados en sistemas que serán mucho más accesibles por las herramientas que los utilizarán (visualización, análisis, modelado predictivo). Esto abre posibilidades ilimitadas para cada aspecto de las operaciones comerciales para ser puramente impulsadas por datos.”

La percepción de Sam es acertada. No será suficiente solo recopilar y procesar big data. Si los datos no pueden ser fácilmente comprendidos por los usuarios finales de negocios y los tomadores de decisiones dentro de las empresas, será difícil encontrar valor.

Jeff Houpt, Presidente de DocInfusion.

“Veo el panorama del big data evolucionando de ser altamente técnico y costoso a métodos más de autoservicio y bajo demanda donde los recursos que necesitas se activan automáticamente y solo se te cobra por lo que usas.

Realmente, en el panorama actual para analizar big data necesitas una infraestructura masiva o costosa para capturar, catalogar y preparar los datos para su uso. Luego, para consultar y analizar los datos necesitas tener las habilidades de un programador/matemático muy técnico o un científico de datos.

Creo que habrá plataformas y aplicaciones que continuarán haciendo estas tareas más fáciles e intuitivas, y dentro de 3 años llegaremos a un punto donde alimentas los datos directamente a una sola aplicación que manejará todos los detalles restantes por ti, y lo hará a escala.

También creo que a través del uso de inteligencia artificial (IA) y conceptos de aprendizaje automático, las aplicaciones podrán entender automáticamente tus objetivos utilizando el conocimiento obtenido de usuarios anteriores que han realizado una tarea similar. Esto permitirá que los sistemas optimicen los datos para propósitos específicos con muy poca retroalimentación del usuario.”

3. Se utilizará el PLN para la recuperación de información

KG Charles-Harris, CEO de Quarrio.

“La predicción más fundamental para el big data es que para 2021, la recuperación de información de los repositorios de big data se hará utilizando lenguaje natural y será instantánea. Las personas simplemente harán preguntas en lenguaje normal y el sistema responderá en lenguaje ordinario, con gráficos y tablas generados automáticamente cuando sea aplicable.”

4. Los proveedores de DBaaS adoptarán el análisis de big data

Ben Bromhead, CTO y Co-Fundador de Instaclustr.

“Esperamos ver que los proveedores de Database-as-a-Service (DBaaS) realmente adopten soluciones de análisis de big data en los próximos tres años, a medida que se adaptan para servir a una necesidad de cliente en rápido crecimiento. Las empresas han estado recopilando y almacenando cada vez más datos, y continúan buscando formas de tamizar esos datos de manera más eficiente y hacer que funcionen para ellas.

Al integrar soluciones de análisis de big data en sus plataformas, los proveedores de DBaaS no solo alojarán y gestionarán datos, sino que también ayudarán a los clientes empresariales a aprovecharlos mejor. Por ejemplo, Elasticsearch es una tecnología de código abierto poderosa con la que nos hemos familiarizado bastante, que permite a los desarrolladores buscar y analizar datos en tiempo real.

Espera que esta y tecnologías similares que ponen a los desarrolladores al mando de sus datos se vuelvan cada vez más prominentes dentro de los repertorios de DBaaS.”

5. La limpieza de datos será automatizada

Jomel Alos, Líder de PR en línea de Spiralytics Performance Marketing.

“Uno de los mayores problemas en este momento para el big data es el desorden y los datos incorrectos. La mayoría de las empresas en este momento tienen su propio marco de limpieza o todavía están desarrollando el suyo. Eventualmente, la limpieza y organización serán automatizadas con la ayuda de varias herramientas. Debido a que el big data no es estático, se espera que estas herramientas también automaticen el proceso de limpieza de manera regular.”

Jomel plantea un gran punto. Para que ocurra una recuperación rápida de datos, el big data necesitará ser limpiado para calidad y relevancia. De hecho, EE.UU. perdió un estimado de 3.1 billones de dólares debido a la mala calidad de los datos en 2016. Por eso "limpiar" los datos procesados es tan importante cuando se trata de estructurar el big data.

Los procesos actuales de limpieza de datos no son exactamente sensibles al tiempo. Hasta ahora, requieren casi el 60 por ciento del tiempo de un científico de datos. Una vez que estos procesos puedan ser automatizados mediante el uso de IA y aprendizaje automático, se logrará un progreso real.

Descubre cómo dar sentido de manera efectiva a grandes conjuntos de datos con análisis de big data y desbloquear oportunidades ocultas.

Devin Pickell
DP

Devin Pickell

Devin is a former senior content specialist at G2. Prior to G2, he helped scale early-stage startups out of Chicago's booming tech scene. Outside of work, he enjoys watching his beloved Cubs, playing baseball, and gaming. (he/him/his)