Dentro del espacio tecnológico empresarial, la aparentemente interminable evolución de los conocimientos basados en datos continúa a buen ritmo, pero ¿cuándo terminará?
(Cuando los datos ya no sean útiles, es decir, nunca.)
En columnas anteriores, discutí la transformación de los sistemas de soporte de decisiones de antaño a las plataformas de análisis de hoy en día. La última expansión en 2020 está impulsada por la inteligencia artificial, o al menos se etiqueta como tal. En realidad, es el aprendizaje automático, una rama de la IA que ofrece la mayoría de los casos de uso actuales de IA, lo que ha dado lugar a un término cada vez más popular: análisis aumentados.
La industria está interesada en poner nuevas palabras delante de análisis—negocios, datos, edge, distribuidos, en tiempo real—y soy tan culpable como el siguiente analista por ceder a esta tentación. Pero defenderé el uso de análisis aumentados (incluso si no lo inventé) porque es crítico para que las empresas se vuelvan genuinamente impulsadas por datos.
El análisis aumentado es la última adición al continuo de análisis
Entonces, ¿cómo definiremos el análisis aumentado? Una búsqueda rápida en internet arrojará muchas posibilidades. En pocas palabras, el análisis aumentado es el uso de aprendizaje automático para automatizar la creación y entrega de conocimientos basados en datos. Piénsalo como trabajar en tres áreas clave del viaje de los datos:
1. Encontrar y gestionar datos
El aprendizaje automático (ML) se puede utilizar en múltiples áreas de la gestión de datos, desde ayudar con el formato inicial, escanear conexiones entre diferentes conjuntos de datos, evaluar la calidad de los datos, y así sucesivamente. La gestión de datos ha sido una de las mayores barreras para que más personas trabajen con datos, ya que la mayoría no tiene las habilidades necesarias. Automatizar parte de este desafío es un gran avance.
2. Experiencia de descubrimiento
Bien, los datos están preparados: ¿Y qué? Muchas personas hablan del descubrimiento como si requiriera habilidades limitadas o nulas. La mayoría de las experiencias de descubrimiento de datos han requerido habilidades significativas de datos y análisis para comenzar a generar conocimientos. Aumentar el descubrimiento de datos significa ayudar a los usuarios a entender qué son los datos a los que tienen acceso y cómo se conectan con otros conjuntos de datos, así como proporcionar guías para ayudarlos a unir y analizar datos de una manera que tenga sentido analítico.
3. Presentación de conocimientos
¿Funciona visualizar un informe de ventas regional recién creado en un gráfico circular, o se vería mejor como un gráfico de barras apiladas? Un usuario potencialmente no se daría cuenta de que los datos podrían colocarse en un mapa y codificarse por colores, pero una herramienta de análisis aumentada podría. Ayudar a las personas a consumir información de la manera más fácil es crítico, y no todos pueden ser expertos en visualización. Desde sugerir cómo se presenta la información, hasta alertas inteligentes dentro de otra aplicación, aumentar la entrega del análisis ayuda a más personas a obtener más de los datos.
Nombres familiares como IBM, Oracle, Salesforce, SAP, Tableau, y Qlik, entre otros, han estado ocupados aumentando la experiencia del usuario de sus productos de análisis. Esto es una buena noticia tanto para usuarios expertos como novatos en análisis. Pero, ¿significa esto que el análisis aumentado representa el estado final y maduro del análisis de datos? ¡Por supuesto que no!
La ciencia de datos se está moviendo del laboratorio al piso de la tienda
Enriquecer las plataformas de análisis con IA es el primer paso en un largo camino por delante: el encuentro y la fusión definitiva de los análisis y la ciencia de datos de hoy en día.
El uso del aprendizaje automático para aumentar y automatizar las características de análisis es análogo al desarrollo de coches autónomos. Primero vinieron los sensores de estacionamiento y los ordenadores de viaje, luego la asistencia de estacionamiento y el frenado automático; los desarrollos continuarán hasta que podamos entregar el vehículo completamente autónomo. En el mismo sentido, a medida que el análisis aumentado se vuelve más inteligente, su participación en los casos de uso de creación de conocimientos crecerá, y ya sea que las ciencias de datos retrocedan, o, más probablemente, encuentren formas nuevas y cada vez más complejas de interrogar los datos. En otras palabras, las herramientas y técnicas analíticas del laboratorio científico llegarán a un uso regular en el piso de la tienda.
La ciencia de datos está experimentando su propia transformación, de una vasta colección de herramientas dispares pero interdependientes a una plataforma integrada. Aquí en G2, hemos actualizado recientemente nuestra taxonomía para abordar estos cambios, agregando una nueva categoría, plataformas de ciencia de datos y aprendizaje automático, a nuestra taxonomía de software de IA.
Conectar el viaje de los datos en la ciencia de datos es similar al de los análisis, comenzando con la construcción y prueba de modelos, entrenando el modelo con datos relevantes, y avanzando a través de la operacionalización y el monitoreo y gestión del modelo. Muchos proveedores en el espacio están reuniendo herramientas y funcionalidades en una sola plataforma, lo que ayuda a los usuarios finales a mejorar la eficiencia de sus proyectos. Además, estas plataformas ayudan a garantizar que el trabajo de los científicos de datos sea compatible y comparable, y traen funcionalidades como gobernanza integrada, linaje y características de reproducibilidad que aumentan la confianza en los modelos creados.
Leer más: El G2 sobre IA Empresarial y Análisis: IA — ¿Qué es Realmente y Por Qué Importa? → |
Usar la necesidad de inversión en datos para habilitar mejores análisis
El creciente apetito por el análisis de datos ha provocado múltiples evoluciones de software, lo que yo llamo el continuo de análisis. Como se discutió en uno de mis artículos recientes, hay décadas de historia aquí, y predigo firmemente que a medida que las plataformas de ciencia de datos y aprendizaje automático se consoliden y estandaricen la funcionalidad, su órbita alrededor de las plataformas de análisis se acercará cada vez más. Actuar como un freno a estos desarrollos seguirá siendo, bueno, lo que siempre ha estado en el camino de los análisis: la disponibilidad de datos.
Las organizaciones rara vez carecen de datos; generalmente el problema es bastante al revés, y muchas luchan por lidiar con tanto el volumen de datos disponibles como con lo que debería retenerse. Sin embargo, la disponibilidad de datos que cumplan con el caso de uso, es decir, encontrarlos, acceder físicamente a ellos, garantizar que su calidad sea suficiente y formatearlos a un estándar consumible por análisis, ha sido un problema constante. Además, obtener apoyo para las inversiones necesarias para proporcionar habilidades de gestión de datos, software y un programa continuo de gobernanza ha sido tradicionalmente difícil, y sigue siéndolo. La miríada de opciones de almacenamiento y formato de datos ahora disponibles solo añade a este desafío, con datos almacenados en todo, desde dispositivos conectados y nubes públicas, hasta mainframes críticos para la misión.
Entonces, ¿cómo resolver el dilema de los datos? Hay varias opciones para las organizaciones que necesitan invertir en sus datos, y quizás no sea sorprendente, la regulación es uno de los impulsores clave. Las leyes de retención de datos—el GDPR de la UE y la CCPA de California, ya en vigor, están entre una gama creciente de legislación similar—están agregando un poder de fuego serio al caso para invertir en capacidades de gestión de datos, como calidad de datos, catálogos de datos, gestión de datos maestros, y nuevos almacenes de datos en la nube.
Pero invertir porque debes para minimizar el riesgo no es precisamente la perspectiva más emocionante (aunque enormemente importante). Para reforzar estos casos, G2 sugiere centrarse en lo que permite tener acceso a mejores datos. Desde un análisis más profundo que lleva a mejores resultados empresariales, hasta la automatización impulsada por el aprendizaje automático, las opciones presentadas por las plataformas de análisis que consumen estos datos, combinadas con plataformas emergentes de ciencia de datos, son sustanciales.
¿Quieres aprender más sobre Software de Inteligencia Artificial? Explora los productos de Inteligencia Artificial.

Tom Pringle
Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.