Introducing G2.ai, the future of software buying.Try now

Quand les plateformes se heurtent, l'analyse évolue

30 Juillet 2020
par Tom Pringle

Dans le domaine de la technologie d'entreprise, l'évolution apparemment sans fin des insights basés sur les données continue à un rythme soutenu - mais quand cela s'arrêtera-t-il ?

(Quand les données ne seront plus utiles, donc, jamais.)

Dans des chroniques précédentes, j'ai discuté de la transformation des systèmes de support à la décision d'autrefois en plateformes d'analytique d'aujourd'hui. La dernière expansion en 2020 est alimentée par l'intelligence artificielle, ou du moins est étiquetée comme telle. En réalité, c'est l'apprentissage automatique - une branche de l'IA qui fournit la majorité des cas d'utilisation actuels de l'IA - qui a donné naissance à un terme de plus en plus populaire : l'analytique augmentée.

L'industrie est avide de mettre de nouveaux mots devant l'analytique - business, données, edge, distribué, en temps réel - et je suis aussi coupable que le prochain analyste de céder à cette tentation. Mais je défendrai l'utilisation de l'analytique augmentée (même si je ne l'ai pas inventée) car il est crucial pour les entreprises de devenir véritablement axées sur les données.

L'analytique augmentée est le dernier ajout au continuum de l'analytique

Alors, comment devons-nous définir l'analytique augmentée ? Une recherche rapide sur Internet donnera de nombreuses possibilités. En termes simples, l'analytique augmentée est l'utilisation de l'apprentissage automatique pour automatiser la création et la livraison d'insights basés sur les données. Pensez-y comme travaillant dans trois domaines clés du parcours des données :

1. Trouver et gérer les données

L'apprentissage automatique (ML) peut être utilisé dans de nombreux domaines de la gestion des données, de l'aide au formatage initial, à la recherche de connexions entre différents ensembles de données, à l'évaluation de la qualité des données, etc. La gestion des données a été l'un des plus grands obstacles à ce que plus de personnes travaillent avec les données - car la plupart n'ont pas les compétences nécessaires. Automatiser une partie de ce défi est une avancée majeure.

2. Expérience de découverte

Ok, les données sont prêtes : et alors ? Beaucoup de gens parlent de découverte comme si elle nécessitait peu ou pas de compétences. La plupart des expériences de découverte de données ont nécessité des compétences significatives en données et en analyse pour commencer à générer des insights. Augmenter la découverte de données signifie aider les utilisateurs à comprendre ce que sont les données auxquelles ils ont accès et comment elles se connectent à d'autres ensembles de données, ainsi que fournir des guides pour les aider à joindre et analyser les données d'une manière qui a du sens analytique.

3. Présentation des insights

La visualisation d'un rapport de ventes régional nouvellement créé fonctionne-t-elle dans un graphique en secteurs, ou serait-il mieux présenté sous forme de graphique à barres empilées ? Un utilisateur ne réaliserait peut-être pas que les données pourraient être placées sur une carte et codées par couleur, mais un outil d'analytique augmentée pourrait le faire. Aider les gens à consommer l'information de la manière la plus simple est crucial, et tout le monde ne peut pas être un expert en visualisation. De la suggestion de la manière dont l'information est présentée, aux alertes intelligentes dans une autre application - augmenter la livraison de l'analyse aide plus de gens à tirer plus de données.

Des noms familiers tels qu'IBM, Oracle, Salesforce, SAP, Tableau et Qlik, entre autres, ont été occupés à augmenter l'expérience utilisateur de leurs produits d'analytique. C'est une bonne nouvelle pour les utilisateurs experts et novices en analytique. Mais, cela signifie-t-il que l'analytique augmentée représente l'état final et mature de l'analyse de données ? Bien sûr que non !

La science des données passe du laboratoire à l'atelier

Enrichir les plateformes d'analytique avec l'IA est la première étape d'un long voyage à venir : la rencontre et la fusion ultime de l'analytique et de la science des données d'aujourd'hui.

L'utilisation de l'apprentissage automatique pour augmenter et automatiser les fonctionnalités d'analytique est analogue au développement des voitures autonomes. D'abord sont venus les capteurs de stationnement et les ordinateurs de bord, puis l'assistance au stationnement et le freinage automatique ; les développements continueront jusqu'à ce que nous puissions livrer le véhicule entièrement autonome. Dans le même ordre d'idées, à mesure que l'analytique augmentée devient plus intelligente, sa part des cas d'utilisation de création d'insights augmentera, et soit les sciences des données reculeront - ou, et plus probablement, trouveront de nouvelles façons toujours plus complexes d'interroger les données. En d'autres termes, les outils et techniques analytiques du laboratoire scientifique feront leur chemin vers une utilisation régulière sur l'atelier.

La science des données subit sa propre transformation, passant d'une vaste collection d'outils disparates mais interdépendants à une plateforme intégrée. Ici, chez G2, nous avons récemment mis à jour notre taxonomie pour répondre à ces changements, ajoutant une nouvelle catégorie, plateformes de science des données et d'apprentissage automatique, à notre taxonomie de logiciels d'IA.

Connecter le parcours des données en science des données est similaire à celui de l'analytique - en commençant par la construction et le test de modèles, l'entraînement du modèle sur des données pertinentes, et en passant par l'opérationnalisation et la surveillance et la gestion des modèles. De nombreux fournisseurs dans le domaine rassemblent des outils et des fonctionnalités dans une seule plateforme, ce qui aide les utilisateurs finaux à améliorer l'efficacité de leurs projets. De plus, ces plateformes aident à garantir que le travail des data scientists est compatible et comparable, et apportent des fonctionnalités telles que la gouvernance intégrée, la traçabilité et les fonctionnalités de reproductibilité qui augmentent la confiance dans les modèles créés.

Utiliser la nécessité d'investir dans les données pour permettre une meilleure analytique

L'appétit croissant pour l'analyse des données a déclenché de multiples évolutions logicielles - ce que je qualifie de continuum de l'analytique. Comme discuté dans l'un de mes articles récents, il y a des décennies d'histoire ici, et je prédis fermement qu'à mesure que les plateformes de science des données et d'apprentissage automatique se consolideront et standardiseront les fonctionnalités, leur orbite autour des plateformes d'analytique se rapprochera de plus en plus. Agissant comme un frein à ces développements continuera d'être, eh bien, ce qui a toujours fait obstacle à l'analytique : la disponibilité des données.

Les organisations ne manquent généralement pas de données ; le problème est souvent inversé, et beaucoup luttent pour gérer à la fois le volume de données disponibles et ce qui doit être conservé. Cependant, la disponibilité de données qui répondent au cas d'utilisation - c'est-à-dire les trouver, y accéder physiquement, s'assurer que leur qualité est suffisante, et les formater à un standard consommable par l'analytique - a été un problème constant. De plus, obtenir le soutien pour les investissements nécessaires pour fournir des compétences en gestion des données, des logiciels, et un programme continu de gouvernance a traditionnellement été difficile, et le reste. Les innombrables options de stockage et de format de données maintenant disponibles ne font qu'ajouter à ce défi, avec des données stockées dans tout, des appareils connectés aux clouds publics, en passant par les mainframes critiques pour la mission.

Alors, comment résoudre le dilemme des données ? Il existe plusieurs options pour les organisations qui doivent investir dans leurs données, et peut-être sans surprise, la réglementation est l'un des principaux moteurs. Les lois sur la rétention des données - le RGPD de l'UE et le CCPA de la Californie, déjà en vigueur, font partie d'une gamme croissante de législations similaires - ajoutent une puissance de feu sérieuse à l'argument en faveur de l'investissement dans les capacités de gestion des données, telles que la qualité des données, les catalogues de données, la gestion des données de référence, et les nouveaux magasins de données dans le cloud.

Mais investir parce que vous devez pour minimiser le risque n'est guère la perspective la plus excitante (bien que très importante). Pour renforcer ces arguments, G2 suggère de se concentrer sur ce que l'accès à de meilleures données permet. D'une analyse plus approfondie conduisant à de meilleurs résultats commerciaux, à l'automatisation alimentée par l'apprentissage automatique - les options présentées par les plateformes d'analytique consommant ces données, associées aux plateformes de science des données émergentes, sont substantielles.

Vous voulez en savoir plus sur Logiciel d'intelligence artificielle ? Découvrez les produits Intelligence Artificielle.

Tom Pringle
TP

Tom Pringle

Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.