Introducing G2.ai, the future of software buying.Try now

Wenn Plattformen kollidieren, entwickelt sich die Analytik weiter

30. Juli 2020
von Tom Pringle

Im Bereich der Unternehmens-Technologie setzt sich die scheinbar endlose Entwicklung datengetriebener Erkenntnisse unaufhaltsam fort – aber wann wird sie enden? 

(Wenn Daten nicht mehr nützlich sind, also nie.)

In früheren Kolumnen habe ich die Transformation der Entscheidungshilfesysteme von früher zu den heutigen Analyseplattformen diskutiert. Die neueste Erweiterung im Jahr 2020 wird durch künstliche Intelligenz angetrieben, oder zumindest wird sie als solche bezeichnet. In Wirklichkeit ist es maschinelles Lernen – ein Zweig der KI, der den Großteil der aktuellen KI-Anwendungsfälle liefert –, das einen zunehmend populären Begriff hervorgebracht hat: erweiterte Analytik. 

Die Branche ist bestrebt, neue Wörter vor Analytik zu setzen – Business, Daten, Edge, verteilt, Echtzeit – und ich bin genauso schuldig wie der nächste Analyst, diesem Drang nachzugeben. Aber ich werde die Verwendung von erweiterter Analytik verteidigen (auch wenn ich sie nicht erfunden habe), weil es für Unternehmen entscheidend ist, wirklich datengetrieben zu werden.

Erweiterte Analytik ist die neueste Ergänzung des Analytik-Kontinuums

Wie sollen wir also erweiterte Analytik definieren? Eine schnelle Internetsuche liefert viele Möglichkeiten. Einfach ausgedrückt ist erweiterte Analytik die Nutzung von maschinellem Lernen, um die Erstellung und Bereitstellung datengetriebener Erkenntnisse zu automatisieren. Stellen Sie sich vor, es arbeitet in drei Schlüsselbereichen der Datenreise:

1. Finden und Verwalten von Daten

Maschinelles Lernen (ML) kann in mehreren Bereichen des Datenmanagements eingesetzt werden, von der Unterstützung bei der anfänglichen Formatierung, dem Scannen nach Verbindungen zwischen verschiedenen Datensätzen, der Bewertung der Datenqualität und so weiter. Datenmanagement war eines der größten Hindernisse dafür, dass mehr Menschen mit Daten arbeiten – da die meisten nicht über die notwendigen Fähigkeiten verfügen. Einen Teil dieser Herausforderung zu automatisieren, ist ein großer Fortschritt.

2. Entdeckungserfahrung 

Okay, die Daten sind vorbereitet: Und nun? Viele Menschen sprechen über Entdeckung, als ob sie nur begrenzte oder keine Fähigkeiten erfordert. Die meisten Datenentdeckungserfahrungen erforderten erhebliche Daten- und Analysefähigkeiten, um mit der Generierung von Erkenntnissen zu beginnen. Die Erweiterung der Datenentdeckung bedeutet, den Benutzern zu helfen, zu verstehen, was die Daten, auf die sie Zugriff haben, sind und wie sie mit anderen Datensätzen verbunden sind, sowie Leitplanken bereitzustellen, die ihnen helfen, Daten auf eine Weise zu verbinden und zu analysieren, die analytisch sinnvoll ist.

3. Präsentation von Erkenntnissen 

Funktioniert die Visualisierung eines neu erstellten regionalen Verkaufsberichts in einem Kreisdiagramm, oder würde es in einem gestapelten Balkendiagramm besser aussehen? Ein Benutzer würde möglicherweise nicht erkennen, dass die Daten auf einer Karte platziert und farblich gekennzeichnet werden könnten, aber ein erweitertes Analytik-Tool könnte es. Den Menschen zu helfen, Informationen auf die einfachste Weise zu konsumieren, ist entscheidend, und nicht jeder kann ein Visualisierungsexperte sein. Von der Vorschlag, wie Informationen präsentiert werden, bis hin zu intelligenten Benachrichtigungen in einer anderen App – die Erweiterung der Analysebereitstellung hilft mehr Menschen, mehr aus Daten herauszuholen.

Bekannte Namen wie IBM, Oracle, Salesforce, SAP, Tableau und Qlik unter anderen, waren damit beschäftigt, die Benutzererfahrung ihrer Analyseprodukte zu erweitern. Das ist eine gute Nachricht für erfahrene und unerfahrene Analytik-Nutzer gleichermaßen. Aber bedeutet das, dass erweiterte Analytik den endgültigen, ausgereiften Zustand der Datenanalyse darstellt? Natürlich nicht!

Datenwissenschaft bewegt sich vom Labor auf die Werkstatt

Die Anreicherung von Analyseplattformen mit KI ist der erste Schritt auf einer langen Reise: dem Treffen und letztendlichen Verschmelzen von Analytik und der heutigen Datenwissenschaft

Der Einsatz von maschinellem Lernen zur Erweiterung und Automatisierung von Analysefunktionen ist vergleichbar mit der Entwicklung selbstfahrender Autos. Zuerst kamen Parksensoren und Bordcomputer, dann Parkhilfe und automatisches Bremsen; die Entwicklungen werden weitergehen, bis wir das vollständig autonome Fahrzeug liefern können. In ähnlicher Weise wird, wenn erweiterte Analytik intelligenter wird, ihr Anteil an der Erstellung von Erkenntnissen zunehmen, und entweder wird die Datenwissenschaft zurücktreten – oder, und wahrscheinlicher, neue und immer komplexere Wege finden, Daten zu hinterfragen. Mit anderen Worten, analytische Werkzeuge und Techniken aus dem wissenschaftlichen Labor werden ihren Weg in den regelmäßigen Einsatz auf der Werkstatt finden.

Die Datenwissenschaft durchläuft ihre eigene Transformation, von einer riesigen Sammlung disparater, aber voneinander abhängiger Werkzeuge zu einer integrierten Plattform. Hier bei G2 haben wir kürzlich unsere Taxonomie aktualisiert, um diesen Veränderungen Rechnung zu tragen, und eine neue Kategorie, Datenwissenschafts- und maschinelles Lernen-Plattformen, zu unserer KI-Software-Taxonomie hinzugefügt.

Die Verbindung der Datenreise in der Datenwissenschaft ist ähnlich wie in der Analytik – beginnend mit dem Modellaufbau und -test, dem Training des Modells mit relevanten Daten und dem Übergang zur Operationalisierung sowie dem Modellmonitoring und -management. Viele Anbieter in diesem Bereich bringen Werkzeuge und Funktionalitäten in einer einzigen Plattform zusammen, was Endbenutzern hilft, die Effizienz ihrer Projekte zu verbessern. Darüber hinaus helfen diese Plattformen sicherzustellen, dass die Arbeit der Datenwissenschaftler kompatibel und vergleichbar ist, und bringen Funktionalitäten wie eingebaute Governance, Herkunft und Reproduzierbarkeitsmerkmale, die das Vertrauen in die erstellten Modelle stärken.

Weiterlesen: Das G2 zu Unternehmens-KI & Analytik: KI – Was ist es wirklich & warum ist es wichtig?

Die Notwendigkeit der Investition in Daten nutzen, um bessere Analytik zu ermöglichen

Der wachsende Appetit auf die Analyse von Daten hat mehrere Software-Evolutionen ausgelöst – was ich als das Analytik-Kontinuum bezeichne. Wie in einem meiner jüngsten Artikel diskutiert, gibt es hier Jahrzehnte der Geschichte, und ich sage fest voraus, dass, wenn sich Datenwissenschafts- und maschinelles Lernen-Plattformen konsolidieren und die Funktionalität standardisieren, ihre Umlaufbahn um Analyseplattformen immer näher kommen wird. Als Bremse für diese Entwicklungen wird weiterhin das stehen, was schon immer der Analytik im Wege stand: die Verfügbarkeit von Daten.

Organisationen mangelt es selten an Daten; normalerweise ist das Problem genau umgekehrt, und viele kämpfen damit, sowohl mit dem Volumen der verfügbaren Daten umzugehen als auch damit, was aufbewahrt werden sollte. Die Verfügbarkeit von Daten, die den Anwendungsfall erfüllen – das heißt, sie zu finden, physisch darauf zuzugreifen, ihre Qualität sicherzustellen und sie in einem für die Analytik konsumierbaren Standard zu formatieren – war ein konstantes Problem. Darüber hinaus war es traditionell schwierig, Unterstützung für die notwendigen Investitionen in Datenmanagementfähigkeiten, Software und ein laufendes Programm zur Governance zu erhalten, und bleibt es auch. Die Vielzahl der jetzt verfügbaren Daten-Speicher- und Formatoptionen verschärft diese Herausforderung nur, da Daten in allem gespeichert werden, von verbundenen Geräten und öffentlichen Clouds bis hin zu geschäftskritischen Mainframes.

Wie also das Daten-Dilemma lösen? Es gibt mehrere Optionen für Organisationen, die in ihre Daten investieren müssen, und wenig überraschend ist Regulierung einer der Haupttreiber. Datenaufbewahrungsgesetze – die EU-DSGVO und Kaliforniens CCPA, die bereits in Kraft sind, gehören zu einer wachsenden Reihe ähnlicher Gesetze – fügen dem Fall für Investitionen in Datenmanagementfähigkeiten, wie Datenqualität, Datenkataloge, Stammdatenmanagement und neue Cloud-Datenspeicher, ernsthafte Schlagkraft hinzu. 

Aber zu investieren, weil man muss, um Risiken zu minimieren, ist kaum die aufregendste Aussicht (wenn auch enorm wichtig). Um diese Fälle zu stärken, schlägt G2 vor, sich darauf zu konzentrieren, was der Zugang zu besseren Daten ermöglicht. Von tiefergehenden Analysen, die zu besseren Geschäftsergebnissen führen, bis hin zu maschinellem Lernen-gestützter Automatisierung – die von Analyseplattformen, die diese Daten konsumieren, präsentierten Optionen, die mit aufkommenden Datenwissenschaftsplattformen abgestimmt sind, sind erheblich.

Möchten Sie mehr über Künstliche Intelligenz Software erfahren? Erkunden Sie Künstliche Intelligenz Produkte.

Tom Pringle
TP

Tom Pringle

Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.