Introducing G2.ai, the future of software buying.Try now

Top 5 Big Data Vorhersagen bis 2021

4. Oktober 2019
von Devin Pickell

Die Welt der Big Data wird voraussichtlich bis 2025 erstaunliche 163 Zettabyte oder 163 Billionen Gigabyte erreichen. Neugierig, wie groß ein Zettabyte ist? Es könnte ungefähr 2 Milliarden Jahre Musik speichern.

Es gibt viele Konzepte und Ideen, um Big Data anzuwenden, einige Beispiele umfassen die Erstellung von maßgeschneiderten Lernmodellen für Schüler oder die Bereitstellung personalisierterer Gesundheitsversorgung. Allerdings ist Big Data immer noch allgemein schwer und zeitaufwendig zu verarbeiten und zu analysieren, und es wird schneller generiert, als wir mithalten können. Glücklicherweise könnten sich diese Schwierigkeiten in den nächsten drei Jahren verringern, da sich die Big Data-Technologien in rasantem Tempo weiterentwickeln.

Tatsächlich entwickeln immer mehr Unternehmen Pläne, um Big Data für zukünftigen Erfolg zu nutzen. Big Data wird letztendlich neue Möglichkeiten und Effizienzen aufdecken, die unser tägliches Leben verändern könnten – und es ist fair zu erwarten, dass einige dieser Veränderungen bis 2021 bahnbrechend sein werden. Also haben wir sieben Technologieexperten gefragt, was ihre dreijährigen Vorhersagen für Big Data sind. Hier ist, was sie zu sagen hatten:

1. Die Nachfrage nach Datenwissenschaftlern wird weiter steigen

Harry Dewhirst, Präsident bei Blis.

„Ich habe kürzlich gelesen, dass die Harvard Business Review diese Rolle als den ‚sexiest Job des 21. Jahrhunderts‘ bezeichnet hat. Es ist nicht zu leugnen, dass Daten die Währung sein werden, die unsere Wirtschaft in Zukunft antreibt; wir sind bereits weit auf diesem Weg. Das bedeutet, dass Datenwissenschaftler weiterhin die Zukunft gestalten werden.

Es ist entscheidend, dass Unternehmen jetzt mit der Planung für die Integration von Datenwissenschaftlern in ihre Organisationsstrukturen beginnen, und vielleicht noch mehr, dass Hochschulen und andere Bildungseinrichtungen mehr Möglichkeiten bieten, damit zukünftige Arbeitskräfte dieses Feld erkunden können. Daten haben Bestand, sie werden nicht so schnell verschwinden.“

Harry hat sicherlich recht. Datenwissenschaft ist eines der am schnellsten wachsenden Felder heute, aufgrund ihrer wichtigen Rolle bei der Interpretation von Big Data.

Tatsächlich schätzt ein Bericht von IBM mit dem Titel The Quant Crunch, dass bis 2020 bis zu 2,72 Millionen Jobs ausgeschrieben werden, die Datenwissenschaftskompetenzen erfordern.

Skipper Seabold, Co-Leiter der Datenwissenschafts-Forschung und -Entwicklung bei Civis Analytics.

„Die Rolle ‚Datenwissenschaftler‘ wird aufhören, eine spezialisierte Position zu sein, für die man Leute einstellt. Der Werkzeugkasten der Datenwissenschaft wird zu einem Satz von Fähigkeiten, die von Menschen in verschiedenen funktionalen Rollen innerhalb einer Organisation erwartet werden.

Die meisten Datenwissenschaftler werden nicht mehr über verteilte Systeme nachdenken müssen – Hadoop, Spark oder HPCs. Alte Technologien, wie traditionelle relationale Datenbanken, werden in Leistung und Fähigkeiten zu diesen Technologien aufschließen, und die Notwendigkeit, über und für mehrere über ein Netzwerk verbundene Maschinen zu programmieren, wird durch die von den großen Cloud-Anbietern verfügbaren Tools beseitigt.“

Möchten Sie mehr über Big-Data-Analyse-Software erfahren? Erkunden Sie Datenanalyse im großen Maßstab Produkte.

2. Big Data wird zugänglicher

Sam Underwood, VP der Geschäftsstrategie bei Futurety.

„Bis 2021 wird Big Data viel zugänglicher und damit viel nützlicher. Eine zentrale Herausforderung für viele Unternehmen heute ist die Vereinheitlichung all dieser Daten; per Definition ist das eine große Aufgabe!

Der Aufbau von Data Lakes und anderen flexiblen Speicherumgebungen ist 2018 eine große Priorität, und wir prognostizieren, dass bis 2021 ein Großteil dieser kritischen Daten in Systemen untergebracht sein wird, die viel zugänglicher für die Tools sind, die sie nutzen werden (Visualisierung, Analyse, prädiktive Modellierung). Dies eröffnet grenzenlose Möglichkeiten für jeden Aspekt der Geschäftsabläufe, rein datengetrieben zu sein.“

Sams Einsicht ist genau richtig. Es wird nicht ausreichen, nur Big Data zu sammeln und zu verarbeiten. Wenn Daten von den Endnutzern und Entscheidungsträgern in Unternehmen nicht leicht verstanden werden können, wird es schwierig sein, ihren Wert zu erkennen.

Jeff Houpt, Präsident von DocInfusion.

„Ich sehe die Landschaft für Big Data sich von hoch technischer und teurer zu mehr Selbstbedienungs- und On-Demand-Methoden entwickeln, bei denen die benötigten Ressourcen automatisch hochgefahren werden und man nur für das bezahlt, was man nutzt.

In der heutigen Landschaft benötigt man wirklich massive oder teure Infrastruktur, um Big Data zu analysieren, um die Daten zu erfassen, zu katalogisieren und für die Nutzung vorzubereiten. Dann benötigt man, um die Daten abzufragen und zu analysieren, die Fähigkeiten eines sehr technischen Programmierers/Mathematikers oder Datenwissenschaftlers.

Ich denke, dass es Plattformen und Apps geben wird, die diese Aufgaben weiterhin einfacher und intuitiver machen, und innerhalb von 3 Jahren werden wir an einen Punkt gelangen, an dem man die Daten direkt in eine einzige Anwendung einspeist, die alle verbleibenden Details für einen erledigt – und das in großem Maßstab.

Ich denke auch, dass durch die Nutzung von künstlicher Intelligenz (KI) und maschinellen Lernkonzepten die Anwendungen in der Lage sein werden, Ihre Ziele automatisch zu verstehen, indem sie Wissen von früheren Nutzern nutzen, die eine ähnliche Aufgabe durchgeführt haben. Dies wird es den Systemen ermöglichen, die Daten für spezifische Zwecke mit sehr wenig Rückmeldung vom Benutzer zu optimieren.“

3. NLP wird für die Informationsbeschaffung genutzt

KG Charles-Harris, CEO von Quarrio.

„Die grundlegendste Vorhersage für Big Data ist, dass bis 2021 die Informationsbeschaffung aus Big Data-Repositories mit natürlicher Sprache und sofort erfolgen wird. Die Menschen werden einfach Fragen in normaler Sprache stellen und das System wird in gewöhnlicher Sprache antworten, mit automatisch generierten Diagrammen und Grafiken, wenn zutreffend.“

4. DBaaS-Anbieter werden Big Data-Analysen annehmen

Ben Bromhead, CTO und Mitbegründer von Instaclustr.

„Wir erwarten, dass Database-as-a-Service (DBaaS)-Anbieter in den nächsten drei Jahren wirklich Big Data-Analyselösungen annehmen werden, da sie sich anpassen, um einem schnell wachsenden Kundenbedarf gerecht zu werden. Unternehmen sammeln und speichern immer mehr Daten und suchen weiterhin nach Möglichkeiten, diese Daten am effizientesten zu durchsuchen und für sich arbeiten zu lassen.

Indem sie Big Data-Analyselösungen in ihre Plattformen integrieren, werden DBaaS-Anbieter nicht nur Daten hosten und verwalten, sondern auch Unternehmensklienten helfen, diese besser zu nutzen. Zum Beispiel ist Elasticsearch eine leistungsstarke Open-Source-Technologie, mit der wir uns gut auskennen, die es Entwicklern ermöglicht, Daten in Echtzeit zu durchsuchen und zu analysieren.

Erwarten Sie, dass diese und ähnliche Technologien, die Entwicklern die Kontrolle über ihre Daten geben, zunehmend in den Repertoires von DBaaS auftauchen werden.“

5. Datenbereinigung wird automatisiert

Jomel Alos, Online-PR-Leiter von Spiralytics Performance Marketing.

„Eines der größten Probleme für Big Data ist derzeit die Unordnung und die falschen Daten. Die meisten Unternehmen haben derzeit ihr eigenes Bereinigungsframework oder entwickeln es noch. Schließlich wird die Bereinigung und Organisation mit Hilfe verschiedener Tools automatisiert. Da Big Data nicht statisch ist, wird erwartet, dass diese Tools auch den Bereinigungsprozess regelmäßig automatisieren.“

Jomel bringt einen wichtigen Punkt zur Sprache. Um eine schnelle Datenabfrage zu ermöglichen, muss Big Data für Qualität und Relevanz bereinigt werden. Tatsächlich verlor die USA 2016 schätzungsweise 3,1 Billionen Dollar aufgrund schlechter Datenqualität. Deshalb ist das „Durchsieben“ von verarbeiteten Daten so wichtig, wenn es darum geht, Big Data zu strukturieren.

Die aktuellen Prozesse der Datenbereinigung sind nicht gerade zeitkritisch. Derzeit erfordern sie fast 60 Prozent der Zeit eines Datenwissenschaftlers. Sobald diese Prozesse durch den Einsatz von KI und maschinellem Lernen automatisiert werden können, wird echter Fortschritt erzielt.

Entdecken Sie, wie Sie große Datensätze effektiv mit Big Data-Analysen verstehen und verborgene Möglichkeiten freischalten können.

Devin Pickell
DP

Devin Pickell

Devin is a former senior content specialist at G2. Prior to G2, he helped scale early-stage startups out of Chicago's booming tech scene. Outside of work, he enjoys watching his beloved Cubs, playing baseball, and gaming. (he/him/his)