Immer wieder wird Kritik geäußert, der auf der falschen Verwendung des Begriffs Big Data für Projekte oder Verfahren beruht, auf die der Begriff nicht zutrifft. Entweder die Datenmenge ist so klein, dass sie mit herkömmlichen Rechnern nicht verarbeitet werden kann, oder es handelt sich um sehr homogene Daten, zum Beispiel wie ausschließlich um Text.
The “5 Vs” oder den “7 Vs” – aus den englischen Fachbegriffen abgeleitet, bezeichnen diese Begriffe die verschiedenen Dimensionen, die Big Data zu Big Data machen.
Aus diesem Grund haben sich fünf bis sieben Schlüsselbegriffe zur Beschreibung von Big Data etabliert:
VOLUME – die Datenmenge: Schon der Name Big Data verrät es – die Menge der Daten, die bei Datenanalysen verarbeitet werden, können enorm sein. Ein Beispiel: Der Teilchenbeschleuniger in LHC am CERN bei Genf produziert pro Jahr 30 (= 300 Millionen Gigabyte) an Daten. Zum Vergleich: Ein Petabyte Musik in .mp3-Format entspricht 2.000 Jahre Musik aneinander abgespielt.
VARIETY – die Datenvielfalt: Von Big Data ist dann die Rede, wenn nicht nur eine Form von Daten vorliegt wie etwa ausschließlich Tweets in Textform. In der Regel zeigen sich Muster und Zusammenhänge erst durch die Kombination mit verschiedenen anderen Daten wie Geodaten, Wetterdaten, Sensordaten, Rechnungsdaten und so weiter.
VELOCITY – die Verabeitungsgeschwindigkeit: Ein herkömmlicher Rechner würde abhängig von der Menge der Daten Monate bis viele Jahre brauchen, um zu einem Ergebnis zu kommen. Big Data erfordert enorme Rechenleistung. Viele hundert Prozessoren verarbeiten parallel einzelne Rechenoperationen, um schnell zu einem Ergebnis zu kommen.
VERACITY – die Richtigkeit der Daten: Je weiter die Menge der Daten anwächst, desto größer wird die Wahrscheinlichkeit, dass sich Fehler einschleichen. Nur wenn die Daten wirklich valide sind, können die Ergebnisse der Berechnungen mit der Wirklichkeit übereinstimmen.
VARIABILITY – die Veränderlichkeit der Daten: Ebenso wie sich die Bedeutung eines Wortes im Lauf der Zeit ändern kann, können Daten ihre Bedeutung verändern. Überall wo Daten keine statistischen Inhalten haben, ist die Veränderlichkeit eine kontinuierliche Herausforderung. Insbesondere bei der Auswertung von Sprache spielt dieser Aspekt eine große Rolle.
VISUALIZATION – die Visualisierung der Daten: Daten in Form von Tabellen, Zahlenreihen oder Formeln sind abstrakt und wenig anschaulich. Daher verdeutlicht man Daten mit Hilfe von Graphen, Charts, Dashboards, Kuchen- oder Balkendiagrammen. Je komplexer die Datenlage ist, desto schwieriger wird es allerdings, die Ergebnisse konkret zu visualisieren.
VALUE – der Nutzwert der Daten: Big Data wird selten aus reinem Selbstzweck betrieben. In Unternehmen ist das Ziel einer Datenanalyse, Erkenntnisse in einen ökonomischen Wert zu wandeln. Nicht zuletzt wegen ihres Potenzials, einen wesentlich Beitrag in der Wertschöpfungskette zu leisten, werden Daten als das neue Öl bezeichnet.
So Profitieren Unternehmen von Big Data
Big Data und Data Analytics bringen zahlreiche neue Möglichkeiten mit sich. Trotz der Vielfalt der Anwendungsmöglichkeiten lassen sich drei Hauptkategorien finden, bei denen Daten die Ökonomie grundlegend verändern.
- Big Data als Teil der Industrie 4.0
Unter Industrie 4.0 wird die umfassende Vernetzung der gesamten Wirtschaft zusammengefasst: Von der Produktion über Sales bis hin zum Backoffice. Durch Vernetzung und Digitalisierung wird es möglich, Daten in einem noch nie gesehenen Umfang zu erheben und zu verarbeiten. Die Auswertung dieser Big Data kann zu einem Wachstumsmotor werden und ist damit eine der Säulen der Industrie 4.0. - Daten als Entscheidungsgrundlage
Weg vom Bauchgefühl und hin zur Erkenntnis. Mit komplexen Datenanalysen wird die Riskoabschätzung zu einer exakten Wissenschaft. Dank datengestützter Markt- und Trendforschung, Absatzprognosen und der Analyse des Kundenverhaltens entlang aller Touchpoints steht heute belastbares Wissen zur Verfügung. Diese Erkenntnisse müssen die Basis unternehmerischer Entscheidungen sein. - Big Data und neue Geschäftsmodelle
Unternehmen, die Daten erzeugen, sammeln und analysieren, haben prinzipiell zwei Möglichkeiten, um Nutzen aus diesen erhobenen Daten zu ziehen: Zum einen können sie die Erkenntnisse der Datenanalysen nutzen, um ihre aktuellen Geschäftsmodelle zu überprüfen, anzupassen oder zu erweitern. Zum anderen können sie zu Datenhändlern werden. Wer seine Daten entsprechend aufbereitet, gewinnt dadurch ein branchenunabhängiges neues Geschäftsmodell.
Fazit:
Es ist sicher das Big Data schon lange kein Buzzword mehr ist. Big Data wird zur Norm. Durch das Internet der Dinge, die Vernetzung alltäglicher und industrieller Gegenstände (Uhren, Kleidungsstücke, Autos, Fertigungsanlagen, Thermostate, etc.) trägt zum exponentiellen Wachstum der Datenmenge bei und führt zu einer Datenexplosion. Gefragt sind aber die Anforderungen an Speichertechnologien und Rechenleistungen müssen Schritthalten, um Big Data zu speichern und zu modellieren. Die Rede von Daten, Virtualität, Digitalisierung und Cloud-Computing lässt die physische Seite von Big Data gern in Vergessenheit geraten – doch ohne schwere und energiehungrige Hardware ist Big Data nicht zu haben.