Von den Tontafeln Mesopotamiens bis zum ersten Werkzeug der Datenverarbeitung, der Lochkarte, vergingen Jahrtausende. Der weitere Weg zur digitalen Informations- und Wissensgesellschaft ist im Vergleich dazu ein Katzensprung.

Heute prägen Informationstechnologien soziales, wirtschaftliches und politisches Handeln – und ihre Bedeutung wird weiter zunehmen. Sie eröffnen neue Perspektiven in der produzierenden Industrie (Stichwort Industrie 4.0 & Cloud, wie das Interview mit Zumtobel auf Seite 6–7 zeigt), bei der intelligenten Energienutzung, vernetzten Verkehrsflüssen oder in der Medizin.

Hinter solchen smarten Anwendungen stehen komplexe, vernetzte Systeme. Viele davon basieren auf IT und produzieren Daten – sehr viele Daten: Weltweit sind es täglich 2,5 Trillionen Bytes. Diese füllen pro Jahr 250 Milliarden DVDs, was einer Menge von 1,8 Zettabytes (einer Zahl mit 21 Nullen) entspricht. Zur explodierenden Datenflut tragen aber auch andere Informationsmittel bei. Die Menge unstrukturierter Daten – Bilder, Videos oder Texte – wächst explosionsartig.

Während Entscheidungsträger nach Informationen dürsten, um daraus Wissen und Handeln abzuleiten, sind viele Daten unvollständig oder können nicht richtig interpretiert werden. Laut Branchenanalysten werden Ende 2015 weltweit bis zu 80 Prozent der Daten nicht mehr verlässlich sein. Damit steigt der Aufwand, daraus handlungsrelevantes Wissen zu schaffen.

„Ende 2015 werden 80 Prozent der weltweit verfügbaren Daten nicht mehr verlässlich sein. Verlässlichkeit in die große Datenmenge zu bringen, ist daher eine der zentralen Herausforderungen der kommenden Jahre.“

Analytics bringt Licht ins Dunkel

Verlässlichkeit in die große Datenmenge zu bringen, ist daher eine der zentralen Herausforderungen der kommenden Jahre. Bei der Verarbeitung von unstrukturierten Daten ist das menschliche Gehirn noch immer das Maß aller Dinge. Doch der Mensch entwickelt sich nur langsam weiter. Bis die Evolution das Gehirn soweit gebracht hat, dass es so immense steigende Datenmengen verarbeiten kann, sind wohl unsere Urururenkel längst in Pension.

Daher müssen wir der Datenflut und dem Analysemanko mit neuen Technologien und Algorithmen begegnen, die aus unstrukturierten Daten neue Schlüsse ziehen können. Ein Vorreiter ist der Supercomputer Watson, der in einer amerikanischen Quizshow gegen die besten Kandidaten antrat und heute cloudbasiert in diversen Projekten im Gesundheitswesen, im Versicherungs- und Finanzbereich erfolgreich zum Einsatz kommt.

Technologie allein genügt nicht

Der Schatz liegt verborgen im Datendschungel; neue smarte Auswertungs- und Analysemethoden sind das Werkzeug, um ihn zu heben. Was braucht man aber konkret für den Umgang mit Big Data?

  1.  Die Technologie, um große Datenmengen aus vielen verschiedenen Datenquellen verfügbar zu machen.
  2.  Methoden und Verfahren um diesen Daten zu analysieren und
  3.  Modelle, die für konkrete Geschäftsziele verwertbare Ergebnisse und Schlussfolgerungen liefern.

Denn nur wer sich vorab überlegt, was mithilfe von Big Data Analytics erreicht werden soll – von neuen Geschäftsmodellen über Gewinnsteigerung, Risikominimierung bis hin zur Erhöhung des Wirkungsgrades –, wird erfolgreich sein. Diese initiale Denkleistung wird uns IT in absehbarer Zeit nicht abnehmen.