Neo Tech Blog – Digitale Technologien und Projekte @neofonie

NEO TECH LBLOG - Praxis-Techblog für IT, Web und Mobile

Teil 2: Big Data und Business Intelligence – Gemeinsamkeiten und Unterschiede

Keine Kommentare

Bei einem BI-System werden die Daten aus den verschiedenen Systemen gelesen und in ein Schema überführt. Dies passiert im so genannten ETL („Extract Transform Load“)-Schritt. Bei der Einführung eines BI-Systems muss viel Arbeit und Mühe in das Design dieses Schemas gesteckt werden.

Top Down müssen sich letztlich alle für das Unternehmen relevanten Fragestellungen aus dem Schema beantworten lassen. Fehlen hier Relationen oder sind Daten nicht vorhanden, dann bedeutet es in der Regel einiges an Aufwand, um die Relationen herzustellen beziehungsweise die fehlenden Daten hinzuzufügen – vor allem ohne die Konsistenz der existierenden Reports zu beeinträchtigen.

Bottom Up müssen die Schemata aus den Unternehmensdatentöpfen konsistent in die Data-Warehouse-Schemata überführt werden. Wer schon einmal auf eine mit RDBMS-Schema tapezierte Wand geschaut hat, kann die Komplexität dieser Aufgabe abschätzen. Das Vorgehen des „Schemaon-Write“ zieht sich nach der Einführung eines BI-Systems auch durch die Anwendung. Change-Prozesse müssen eingehalten werden, und die Business Analysten müssen ihre Fragestellungen gut und genau formulieren, bevor diese nach Änderung aus dem BI-System beantwortet werden können.

Der Ansatz bei Big Data wird als „Schemaon-Read“ bezeichnet. Die Daten werden zunächst ohne Transformation in den De-

Facto-Standard Hadoop überführt. Dabei ist es zunächst unwesentlich, ob es sich um strukturierte oder unstrukturierte Daten handelt. Für die explorative Analyse bietet sich nun ein iteratives und agiles Vorgehen an. Dieses Vorgehen führt im Zweifelsfall zu einer größeren Reaktionsfähigkeit bei der Erprobung und anschließenden Einführung neuer KPIs. Ohne wenigstens rudimentäre Fragestellung begibt man sich allerdings auf die Suche nach der Nadel im Heuhaufen – wobei immerhin schon einmal der Heuhaufen bereitsteht. Analyst und Informatiker arbeiten gemeinsam iterativ und explorativ an der Fragestellung. Ergebnisse werden gefunden, verworfen oder verfeinert. Bei den Methoden steht einem die ganze Fülle an Data-Mining-Algorithmen und Statistik zur Verfügung. Wichtig dabei: Mit diesen „Advanced Analytics“ genannten Methoden können Informationen aus den Daten gewonnen werden, die über deskriptive Statistik und damit über die Möglichkeiten von Business Intelligence hinausgehen.

Allerdings sind eingeführte Methoden der deskriptiven Statistik in der Regel Voraussetzung für den effizienten Einsatz von Advanced-Analytics-Methoden. Eine der wichtigsten Empfehlungen ist deshalb ein schrittweises Vorgehen. Bei der Einführung der neuen Methoden sollte am Anfang die Hürde nicht zu hoch gelegt werden, um zunächst Methoden- und Prozesskompetenz zu sammeln. Mit Big Data stehen die Unternehmen etwa dort, wo sie mit BI vor zehn bis fünfzehn Jahren standen. Auch bei der Einführung von Business Intelligence mussten die Unternehmen die Methoden- und Prozesskompetenz erst erlernen. Zudem war zunächst nicht sicher, welche Standards sich durchsetzen würden. Die Vorreiter der Brache konnten dennoch durch den frühen Einsatz datenbasierter Entscheidungsmodelle entscheidende Wettbewerbsvorteile erzielen.

Business Intelligence Big Data
Schema-on-Write

  • Statisches Schema
  • Transformation operativer Daten
  • Anfrage im RDBMS-Format
Schema-on-Read

  • Daten im ursprünglichen Format
  • Anfrage im ursprünglichem Format
  • ETL „on the fly“
Detaillierte Schemapflege Neue Daten können einfach hinzugefügt und sofort verwendet werden
Change Prozesse müssen eingehalten werden, daher langsam Agiles Vorgehen sorgt für enorm hohe Reaktionsgeschwindigkeit
Gut für das „bekannte Unbekannte“ (Wiederholungen) Gut für das „unbekannte Unbekannte“ (explorativ)
Vorgegebenes Zeitfenster und Archiv Aktive, „unbegrenzte“ Speicherung
Vertikale Skalierung Horizontale Skalierung
Viel Erfahrung in den meisten Unternehmen Kaum Erfahrung in den Unternehmen, in der Regel wird mit spezialisierten Dienstleistern gearbeitet

 

Weiter lesen: Teil 3: Exemplarisches Anwendungsfeld von Big Data-Analysen: Customer Journey

Zurück zu Teil 1: Anleitung zum Bergen des Datenschatzes für Onlinehändler

 

Holger Düwiger

Autor: Holger Düwiger

Holger Düwiger ist CTO der Neofonie GmbH. Seit über 15 Jahren beschäftigt er sich mit technologiegetriebenen Innovationen. Sein Interesse gilt besonders innovativen Ansätzen und Konzepten, bei denen das Internet und Daten im Fokus stehen. Als CTO und Intermediär zwischen Business und Technologie, sorgt er dafür, dass Innovationen im Sinne des Businessnutzens anwendbar werden. Holger ist diplomierter Mathematiker der TU Berlin.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.