Neo Tech Blog

NEO TECH LBLOG - Praxis-Techblog für IT, Web und Mobile
Big Data

Wie Unternehmen den Einstieg in Big Data finden – ganz konkret

Keine Kommentare


Ob zur Auswertung, zur Erstellung von Prognosen oder zur Visualisierung – wer sich Daten zu Nutze macht, wird im Zeitalter von Data Economy die Nase vorn haben.  Doch noch nicht alle Unternehmen haben das Potenzial für sich erkannt. Stefan Scharein, Data Specialist und Senior Sales Manager bei Neofonie, stellt im Interview Anwendungsszenarien von Big Data vor und gibt Unternehmen einen konkreten Handlungseinstieg.

Mit welchen konkreten Anwendungsfällen können Unternehmen die Potenziale durch Big Data ausschöpfen?

Wie immer, wenn eine disruptive Technologie wie Big Data auf den Markt kommt, gibt es die „Early Adopter“ und die „Late Mover“. So ein einheitliches Bild wie vor zwei Jahren (als viele noch nichts von Big Data gehört hatten oder die ersten Schritte starteten) lässt sich heute nicht mehr zeichnen. Im Markt existieren eine ganze Reihe von unterschiedlichen Big-Data-Reifegraden. Unternehmen, die auf Basis von Big Data völlig neue Geschäftsmodelle, Produkte und Services entwerfen, bis hin zu Unternehmen, die gerade erst anfangen, eine grundsätzliche Potenzialabschätzung zu entwickeln. Big Data ist in aller Munde und fast jeder will „irgendwie“ mitmischen. Unternehmen, die heute noch orientierungslos sind, werden im Zeitalter der Data-Economy auf mittel- bis langfristige Sicht verdrängt werden.

Ziel von Big Data ist das Aufdecken von neuen Potenzialen und das Heben von vorhandenen „Daten-Schätzen“ und das oft in neuen Kontexten. Wie massiv und erfolgreich Big Data das bestehende Geschäft von Unternehmen digital transformieren kann, zeigen drei Beispiele:

Online Shops stellen im Mittel 30% Umsatz-Wachstum durch auf Big Data basierende Recommendations fest (ein klassisches Big Data & Maschine Learning Thema);

Banken bewerten heute die Risiken von Wertpapier-Portfolios in Echtzeit durch semantische Text-Analyse von Nachrichtenströmen und nutzen Social Media Monitoring für Scoring Verfahren;

Verlage wie die New York Times nutzen Datenjournalismus, um Lesern “Live Experience” zu bieten und gleichzeitig neue Umsatzquellen zu erschliessen.

Wie stellen Unternehmen überhaupt fest, dass sich die intelligente und automatisierte Nutzung der eigenen Daten für sie lohnt?

Um eine Potenzialanalyse durchführen zu können, ist grundsätzliche die Kenntnis über die unternehmensspezifischen „Datenschätze“ und die Formulierung der „richtigen Fragen“ bzw. Anwendungsfälle nötig. Die explorative und flexible Methodik von Big Data ist bestens geeignet, um Anwendungsfälle schnell und kostengünstig zu bestätigen, anzupassen oder zu verwerfen – unabhängig der Branche oder Unternehmensgröße. Die Anwendungsfälle können dabei relativ einfach oder eben komplex ausfallen. Nutze ich vorhandene Daten oder neue Daten? Optimiere ich das bestehende Business oder baue ich neue Geschäftsmodelle auf? Der vermutlich einfachste Einstieg in die Welt der agilen Datenanalyse beginnt mit der Frage, wie mit den vorhandenen Daten das bestehende Business optimiert werden kann.

Ein aktuelles Beispiel aus der Praxis: Die gesamte Verlagsbranche steht vor einem massiven Wandel. Inflationärer Content im Web und die abnehmenDatenjournalismus-Neofoniede Zahlungsbereitschaft der Leser macht den Verlagen zu schaffen. Die Umsätze sinken. In Folge werden Redaktionen häufig massiv verkleinert. Als ein möglicher Ausweg aus dem Teufelskreis wird in jüngster Zeit verstärkt “Data Driven Journalismus” diskutiert und von führenden Verlagshäusern bereits erfolgreich praktiziert. Der “Use Case” dahinter ist einfach: Verlage sitzen auf umfangreichen redaktionellen Inhalten und Daten. Mit Hilfe von Big Data werden die Inhalte strukturiert und analysiert. Der Redakteur stellt die Fragen auf seinem “Big Data Dashboard” und produziert im Ergebnis ansprechende, interaktive und mehrwertschaffende Visualisierungen, wodurch das Verlangen der Leser nach “Live Experience” einerseits und “Mobile Experience” andererseits befriedigt wird. Der Leser erhält dadurch einen Mehrwert, für den er zu bezahlen bereit ist. Gleichzeitig können Redaktionen ihre Effizienz erheblich steigern.

Wie sollten sich Unternehmen in einem allerersten Schritt an das Thema Big Data heranwagen?

Der Use Case ist immer zuerst da, die genauen Anforderungen und die Ausgestaltung der Big Data Analyselösung ergeben sich erst im Laufe der Zeit. Das Neue an Big Data ist, dass mit der Lösung sehr kostengünstig und schnell gestartet werden kann und diese dann agil und explorativ an die Notwendigkeiten angepasst wird. Hier kommen die Stärken von Big Data Frameworks in Hinblick auf Skalierbarkeit der Speichervolumina und Rechengeschwindigkeit zum Tragen. Durch das agile Vorgehen ergeben sich im Laufe eines Big Data Projektes immer wieder Breakpoints, zu denen die Wirtschaftlichkeit der Lösung überprüft werden kann. Das schützt Entscheider vor dem Risiko großer Fehlinvestitionen. Gleichzeitig liegen an jedem Breakpoint neue Erkenntnisse vor, die bei der Definition von Zielen für die Gesamtlösung neue Impulse geben und so als Basis für die nächste Ausbaustufe dienen.

Ein weiterer Grund, dass die Lösung in den Hintergrund tritt, sind die exzellenten Cloud-Möglichkeiten von Big Data. Eine Lösung kann von einem passenden Dienstleister gemietet werden und so direkt am „Day 1“ eines Big Data Projektes verfügbar sein. Pay-as-you-Go SaaS-Lösungen ermöglichen so die Fokussierung auf den Use Case.

Big-Data-Anwendungsfälle reichen von

  1. effizienteren Unternehmensprozessen und
  2. strategischem Marketing über
  3. Verbesserung der Produkte/Services bis hin zur
  4. Identifizierung neuer Geschäftsmodelle.

Doch wie identifiziert man in hier sinnvolle Use Cases?

Um die sinnvollen Use Cases zu identifizieren sind vor allem zwei Abläufe zu untersuchen: Die Wertschöpfungskette meines Unternehmens und die Customer Journey meiner Kunden.

Bei der Analyse der Wertschöpfungskette stehen die Aspekte der Automatisierung und die Leistungen bzw. Produkte des Unternehmens im Brennpunkt. Unter dem Big Data Gesichtspunkt sind daher die folgenden fünf Fragen zu untersuchen:

  • Wie sieht die Wertschöpfungskette meines Unternehmens aus?
  • An welchen Stellen der Wertschöpfungskette ersetze ich heute schon menschliche Intelligenz durch Maschinen bzw. an welchen Stellen kann ich das zukünftig tun?
  • An diesen Stellen: Welche Daten (unternehmensinterne und unternehmensexterne) liegen heute bereits vor, die eine Erkenntnis oder Entscheidungsfindung an diesen Punkten beeinflussen? Welche zusätzlichen Daten kann ich intern oder extern noch hinzufügen, um die Basis für Entscheidungsfindungen noch zu erweitern?
  • Welche zusätzlichen Algorithmen (z.B. Maschine Learning, Natural Language Processing oder Statistik) können den Erkenntnis & Entscheidungsprozess zusätzlich unterstützen?
  • Big Data heißt sehr oft Geschwindigkeitsgewinn bis hin zur Echtzeit. Wie beeinflusst diese Beschleunigung jeden einzelnen Schritt?

Die Customer Journey ist dabei ein zentraler Aspekt, denn immer wenn der Endkunde bessere Leistungen und Produkte erhält oder bessere Services genießt, steigert das direkt den Wert der angebotenen Waren und Services. Dabei hilft eine serviceorientierte Sichtweise, um neue Leistungen und Geschäftsfelder zu identifizieren, d.h. den Blick dafür, wie das Unternehmen zusätzliche Dienste für seine Kunden zur Verfügung stellen kann. Die Erstellung von detaillierten Nutzer-Profilen wird dabei immer wichtiger, um ein personalisiertes Erlebnis zu schaffen und kaufwillige Nutzer zu identifizieren.

Ein zusätzlicher Blick über den Tellerrand hat aber noch nie geschadet. Hier hilft es, erfolgreiche neue Geschäftsmodelle anderer Anbieter zu analysieren und zu bewerten, in wie weit das bisherige Geschäft an die neuen Marktgegebenheiten angepasst werden muss.

Nach welchen Kriterien bewertet man, ob die identifizierten Use Cases erfolgversprechend sind?

Allgemein ist der zentrale Gesichtspunkt die leichte Zugänglichkeit der Daten. Komme ich an alle notwendigen Daten im Unternehmen leicht heran und wenn ja, wie bekomme ich sie in meinen Big Data Cluster? Welche Daten muss ich von Dritten zukaufen (z.B. Wetter, Nachrichten, Scoring-Daten) und was kostet das? Welche Daten erhebe ich bisher nicht, möchte ich aber zusätzlich noch erheben? Hier erlebt man in der Praxis oft unangenehme Überraschungen.

Danach erfolgt die Bewertung hinsichtlich Gesamtkosten (Lösung + Daten + Betrieb) und der Chancen hinsichtlich Mehr- und Zusatz-Umsatz. KPIs und Dashboards sind und bleiben dabei die zentralen Werkzeuge. In der Regel liefern alle Big Data Lösungen im Betrieb eine Vielzahl an neuen KPIs, mit denen sich der Erfolg einer Lösung sehr schnell bewerten lässt.

Welche Analysetools bieten einen einfachen Einstieg in Big-Data-Lösung?

ETL ProzessApache Hadoop ist eine ideale generische Basis und guter Einstieg in Big Data, mit der man nichts falsch macht. Gleichzeitig gilt es das Augenmerk auf eine dazu passende ETL (Extract Transform Load) Lösung zu legen, denn irgendwie müssen die Daten ja in die Big Data Lösung hinein. Unser Technologiepartner Talend beispielsweise bietet als einer der Big Data Marktführer einen schnellen und einfachen Einstieg auf Basis einer Cloud- oder Sandbox-Lösung. Insbesondere die (vorkonfigurierten) Sandbox-Lösungen sind hier gerade stark im Kommen. Gleichzeitig sollte man sich von Anfang an einen Big Data Experten ins Haus holen, der bei den ersten Schwimmversuchen hilft und bei der Analyse und Identifikation der vielversprechendsten Use Cases unterstützt. Das spart auf lange Sicht Zeit und Geld und minimiert das Investitionsrisiko. In unserer Aufzeichnung des Webinars „Machen Sie es richtig, in Echtzeit mit Apache SPARK„, zeigen wir Ihnen anhand von Anwendungsszenarien, warum sich der Einstieg in SPARK lohnt.

 

iBusiness LogoAuszüge aus dem Interview sind im iBusiness Magazin, dem führenden Magazin für interaktives Business, erschienen.‘

Lesen Sie mehr zum Thema Big Data auf unserem Blog.

Stefan Scharein

Autor: Stefan Scharein

Stefan Scharein hat sich nach dem Physik-Studium in Richtung Softwareentwickler und technischer Consultant entwickelt. In den letzten 15 Jahren war er vorrangig im Bereich Sales/Business Development und seit 2014 als Datenspezialist und Senior Sales Manager bei Neofonie tätig.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.