Blog PIKON Deutschland AG
Search
blank

Erfolgreicher Einstieg in Big Data Analytics für Ihr Unternehmen

Inhalt

Was ist Big Data Analytics?

Im Stundentakt werden von Unternehmen so viele Daten wie noch generiert. Laut der Schätzung der International Data Corporation wird das digitale Datenvolumen bis 2027 auf 284 Zettabyte steigen. Zur Erinnerung, ein Zettabyte entspricht hierbei einer Milliarde Terabyte. Wenn solche großen Mengen an Daten gesammelt, geprüft und analysiert werden, sprechen wir von Big Data Analytics. Mittels dieses Prozesses können Unternehmen Markttrends, Erkenntnisse und Muster aus ihren Daten erkennen, um dann die richtigen Geschäftsentscheidungen treffen zu können. Nach der Europäischen Kommission haben allein in Deutschland diejenigen Firmen, die für das Bereitstellen und Herstellen ihrer Produkte, Dienstleistungen und Technologien datengetriebene Geschäftsmodelle nutzten, 26,6 Milliarden Euro Umsatz generiert.

In diesem Artikel erfahren Sie wie Ihr Unternehmen mit Big Data Analytics den Return on Investment (ROI) effizient steigern kann. Beginnend mit einer kurzen Erläuterung zur Relevanz von Big Data Analytics, erfolgt anschließend eine Einführung zu Big Data. Sie erfahren neben der Funktionsweise von Big Data Analytics, mit welchen Tools Sie Big Data Analytics betreiben können und welche Vorteile, aber auch Herausforderungen sich daraus ergeben können.

Warum ist Big Data Analytics wichtig?

Laut dem Autor und Management-Analyst Geoffrey Moore sind Unternehmen ohne die Analyse von Big Data „blind und taub und irren im Internet umher wie Rehe auf einer Autobahn.“ Erst durch Big Data Analytics sind Unternehmen in der Lage mit ihrer riesigen Datenmenge Verbesserungs- und Optimierungspotenziale zu identifizieren. Dies führt nicht nur zur Kostenreduktion, sondern auch zu intelligenteren Operationen, der Entwicklung von verbesserten, kundenspezifischeren Produkten und Dienstleistungen, was auch eine erhöhte Kundenzufriedenheit und einen höheren Umsatz zur Folge hat.

Auch in Zukunft wird Big Data eine essenzielle Rolle in der Geschäftswelt spielen. So erwähnen McKinsey & Company in ihrem Bericht „The data-driven enterprise of 2025”, das Daten einen zunehmend integralen und transformativen Faktor für den täglichen Geschäftsbetrieb darstellen werden. Des Weiteren charakterisiert McKinsey & Company datengetriebene Firmen anhand der folgenden Merkmale:

  • Daten werden in nahezu jeder Entscheidung integriert sein.
  • Daten werden in Echt-Zeit verarbeitet.
  • Flexible Datenspeicher stellen „ready-to-use“ Daten bereit.
  • Datenbestände werden als Produkte betrachtet.
  • CDO’s (Chief Data Officer) generieren Mehrwert.
  • Plattformen zum Datenaustausch werden die Norm sein.
  • Datenmanagement wird zu den Top Prioritäten gehören.

Was ist Big Data?

Bevor nun auf die Funktionsweise von Big Data Analytics eingegangen wird, folgt in diesem Abschnitt zunächst eine Einführung zu Big Data.

Als Big Data werden riesige Datenmengen bezeichnet, die unter anderem von Computern, Smartphones und elektronischen Sensoren generiert werden und von ihrem Umfang her nicht von herkömmlichen Datenbanken erfasst, verwaltet und verarbeitet werden können. Aber nicht nur durch den Umfang der Daten werden diese als Big Data klassifiziert, auch aufgrund ihrer Komplexität und Vielfalt werden sie als „groß“ bezeichnet.

Arten und Quellen von Big Data

Generell lassen sich Datensätze in drei Typen einteilen – strukturiert, unstrukturiert und semistrukturiert.

  • Strukturierte Daten: Diese Art von Daten weisen eine klar definierte Struktur auf und werden in der Regel in Tabellen mit Beziehungen zwischen den Zeilen und Spalten organisiert. So enthalten beispielsweise SQL-Datenbanken oder Excel Files Daten in strukturierter Form. Da dieser Typ von Daten einfach zu organisieren und zu verwalten ist, erfüllen sie an sich noch nicht die Definitionskriterien von Big Data.
  • Unstrukturierte Daten: Unstrukturierte Daten haben keine vorgegebene Form oder Struktur und werden deswegen auch als qualitative Daten klassifiziert. In der heutigen Geschäftswelt werden sie in riesigen Mengen erzeugt- als Video, Audio, Text, offene Kundenkommentare und vieles mehr. Herkömmliche Relationale Datenbanken wären für die Speicherung und Verwaltung dieser Datenmenge ungeeignet. Stattdessen werden sie in Data Lakes, Data Warehouses und NoSQL-Datenbanken gespeichert.
  • Semistrukturierte Daten: Hier handelt es sich um eine Mischung aus strukturierten und unstrukturierten Daten. Beispielsweise enthalten Emails oder Geräte, die einen Zeitstempel oder Geo-Tagging verwenden, strukturierte sowie unstrukturierte Informationen. Da bei solchen Daten eine funktionale Struktur fehlt, sie aber dennoch bestimmte strukturelle Eigenschaften aufweisen, gestaltet sich ihre Verwaltung und Verarbeitung weitaus komplexer. Aus diesen Daten lassen sich jedoch deutlich detailliertere Erkenntnisse gewinnen.

Die Anzahl der Datenquellen aus den Big Data produziert werden, nimmt kontinuierlich und rasant zu. Um dennoch einen Überblick zu bekommen, kann die Herkunft der Datenmenge in drei Typen unterteilt werden.

  • Soziale Daten: Hier überrascht es nicht, dass gerade Soziale Medien mit Beiträgen, Bildern, Videos eine hohe Menge an Daten erzeugen, da schätzungsweise im Jahr 2023 bereits 2,72 Milliarden Menschen auf Sozialen Medien aktiv waren.
  • Maschinendaten: In Unternehmen sind Maschinen und IoT-Geräte typischerweise mit Sensoren ausgestattet, die Daten von Geräten, Anlagen etc. erfassen und verarbeiten. Daneben gibt es auch Wetter- und Verkehrssensoren, die stündlich Daten empfangen und senden. Laut einer Schätzung der International Data Corporation werden es bis zum Jahr 2025 über 40 Milliarden IoT-Geräte geben.
  • Transaktionsdaten: Gerade die Menge an Transaktionsdaten nimmt weltweit am stärksten zu und sind aufgrund ihrer halbstrukturierten Daten wesentlicher komplexer zu verwalten und zu verarbeiten. Ein bekannter, internationaler Einzelhändler verarbeitet bereits stündlich über eine Million Kundentransaktionen.

Die 5 V‘s von Big Data

Der renommierte Datenexperte Doug Laney definiert Big Data über die 5 V’s- Volume, Velocity, Variety, Veracity und Value. Auch laut Gartner handelt es sich bei Big Data um Informationsressourcen mit hohem Volumen (Volume), hoher Geschwindigkeit (Velocity) und großer Vielfalt (Variety). Erst wenn die fünf Merkmale erfüllt sind, können Daten als Big Data qualifiziert werden.

  • Volume (Volumen): Das Volumen repräsentiert die Menge der gesammelten strukturierten sowie unstrukturierten Daten und weist somit auf die Größenordnung der Daten hin. Für das Speichern, Verwalten und Abrufen der vielen Terabyte an Daten werden spezielle Datenbanken benötigt, die sich speziell auf die Erfassung von Big Data fokussieren.
  • Velocity (Geschwindigkeit): Hierunter versteht man die Schnelligkeit, mit der die Daten generiert, empfangen und verarbeitet werden. Mit der richtigen Datenbanktechnologie wird es für Unternehmen möglich, auf die Daten in Echtzeit zuzugreifen und zu analysieren.         
  • Variety (Vielfalt): Variety bezieht sich auf die unterschiedlichen Typen von Daten, auf die im vorherigen Kapitel bereits detaillierter eingegangen wurde.
  • Veracity (Wahrhaftigkeit): Hier bezieht sich Veracity auf Genauigkeit, Qualität, Zuverlässigkeit und Unsicherheit der Daten. Waren es bei strukturierten Daten hauptsächlich Syntaxfehler und Tippfehler, die die Genauigkeit der Daten beeinträchtigen konnten, sind die Herausforderungen bezüglich unstrukturierten und semistrukturierten Daten deutlich komplexer, da nun auch die Datenherkunft, Social Noise etc. eine Auswirkung auf die Datenqualität haben können.
  • Value (Wert): Der Wert definiert, wie nützlich die gesammelten Daten am Ende sind. So erhält Big Data erst nach dessen Analyse einen höheren Wert, womit Unternehmen schließlich wettbewerbsfähiger bleiben und Kundenzufriedenheit durch verbesserten Service steigern können.

Anwendungsfälle von Big Data Analytics

Nahezu jedes Unternehmen und jede Branche kann von der Durchführung von Big Data Analytics und den daraus gewonnen Erkenntnissen profitieren.

So führt die Analyse von Big Data im Transport und Logistik-Bereich zur Optimierung der Routenplanung und der Ladungskonsolidierung, wodurch eine erhöhte Versandgeschwindigkeit gewährleistet werden kann. Auch die Energie- und Versorgungsbetriebe profitieren von Big Data Analytics. Mit der Analyse der von den intelligenten Messgeräten generierten Daten, können die Erkenntnisse zu einer effizienteren Energienutzung, Prognose sowie Preisgestaltung beitragen. Laut dem Journal of Big Data spielt die Analyse von Big Data auch im Finanzsektor eine bedeutende Rolle, insbesondere in den Bereichen Handel und Investitionen, Steuerreform, Betrugserkennung und -ermittlung, Risikoanalyse und Automatisierung. Hier können unter anderem verbesserte Kundenzufriedenheit und -erfahrung und Datenschutz gewährleistet werden.  

Wie funktioniert Big Data Analytics?

Nach der Einführung von Big Data erfolgt in diesem Abschnitt nun die Erläuterung der Funktionsweise von Big Data Analytics.

Ein bekannter Prozess zur Generierung von neuem Wissen aus Big Data ist der Knowledge Discovery in Databases, kurz KDD – Prozess. Nach Fayyad, Piatetsky-Shairo und Smith ist der Knowledge Discovery in Databases – Prozess ein “nicht-trivialer Prozess zur Identifizierung gültiger, neuartiger, potenziell nützlicher und umfassend verständlicher Muster in Daten“. Mithilfe des KDD-Prozesses können also verborgene Beziehungen, Muster und Trends aus den Daten gewonnen werden und Unternehmen können diese gewonnenen Erkenntnisse zur Verbesserung des Kundenerlebnisses, des Entscheidungsprozesses und zur Optimierung des Betriebs sowie der strategischen Planung einsetzen. 

Der Prozess besteht hierbei aus sieben Schritten, die in mehreren Iterationen mit Rückmeldungen und Korrekturen wiederholt werden können. Die verschiedenen Schritte garantieren somit Sicherheit und minimieren das Risiko der Entstehung bedeutungsloser und illusorischer Muster. Im Folgenden wird genauer auf die einzelnen Schritte eingegangen.

Zielfindung

Im ersten vorbereitenden Schritt werden Informationen über den Problembereich gesammelt. Zudem wird ein detailliertes Verständnis des Anwendungsgebietes entwickelt sowie relevante Vorkenntnisse angeeignet, um das Ziel des gesamten Prozesses aus der Sicht des Kunden festzulegen.

Datenselektion

Da nicht die gesamte Datenmenge für die Analyse relevant ist, wird in diesem Schritt eine Teilmenge der Daten ausgewählt, die sich auf das festgelegt Ziel bezieht. Damit kann auch die Qualität des Datensatzes gewährleistet werden.

Datenaufbereitung

In diesem Schritt wird die ausgewählte Datenbasis aus den Datenbeständen extrahiert und zu einem Bestand zusammengeführt. Um das Verfälschen der Ergebnisse zu vermeiden und die Wirksamkeit und Zuverlässigkeit der Daten zu verbessern, werden sie auf Inkonsistenzen, Fehler, Redundanz und Ausreißer geprüft und bereinigt. Ein weiterer Bereinigungsvorgang ist die Behandlung fehlender Werte in den Daten.

Datentransformation

Anschließend werden die Daten zusammengefasst, aggregiert und in das gewünschte Format transformiert, sodass sie für Algorithmen leicht zugänglich, verständlich und verarbeitbar sind. Meistens wird zusätzlich eine Datenreduktion ausgeführt, bei der Daten mit wenig Aussagekraft rausgefiltert werden.

Datenanalyse/ Data Mining (zusammengeführt)

Nun kommt der zentrale Schritt des Prozesses – Data Mining. Hier werden entsprechend des aus dem ersten Schritt festgelegten Ziels die passende Methode und ein geeigneter Algorithmus angewendet, um Muster, Trends und Beziehungen aus den Daten zu extrahieren. Data Mining dient hier als Oberbegriff für viele unterschiedliche Methoden und kann in verschiedene Analysemethoden unterteilt werden, die verschiedene Data Mining Techniken und Algorithmen verwenden und auf die im Folgenden kurz eingegangen wird.

Predictive Analytics

Diese Form der Analyse analysiert die gegenwärtigen und historischen Daten eines Unternehmens, um zukünftige Ereignisse vorherzusagen und mögliche Chancen und Risiken zu identifizieren. Die Analyse erfolgt mit Künstlicher Intelligenz wie das maschinelle Lernen und Deep Learning, womit Kundenverhalten, Produktnachfrage und Markttrends vorhergesagt werden können. Das führt schließlich dazu, dass Organisationen strategische Entscheidungen proaktiv treffen und planen können. Beispielsweise können Unternehmen im produzierenden Bereich Machine Learning Modelle anwenden, die bereits auf historische Daten trainiert wurden, um vorherzusagen, ob oder wann ein Gerät eine Fehlfunktion oder einen Ausfall haben wird.

Deep Learning vs. Machine Learning

Wie im Kapitel 1.2.2. (Die 5 v’s von Big Data) bereits ausführlich erwähnt wurde, zeichnet sich Big Data durch die riesige heterogene Datenmenge aus, die nicht nur in ihrer Beschaffenheit komplex ist, sondern auch in einer rasanten Geschwindigkeit erzeugt wird. Für eine effiziente und sinnvolle Bearbeitung und Analyse braucht es den Einsatz von Künstlicher Intelligenz. Laut dem Analysten Brandon Purcell von Forrester Research sind „Daten das Lebenselixier der KI. Ein System muss aus Daten lernen, um seine Funktion erfüllen zu können.“ Das bedeutet, dass Big Data und KI in wechselseitiger Beziehung zueinanderstehen und sich Erkenntnisse aus Big Data nur durch den Einsatz von Künstlicher Intelligenz gewinnen lassen.

Teilgebiete der Künstlichen Intelligenz sind Machine Learning und Deep Learning, die beide Algorithmen zur Datenanalyse verwenden. Beim Machine Learning kommen kleine strukturierte Datenmengen zum Einsatz, die vor der Analyse durch einen menschlichen Experten mit bestimmten Merkmalen definiert werden. Erst anhand dieser Merkmale ist der Algorithmus in der Lage selbstständig Muster in den Daten zu erkennen. Der Deep Learning Prozess kann als Erweiterung des maschinellen Lernens betrachtet werden. Die Algorithmen, die für die Mustererkennung aus den Daten verwendet werden, basieren auf künstlichen neuronalen Netzen. Hierbei werden die Merkmale durch den Algorithmus selbst bestimmt, wodurch eine manuelle Datenaufbereitung entfällt. Somit ist der Deep Learning Prozess am besten geeignet für große unstrukturierte Datenmengen und für komplexe Aufgaben wie digitale Assistenten, selbstfahrende Autos oder Erkennung von Kreditkartenbetrug.

Diagnostic Analytics

Durch die Anwendung von Diagnostic Analytics können Unternehmen die Ursache ihrer Probleme verstehen und nachvollziehen. Mit Big Data Technologien und Tools wird es Benutzen möglich, ihre historischen Daten zu extrahieren und wiederherzustellen, um so ein auftretendes Problem zu analysieren und ein nochmaliges Auftreten in Zukunft zu verhindern. Häufige Techniken, die zur Anwendung kommen sind wiederum Data mining – Techniken, Drill-Down – und Datenexplorationsmethoden. Ein möglicher Anwendungsfall könnte der Umsatz eines Bekleidungsunternehmens sein. Mithilfe von Diagnostic Analytics kann festgestellt werden, dass der Umsatz zurückging, da die Zahlungsseite einige Wochen lang nicht ordnungsgemäß funktioniert hatte.

Prescriptive Analytics

Prescriptive Analytics baut auf Predictive Analytics auf, indem die Ergebnisse des Predictive Analytics mit Optimierungstechniken, Simulationen oder Regelwerken kombiniert werden, um somit Maßnahmen zur Optimierung zukünftiger Ergebnisse zu empfehlen. Hierbei werden verschiedene mögliche Aktionen und deren potenzielle Auswirkungen auf das vorhergesagte Ereignis oder Ergebnis berücksichtigt. Um beispielsweise den Profit einer Fluggesellschaft zu maximieren, wird mittels Prescriptive Analytics ein Algorithmus erstellt, der die Flugpreise automatisch anhand bestimmter Faktoren, wie Kundennachfrage, Wetter, Reiseziel und Ölpreise, anpasst.  

Descriptive Analytics

Diese Art der Analyse fokussiert sich auf die Zusammenfassung historischer Daten. Mittels Aggregation, Data Mining und Visualisierungstechniken werden Trends, Muster und KPI’s identifiziert. Damit können Unternehmen ihren aktuellen oder vergangenen Zustand des Systems oder Prozesse besser verstehen und fundierte Entscheidungen auf der Grundlage historischer Informationen treffen.

Dateninterpretation

Nach der Datenanalyse werden die entdeckten Muster im Hinblick auf das im ersten Schritt definierte Ziel und mithilfe verschiedener Visualisierungstools bewertet und interpretiert. Welche Visualisierungstools zum Einsatz kommen können, wird unter anderem auch im dritten Kapitel erwähnt. Die Ergebnisse der Analyse werden in Form von Diagrammen, Grafiken, Dashboards etc. erstellt. Somit hilft die Visualisierung komplexe Erkenntnisse verständlich und zugänglich im Unternehmen zu kommunizieren.

Ergebnisbericht

Im finalen Schritt des KDD – Prozesses wird auf der Grundlage des aus diesem Prozess gewonnenen Wissens Maßnahmen, wie Änderungen am System, ergriffen. Somit wird das Wissen in dem Sinne aktiv, dass Änderungen am System gemessen werden können. Des Weiteren können Organisationen datengestützte Entscheidungen treffen, die sich wiederum auf Geschäftsstrategien, Prozesse und Abläufe auswirken.

Hier ist es nochmal wichtig zu erwähnen, dass Big Data Analytics kein linearer, sondern iterativer Prozess ist. Da neue Daten kontinuierlich erzeugt werden, müssen diese regelmäßig analysiert und die Geschäftsstrategie auf der Grundlage dieser Ergebnisse verfeinert werden.

Welche Tools gibt es, um Big Data Analytics zu betreiben?

Nun sollte die Frage geklärt werden, welche Tools ein Unternehmen zur Durchführung von Big Data Analytics anwenden kann. Da bereits eine umfassende Anzahl solcher Tools auf dem Markt angeboten werden, gehen wir hier auf die wichtigsten Tools ein.

SAP Analytics Cloud

Gerade was Predictive Analytics angeht, ist die SAP Anayltics Cloud (SAC) als eine cloudbasierte Software-as-a-Service-Plattform und mit der Möglichkeit des Einsatzes künstlicher Intelligenz und maschineller Lerntechnologien die richtige Wahl, um Trends vorherzusagen und effiziente Planungsprozesse durchzuführen. Die SAC bietet zudem mit der Live-Datenverbindung die Möglichkeit des Zugriffs auf die Daten, ohne diese in der Cloud replizieren zu müssen. Das bedeutet, dass die Daten sicher auf der HANA-Datenbank liegen und nur die Funktionen der SAC befinden sich in der Cloud. Daten können in der SAC aus unterschiedlichen SAP-Systemen, wie S/4HANA, SAP Datasphereoder SAP BW/4HANA oder aus Nicht-SAP-Datenbanken zur Verfügung gestellt werden. Zu den Hauptfunktionen der SAC gehören das Erstellen und Analysieren von Daten (Business Intelligence), Planung und vorausschauende Modellierung sowie Augmented Analytics. Bezüglich Business Intelligence bietet die SAC Self-Service-Dashboards an, für dessen Anwendung keine Programmierkenntnisse erforderlich sind und mit denen die Daten visuell präsentiert werden können. Mit Augmented Analytics lassen sich Echtzeit – Analyseprozesse automatisieren, die ansonsten von Data Scientists durchgeführt werden würden. Zusammengefasst vereint also SAC mit einer einzigen Benutzeroberfläche Analyse, Planung und Prognose.

SAP HANA

Bei SAP HANA handelt es sich um eine leistungsstarke In-Memory-Datenbank, bei der die Verarbeitung und Analyse von Big Data im Arbeitsspeicher (RAM) stattfindet. Zudem führt die Nutzung mehrere Prozessoren und Rechenkerne zur Parallelverarbeitung der Daten, was sich deutlich positiv auf die Performance auswirkt. Dank der optionalen spaltenorientierten Datenspeicherung kommt es außerdem zu einer erheblichen Reduktion des Datenbankvolumens, da der logische Aufbau einzelner Datensätze aufgelöst und der Inhalt spalten – statt zeilenorientiert abgelegt werden. Diese Form der Datenspeicherung reduziert den Bedarf an Speicherplatz erheblich und führt entsprechend zu einer erhöhten Verarbeitungsleistung. Des Weiteren bietet die In-Memory-Datenbank Funktionen für die Anwendungsentwicklung, fortschrittliche Analyselösungen und eine flexible Datenvirtualisierung an.  So laufen auf Basis von SAP HANA inzwischen wichtige SAP-Produkte wie SAP S/4HANA, SAP BW/4HANA und SAP Datasphere.

SAP BW/4HANA

Mit SAP BW/4HANA haben wir eine flexible, ausgereifte Data-Warehouse-Lösung, die auf der leistungsstarken In-Memory-Datenbank SAP HANA basiert. Entscheiden sich Unternehmen für den Einsatz dieser Data-Warehouse-Plattform, können sie von einer beschleunigten Datenanalyse, optimierte Report-Fähigkeiten und der Möglichkeit, in Echtzeit auf Datenänderungen zu reagieren, profitieren. Außerdem wird explizit die Integration wie mittels Operational Data Provisioning (ODP) sowie die Verarbeitung und Analyse von Big Data aus unterschiedlichen Datenquellen unterstützt. Hierbei kann es sich nicht nur um SAP-Quellen handeln, sondern auch um neuere Quellen wie Soziale Medien oder IoT-Geräte mit unstrukturierten Daten. SAP BW/4HANA zeichnet sich auch durch seine flexible Datenmodellierungsarchitektur aus. Hierbei werden leistungsfähige Datenobjekte wie beispielsweise der Composite Provider für die Modellierung und Analyse von Big Data verwendet. Für die Integration, Verarbeitung und Analyse von unstrukturierten Daten kann auch das SAP Data Intelligence in das SAP BW/4HANA System integriert werden. SAP Data Intelligence ermöglicht zudem auch komplexere Datenverarbeitungsaufgaben, wie die Datenqualitätsprüfung, Datenaufbereitung und die Datenbereinigung.

SAP Datasphere

Mit SAP Datasphere haben wir ein weiteres Tool, mit dem Big Data Analytics angewendet werden kann. Die auf SAP HANA Cloud basierte Datawarehouse-as-a-Service Lösung ist die Weiterentwicklung der SAP Data Warehouse Cloud. So wird es auch mit SAP Datasphere möglich strukturierte, halbstrukturierte und unstrukturierte Daten aus unterschiedlichen Quellen, wie On-Premise-Systemen, Cloud-Anwendungen, IoT-Sensoren zu extrahieren und in Echtzeit zu verarbeiten, ohne sie physisch in SAP Datasphere abzulegen. Um die Datenqualität zu gewährleisten, bietet die Plattform Möglichkeiten zur Datenbereinigung und -validierung an. Zusätzlich bietet die Plattform eine Open Data Architecture, was bedeutet, dass die Integration von weiteren Big Data Technologien wie NoSQL-Datenbanken, Hadoop, Spark, Tableau und Power BI, aber auch von SAP-Systemen, wie SAP Analytics Cloud, SAP BW/4HANA und S/4HANA unterstützt werden. Des Weiteren lassen sich datengestützte Entscheidungen durch Machine-Learning-Modelle automatisieren und durch fortschrittliche Analysefunktionen können verbesserte Einblicke in die Daten gewonnen werden.

NoSQL-Datenbanken

Bei NoSQL-Datenbanken wie das HBase von Hadoop handelt es sich um nicht relationale Datenbankmanagementsysteme, die dank ihres flexiblen Schemas für die Verarbeitung von halbstrukturierten und unstrukturierten Daten verwendet werden können. Neben der dezentralen Speicherung großer Datenmengen besteht auch die Möglichkeit von analytischen Abfragen in Echtzeit.

Apache Hadoop

Apache Hadoop ist ein auf Java basiertes Open-Source Framework, das große Datenbestände speichert und verwaltet, nicht über einen Computer, sondern über ein Netzwerk mit vielen verbundenen Computern, auch Cluster genannt. Das führt zur Performancesteigerung, denn die Datenanalyse erfolgt parallel. Das Framework ist frei zugänglich und kann große Menge an verschiedenen Datentypen wie strukturierten und unstrukturierten Daten verarbeiten, wodurch es zu einer wertvollen Grundlage für jede Big Data Operation wird. 

MapReduce

MapReduce ist ein von Google entwickeltes Programmiermodell und bildet die zentrale Engine von Apache Hadoop. Mit dem Algorithmus können große Datenmengen koordiniert verarbeitet werden, indem rechenintensive Aufgaben in viele kleine Einzelbereiche auf mehrere Rechner aufgeteilt werden.

YARN

YARN seht für „Yet Another Resource Negotiator und ist eines der Hauptmodule von Hadoop und ist auch eine Ergänzung zum  MapReduce Algorithmus. Als Ressourcen-Management Plattform ist es zuständig für die Planung von Aufträgen und Aufgaben, die auf verschiedenen Clusterknoten ausgeführt werden.

Spark

Spark ist ein Open-Source Verarbeitungssystem, das nicht über ein eigenes Speichersystem verfügt. Dafür liegt der Fokus auf Echtzeit-Workloads wie Graphverarbeitung, Machine Learning und interaktive Abfragen.

Tableau

Mit Tableau, einer End-to-End Datenanalyseplattform, kann Big Data vorbereitet und analysiert werden. Außerdem zeichnet sich die Datenanalyseplattform durch eine visuelle Self-Service-Analyse aus, mit der Mitarbeiter die Möglichkeit haben, Fragen zu geschütztem Big Data zu stellen und die in Echtzeit erhaltenen Erkenntnisse im Unternehmen zu teilen.

Was sind die Vorteile von Big Data Analytics?

Richtig angewendet bietet Big Data Analytics bedeutende Vorteile für Unternehmen:

  • Entscheidungsfindung: Big Data Analytics ermöglicht die Analyse strukturierter bis unstrukturierter Daten. Das führt dazu, dass Unternehmen verbesserte Erkenntnisse bezüglich Kundenverhalten, Markttrends und anderen kritischen Faktoren gewinnen. Mit diesem neugewonnenen Wissen können Unternehmen besser informierte und strategische Entscheidungen treffen.
  • Kundenerlebnis: Mithilfe datengesteuerter Algorithmen können Marketingstrategien gezielter angewendet werden. Das führt schließlich zur erhöhten Kundenzufriedenheit und -erlebnis.
  • Risikomanagement: Die mit Künstlicher Intelligenz durchgeführte Analyse von Big Data ermöglicht die schnelle Entdeckung von Anomalien und ungewöhnlichen Mustern und Vorbeugung von Risiken wie Betrug oder Sicherheitsverletzungen, die unentdeckt sonst weitreichende und unmittelbare Folgen nach sich ziehen können.
  • Produktentwicklung: Die Entwicklung und Vermarktung neuer Produkte und Dienstleistungen kann um ein Vielfaches vereinfacht werden, wenn Daten zu Kundenbedürfnissen und -wünschen gesammelt und analysiert werden.
  • Kostenreduzierung: Die umfangreiche Analyse von Big Data ermöglicht den Unternehmen, ihre Prozesse zu optimieren, Ineffizienzen zu identifizieren und die Kosten auf ein Niveau zu senken, das mit kleineren Datenbeständen sonst nicht möglich wäre. Beispielsweise kann mit Big Data Analytics die Produktion in der Fertigung optimiert werden, in dem die Daten aus den Sensoren in der Fabrikhalle analysiert werden. Damit können auch Ausfallzeiten und Wartungskosten reduziert werden.

Was sind die Herausforderungen von Big Data Analytics?

Big Data Analytics bietet neben den oben genannten Vorteilen jedoch auch einige Herausforderungen. Damit Unternehmen dennoch von Big Data Analytics profitieren, sollten sie folgende Punkte berücksichtigen:

  • Zugänglichkeit der Daten: Mit der immer weiterwachsenden Menge an Daten, wird das Sammeln und Verarbeiten der Daten zunehmend herausfordernder. Mit einer einheitlichen und zusammenhängenden Dateninfrastruktur kann ein vereinfachter Abruf und Integration der Daten für praktische Analysen gewährleistet werden.
  • Sicherstellen der Datenqualität: Aufgrund von Big Data verbringen Organisationen mehr Zeit als je zuvor mit der Suche nach Fehlern, Duplikaten, Konflikten und Inkonsistenzen. Hierbei können falsche Analysen und Entscheidungen durch Datenbereinigung und Validierung sowie durch eine ordnungsgemäße Datenverwaltung verhindert werden.
  • Gewährleistung der Datensicherheit: Mit der Zunahme an sensitiven Daten, die gesammelt und analysiert werden, wachsen damit auch Datenschutz- und Sicherheitsbedenken. Vor der Nutzung von Big Data Analytics sollten Unternehmen also den Schutz der Daten vor Verstößen, unbefugtem Zugriff und Cyberbedrohungen sicherstellen, um die Privatsphäre der Kunden sowie auch die eigene Geschäftsintegrität zu schützen.
  • Auffinden der richtigen Tools und Plattformen: Da bereits eine große Anzahl an Big Data Analytics Tools auf den Markt angeboten und weiter neuere Tools entwickelt werden, wird für ein Unternehmen die Entscheidung für ein Tool, das den unternehmensspezifischen Bedürfnissen gerecht wird, zunehmend schwieriger. Oftmals ist die richtige Lösung auch eine flexible, die sich zukünftigen Infrastrukturänderungen anpassen kann.

Fazit

Wie bereits am Anfang dieses Blogs erwähnt wurde, sollten Unternehmen in den kommenden Jahren in der Lage sein, wertschöpfende Erkenntnisse aus Big Data Analytics gewinnen zu können. Nur so bleiben Sie weiterhin wettbewerbsfähig und up-to-date mit den Markttrends, besonders im Hinblick auf die rasante Entwicklung von KI. Mit den vorgestellten Big Data Analytics Tools, insbesondere denen von SAP, erhalten Unternehmen wertvolle Einsichten in Ihre Daten und können diese Erkenntnisse für datengestützte Geschäftsentscheidungen nutzen und ihr Return on Investment effizient steigern. Jedoch sollte erwähnt werden, dass nur ein Big Data Analytics Tool für die spezifischen Anforderungen eines Unternehmens oftmals nicht ausreicht und erst ein Zusammenspiel verschiedener Big Data Analytics Tools für die Erkenntnisgewinnung aus Big Data erforderlich sind.

Wenn Sie wissen wollen, welche Big Data Analytics Tools speziell für die Bedürfnisse Ihres Unternehmens geeignet sind, mit denen Sie dann den größten Mehrwert aus Ihren Daten schöpfen können, dann kontaktieren Sie uns gerne über unsere Website. Wir stehen Ihnen mit kompetentem und erfolgsorientiertem Fachwissen zur Seite.

Kontaktieren Sie uns!

Haben Sie weitere Fragen zum Thema Big Data Analytics? Vereinbaren Sie ein Webmeeting mit unseren Expert:innen oder stellen Sie uns Ihre Frage im Kommentarbereich. 

Martina Ksinsik
Martina Ksinsik
Customer Success Manager

TAGS
Teilen Sie diesen Beitrag
LinkedIn
XING
Facebook
Twitter
Über den Autor
Genevieve Victor
Genevieve Victor
Genevieve Victor ist Mitarbeiterin bei der PIKON Deutschland AG und Beraterin im Bereich Business Intelligence. Ihre Tätigkeiten zielen darauf ab, unsere Kunden bei der Architektur, Konzeption und Implementierung von Lösungen auf Basis von SAP BI und SAP HANA zu unterstützen.

Schreibe einen Kommentar

Weitere Blog-Artikel zu diesem Thema