SAP Certified Partner

Was ist Big Data?

Was ist Big Data?
13. September 2022

Was ist Big Data?

In den letzten Jahren ist das weltweite Datenvolumen derart stark angewachsen, dass sich für Unternehmen bis dahin unbekannte Möglichkeiten zur Datenverarbeitung und -analyse ergeben. Neben der Vernetzung von Datenquellen geht es auch um neue und leistungsstarke IT-Lösungen, die für die Verwaltung und Analyse dieser Datenmengen verwendet werden können.

Unsere SAP-Lösungen

Effiziente Bearbeitung von Kundenanfragen mit umfassender Außendienststeuerung
Smartes ERP System für kleine und mittelständische Unternehmen. SAP B1 – auch in der Cloud.
Steuernummern automatisch und revisionssicher prüfen
Praktisches Add-On für Ihr SAP-System, das prozessuale Lücken schließt und Cash Management mit Liquiditätsplanung verknüpft
Mit der skalierbaren Cloud-Lösung dem digitalen Wandel mit Agilität und Flexibilität begegnen.

Was ist Process Mining?

Unter dem Begriff „Big Data“ werden zwei wesentliche Aspekte zusammengefasst: Es beschreibt große und komplexe Datenmengen, die sich vor allem aus neuen Datenquellen generieren und in hoher Geschwindigkeit anfallen. Diese Datensätze sind in der Regel so umfangreich, dass klassische Software zur Datenverarbeitung nicht in der Lage ist, diese zu verwalten.

Aus diesem Grund beschreibt der Begriff ebenfalls die Technologie – neue und leistungsstarke IT-Lösungen und Softwaresysteme, – die in der Lage sind, diese Informationsflut zu verarbeiten und versuchen Muster und Zusammenhänge zu finden, um die Daten in den richtigen Kontext zu bringen.

Die gesamte Menge an Big Data wächst exponentiell und es wird geschätzt, dass das weltweite Big Data Datenvolumen bis 2025 jährlich 175 Zettabytes betragen wird.

Big Data als reine Datenmenge wird mit den fünf V-Begriffen Variety, Volume, Velocity, Veracity und Value beschrieben:

  • Mit Variety wird die Vielfalt der zahlreichen, verfügbaren Datenstrukturen beschrieben. Während sich traditionelle Datentypen aufgrund ihrer Struktur, gut auswerten lassen, erfordern unstrukturierte oder semistrukturierte Daten zusätzliche Vorverarbeitungen, um die relevanten Informationen aus ihnen zu gewinnen.
  • Das Datenvolumen (Volume) bezeichnet die Menge der unstrukturierten Daten mit geringer Dichte. Hierbei kann es sich um Daten mit unbekanntem Wert handeln, wie beispielsweise Daten-Feeds aus den sozialen Netzwerken oder Daten aus einer mobilen App. Für manch ein Unternehmen können das mehrere Terabytes sein, bei anderen Unternehmen, je nach Größe, auch mehrere Petabytes.
  • Mit Velocity (Geschwindigkeit) wird die Schnelligkeitsrate, mit der Daten produziert, aber auch gleichzeitig verarbeitet werden müssen, beschrieben. Entscheidend ist in diesem Zusammenhang die Echtzeitverarbeitung, die für Unternehmen den entscheidenden Wettbewerbsvorteil liefern kann.
  • Die Vertrauenswürdigkeit der Daten aus unterschiedlichen Quellen und der daraus abgeleiteten Ergebnisse wird als Veracity bezeichnet. Oftmals erfolgt eine aufwendige Nachbereitung, da die Daten aus verschiedenen Quellen nicht in der benötigten Qualität ankommen.
  • Mit Value wird der Mehrwert bezeichnet, den Big Data mit seinen riesigen Datenmengen und den Einsatz von Machine Learning Techniken erzeugt.

Wo tauchen in Unternehmen große Datenmengen auf?

In Anbetracht zunehmender Komplexität geraten klassische Business-Intelligence-Strukturen oftmals an ihre Grenzen und Unternehmen stehen vor neuen Herausforderungen. Die effiziente Nutzung von Big Data kann beides sein: Aufgabe und Chance zugleich.

Organisationen verwenden Big Data, um Prozesse und Richtlinien zu optimieren, Entscheidungen zu erleichtern und um kundenorientierte Produkte und Dienstleistungen herzustellen.

Big Data fällt in den unterschiedlichsten Unternehmensbereichen an. Als Beispiele sind Protokolle von Webservern, Einzelverbindungsnachweise von Mobiltelefonen, Sensorinformationen, GEO-Tracking, Cloud-Computing, Vitaldaten-Messungen oder auch Social-Media-Aktivitäten von Usern/Kunden zu nennen.

Für E-Commerce-Unternehmen können diese Daten für Empfehlungen im Onlineshopping genutzt werden, die auf bisherigen Käufen von ähnlichen Nutzern basieren. Diese Art der Empfehlungen resultieren aus Auswertungen von Millionen anderer Kundendaten. Durch diese großen Datenmengen, die zur Verfügung stehen, erhalten Unternehmen neue Insights in die Interessen, das Kaufverhalten und Risikopotenzial von Kunden und potenziellen Interessenten. Als weiteres Beispiel ist die Analyse von Massendaten von Patienten in der Medizin zu erwähnen, mit deren Hilfe Therapielösungen und -pläne stetig optimiert werden können. Industrieunternehmen profitieren von der Analyse der eigenen Maschinendaten die Effizienz ihrer Produktionen nachhaltig steigern.

SAP in Zusammenhang mit Big Data und Vorteile zur Verwaltung der Big Data

Neben der vielen Vorteile, die der Einsatz von Big Data mit sich bringt, gibt es auch einige Herausforderungen, die es zu berücksichtigen gilt. Eine der größten Herausforderungen ist die Bewältigung der Datenmenge, die erzeugt wird. Eine weitere Herausforderung ist die Speicherung und Verarbeitung all dieser Daten in einer effizienten und effektiven Weise. Schlussendlich muss bei der Arbeit mit Big Data auch der Datenschutz beachtet werden, da diese Daten oft sensible Informationen über Einzelpersonen enthalten.

Trotz dieser Herausforderungen können Big Data-Analysen bei richtigem Einsatz ein leistungsstarkes Instrument für Unternehmen sein.

Die drei Hauptschritte bei der Nutzung von Big Data

  1. Big Data sammeln
    Um die riesigen Datensätze unstrukturierter Daten verwalten zu können, ist die Einführung von In-Memory-Datenbanklösungen und Softwarelösungen speziell für die Big Data Erfassung erforderlich.
  2. Große Datenmengen speichern
    Big Data ist am effektivsten, wenn es nicht durch Größen- und Speicherbeschränkungen eingeschränkt ist. Dafür bietet sich eine Cloud-Speicherlösung an.
  1. Big Data analysieren
    Damit die gesammelten Daten verwertet werden können, müssen sie schnell verfügbar sein. Die dafür verwendeten Analytics-Prozesse müssen die Fähigkeit haben, sich selbst optimieren zu können und aus Erfahrungen zu lernen – das ist nur mit KI und modernen Datenbanktechnologien möglich.

 

SAP bietet mit seinem Portfolio der SAP Cloud Plattform und SAP HANA, Big Data Lösungen an. Damit können Daten aus unterschiedlichen Quellen eingelesen, gespeichert und in Höchstgeschwindigkeit weiterverarbeitet und auch analysiert werden.

Methoden und Technologien

Zu den verbreitetsten Methoden bei der Big Data Analyse zählen Machine Learning, Supervised Learning, Unsupervised Learning und Deep Learning. Die jeweils verwendete Methode hängt jedoch stark von der jeweiligen Fragestellung des Datenprojekts ab. Ein wichtiger Faktor, bei der Datenanalyse stellt auch der Data Lake dar.

Big Data Technologien wie beispielsweise Apache Spark oder Hadoop, die als kostengünstige Verwaltungsmöglichkeit von Massendaten fungieren, schaffen neben der Analyse von großen Datenmengen auch die Möglichkeit unterschiedliche Datenformate in einer viel höheren Geschwindigkeit zu verarbeiten. Mit einem hybriden Konzept, wie es viele Unternehmen einsetzen, werden kleinere, strukturierte Daten in den eigenen relationalen Datenbanken gespeichert, während große, unstrukturierte Datensätze in Hadoop oder SAP HANA verarbeitet werden. Auch eine Kombination von Hadoop mit SAP HANA ist möglich.

Funktionen in SAP

Mit der SAP HANA Cloud Datenbank haben Unternehmen die Möglichkeit, sämtliche Datentypen (JSON-Dokumente, Geodaten, Diagramme etc.) aus den unterschiedlichsten Quellen lesen, verarbeiten und in einer einheitlichen Datenbanklösung analysieren zu können und ihre mitunter komplexen IT-Strukturen zu vereinfachen. Geschäftsprozesse lassen sich mit Hilfe von datengestützten Erkenntnissen aus integrierten und auch externen maschinellen Lernprozessen, erweitern und optimieren. Durch innovative Anwendungen können transaktionale und analytische Arbeitsschritte in einem einzigen Datensatz kombiniert werden.

Mit der Data-Lake Komponente der HANA Cloud bietet SAP eine zentrale Ablage für alle Datentypen, die dann abgerufen, geprüft und für datenbasierte Entscheidungen herangezogen werden können. Der Einsatz einer solchen Data-Lake Komponente hilft Kosten zu senken, die Leistung zu verbessern und den Zugang zu Big Data zu vereinfachen. Die Migration von vorhandenen SAP-IQ Datenbanken in die Cloud der Wahl ist ebenfalls möglich.

Die Packaged-Data-Warehouse Lösung BW/4HANA von SAP basiert auf der hoch performanten HANA-Datenbank. BW/4HANA kann sowohl in der klassischen On-Premise Ausführung als auch in Form einer Cloud-Lösung verwendet werden und ermöglicht Unternehmen, ihre kompletten Daten zu konsolidieren und eine konsistente Ansicht dieser zu erhalten.

Mit der Packaged-Data-Warehouse-Lösung von SAP lassen sich Echtzeit-Analysen großer Datenmengen realisieren. Neben klassischen Anwendungsfällen lassen sich auch moderne Analyseszenen abbilden wie automatische Forecasts im Finance-Sektor, die Auswertung von Massendaten im IoT-Bereich, Zukunftsprognosen auf Basis historischer Daten sowie Lösungs- und Strategieentwicklung auf Basis künstlicher Intelligenz.

FAQ – Häufig gestellte Fragen

Was ist Big Data?

Big Data beschreibt die Speicherung, Verarbeitung und Analyse von Datensätzen, die für traditionelle Datenverarbeitungsanwendungen zu groß und komplex sind.

Das Ziel von Big Data ist die Gewinnung nützlicher Echtzeitinformationen sowie Muster und Korrelationen aus den Datenmengen zu erkennen. Die gewonnenen Erkenntnisse werden zur Optimierung bestehender Unternehmensprozesse verwendet.

Big Data Analysen bieten die Chance auf mehr Umsatzmöglichkeiten, effektiveres Marketing, verbesserten Kundenservice, Effizienzsteigerung des Betriebs sowie Wettbewerbsvorteile gegenüber Wettbewerbern.

Sie benötigen eine Datenbank, mit der Sie Datentypen aus den unterschiedlichsten Quellen lesen, verarbeiten und analysieren können?

Gibt es Fragen?

Andres Faber

Managing Director

+49 231 9497-0

a.faber@uniorg.de