sponsored

Big Data 2019: Bigger, deeper & smarter

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
sponsored

Big Data 2019: Bigger, deeper & smarter

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Gilt in 2019 das Motto „Big Data everywhere“? Klar ist: Unternehmen wollen Mehrwert aus ihren Daten gewinnen. Damit gehen eine Reihe von Chancen und Herausforderungen einher. Eine Bestandsaufnahme über die maßgeblichen Entwicklungen und den Status quo von Big Data in 2019.

imgix-391813-unsplash

Big Data ist sicher eines der wenigen Buzzwords, dessen Relevanz in den letzten Jahren gleichbleibend hoch geblieben ist. Lediglich pünktlich zu Weihnachten bricht die Nachfrage jedes Jahr signifikant ein, wie ein Blick auf den weltweiten Suchverlauf nach dem Begriff in den letzten fünf Jahren veranschaulicht:

Die Unterschiede, die in Statistiken wie dieser nicht unbedingt deutlich werden, sind die Fortschritte und Entwicklungen im Bereich Big Data, die sich im Lauf der letzten Jahre eingestellt haben. Sowohl der Reifegrad als auch die Verbreitung von Big-Data-Technologien hat sich beispielsweise drastisch erhöht. Viele der anfänglich teuren Komponenten sind heute erschwinglich.

Die Eintrittsbarrieren für Big Data sind inzwischen so niedrig, dass potentiell jedes Unternehmen dazu in der Lage ist, Vorteile aus ihren Datenbeständen zu ziehen. Unternehmen, die ihre Daten systematisch sammeln, aufbereiten und auswerten können auf Datenspeicher sowie Analytics- und KI-Anwendungen aus der Cloud zugreifen oder auf hochentwickelte, frei verfügbare Open-Source-Lösungen zurückgreifen.

Die Datenbasis

Betrachtet man Big Data nur unter dem Aspekt „Data“, so lässt sich zunächst feststellen, dass noch nie zuvor Daten in einer Menge vorliegen wie heute. Denn immer mehr Geräte und Gegenstände werden im Rahmen von vernetzten Ökosystemen wie dem Industrial Internet of Things (IIoT) mit Sensoren ausgestattet. Doch aus der Tatsache allein, dass Daten in großen Mengen vorliegen, folgt nicht automatisch, dass Unternehmen diese Daten in einen Mehrwert übersetzen können. Vielmehr verursachen die Erhebung, Speicherung und Aufbereitung von Daten zunächst erst einmal hohe Kosten. Zu einer Herausforderung wird das umso mehr, weil Data Engineering als Berufszweig im Vergleich etwa zu prestigeträchtigeren Data Science nicht dieselbe Beliebtheit, Bezahlung und damit Verbreitung findet. Im Effekt bedeutet das, dass immer mehr Unternehmen heute das Thema Datenqualität und Daten Management mit dem Bereich Big-Data-Analytics verknüpfen, um hier Fortschritte zu erzielen.

Mehr Daten heißt aber nicht einfach nur mehr Erkenntnisse, sondern ein verbessertes Verständnis von komplexen Zusammenhängen. Maschinendaten können nicht nur dazu genutzt werden, um die Maschine selbst und ihren Zustand zu beurteilen. Die Datenanalysen lassen immer häufiger auch Schlüsse über den Kontext ihrer Verwendung zu. Die Auslastung der Maschine ist ein Indikator für die Nachfrage. Die Allokation von Geräten ein Indiz für die Optimierung von Arbeitsprozessen, wenn etwa teure Maschinen auf einer Baustelle nur wenige Male pro Tag verwendet werden.

Die Virtualisierung des Data Lakes

Wenn es um die Datenhaltung selbst geht, ist nach wie vor das Thema Datensilos präsent. Die Schaffung von Data Lakes hat sich in den letzten Jahren in vielen Situationen als eine Standardlösung bzw. als Gegenmittel zur Auflösung von Datensilos herauskristallisiert. Dabei handelte es sich in der Regel um SQL-Systeme auf Hadoop-Basis wie beispielsweise Spark oder Cloud-basierte Lösungen wie Snowflake. In der Praxis entstanden jedoch nur in den seltensten Fällen tatsächlich Data Lakes, in die im wahrsten Sinne des Wortes wirklich alle Daten flossen. Vielmehr handelte es sich um größere Datensilos, die sich besser für die Big-Data-Analysen bzw. -Use-Cases eigneten.

Eine der jüngsten Alternativen, die sich zu einer durchaus aufwändigen Schaffung eines physischen oder Cloud-basierten Data Lakes anbietet, ist die eines virtuellen Data Lakes beziehungsweise die Daten-Virtualisierung. Dabei handelt es sich um eine Art Meta-Verzeichnis, in dem alle Daten, Anwendungen, Analysen und Prozesse eines Unternehmens oder einer Organisation in Echtzeit registriert werden. Diese virtuelle Datenebene verhindert das mehrfache Speichern von Daten, ermöglicht einen schnellen Zugriff auf verteilte Systeme bei geringen Kosten. Damit ist die Daten-Virtualisierung ein ideales Instrument für ein agiles Arbeitsumfeld.

Die wichtigsten Anwendungsfälle für Big Data in 2019

Wenn es um die konkreten Big-Data-Anwendungen geht, geht – ganz allgemein gesagt – auch in 2019 der Trend in Richtung Optimierung von Planungs- und Entscheidungsprozessen. Genauer gesagt geht es um die Analyse von Trends und Wahrscheinlichkeiten, um bessere Entscheidungen zu treffen. Dabei geht es aktuell nicht mehr nur darum, die eigenen Daten auszuwerten, sondern immer öfter darum, die internen Datenbestände mit Daten aus externen Quellen anzureichern. Das so entstehende Wissen über Kundenverhalten oder Absatzchancen wird immer mehr zur Grundlage von strategischen Entscheidungen.

Im industriellen Kontext und insbesondere in der Produktion steht allen voran der Anwendungsfall „Predictive Maintenance“ im Fokus – also die vorausschauende Wartung. Die Quintessenz von Predictive Maintenance lautet, Maschinen oder Anlagen zu reparieren bevor sie kaputt gehen. Immer mehr wird deutlich, dass traditionelle Wartungskonzepte gegenüber einem Big-Data-Ansatz benachteiligt sind. Von turnusmäßigen Wartungen sind intakte wie anfällige Maschinen betroffen, was in der Summe längeren Stillstand aufgrund von Wartungsarbeiten bedeutet. Predictive-Maintenance-Algorithmen erlauben inzwischen die Vorhersage der Ausfallwahrscheinlichkeit auf Bauteilniveau.

Datengetriebene Geschäftsmodelle und Big Data bedingen einander

Immer mehr Industrieunternehmen ergänzen oder ersetzen ihre traditionellen Geschäftsmodelle mit datengetriebenen. Sei es, indem sie auf X-as-a-Service-Modelle umschwenken oder indem sie digitale Services als Zusatzleistung anbieten. Die Voraussetzung für beides ist Big Data. Denn die Auswertung von großen Datenmengen beispielsweise aus dem laufenden Betrieb von Anlagen, Fahrzeugen oder Maschinen sind notwendig, um diese instand zu halten, ihre Rentabilität zu beurteilen und um eine optimale Allokation zu gewährleisten.

Die Auswertung von Daten aus dem Betrieb kann aber auch der zentrale Bestandteil eines Geschäftsmodells sein. Die Auswertung von Maschinendaten erlaubt Rückschlüsse auf die Produktivität, die Nachfrage sowie die Auslastung von Maschinen – wichtige und wertvolle Erkenntnisse nicht nur für das einzelne Unternehmen, sondern für gesamte Wertschöpfungsnetzwerke.

Big Data bedeutet heute Smart Data und Deep Learning

Einer der wichtigsten Trends, wenn es um die Analyse von großen Datenmengen geht, ist sicherlich der große Komplex rund um das Thema Künstliche Intelligenz. Genauer gesagt geht es um die Anwendung von Machine-Learning- bzw. Deep-Learning-Algorithmen. Insbesondere wenn es um die Identifikation von Mustern in sich ändernden Datenbeständen geht, kann diese Gruppe von Algorithmen ihre Vorteile ausspielen. Lernfähige Tools können insbesondere in der Versicherungsbranche verstärkt eingesetzt werden. Bilderkennung und Textverarbeitung sind hier die Treiber der Entwicklung. Nach extremen Wetterereignissen können Schäden in schwer zugänglichen Regionen sofort mittels Satellitendaten ausgewertet werden. So kann das Ausmaß der Schäden und damit der erforderlichen Entschädigungssummen Schadenssumme ermittelt und die darauffolgenden Prozesse im Rahmen des Claim Managements besser bearbeitet werden.

Immer häufiger stellt sich dabei heraus, dass im einzelnen Anwendungsfall nicht zwangsläufig gleich um Tera- oder Petabytes an Daten gehen muss. Dass auch aus verhältnismäßig wenig Daten ein wirtschaftlicher Mehrwert erzielt werden kann, ist insbesondere auch für kleinere Unternehmen bedeutsam. Für dieses Phänomen ist der Begriff „Smart Data“ geprägt worden. Darunter fallen Anwendungen wie das der Kundensegmentierung. Die Auswertung der Stamm- und Transaktionsdaten nach Zusammenhängen und Mustern gibt Aufschluss über die Rentabilität einzelner Kundengruppen, die zum Zweck der Kundenbindung gezielt angesprochen werden können. 

Die größte Herausforderung: Der Mangel an Ressourcen und qualifiziertem IT-Personal

Auch wenn kostenfreie Open-Source-Tools und gut skalierbare Cloud-Angebote verfügbar sind, gibt es auch in 2019 große Hürden beim Einsatz von Big Data. Einerseits liegt dies an der seit 2018 erschwerten rechtlichen Situation in Bezug auf die Verarbeitung von personenbezogenen Daten, die in vielen Unternehmen zu Skepsis und Zurückhaltung auslösten. Auch wenn die DSGVO sich nicht explizit zum Thema Big Data äußert, gibt es hier Grauzonen. Die Herstellung von Datensicherheit und Compliance wirkte sich jedoch auch auf die verfügbaren Ressourcen aus. Selbst wenn Data Scientists auf dem Arbeitsmarkt verfügbar sind, bedeutet deren Anstellung zunächst Kosten. Auf Data Science spezialisierte Unternehmen und Personaldienstleistern wie Solcom kommt darum in dieser Hinsicht in 2019 eine immer wichtiger werdende Bedeutung zu.

Big Data und Unternehmenskultur

Externen Fachkräften und Anbietern werden auch aus einem anderen Grund eine immer wichtigere Rolle spielen. Denn wenn es um die konkrete Anwendung von Big-Data-Analytics im Management und den Fachabteilungen geht, kommt neben den technischen Herausforderungen auch die Unternehmenskultur zum Tragen. Wenn es um Entscheidungen und Prozesse geht, herrschen vielfach noch traditionelle Konzepte vor oder es dominiert das Prinzip Bauchgefühl. Auch Generationenkonflikte und starre Hierarchien können dazu führen, dass Ergebnisse von Datenanalysen am Ende des Tages keine Rolle spielen. Angesichts solcher Situationen sind externe Fachkräfte oft mit der Durchsetzung neuer Ansätze erfolgreicher, da sie einen objektiven und unabhängigen Blick auf die Thematik aufwarten können.

Die Bedeutung von Big Data in 2019 und darüber hinaus

Solche Herausforderungen zu überwinden, wird immer wichtiger. Denn um im Wettbewerb mithalten zu können, ist die Fähigkeit entscheidend, die eigenen Daten gewinnbringend einsetzen zu können. Datenanalysen und insbesondere Big Data erlauben insbesondere durch immer bessere Cloud-Lösungen und Machine-Learning-Algorithmen Entscheidungsgrundlagen und Kontext-Verständnis. Nicht zuletzt zeichnet sich insgesamt eine Entwicklung ab, in der Big Data zum Standard und nicht mehr zur Option wird. So ist Big Data ein integraler Bestandteil von vernetzten Ökosysteme und Wertschöpfungsnetzwerke wie Smart City oder Smart Grid. 2019 könnte damit zum Jahr werden, nach dem an Big Data kein Weg mehr vorbeiführt.

Autor: Christian Schön

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Redaktionsbrief

Tragen Sie sich zu unserem Redaktions-Newsletter ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: Optimiertes Handling von 3D-CAD-Daten für AR und VR

Simplifier-Modul von 3D_Evolution

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

* Jederzeit kündbar

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.