Beiträge

BI Architekturen für die Microsoft Azure Cloud

Google, Amazon und Microsoft sind die drei großen Player im Bereich Cloud Computing. Die Cloud kommt für nahezu alle möglichen Anwendungsszenarien infrage, beispielsweise dem Hosting von Unternehmenssoftware, Web-Anwendungen sowie Applikationen für mobile Endgeräte. Neben diesen Klassikern spielt die Cloud jedoch auch für Internet of Things, Blockchain oder Künstliche Intelligenz eine wichtige Rolle als Enabler.

Nachfolgend beleuchten wir den Cloud-Anbieter Microsoft Azure mit Blick auf die Möglichkeiten des Aufbaues eines modernen Business Intelligence oder Data Platform für Unternehmen. Die vielen Dienste von Microsoft Azure erlauben unzählige Einsatzmöglichkeiten und sind selbst für Cloud-Experten nur schwer in aller Vollständigkeit zu überblicken.  Microsoft schlägt daher verschiedene Referenzmodelle für Datenplattformen oder Business Intelligence Systeme mit unterschiedlichen Ausrichtungen vor. Das umfangreichste Referenzmodell ist jenes für Realtime Analytics.

Microsoft Azure Realtime Analytics Reference Architecture

Azure Reference Architecture for Realtime Analytics

Diese Referenz-Architektur von Microsoft auf Azure baut auf der Referenzarchitektur für moderne Data Warehouse Systeme auf Basis von Microsoft Azure auf. Microsoft Azure Synapse ist dabei die dominante Komponente von der Datenintegration über die Datenspeicherung bis zur Datenanalyse und Integration von Data Science Methodik.

Azure Synapse als ETL-Tool

Im Unterschied zu älteren Referenzmodellen von Microsoft wird hier statt auf Azure Data Factory auf Azure Synapse als ETL-Tool gesetzt. Azure Synapse hat die Datenintegrationsfunktionalitäten teilweise von Azure Data Factory geerbt, wenn gleich Data Factory heute noch als das mächtigere ETL-Tool gilt. Azure Synapse entfernt sich weiter von der alten SSIS-Logik und bietet auch keine Integration von SSIS-Paketen an, zudem sind einige Anbindungen zwischen Data Factory und Synapse unterschiedlich.

Auswahl der Datenbanken

Als Zwischenspeicher bzw. Staging-Layer kommt der Azure Blob Storage zum Einsatz, jedoch im Mantel des Azure Data Lakes, der den reinen Speicher um eine Benutzerebene erweitert und die Verwaltung des Speichers vereinfacht. Als Staging-Layer oder zur Datenhistorisierung ist der Blob Storage eine kosteneffiziente Methode, darf dennoch über individuelle Betrachtung in der Notwendigkeit diskutiert werden.

Azure Synapse erscheint in dieser Referenzarchitektur als die sinnvolle Lösung, da nicht nur die Pipelines von Synapse, sondern auch die SQL-Engine sowie die Spark-Engine (über Python-Notebooks) für die Anwendung von Machine Learning (z. B. für Recommender-Systeme) eingesetzt werden können. Hier spielt Azure Synpase die Möglichkeiten als Kern einer modernen, intelligentisierbaren Data Warehouse Architektur voll aus.

Azure Analysis Service

Der Azure Analysis Service wird in dieser Referenzarchitektur als Cube-generierende Maschinerie von Microsoft vorgeschlagen. Dabei gilt: Für den reinen Einsatz mit Power BI ist der Analysis Service tendenziell eher unnötig, sollen Nutzer jedoch in MS Excel komplexe, vorgerechnete Analysen durchführen können, dann zahlt sich der Analysis Service aus.

Azure Cosmos DB

Die Azure Cosmos DB ist am nächsten vergleichbar mit der MongoDB Atlas (die Cloud-Version der eigentlich on-premise zu hostenden MongoDB). Es ist eine NoSQL-Datenbank, die über Datendokumente im JSON-File-Format auch besonders große Datenmengen in sehr hoher Geschwindigkeit abfragen kann. Sie gilt als die zurzeit schnellste Datenbank in Sachen Lesezugriff und spielt dabei alle Vorteile aus, wenn es um die massenweise Bereitstellung von Daten in andere Applikationen geht. Unternehmen, die ihren Kunden mobile Anwendungen bereitstellen, die Millionen parallele Datenzugriffe benötigen, setzen auf Cosmos DB.

Azure Event Hub

Die Referenzarchitektur für Realtime Analytics ergänzt die Referenzarchitektur für Data Warehousing um den Event Hub. Dieser ist nur für Einsatzszenarios sinnvoll, in denen Data Streaming eine zentrale Rolle spielt. Bei Data Streaming handelt es sich, vereinfacht gesagt, um viele kleine, ereignis-getriggerte inkrementelle Datenlade-Vorgänge bzw. -Bedarfe (Events), die dadurch nahezu in Echtzeit ausgeführt werden können. Dies kann über Webshops und mobile Anwendungen von hoher Bedeutung sein, wenn z. B. Angebote für Kunden hochgrade-individualisiert angezeigt werden sollen oder wenn Marktdaten angezeigt und mit ihnen interagiert werden sollen (z. B. Trading von Wertpapieren). Streaming-Tools bündeln eben solche Events (bzw. deren Datenhäppchen) in Data-Streaming-Kanäle (Partitionen), die dann von vielen Diensten (Consumergruppen / Receiver) aufgegriffen werden können. Data Streaming ist insbesondere auch dann ein notwendiges Setup, wenn ein Unternehmen über eine Microservices-Architektur verfügt, in der viele kleine Dienste (meistens als Docker-Container) als dezentrale Gesamtstruktur dienen. Jeder Dienst kann über Apache Kafka als Sender- und/oder Empfänger in Erscheinung treten. Der Azure Event-Hub dient dazu, die Zwischenspeicherung und Verwaltung der Datenströme von den Event-Sendern in den Azure Blob Storage bzw. Data Lake oder in Azure Synapse zu laden und dort weiter zu reichen oder für tiefere Analysen zu speichern.

Lust auf die Referenzarchitektur? Was Sie vorher beachten sollten:

Die Referenzarchitekturen sind exakt als das zu verstehen: Als Referenz. Keinesfalls sollte diese Architektur unreflektiert für ein Unternehmen übernommen werden, sondern vorher in Einklang mit der Datenstrategie gebracht werden, dabei sollten mindestens diese Fragen geklärt werden:

  • Welche Datenquellen sind vorhanden und werden zukünftig absehbar vorhanden sein?
  • Welche Anwendungsfälle (Use Cases) habe ich für die Business Intelligence bzw. Datenplattform?
  • Über welche finanziellen und fachlichen Ressourcen darf verfügt werden?

Darüber hinaus sollten sich die Architekten bewusst sein, dass, anders als noch in der trägeren On-Premise-Welt, die Could-Dienste schnelllebig sind. So sah die Referenzarchitektur 2019/2020 noch etwas anders aus, in der Databricks on Azure als System für Advanced Analytics inkludiert wurde, heute scheint diese Position im Referenzmodell komplett durch Azure Synapse ersetzt worden zu sein. Verstehen Sie dies als Vorschlag, an dem wir gemeinsam arbeiten müssen.


Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Lösungs- und Service-Partner für Business Analytics, Data Science und Industrie 4.0. Wir erschließen die gewaltigen Ergebnispotenziale durch Big Data erstmalig in allen Bereichen der Wertschöpfungskette – maßgeschneidert für Ihre Anforderungen. Dabei setzen wir auf die besten Köpfe und das umfassendste Methoden- und Technologieportfolio in unserer Branche.

Kontakt

DATANOMIQ GmbH
Franklinstr. 11
D-10587 Berlin
Tel: +49 (0) 30 22002341
I: www.datanomiq.de
E: info@datanomiq.de

DATANOMIQ mit Keynote auf dem Data Leader Day 2017

Besuchen Sie das Entscheider-Event in Berlin am 09.11.2017

Der Data Leader Day am 09.11.2017 gilt mittlerweile als Pflichttermin für die Entscheider und alle Interessenten mit Digitalisierungsbezug. Unter dem Motto „Meet the Tech Elite“ gewähren Spitzenkräfte von namhaften Unternehmen den Teilnehmern aus der gesamten DACH-Region einzigartige Einblicke in die Welt der datengetriebenen Anwendungen und Möglichkeiten. Zu den Speakern gehören u.a. Dr. Michael Müller Wünsch (CIO, Otto), Dr. Eberhard Kurz (CIO, Deutsche Bahn), Helen Arnold (President, SAP), Conrad Pozsgai (Geschäftsführer, Payback), uvm.

Benjamin Aunkofer, Chief Data Scientist von DATANOMIQ wird mit einer Keynote zum Thema „Wie Sie für Ihr Unternehmen die richtige Datenstrategie entwickeln“ die Konferenz einführen. Lernen Sie von den Data Leadern und haben Sie eine tolle Zeit im exklusiven Ambiente des Spreespeichers! Lassen Sie sich dieses Event nicht entgehen.

Interesse am Data Leader Day 2017 teilzunehmen? Weitere Informationen zum Programm und Anmeldung unter www.dataleaderday.com

Erfahren Sie hier – mit nur einem Klick – mehr über die Vorgehensweise unserer Datenstrategie-Entwicklung für Ihr Unternehmen.

Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Lösungs- und Service-Partner für Business Analytics, Data Science und Industrie 4.0. Wir erschließen die gewaltigen Ergebnispotenziale durch Big Data erstmalig in allen Bereichen der Wertschöpfungskette – maßgeschneidert für Ihre Anforderungen. Dabei setzen wir auf die besten Köpfe und das umfassendste Methoden- und Technologieportfolio in unserer Branche.

Kontakt

DATANOMIQ GmbH
Leipziger Straße 96-98
D-10117 Berlin
Tel: +49 (0) 30 20653828
I: www.datanomiq.de
E: info@datanomiq.de

Datenstrategie – Von Rohdaten zur umsetzbaren Datennutzung

Big Data spielt bereits heute in nahezu allen Branchen eine entscheidende Rolle und ist ein elementarer Ergebnisfaktor geworden. Dennoch verfügen nur wenige Unternehmen über eine ausgereifte Datenstrategie, um daraus datengetriebene Geschäftsmodelle und Ertragsfelder zu erschließen, schlankere Prozesse oder einfach nur eine neue Form von Datentransparenz zu erreichen. Viele Manager verfallen hierbei in unkontrollierten Aktionismus. Die Folge: Ohne Datenstrategie würde man den Erfolg der eingeleiteten Maßnahmen einfach dem Zufall überlassen. Es gilt somit, den richtigen Datenkurs zu bestimmen und die besten Anwendungen konkret zu identifizieren, um den Anschluss im Wettbewerb nicht zu verlieren. Eine klare und durchdachte Strategie liefert eindeutige Antworten auf datenbezogene Fragen, u.a.

  • Wo verfügen wir über nutzbare Daten und wie können wir die Datenlücke schließen?
  • Welche werthaltigen Datenprodukte können wir daraus generieren?
  • Wie können wir mit Big Data unser bestehendes Geschäft messbar verbessern?
  • Welche Daten-Projekte macht unser Wettbewerb?
  • Welches datengetriebene Geschäftsmodell passt zu uns?
  • Was sind die daraus resultierenden Chancen und Risiken?
  • Wie setzen wir es am besten um?
  • Welchen Return on Investment können wir erwarten?
  • Welche Methoden, Technologien und Ressourcen werden benötigt?

DATANOMIQ liefert die Fakten zu diesen Fragestellungen und bringt als Spezialist im Data Science Markt beste Voraussetzungen mit, um Datenstrategien zu entwickeln, die echte Werte schaffen. Darüber hinaus verfügen wir als Gründer des deutschen Digitalisierung- und Vernetzungs-Verbandes Connected Industry e.V. einen einzigartigen Einblick in die Datenstrategien führender Unternehmen und greifbare Erfahrungen. Klassischen Beratungen fehlt dafür zumeist das notwendige Big Data Know-How, so dass es oftmals bei einem nicht umsetzbaren Strategiepapier bleibt. IT-Beratungen und Softwarefirmen mangelt es demgegenüber am funktionellen Verständnis. Damit werden häufig IT-Lösungen ohne geschäftlichen Nutzen implementiert.

Erfahren Sie hier – mit nur einem Klick – mehr über die Vorgehensweise unserer Datenstrategie-Entwicklung für Ihr Unternehmen.

Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Lösungs- und Service-Partner für Business Analytics, Data Science und Industrie 4.0. Wir erschließen die gewaltigen Ergebnispotenziale durch Big Data erstmalig in allen Bereichen der Wertschöpfungskette – maßgeschneidert für Ihre Anforderungen. Dabei setzen wir auf die besten Köpfe und das umfassendste Methoden- und Technologieportfolio in unserer Branche.

Kontakt

DATANOMIQ GmbH
Leipziger Straße 96-98
D-10117 Berlin
Tel: +49 (0) 30 20653828
I: www.datanomiq.de
E: info@datanomiq.de

 

Data Leader Workshop

Big Data ist bereits heute für eine Vielzahl von Unternehmen unverzichtbar geworden. Dennoch wird lediglich ein Bruchteil der Möglichkeiten genutzt, um daraus datengetriebene Geschäftsmodelle, schlankere Prozesse oder einfach nur eine neue Form von Datentransparenz zu erreichen. Es gilt, den richtigen Datenkurs zu bestimmen und die besten Anwendungen konkret zu identifizieren. Klassischen Beratungen fehlt dafür das notwendige Big Data Know-How. Oftmals bleibt es bei einem nicht umsetzbaren Strategiepapier. IT-Beratungen und Softwarefirmen mangelt es demgegenüber am funktionellen Verständnis. Damit werden häufig IT-Lösungen ohne geschäftlichen Nutzen implementiert.

DATANOMIQ ist im Spannungsfeld zwischen Business und operativer Datenebene tätig und verbindet ausgeprägtes Verständnis für Data Science mit der Professionalität klassischer Unternehmensberatungen. Um das Thema Big Data individuell für Ihr Unternehmen anzugehen, haben wir ein innovatives Workshop-Format entwickelt, das ohne Umwege zum Ziel führt:

Data Leader Mindset – Einführung in Data Driven Thinking

Über eine Kombination aus Kurz-Vorträgen und interaktiven Reflektionsrunden mit Ihnen bzw. Ihren Mitarbeitern erfahren Sie:

  • Welche Use Cases in Ihrem Marktumfeld umgesetzt werden bzw. wettbewerbsrelevant sind,
  • welche Anwendungsfälle höchste Priorität für Ihr Unternehmen haben,
  • wie der Umsetzungsfahrplan und Funktionsbauplan konkret aussehen,
  • welche Wertbeiträge dabei realisiert werden,
  • wie ein erster Prototyp entwickelt wird.

Zudem erhalten die Teilnehmer einen fundierten Einblick in die Methoden und Arbeitspraktiken des Design Thinkings und erleben dabei das Gestalten von Innovationsräumen, sowie das Anwenden eines nutzerorientierten Gestaltungsprozesses. Die konzeptionelle Expertise aus einer Vielzahl von Big Data-Projekten, der Zugang zur Spitze der deutschen Digitalwirtschaft und unsere originären Kompetenzfelder rund um Data Science, Data Engineering und Themen wie Datensicherheit und Datenschutz machen DATANOMIQ dabei zum ersten Ansprechpartner.

Zu unseren Seminaren und Workshops kommen Sie hier: DATANOMIQ Seminare & Workshops für Kaufleute und Techniker

Big Data in der Energiewirtschaft

Innovative Lösungen und neue Geschäftsmodelle durch Smart Metering Analytics

Benjamin Aunkofer, Chief Data Scientist, DATANOMIQ

Einleitung

Mit der Einführung des intelligenten Stromzählers, der sog. Smart Meter sowie dem Vormarsch der Sensortechnologie in der Energiewirtschaft wird das Datenvolumen in den kommenden Jahren exponentiell zunehmen. So sollen bis 2020 nach Plänen der EU bis zu 80 % der Haushalte in der EU mit Smart Metern ausgestattet sein. Smart Meter übertragen viermal pro Stunde Verbrauchsdaten an Messstellen und werden für autorisierte Marktteilnehmer verfügbar. Dadurch werden in Deutschland bei 40 Mio. Haushalten über 3,8 Mrd. Datensätze generiert – an nur einem Tag. Und die Verbindung mit Daten aus Social Media und der Austausch von Geräten untereinander bringt für die Akteure im Utilities Markt zusätzliche geschäftsrelevante Datenmassen. Daraus entstehen zahlreiche werthaltige Big-Data-Anwendungsfelder, mit denen sich der Energiesektor befassen muss.

Bessere Verbrauchs- und Bedarfsprognosen

Nachfrageprognosen sind für Energieversorger von zentraler Bedeutung, da diese den Strom für die Endabnehmer in großen Tranchen an der Strombörse einkaufen. Mit zunehmender Genauigkeit der Vorhersagen lassen sich Angebot und Nachfrage signifikant anpassen und somit das Risiko sowie unnötige Zusatzkosten für die Versorger deutlich reduzieren. Predictive Analytics ermöglicht Prognosen des Strombedarfs durch stochastische Analysen basierend auf Verbrauchsdaten und externen Daten (z. B. Wetterdaten, Urlaubszeiten, Verbraucherverhalten). Mit modernen Methoden und Technologien lassen sich zudem schädliche Spannungsspitzen vorhersagen. Besonders leistungsfähig wird Predictive Analytics bei Einbeziehung von vielen Daten aus unterschiedlichen Datenquellen, auf die Machine Learning angewendet wird. Dabei wird Wissen künstlich aus Erfahrung generiert. So lernt das künstliche System anhand von Beispielen und kann diese nach Abschluss der Lernphase generalisieren. Anders als deterministische Systeme, sind maschinelle Lernsysteme darauf ausgerichtet, Muster (u.a. Korrelationen Wiederholungen, Auffälligkeiten) zu erkennen und zu vergleichen, um Regeln daraus abzuleiten.

Smarte Lösungen für den Energieverbraucher

Aus den gewonnenen Datenmassen von Smart Metering lassen sich durch Big Data Analytics neue dynamische Vertragsmodelle für zusätzliche Umsätze bei Versorgern schaffen. Die Mobilfunkbranche nutzt derartige innovative Verträge seit vielen Jahren mit großem Erfolg. Zudem kann der Energieversorger unter Berücksichtigung des Verbraucherverhaltens die Energietarife nun individuell gestalten.

Ein stark wachsender Einsatzbereich bildet auch das Aufspüren von unzufriedenen und abwanderungsgefährdeten Kunden. Dabei lassen sich aus Daten unterschiedlichster Vorsysteme mit Hilfe mathematischer Modelle der multiplen logistischen Regression und Entscheidungsbäumen individuelle Abwanderungsrisiken berechnen.

Durch Anreize, wie Rabatte für das Abschalten von Geräten oder die Reduzierung von Höchstverbräuchen und Energieeinsparungen bei schwachen Angebotsphasen entstehen für den Versorger und den Verbraucher Win-win-Situationen. Schließlich ermöglicht Smart Metering Analytics das Aufspüren von Abrechnungsfehlern und damit ein Höchstmaß an Abrechnungsgenauigkeit.

Anhand von Big Data Analysen können dem Energieverbraucher nun auch individuelle Empfehlungen zum Energiesparen an die Hand gegeben werden – eine wichtige Grundlage zur Kundenbindung. Als weiterer Service ist es möglich, den gegenwärtigen Verbrauch mit Vergangenheitswerten und statistischen Durchschnittswerten von vergleichbaren Haushalten bzw. Betrieben zu vergleichen. Auch hier vermag Big Data Analytics diese Vielfalt und Massen an strukturierten und unstrukturierten Daten zu erfassen und in messbare Wertbeiträge verwandeln.

Vorauseilende Wartung von elektrischen Anlagen

Predictive Maintenance ermöglicht die Fehlerfrüher­kennung von elektrischen Anlagen und Komponenten und verhindert einen frühzeitigen Systemaus­fall. Insbesondere sich bewegende bzw. rotierende Kom­ponenten (energieerzeugende Anlagen, Generatoren) sind einem natürlichen Verschleiß ausgesetzt, die bei einem tatsächlichen Ausfall zu Störungen oder Gefahrensituatio­nen führen können. Ebenso lassen sich einzelne Kabel im Hinblick auf die mechanische oder thermische Belastung in den analysieren und der Zustand der Isolierung messen. Die Erfassung von entsprechenden Systempa­rametern und deren Analysen tragen somit dazu entscheidend dazu bei, mögliche Ausfälle vorherzusehen, Wartungsarbeiten für die Ausrüstung zu terminieren und Investitionen in die Kapazitäten besser zu planen. Obgleich die Technik bereits heute in vielen Maschinen und Anlagen so verbaut ist, dass eine Abgabe der Daten an IT-Systeme für weitergehende Analysen möglich wäre, werden derzeit lediglich winzige Mengen des Datenvolumens genutzt – bedeutsame Geschäftsvorteile bleiben hier noch ungenutzt.

Kommerzialisierung von Daten

Die Präzision des Energieverbrauchs durch Smart Metering ermöglicht weit reichende Einblicke in die Lebensgewohnheiten oder betriebliche Zustände der Endverbraucher. Der Energieversorger kann sich so ein umfassendes Bild nicht nur darüber machen, welches Energieverhalten ein Haushalt oder ein Betrieb hat, sondern auch, welche Geräte oder Maschinen der Abnehmer „am Netz“ hat. Diese Potenziale lassen vermuten, dass hier neue Milliarden-Märkte zur kommerziellen Nutzung der Daten entstehen. Der Erfolg digitaler Services auf der Grundlage von Smart Metering Analytics ist bereits in naher Zukunft zu erwarten. Für Datenkonzerne wie Google ist die Kommerzialisierung von Daten das eigentliche Geschäftsmodell. Nun sind vor allem die Energieversorger und Meßdienstleister am Zug, die entsprechenden Services möglichst unter eigener Hand führen zu können. Eine der Herausforderung besteht nun auch darin, die digitalen Services kundenorientiert umzusetzen, gleichzeitig aber zu verhindern, dass reine Datenkonzerne sich zu sehr in der Energiewirtschaft ausbreiten und unkontrolliert Daten abgreifen.

Weitere Anwendungsfelder von Big Data

Die Einsatzmöglichkeiten und Potenziale von Big Data sind aufgrund der gigantischen Datenmengen und der Möglichkeiten zur Verknüpfung mit weiteren Daten nahezu unerschöpflich. Neben den skizzierten Anwendungsfeldern gehört ebenso die Identifikation und kommerzielle Analyse von Datenanomalien zu den weiteren Anwendungsfeldern. Dabei lassen sich Energiediebstahl/-verlusten und Blindleistung wie die Identifikation von gefährdeten oder überlasteten Geräten und Anlagen im Verteilnetz mit speziellen Methoden und neuen Technologien aufspüren. Auch das Kategorisieren, Analy­sieren und Bewerten von Störmeldungen mit Hilfe von Big Data leistet einen hohen Wertbeitrag und trägt zu einer verbesserten Stabilität und Sicherheit von Energienetzen bei. Denkbar wäre zudem, dass über eine digitale Plattform Best Pratice-Verbrauchsmuster von anspruchsvolle Maschinen und Produktionsschritte analysiert und gehandelt werden. Beteiligt sind neben dem Versorger, Verbraucher hier auch Anlagenhersteller, die sowohl als Nutzer als auch als Datenlieferant auftreten können.

Ausblick

Der Handlungsdruck in der Energiebranche steigt permanent – Smart-Metering-Daten sollten daher durch Big-Data-Methoden wirtschaftlich genutzt werden, um sich vom Wettbewerb abzuheben, bevor es andere tun. Die intelligente Datennutzung durch Smart Metering Analytics ist die Chance, um dem massiven Preisdruck zu begegnen. Der eigene Aufbau entsprechender Kompetenzen oder die Zusammenarbeit mit spezialisierten Smart Metering Analytics-Dienstleistern ist alternativlos. Eine vorschnelle Euphorie und zu hoher Sprung in fortgeschrittene Anwendungsfelder überfordert jedoch die gesamte Organisation und bringt nicht die gewünschten Ergebnisse. Mit der gesammelten Erfahrung aus Pilotprojekten und ersten Erfolgsbeispielen gewinnt Smart Metering Analytics schnell an Eigendynamik, so dass im zweiten Schritt größere Projekte in Angriff genommen werden können. Es ist der richtige Zeitpunkt, die Weichen dafür zu stellen.

Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Beratungs- und Service-Partner für Business Analytics, Data Science und Data Labs. Wir erschließen die gewaltigen Ergebnispotenziale durch Big Data erstmalig in allen Bereichen der Wertschöpfungskette. Dabei setzen wir auf die besten Köpfe und das umfassendste Methoden- und Technologieportfolio aus der Digitalisierung.

Kontakt

DATANOMIQ GmbH
Leipziger Straße 96-98
D-10117 Berlin
Tel: +49 (0) 30 20653828
I: www.datanomiq.de
E: info@datanomiq.de

 

DATANOMIQ in der Fachzeitschrift Antriebstechnik (Ausgabe 06/2016)

Pressemitteilung: DATANOMIQ in der Antriebstechnik (Ausgabe 06/2016)

Volatile Stahlpreise, starker Wettbewerbsdruck sowie die zunehmende zeitliche und
technische Vernetzung zu Lieferanten und Kunden führen zu gewaltigen Heraus­
forderungen in der Antriebstechnik. Aber welchen Beitrag kann Big Data Analytics
leisten, um diese Entwicklungen besser zu beherrschen und wegweisende Erlös
und Ergebnispotenziale zu erschließen?

 

Service 4.0 – die neue Kommerzialisierung von Kundenbedürfnissen

 Berlin/München, Januar 2016: Die zunehmende Digitalisierung lässt sich weder eindämmen, noch lassen sich konventionelle Geschäftsmodelle davor abschotten. Die Entwicklung von datenbasierten Service-Geschäftsmodellen muss somit für viele Industrieunternehmen höchste Priorität haben. Die Verknüpfung der virtuellen und physischen Welt bringt zahllose neue Möglichkeiten hervor, um die Kundenbedürfnisse besser zu befriedigen, neue Umsatzquellen zu erschließen und dem Wettbewerb voraus zu sein.

Datengetriebene Services, die auf den Betriebsdaten der Produkte basieren, könnten schon bald wichtiger werden als das Produkt selbst. Denn Anbieter von Smart Services haben die Beziehung zum Kunden in der Hand und erschließen sich weitere Umsätze mit neuen Geschäftsmodellen. Datengetriebe Services setzen als After-Sales-Geschäft nach dem Verkauf an und verschieben die Grenzen der Wertschöpfung in neue Umsatzdimensionen. Im Service 4.0-Verständnis ist die Kauftransaktion somit erst der Beginn einer gewinnträchtigen und kontinuierlichen Geschäftsbeziehung mit dem Kunden. Der Hersteller kann sein Produkt über den kompletten Lebenszyklus hinweg begleiten, indem er dem Käufer stets neue Mehrwertleistungen offeriert. So haben führende Technologieunternehmen bereits vor einigen Jahren erkannt, dass es notwendig ist, sich von der reaktiven Reparatur im Defektfall abzuwenden, und „Predict-and-Prevent“-Modelle in ihr Service-Angebot einzubauen, mit denen sich mögliche Risikogrößen prognostizieren lassen. Hier werden Datenmassen zu neuartigen Dienstleistungen veredelt, die die genauen Bedürfnisse der Kunden frühzeitig erkennen.

Dennoch geht der Schritt in Richtung Service 4.0 in den meisten Unternehmen noch zu langsam. Die Führungsriege in vielen Fertigungsunternehmen ist noch immer produkt- und nicht servicegetrieben, der tangible Verkaufsumsatz und nicht das immaterielle Lebenszyklus-Geschäft stehen im Vordergrund – noch. Denn der Handlungsdruck für mittelständische Industriebetriebe steigt permanent, zukunftsweisende Service 4.0-Modelle zu entwickeln und sich vom Wettbewerb abzuheben, bevor es andere tun. Die Frage, wie sich die installierte Basis optimal kommerzialisieren lässt drängt vermehrt in den Vordergrund. Service 4.0 ist die Chance, um in Zeiten sinkender Wachstumsraten dem massiven Preisdruck zu begegnen. Dabei dürfen datengetriebene Services nicht als bloßes Zusatzgeschäft verstanden werden. Unternehmen, die Service 4.0 erfolgreich praktizieren, bauen eigenständige Service-Profit-Center auf und verankern ein eigenes Service-Ressort in der Geschäftsführung. Empirische Untersuchungen belegen eindrucksvoll, dass sich dieser Schritt lohnt: Vorreiter von Service 4.0-Modellen verzeichnen im Service-Geschäft einen stark wachsenden Umsatzanteil und weit überdurchschnittliche Margen.

Zu den Pionieren für Service 4.0-Modelle gehören beispielsweise Hersteller von Windenergieanlagen. Diese bieten ihren Kunden prädiktive Analytics Services an, um die Produktivität zu erhöhen oder Störungen zu antizipieren. Damit kann sich der Windparkbetreiber stärker auf sein Kerngeschäft konzentrieren, denn er interessiert sich weniger für die Windenergieanlage als für deren Leistung und Verfügbarkeit. Ebenso haben führende Maschinenbauer die Möglichkeiten und Potenziale für sich erkannt. So können die über moderne Sensorik ausgelesenen Daten in einem zentralen Big Data Hub analysiert werden. Daraus lassen sich im laufenden Produktionsbetrieb anhand von Benchmark-Vergleichen Empfehlungen für eine höhere Performance, Produktivität und Stabilität abgeben. Zudem sind Anwendungen auf dem Gebiet von Augmented Reality, die dabei unterstützen, fehlerhafte Teile zu lokalisieren bei vielen Anbietern bereits heute Service-Praxis. Weiterhin gibt es erfolgreiche Pilotanwendungen mit anlagenspezifischen Handelsplattformen für Prozessdaten von Produktionssystemen. Auf dieser Plattform werden die Daten gesammelt, ausgewertet und zur Weiterverarbeitung bereitgestellt. Dabei sind sowohl der Maschinenbetreiber und -hersteller sowie relevante Lieferanten eingebunden, um mit erfolgskritischen Prozessparametern zu handeln und auszutauschen. Derartige Plattformen fungieren somit als Content Provider für die darauf basierenden Smart Services. Im Ergebnis kann der Betreiber die Anlageneffizienz bei geringeren Kosten deutlich erhöhen, da er die Prozessdaten für unterschiedlichste Anforderungen bedarfsgerecht über die Handelsplattform beziehen kann.

Vergleichbare Lösungen lassen sich bspw. auch in Logistikketten einsetzen, die sich aus unterschiedlichen Akteuren (Hafen, Reedereien, Transportunternehmen, Zollbehörden, etc.) zusammensetzt. Durch eine Verknüpfung und Auswertung von Verkehrs-, Infrastruktur- und weiterer Prozessdaten in der gesamten Logistikkette auf einer zentralen Plattform können Logistikprozesse übergreifend verbessert werden. Zudem können Transportkapazitäten effizienter disponiert und ausgelastet werden. Eine absolute Win-Win-Situation für alle Beteiligten.

Für deutsche Industrieunternehmen gilt es nun, ihr Produktspektrum mit Smart  Services zu erweitern und die Spielregeln zu definieren. Der Entwicklung digitaler Service-Modelle muss dabei aus verschiedensten Blickwinkeln beleuchtet werden. Neben der eigenen Perspektive, die der Abnehmer und Lieferanten müssen hier zunehmend auch digitale Unternehmen, die mit innovativen digitalen Lösungen in die Märkte eintreten möchten, ins Blickfeld rücken.

Da sich die neue Welt der digitalen Services noch in der Anfangsphase befindet, ist die Chance noch nicht vertan und wir können noch gute Voraussetzungen schaffen, um auch künftig den Markt aktiv zu gestalten.

 

Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Lösungs- und Service-Partner für Business Analytics, Data Science und Industrie 4.0. Wir erschließen die gewaltigen Ergebnispotenziale durch Big Data erstmalig in allen Bereichen der Wertschöpfungskette. Dabei setzen wir auf die besten Köpfe und das umfassendste Methoden- und Technologieportfolio in unserer Branche.

 

Kontakt

DATANOMIQ GmbH
Ostendstraße 25
D-12459 Berlin
Tel: +49 (0) 30 20653828
I: www.datanomiq.de
E: info@datanomiq.de

Maschinendaten 4.0 – Big Data in der Produktion

Berlin/München, November 2015: Mit Big Data Analytics im Produktionsumfeld lassen sich neue Wertpotenziale erschließen, die mit bestehenden Systemen unentdeckt blieben. Obgleich die Sensortechnik bereits heute in vielen Maschinen und Anlagen so verbaut ist, dass eine Abgabe der Daten an IT-Systeme für weitergehende Analysen möglich wäre, werden derzeit lediglich winzige Mengen des Datenvolumens genutzt – bedeutsame Geschäftsvorteile verpuffen.Stitched Panorama

Durch die intelligente Auswertung von Sensordaten lässt sich erkennen, wenn Bauteile oder Fertigungsprozesse erste Symptome aufweisen, die auf einen bevorstehenden Ausfall hindeuten. Daraufhin lässt sich gezielt und rechtzeitig in den Prozess eingreifen. Der durch prädiktive Analysen ermöglichte situationsgerechte Austausch von Ersatzteilen und auf den Punkt genaue Wartungsmaßnahmen gehören zu den Paradebeispielen von Big Data Analytics. Diese Anwendungsfelder lassen sich jedoch nach Belieben und individuell erweitern, denn wertvolle Rohdaten entstehen überall auf dem Shopfloor. So können mit Hilfe von Big Data Analytics  unzählige Produktionsvariablen im Prozessfluss analysiert werden, um die Produktreinheit abzusichern. Oder es lassen sich dort, wo konventionelle statistische Methoden und IT-Systeme überfordert sind, Ausschussraten drastisch verbessern.

Die Auswertung von Maschinendaten in Echtzeit gehört zu den anspruchsvollsten Bereichen von Big Data, denn Sensoren generieren Daten heute im Sekundentakt oder sogar weit darunter. Binnen weniger Stunden können Datenberge im Terabyte-Bereich entstehen. Auf Grund der Heterogenität der heutigen Maschinenlandschaft liegen Maschinendaten in den unterschiedlichsten Formaten vor; konventionelle Monitoring- und Analyse-Tools stoßen hier angesichts der Vielfalt, Geschwindigkeit, Größe und Veränderbarkeit dieser Datensätze sehr schnell an ihre Grenzen. Vor diesem Hintergrund ist ein neuer, speziell auf diese einzigartige Klasse von Daten ausgelegter Weg erforderlich, um beispielsweise die Produktion zu optimieren oder für die Früherkennung von Problemen durch den Einsatz von Diagnosedaten. Big Data Analytics-Methoden ermöglichen, diese Daten nach bislang unentdeckten Fehlermustern zu überprüfen. Werden Unstimmigkeiten festgestellt, erfolgt eine Untersuchung, ob es sich z. B. bei widersprüchlichen Datensätzen oder statistischen Ausreißern um wichtige Informationen mit Aussagekraft über Ineffizienzen oder Fehlerquellen handelt. So bekommen Daten, die vorher auf Grund des fehlenden Kontextes ohne Aussage waren, eine Bedeutung für den Produktionszustand – und zwar mit Blick auf die Zukunft, die sich aus den Daten ableiten lässt.

In der nächsten Entwicklungsstufe hin zu Maschinendaten 4.0 lassen sich nochmals erhebliche, ungeahnte Möglichkeiten im Produktionsumfeld erschließen – etwa wenn Daten über Maschinen hinweg in nahezu Echtzeit analysiert oder mit weiteren funktionsübergreifenden und externen Daten, wie Marktinformationen angereichert werden. Big Data in der Produktion wird somit zum Game Changer für die Fertigung, um die Durchlaufzeit zu verkürzen, Produktionsschwankungen zu meistern oder die Gesamtsteuerung deutlich zu vereinfachen.

Über DATANOMIQ

DATANOMIQ ist der Lösungs- und Service-Partner für Business Analytics, Data Science und Industrie 4.0. Wir erschließen die gewaltigen Ergebnispotenziale durch Big Data erstmalig in allen Bereichen der Wertschöpfungskette. Dabei setzen wir auf die besten Köpfe und das umfassendste Methoden- und Technologieportfolio in unserer Branche.

Kontakt

DATANOMIQ GmbH
Ostendstraße 25
D-12459 Berlin
Tel: +49 (0) 30 20653828
I: www.datanomiq.de
E: info@datanomiq.de

Industrie 4.0 & Big Data Symposium am 15. Oktober 2015 in München

Industrie 4.0 und Big Data Analytics sind nicht nur zwei aktuelle Top-Themen der Weltwirtschaft, sondern haben eine überaus große Schnittmenge. Die vierte Revolution der Industrie verfolgt das Ziel der Smart Factory, also der sich selbst konfigurierenden Fabrik, die ohne Auswertung von Daten aus verteilten Quellen unerreichbar bleiben würde.

Das Industrie 4.0 – Symposium für datengestützte Produktion & Logistik behandelt anhand zahlreicher Vorträge und Foren die relevanten Trend-Themen rund um Industrie 4.0 und Big Data Analytics, um das Potenzial aus der digitalen Transformation und neuen Geschäftsmöglichkeiten nutzen zu können. Das Symposium zeichnet sich dabei in besonderer Weise durch die praxisorientierte Darstellung wichtiger Erfahrungswerte aus konkreten Anwendungsfällen aus. Themenschwerpunkt ist die Schnittmenge aus Industrie 4.0 und Big Data Analytics, insbesondere die Vernetzung von Maschinen (Internet of Things / M2M), Speicherung von Fabrikdaten, Factory Cloud Computing sowie Maschinendatenanalyse und Predictive Maintenance.

 Sie richtet sich speziell an Geschäftsführer und andere Entscheider aus Produktion, Logistik, Einkauf und Controlling großer und mittelständischer Unternehmen. Die Teilnehmer erhalten Einblicke in wichtige Entwicklungen aus erster Hand, entdecken neue Lösungen für ihre Geschäftsentwicklung und nutzen hochrangige Networking-Möglichkeiten.

symposium4-1030x687


Top-Referenten aus der Agenda:

– General Electric (GE): Operational Excellence durch Industrie 4.0
– SIEMENS: Digitalisierung der Produktion mit RFID – Markus Weinländer
– SKF: Einstieg in die Smart Factory mit Maschinendatenanalyse in der Cloud
– Fraunhofer IOSB: Smart Factory mit Industrial Machine Learning
– SAP: Verknüpfung von Maschinendaten mit dem ERP

 

Highlights des Symposiums neben den Top-Referenten:

  • Zahlreiche Anwendungs- und Erfahrungsberichte aus erster Hand
  • Live Vorführungen von Fallbeispielen
  • Wegweisende Lösungswege und neue Impulse für Ihr Unternehmen
  • Hochrangige Networking-Möglichkeiten zu Spitzenvertretern aus der Industrie

Die Veranstaltung erfolgt in Kooperation mit der Industrie 4.0 Gruppe auf Xing.com und Linkedin.com. Die Moderation der Veranstaltung übernimmt Frau Stefanie Michel von Vogel Business Media.

Die begehrten Tickets können Sie nur direkt über www.Connected-Industry.com erwerben!