Data Science

Technologien sind die Basis, Methoden schaffen die Lösung. Für unsere kundenindividuellen Lösungen beherrschen unsere Data Scientists die weltweit führenden Methoden und Technologien.

Machine Learning / Deep Learning

Überwachte maschinelle Lernverfahren ermöglichen es uns über selbst-lernende Algorithmen, über die Datenhistorie Muster selbstständig zu erkennen und bestimmte Aufgaben in der Geschäftswelt zu automatisieren und zu optimieren. Hierfür setzen wir sowohl klassische Verfahren, Ensemble Learning und Deep Learning ein.

Machine Learning für Data Mining

In großen und diversen Datenmengen lassen sich Muster aufspüren, die diese Daten besser beschreiben und neue Erkenntnisse ermöglichen. Mit unüberwachten maschinellen Lernverfahren können Cluster in diesen Daten erkannt werden oder viele Dimensionen auf wenigere reduziert werden.

Predictive Analytics

Mit Hilfe von Predictive Analytics lassen sich komplexe wirtschaftliche oder technische Zusammenhänge für faktengestützte Entscheidungen vorhersagen. Dabei kommen Methoden des Machine Learning / Deep Learning sowie der induktiven Statistik und Zeitreihenanalyse zum Einsatz.

Realtime Analytics

Sie müssen schnelle und marktgerechte Entscheidungen treffen? Dann benötigen Sie eine permanent aktuelle Datenbasis als belastbare Entscheidungsgrundlage. Realtime Analytics bedeutet, dass wir Ihnen ein Dasboard entwickeln, das Informationen (z. B. Rohstoff-Kosten oder Transportinformationen) in nahezu Echtzeit visualisiert. Zudem können Sie z. B. per SMS- oder E-Mail-Alert automatisiert über wichtige Änderungen von Werten (z. B. Preisänderungen) informiert werden. Auch automatisierte Abläufe (z.B. Auslösen einer Bestellung beim Eintritt bestimmter Voraussetzung) sind möglich.

Process Analytics

Nahezu alle operativen Unternehmensprozesse werden in den IT-Systemen, allen voran im ERP-System, erfasst. Umgekehrt generieren IT-Systeme eines Unternehmens täglich Daten die für eine Prozess-Analyse häufig ungenutzt bleiben, jedoch die beste Grundlage für die Aufnahme der Ist-Prozesse darstellen.

Process Analytics ist eine Methode, bei der die tatsächlichen Ist-Prozesse mit Hilfe Ihrer Daten rekonstruiert und grafisch in einem Flow-Chart visualisiert werden – und das automatisierbar und in Echtzeit!

Statistische Datenanalyse

Die exponentiell wachsenden Datenmengen enthalten einen riesigen Informationsschatz. Mit Methoden der explorativen und statistischen Datenanalyse analysieren wir Ihre Daten.

Dank ausgereifter Visualisierungsmöglichkeiten Ihrer Daten und der Analyseergebnisse machen wir Ihnen auch komplexe Sachverhalte leicht nachvollziehbar zugänglich und leiten Handlungsempfehlungen aus den Analyseergebnissen ab.

ETL - Data Warehousing

ETL steht für „Extract, Transform, Load“. Data Analytics beginnt mit der Informationsfusion – die Zusammenführung von Daten aus unterschiedlichen Datenquellen, die in der Praxis durch eine Kette von ETL-Prozessen erfolgt. Erst durch die Zusammenführung von Daten aus unterschiedlichen Datenquellen ergeben sich neue Erkenntnisse über Abhängigkeiten und Muster.

Data Quality Analytics

Inkonsistente, lückenhafte oder falsche Daten gehören zu den häufigsten Problemen im Geschäftsalltag. Fehler in Datensätzen setzen sich fort und multiplizieren sich – bis hin zum Reporting an die Geschäftsführung. Eine schlechte Datenqualität ist nicht nur auf operativer Ebene ärgerlich, sondern kann auch zu falschen Entscheidungen führen. Data Quality Analytics umfasst alle erforderlichen Komponenten, um Daten aus ERP-Systemen und verschiedenen Quelldateien, Daten aus Social Media oder Rohstoffbörsen zu extrahieren, bereinigen, abzugleichen, zu konsolidieren und wieder in ein Zielsystem zu überführen. Intelligente Algorithmen über alle Stamm- und Buchungsdaten identifizieren zudem überhöhte bzw. unberechtigte Zahlungen an Lieferanten. Ferner können Dubletten in Lieferanten-, Material- und Kundenstammdaten erkannt und lokale Datenbestände mit weiteren Informationen angereichert werden. Data Quality Analytics schafft die Grundvoraussetzung für optimierte Abläufe, Prozesse und Anwendungen in ihrem Unternehmen: Konsistente, also in alle Richtungen belastbare Daten.