Technologien

Anspruchsvollen Herausforderungen kann man nur mit anspruchsvollen Technologien begegnen. Daher haben wir tiefgreifendes Spezialwissen in folgenden Bereichen aufgebaut, auf denen unsere Lösungen basieren:

  • Big Data

    Big Data umschreibt die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus vielfältigen und unterschiedlich strukturierten Informationensquellen, die sich durch hohe Veränderungsdynamik sowie einem bisher ungekannten Ausmaß auszeichnen. Big Data stellt Methoden, Technologien und Tools bereit, die die explosionsartig steigenden Volumina vielfältiger Informationen in fundierte und zeitnahe Management-Entscheidungen übersetzen und so einen zentralen Beitrag zur Verbesserung der Wettbewerbsfähigkeit leisten.

  • NoSQL

    NoSQL (not only SQL) bezeichnet eine heterogene Menge von Datenverwaltungssystemen mit unterschiedlichen Funktionen. Diese wurden für Anwendungsfälle erstellt, in denen die verfügbaren SQL-basierten Datenbanken an ihre Leistungsgrenzen kamen und daher kaum einsetzbar waren. NoSQL bezweckt somit, sich nicht ausschließlich auf SQL-Datenbanken zu beschränken und ist damit eine Ergänzung zu SQL.

  • In-Memory

    In-Memory-Datenbanken arbeiten hauptspeicherresident, so dass Datenanalysen direkt auf im Arbeitsspeicher (RAM) gehaltenen Daten angewendet werden. Der Arbeitsspeicher bietet deutlich höhere Zugriffsgeschwindigkeiten und einfachere Algorithmen für den Zugriff. Aus diesem Grund sind In-Memory-Datenbanken wesentlich schneller und ihre Zugriffszeiten sind besser vorhersagbar als die von auf Festplatten zugreifenden Datenbankmanagementsystemen.

  • SQL

    SQL (Structured Query Language) ist eine Datenbanksprache zur Definition von Datenstrukturen in relationalen Datenbanken sowie zum Bearbeiten (Einfügen, Verändern, Löschen) und Abfragen von darauf basierenden Datenbeständen. Durch den Einsatz von SQL strebt man die Unabhängigkeit der Anwendungen vom eingesetzten Datenbankmanagementsystem an. SQL gilt als Klassiker im Business Intelligence, mit dem sich auch sehr komplexe Datenanalysen programmieren lassen.

  • Hadoop, Spark & Co.

    Großvolumige unstrukturierte Daten verarbeiten wir auf Linux-Systemen mit dem Apache Hadoop Framework, Machine Learning setzen wir mit Apache Spark um. Dabei verwenden wir Hive als Data Warehouse sowie Pig und Spark für die Analyseentwicklung. Wir nutzen diese Open-Source-Technologie, um aus trägen Big Data Analysis schnelle und präzise Small Data Analysis zu machen.

  • Visualisierung

    Die Visualisierung von Datenanalysen sollte professionell aufbereitet und leicht verständliche sein. Neben den Open-Source-Programmiersprachen R und Python, die über vielfältige Visualisierungsmöglichkeiten verfügen, verwenden wir auch interaktive Visualisierungstool von QlikTech und MicroStrategy.

  • GPU-Parallel-Processing

    Hochkomplexe Analysen können auch professionelle PCs und selbst moderne Server-Systeme schnell an ihre Grenzen stoßen. Wir können Datenverarbeitung von der CPU auf viele Grafikkarten bzw. deren GPUs (Graphic Processing Unit) verlagern und somit sehr rechenintensive Algorithmen auf großvolumige Datenmengen parallel angewenden.