Case Studies

Viele unserer Kunden benötigen für Sie eigens zugeschnittene Lösungen. Wie das aussieht lesen Sie in unseren Case Studies. Lassen Sie sich inspirieren!

Wollen Sie weitere Informationen und haben Fragen zu unseren Case Studies, sprechen Sie uns einfach an!

Case Study

Machine Learning optimiert Vertriebsplanung in der Automobil-Industrie

Case Study

Die Ausgangssituation

Unser Kunde ist einer der Big Player in der deutschen Automobil-Industrie. Wir betreuen für ihn das zentrale Data Warehouse für stückzahlenbezogene KPIs und Wettbewerberdaten. Die Marktplanung erfolgt mittels der Daten aus dem Data Warehouse sowie durch die fachlichen Kenntnisse der jeweiligen Marktbetreuer je Land oder Region. Die Daten werden in einem weiteren System geplant und reportet. Hierbei entwickelte sich die Planungsgenauigkeit der kurzfristigen Planung in den letzten Jahren zu einem immer wichtigeren Element. Ein schnelles Eingreifen in die Vertriebsprozesse hat sich als immer zentraleres Element des Vertriebsmanagements entwickelt. Während mittel- und langfristige Prognosen gut funktionieren, ist die Vorhersage des Absatzes für den laufenden Monat klassischerweise herausfordernd und daher auch die Qualität der Schätzungen sehr ungenau. Gemeinsam mit dem Kunden wurde ein neuer Ansatz generiert, mit Künstlicher Intelligenz (KI) bessere Vorhersagen zu einem früheren Zeitpunkt zu generieren. Dieser soll den stark manuellen Planungsprozess zunächst unterstützen und eventuell mittel- bis langfristig komplett oder in Teilen ersetzen.

Unser Ansatz

Der Vertriebsprozess durchläuft mehrere Vertriebsstufen. Am Anfang der Kette steht der Auftragseingang, wenn der Endkunde sein Fahrzeug bestellt. Als nächstes erfolgt die Produktion des Fahrzeugs und eine Lieferung an den Markt. Je nachdem, ob die empfangende Gesellschaft eine Tochter des Automobil-Herstellers oder eigenständig ist, wird auch ein Konzernabsatz erzeugt. Die letzte Vertriebsstufe, der Retail, ist die Auslieferung des Fahrzeugs an den Kunden. Dies geschieht zumeist über die Händlerorganisation, die sowohl im Inland als auch im Ausland durch eigenständige Betriebe repräsentiert ist. Das ist die entscheidende Vertriebsstufe, die jedoch dadurch, dass sie außerhalb des Konzerns stattfindet, in vielen Fällen erst ex post mit Daten belegt ist. Dennoch lassen sich aus den genannten Vorstufen eindeutige marktspezifische Muster erkennen. Diese Daten sind Teil des von mip betreuten Data Warehouses und liegen auf einem sehr detaillierten Niveau vor. Sie dienen als eine wichtige Grundlage für den implementierten Machine Learning Algorithmus. Angereichert wird das Ganze mit Marktdaten. Dazu gehören zum Beispiel Wirtschaftsindizes wie der IFO Index für Deutschland oder vergleichbare Kenngrößen für internationale Märkte. Hinzu kommen die Stammdaten des Fahrzeugs (Antriebsart etc.). Damit können Schwankungen, hervorgerufen wie etwa durch die Diesel-Problematik oder durch die COVID-19 Pandemie, als Muster erkannt und berücksichtigt werden. Hierbei lernt der Algorithmus sich sukzessive selbst zu kalibrieren und die Vorhersagegenauigkeit nimmt mit dem wachsenden Datenvolumen immer weiter zu. Um einen guten Start des Systems zu gewährleisten, wurde der Prozess mit Daten der letzten beiden Geschäftsjahre trainiert. Die Prognose wird täglich aktualisiert und in einem Bericht, neben der klassischen manuellen Planung und den bisher aufgelaufenen Retaildaten, angezeigt.

Das Ergebnis

Bereits in einer frühen Version lag die Treffsicherheit des Machine Learning Algorithmus bereits nach wenigen Arbeitstagen, mit dem geschätzten Monatsretail je Markt, deutlich über der klassischen Planung. Jedoch fiel auf, dass bestimmte Märkte besser prognostiziert wurden als andere. Nach einer umfassenden Datenanalyse wurde klar, dass hier Besonderheiten der Märkte, wie Feiertage, Samstagsarbeit etc. die Gründe waren. Daher wurde das Modell noch um marktspezifische Parameter erweitert, die zudem in Ihrer Gewichtung dynamisch angepasst werden können. Zwischenzeitlich hat sich der KI-Ansatz, speziell für diese kurzfristige Planung, als das führende Verfahren etabliert. Mit den gewonnenen Erfahrungen können nun weitere ähnliche Fragestellungen angegangen werden. Die zur Umsetzung notwendige Infrastruktur an Soft- und Hardware ist vorhanden und wartet auf neue Herausforderungen.

Technische Case Study

Dynamic Cubes für Ad Hoc Reporting

 

Technische Case Study

Die Ausgangsbasis

ist das zentrale Data Warehouse eines Automobilherstellers für stückzahlenbezogene Vertriebsdaten des Konzerns:

  • Berechnete Lieferungen, Konzernabsatz, Retail
  • Auftragseingänge, Auftragsbestände
  • Lagerbestände, Produktionsdaten
  • Produktionsprogramme
  • Sowie Zulassungsdaten der eigenen Fahrzeuge, seiner Wettbewerber und CO2-Emissionswerte der Produkte des Konzerns.

Dazu kommen über 70 teilweise hochkomplexe Input- und 30 Output-Schnittstellen. Das System wird von über 2000 Usern weltweit genutzt.

Die Aufgabenstellung

Das bisher fremdbezogene Frontend (Zulassungsdaten) soll in das bestehende Data Warehouse integriert werden unter folgenden Voraussetzungen

  • Nutzung der vorhandenen Standard-Komponenten
  • Ad Hoc Prüfmöglichkeit der eingespielten Daten mit geeignetem Konzept
  • Benutzerfreundliche Oberfläche für die Präsentation der Daten
  • Integration untertägig aktualisierter interner Daten mit Ad Hoc Auswertungsmöglichkeiten

Die Herausforderungen

  • Dimensionen mit einer sehr hohen Zahl an Members
  • Ausbalancierung, so dass die Cubes optimal trainiert werden können
  • Gezielte Nutzung von DB Tabellen, um eine ganzheitlich optimale Performance zu gewährleisten, ohne auf Performance-Probleme bei der Befüllung der Quelltabellen zu stoßen
  • Abbildung der Security Anforderungen

Die Lösung

Die Erstellung einer neuen Auswertung-Schicht für Zulassungsdaten und Datenbewirtschaftung

  • Storage Layer Tabellen (row based)
  • Datamart: Zieltabellen (sowohl Fakten als auch Dimensionen) BLU
  • ETL-Prozesse mit delete bezogen auf eine Spalte (TIME_ID), danach normale inserts
  • Erstellung neue Auswertung-Schicht für Zulassungsdaten und Datenbewirtschaftung
    • Storage Layer Tabellen (row based)
    • Datamart: Zieltabellen (sowohl Fakten als auch Dimensionen) BLU
    • ETL-Prozesse mit delete bezogen auf eine Spalte (TIME_ID), danach normale inserts
      • Deletes sind in der eingesetzten Version dann sehr schnell, wenn nur auf eine Spalte in der where clause zugegriffen wird, schneller als bei row based tables
      • Inserts sind mittlerweile ähnlich schnell, wie bei einer row based table
      • Load from cursor war demnach nicht notwendig
      • Bereitstellung von untertäglichen Datenscheiben mit ca. 2 Millionen Fakten inklusive aller Stammdatenprüfungen und Transformationen in ca. 1 Minute
    • Dynamic Cube auf die Auswertungsschicht
    • Erstellung von Berichten
      • Frameworkmanagermodell auf Dynamic Cube als auch auf relationale Tabellen
    • Berichte sowohl auf den Cube als auch auf BLU-Tabellen

Die Lösung hat es ermöglicht, auf sehr große Datenmengen, mit vielen teilweise sehr großen Dimensionen, eine nahezu ad hoc Zugriffsmöglichkeit und Auswertungsmöglichkeit zu schaffen. Zusammengefasst: sehr gute Performance sowohl in der Bereitstellung der Daten als auch in deren Auswertung mit Hilfe modernster Datenbank und OLAP Techniken.

Der Partner

IBM Deutschland GmbH

Informatica GmbH Deutschland

Download:

Technische Präsentation anhand eines Kundenbeispiels

Case Study

Datenintegrität im Rahmen der Ablöse einer Alt-Applikation

 

Case Study

Unser Kunde zählt zu den erfolgreichsten unabhängigen Medienunternehmen in Europa mit starker Präsenz im TV- und Digitalmarkt. Werbefinanziertes Free-TV ist das Kerngeschäft der Gruppe. Gleichzeitig vernetzt der Konzern sein reichweitenstarkes TV-Geschäft erfolgreich mit seiner Digitalsparte.

Die Aufgabenstellung

Im Rahmen eines Projekts zur Ablöse einer Alt-Applikation, sollte als Teilprojekt ein Change-Data-Capture Tool implementiert werden. Dieses sollte die Datenintegrität zwischen dem Datenbankmanagement-system der Alt-Applikation (Informix) und der neuen Infrastruktur auf Basis Kafka sicherstellen. Dabei sollten keine Anpassungen des Altsystems mehr erfolgen, um Investitionskosten zu vermeiden. Die Änderungen mussten im Altsystem erkannt und nach Kafka übergeben (Datenintegrität). Eine hohe Performanz der Datenreplikation war gefragt.

Die Lösung

  • Implementierung von IBM InfoSphere Data Replication
  • Heterogene Systemanbindung Informix nach Kafka
  • Hohe Performanz und zuverlässige Datenintegrität
  • Minimierung der Verarbeitungszeit, indem nur Änderungen aus dem Datenbank-Log verarbeitet werden

Der Partner

IBM Deutschland GmbH

Case Study

Entlastung des Produktivsystems

 

Case Study

Unser Kunde hat seinen Hauptsitz in München und ist die Muttergesellschaft eines weltweit operierenden deutschen Chemiekonzerns. Der Konzern betreibt 23 Produktionsstätten in Europa, Amerika und Asien und vertreibt seine Produkte in über 100 Ländern.

Die Aufgabenstellung

Um das Produktivsystem zu entlasten sollte das Reporting soll auf einem eigenen Server laufen. Aber das Zeitfenster nachts reicht nicht aus, um eine Datenladung durchzuführen. Eine hohe Aktualität der Daten auf dem Report-Server war gefragt.

Die Lösung

  • IBM InfoSphere Data Replication holt sich alle Daten aus dem Log und schiebt sie auf den Server
  • Daten sind „near real-time“ verfügbar
  • Geringe Latenzzeit (durchschnittlich 2 Sekunden)

Der Partner

IBM Deutschland GmbH

Case Study

Entlastung des Host-Systems

 

Case Study

Unser Kunde ist ein börsennotierter Tourismuskonzern mit Sitz in London und bündelt sämtliche logistische Aktivitäten der internationalen Gruppe für Deutschland, Österreich und der Schweiz. Das Unternehmen beschäftigt weltweit rund 30.000 Mitarbeiter.

Die Aufgabenstellung

Es sollte eine Entlastung des Host-Systems erreicht werden und die Einsparung von MIPS auf dem Host-System (IBM z). Die Berechnung der Buchungsdaten für den Online-Vertrieb stand im Fokus, aber das Zeitfenster nachts reicht nicht aus, um eine Datenladung durchzuführen.

Die Lösung

  • Implementierung von IBM InfoSphere Data Replication
  • CDC holt sich alle Daten aus dem Log und schiebt sie auf den Server.
  • Daten sind „near real-time“ verfügbar.
  • Geringe Latenzzeit (durchschnittlich 2 Sekunden).

Der Partner

IBM Deutschland GmbH

Case Study

Ein Data Warehouse für mehr als 2000 Nutzer

 

Case Study

Einer der erfolgreichsten Automobil-Hersteller der Welt nutzt zur Vertriebssteuerung und Marktbeurteilung verschiedene Data Warehouse Systeme. Als SPOT (Single Point of Truth) sorgt ein spezielles System mit einem integrierten Datenbestand für stückzahlenbezogene Kennzahlen, Marktdaten sowie CO2 Emissionswerte. Neben einem eigenen Berichtssystem für diese Daten werden zahlreiche Folgesysteme mit Daten daraus beliefert.

Die Aufgabenstellung

In den 80er Jahren wurde das System auf dem Großrechner (zuletzt mit DB2 ZOS, COBOL, CICS Oberfläche) realisiert und betrieben. mip unterstützte in einem Experten-Team bei der Analyse dieses Systems, um es mit Standard-Software in ein modernes Data Warehouse zu überführen. Im Zuge dessen war mip zunächst für das Business Reengineering zuständig. Bei der darauffolgenden Implementierung setzte das Unternehmen stark auf die Entwicklung direkt durch die Hersteller der Standard-Software-Komponenten. Die technische, operative Projektleitung lag hierbei für die Themenkomplexe Datenbank und Berichtswesen bei der mip. Im Laufe der Zeit stellte mip immer mehr IT-Spezialisten für die Entwicklung zur Verfügung und betreibt das System inklusive aller Weiterentwicklung seit 2015 in alleiniger Verantwortung.

Die Lösung

Das System besteht aus über 300 Cognos Reports, 20 OLAP Cubes, diversen J2EE Applikationen sowie zahlreichen Informatica-ETL Workflows für über 100 Input- und Output-Schnittstellen und wird von über 2000 Nutzern weltweit genutzt. Zur Jobautomation wird die Software Control-M der Firma BMC eingesetzt. Der Einsatz moderner Standard Software ermöglicht eine starke Automatisierung der Prozesse und eine Senkung der damit verbundenen Kosten. Die meisten Funktionen können über Self-Services vom verantwortlichen Fachbereich betrieben werden. Die Bedienerfreundlichkeit wurde verbessert und Informationen stehen in übersichtlicher und kompakter Form in den Berichten zur Verfügung, auch über den Webbrowser. Das System wird ständig erweitert und verbessert.

Der Partner

IBM Deutschland GmbH

Informatica

Case Studies