Fachartikel

Data-Warehouse-Automatisierung beim Landmaschinenhersteller

Weil die Integration der ständig steigenden Zahl von heterogenen Datenquellen mit einem klassischen Ansatz nicht mehr zu bewältigen war, haben die norddeutschen Amazonen-Werke ihr Data Warehouse vollständig neu aufgesetzt. Wie der Anwenderbericht zeigt, setzten sie dabei von Beginn an auf eine Automatisierungsstrategie. Um die reibungslose Erweiterbarkeit des entstehenden Enterprise Data Warehouse weiter zu unterstützen, entschieden sich die Verantwortlichen für ein Design nach den Grundsätzen des Data Vault 2.0.
Auch wenn die Pakete in einem Data Warehouse nicht physischer Natur sind, muss die Struktur trotzdem stimmen.
Die Amazonen-Werke H. Dreyer GmbH & Co. KG ist ein erfolgreicher Landmaschinenhersteller aus Norddeutschland. Das Unternehmen wurde 1883 gegründet, war durchgängig im Familienbesitz und wird mittlerweile in der vierten Generation von der Familie Dreyer geführt. Der Spezialist für Düngerstreuer, Sämaschinen, Bodenbearbeitungsgeräte und Pflanzenschutzspritzen hat außerdem leistungsstarke Geräte zur Park- und Grünflächenpflege sowie für den Winterdienst im Angebot. Die Maschinen werden mittlerweile nicht mehr nur in Norddeutschland, sondern auch in Leipzig, Frankreich, Russland und Ungarn gefertigt. Hinzu kommen zahlreiche Vertriebsstandorte in West- und Osteuropa sowie Asien und Nordamerika.

Steigende Zahl von Datenquellen nicht mehr zu bewältigen
Die fortschreitende Expansion der Amazonen-Werke in Verbindung mit der Innovationsführerschaft im Markt sorgt für ständigen Anpassungsbedarf bei den IT-Systemen. Für die Business Intelligence (BI) und die damit verbundene Infrastruktur ergab sich die Herausforderung, mit diesen Änderungen Schritt halten zu müssen. Die dezentrale Organisation der Amazonen-IT sorgte hierbei für eine weitere Komplexitätsstufe.


Bild 1: Die steigenden Zahl von heterogenen Datenquellen war mit einem klassischen DWH-Ansatz
nicht mehr zu bewältigen.

Die reibungslose Integration der ständig steigenden Zahl von heterogenen Datenquellen war mit einem klassischen Data-Warehouse- Ansatz (DHW) praktisch nicht mehr zu bewältigen. Die Amazonen-Werke erkannten, dass in einer solchen Situation bestenfalls noch der Status quo gehalten werden kann. Sie riefen daher ein Projekt zum Redesign des Data Warehouse ins Leben – mit dem Ziel, zukünftig die Berichtslandschaft in einer echten Partnerschaft zwischen IT und Fachbereichen gemeinsam weiter entwickeln zu können.

Insellösungen verursachen enorme Datenaufbereitungskosten
Die Amazonen-Werke verfügten über ein historisch gewachsenes und recht fehleranfälliges "One-Shot"- DWH. Die Dokumentation des Systems war veraltet; Datenflüsse und Logiken waren somit nicht transparent und auch nur schwer oder mit enormem Aufwand nachvollziehbar. Dies machte die Durchführung von Impact-Analysen für beabsichtigte Änderungen nahezu unmöglich. Als Folge etablierten sich Insellösungen in den Fachbereichen auf Basis von Microsoft Access und Excel, die das DWH zu einem Rohdatenlieferanten degradierten.

Da diese Insellösungen teils direkt Daten aus operativen Quellsystemen heranzogen, wurden diese außerdem unnötig stark belastet. Die Pflege der verschiedenen Insellösungen verursachte in Summe enorme Datenaufbereitungskosten, da zentrale Integrationslogiken unabhängig voneinander mehrfach redundant realisiert wurden.

Die Amazonen-Werke haben ihr Data Warehouse mit der Hilfe der Unternehmensberatung b.telligent vollständig neu aufgesetzt. Dabei setzten beide Partner von Beginn an auf eine Automatisierungsstrategie, die mit WhereScape RED und WhereScape 3D umgesetzt wurde. WhereScape gilt als Pionier und Entwicklungsführer auf dem Gebiet der DWH-Automatisierungstools. Um die reibungslose Erweiterbarkeit des entstehenden Enterprise Data Warehouse weiter zu unterstützen, entschied man sich für ein Design nach den Grundsätzen des Data Vault 2.0.
17.07.2019/ln/Holger Combach, Senior-Berater mit den Schwerpunkten Data Warehousing bei der Unternehmensberatung b.telligent

Nachrichten

Storage für hochskalierbare Cloudinfrastrukturen [28.07.2020]

Supermicro erweitert sein Portfolio an Storagesystemen um neue 60- und 90-Einschub-Optionen. Die Speichersysteme sind laut Hersteller für hochskalierbare Cloudinfrastrukturen sowie HPC-Storageanwendungen optimiert. Bei maximaler Konfiguration soll die Neuvorstellung bis zu 1440 TByte Speicher ermöglichen. [mehr]

Mehr Power mit PowerScale [25.06.2020]

Dell Technologies hat EMC PowerScale angekündigt, eine neue Familie von Speichersystemen. Die neuen Geräte versprechen mehr Leistung mit über 15 Millionen IOPS pro Cluster sowie verbesserte Inline-Datenreduktion und Skalierung von Clustern und File-Operationen. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen