Hochverfügbarkeit als wichtiger Faktor im Data Warehouse


enter site  

http://gasindbank.com/blowjobs-with-video Ein Data Warehouse (DWH) sammelt, strukturiert und verarbeitet Big Data, Log- oder Sensor-Daten und bereitet sie so für Auswertungen vor. Diese Analysen sind gefragter denn je: Laut einer Umfrage greifen 80 Prozent der deutschen Firmen bei Unternehmensentscheidungen darauf zurück.¹ Was passiert jedoch, wenn z. B. ein Bagger die Leitung zum Rechenzentrum durchtrennt? Hier helfen hochverfügbare, fehlertolerante IT-Architekturen, die gerade auch in Bezug auf das DWH immer mehr an Bedeutung gewinnen.

here Die Verarbeitung und Analyse von Informationen ist inzwischen selbst ein Teil des Wertschöpfungsprozesses geworden. Sowohl Management als auch Fachabteilungen nutzen (Vor-)Tagesauswertungen als wesentliche Entscheidungsgrundlage. Informationen zum Kundenverhalten oder zur Maschinenauslastung sind heute wichtig, um Entwicklungen und Trends vorherzusagen – Predictive Analytics/Maintenance lassen grüßen. Ganze Berufsgruppen sind von Informationen und ihrer Weiterverarbeitung abhängig. Eine DWH-Downtime wäre hier also fatal.

enter site  

Mehrere Varianten für ein hochverfügbares Data Warehouse

follow site Wenn das Firmen-DWH ausfällt, steht zwar nicht gleich alles still. Doch sind Maßnahmen für eine höhere Ausfallsicherheit auch in diesem Bereich sinnvoll. Die beiden wichtigsten Fragen dabei sind:

  • follow link Wie lange darf das Data Warehouse im Jahr höchstens ausfallen (24/7-Betrieb)?

  • Wie viel Budget steht für eine Hochverfügbarkeitsstrategie zur Verfügung?

Entscheidend ist, sämtliche Komponenten in der DWH-Architektur hardware- sowie software-seitig redundant aufzubauen. Der Grad an Ausfallsicherheit hängt wiederum vom jeweiligen Budget und der Wertigkeit der einzelnen Komponenten sowie regelmäßigen Tests der Systeme ab.

Verschiedene Wege führen zu mehr Hochverfügbarkeit

Um Daten bzw. DWHs hochverfügbar zu machen, bieten sich verschiedene Lösungswege an. Dazu gehören:

 

  • 1. die Virtualisierung des DWH über eine virtuelle Maschine (VM): Beim Ausfall einer Komponente wird die VM auf einen anderen Server oder SAN verschoben.
  •     Nachteil: VM-Server sind oft nicht auf ein DWH bzw. deren Datenmenge ausgerichtet.
  • 2. HADR-Cluster (High Availability Data Replication): Während der Datenaufbereitung wird eine Kopie des gesamten DWH angelegt.
  •     Nachteil: Die Spiegelung kostet Performance.
  • 3. ein tagesaktuelles DWH mit einer vollständigen Rekonstruktion der Daten aus den operativen Vorgängen (über Nacht).
  •     Nachteil: ein Tag Verzögerung.
  • 4. eine Absicherung in der Cloud (als Database-as-a-Service).
  •     Vorteile: höhere Flexibilität und Sicherheitsstandards, wegfallende bzw. weniger Wartungs- sowie Administrationsaufwände.
  •     Nachteile: Datensicherheit provider-/ortsabhängig, Performance-Probleme, Fehler durch asynchrone Datenverarbeitung.

Hochverfügbare Netzwerke und DWHs benötigen genaue Planung

get link Vor dem Aufbau eines Data Warehouses und einer entsprechenden IT-Infrastruktur sollten die Netzwerk- und DWH-Strategie klar formuliert sein. Vor- und Nachteile müssen gegeneinander abgewogen werden, um Single Points of Failure (SPoF) in den einzelnen Komponenten zu vermeiden. SPoFs sind Schwachpunkte in den Systemen, die bei einer Fehlfunktion zum Ausfall führen. Dabei sollten Unternehmen unbedingt auf das Fachwissen und die Erfahrung von DWH- sowie Netzwerk-Experten zurückgreifen. Denn Fehler können hier schnell sehr teuer werden, wie eine Ponemon-Studie zeigt.²

 

Ohne umfassendes Monitoring keine Ausfallsicherheit

Für die Hochverfügbarkeit eines Systems ist zudem ein durchgehendes Monitoring entscheidend. Denn es ist nicht zweckführend, wenn zunächst alle Komponenten gut verbaut sind, aber eine Fehlfunktion oder die Anzeige falscher Werte nicht erkannt werden. Sowohl im Netzwerk- als auch im Data-Warehouse-Bereich sollten alle IT-Infrastruktur-Elemente mindestens über eine zweifache Absicherung verfügen – von doppelten Kabelstrecken über redundant ausgelegte Switches bis hin zu mehreren Routing- sowie Storage-Alternativen. Durch eine sehr enge Zusammenarbeit zwischen Netzwerk- und Big-Data-Experten wird die Hochverfügbarkeit sichergestellt.

 

Wir empfehlen


Die IBM Data Warehousing Technologien und Plattformen, damit die richtige Workload mit der richtigen Technologie ausgeführt wird.
So können Sie Ihre Data Warehouse Strategie erfolgreich umsetzen - ob lokal oder in der Cloud!

 

 

¹ Studie, Bitkom und KPMG: „Mit Daten Werte schaffen 2016“; https://www.bitkom.org/Presse/Anhaenge-an-PIs/2016/Juni/Bitkom-Research-KPMG-Mit-Daten-Werte-schaffen-10-06-2016-final.pdf
² Studie, Ponemon Institute: „Cost of Data Center Outages”, http://files.server-rack-online.com/2016-Cost-of-Data-Center-Outages.pdf