Data Warehouse

Die gematik GmbH trägt die Gesamtverantwortung für die Telematikinfrastruktur (TI), die zentrale Plattform für digitale Anwendungen im deutschen Gesundheitswesen.
Mit zunehmender Komplexität der Infrastruktur entstand der Bedarf nach einer Gesamtsicht auf den operativen Zustand aller Systeme in Deutschland, unabhängig vom Betreiber, die an die zentrale Infrastruktur angeschlossen waren.

Zusätzlich sollte eine geeignete Historisierung auch zeitliche Entwicklungen darstellen können.
Ein weitere Anforderung war die automatisierte Ermittlung der Einhaltung bestehender SLA’s.

Im Verlauf von 2 Jahren implementierte ich das Backend der Online-Präsentation, wie sie zum Beispiel hier
Lagebild der TI und hier TI Dashboard publiziert wird.

Nach zwei Jahren Entwicklungszeit ist das System zu einem zentralen System der gematik geworden. Die Bewertung der aktuellen operativen Lage basiert auf dem System, SLA’s werden vollautomatisch berechnet, automatisiert werden Alarme generiert, sobald ein System aus den konfigurierten Wertebereichen herausfällt.
Zusätzlich sind die beteiligten Komponenten und deren Abhängigkeiten feingranular in einem Graph-System abgebildet, so dass jederzeit von partiellen Ausfällen betroffene abhängige Systeme und das Ausmaß der Störung an jedem betroffenen System ermittelt werden können.

Mittlerweile werden ca. 30 Milliarden Datensätze in der Datenbank verwaltet. Täglich kommen mehr als 100 Millionen Datensätze hinzu.

Es gibt einige hundert auf einzelne Aufgabenbereiche zugeschnittene Sichten und Auswertungen auf den Datenbestand.

Die Datenlieferungen wurden anfangs noch zum Teil manuell erstellten und mussten entsprechend fehlertolerant, flexibel und dynamisch sein. So entstanden verschiedene Import- und Clearing Routinen, die vor allem in PowerShell-Skripten und Commandline-Tools implementiert wurden.
Im weiteren Verlauf gelang es den Datenlieferanten, die Quaität der angelieferten Daten zu erhöhen, so dass das Clearing an Bedeutung verlor. Dafür aber stieg die Quantität der Datenlieferungen erheblich.

In der Folge kamen leistungsstärkere Technologien zum Einsatz. Der Import erfolgt verstärkt über einen konfigurierbaren Windows-Service, welcher in mehreren, auf die Produktgruppen spezialisierten Instanzen lief. Daneben wurde nodeJS zur Implementierung leistungsfähiger REST-Schnittstellen verwendet.

In der heutigen Ausprägung sind hoher Datendurchsatz bei gleichzeitiger Flexibilität die wesentlichen Kenngrößen des Imports. Dem folgend werden insbesondere JSON- und XML-Formate zunehmend unverändert an die Datenbank weitergereicht und erst dort analysiert und verarbeitet.