Was läuft im Hintergrund der Lösungen ab, an denen wir für Sie tüfteln? Erfahren Sie mehr in den Tech-Talk Beiträgen.
In der Technologiebranche ist Thomas Dierl zuhause, in Datenbanken kennt er sich hervorragend aus.
Cubes bei SSAS sind sehr praktisch, wenn es um die Analyse großer Datenmengen geht. Doch auch im Würfel kann es zum "Data-Overload" kommen. Es sollten also nur so viele Daten gespeichert werden, wie für die Auswertungen notwendig sind. Hintergründe und Zusammenhänge mit der DSGVO (Datenschutz Grundverordnung) liefert Ihnen dieser Beitrag.
Zu große Datenmengen im Cube sind problematisch. Denn dadurch erhöht sich die Wahrscheinlichkeit von folgenden beiden Szenarien:
Neben den beiden bereits beschriebenen Problemen gibt es zwei Punkte, die für reduzierte Daten im Cube sprechen.
Die Pflicht zur Datenminimierung ergibt sich aus mehreren Umständen.
Zum einen regelt die am 25.05.2018 in Kraft getretene DSGVO (Datenschutzgrundverordnung) die allgemeine Datenminimierung in allen Systemen. In Artikel 5 fordert sie eine angemessene Maßnahme diesbezüglich.
Zum anderen gibt es viel Compliance Vorschriften wie z.B. "Basel III" bei Banken, die nur die notwendige Verarbeitung der Daten vorsehen.
Es existieren zudem einige technische Gründe, die für die Reduktion der Daten im Cube sprechen.
1. Hauptfaktor Ressourcenschonung
Die Anzahl der Daten hat wesentlichen Einfluss auf die Ressourcen - sowohl am Server, als auch beim Client. Wenn zu viel Speicherplatz belegt ist, kommt es mitunter zu einem der folgenden Szenarien:
Die beiden Punkte sind neben den technischen Aspekten auch aus betriebswirtschaftlicher Sicht ungünstig: mehr Speicherplatz bedeutet höhere Betriebskosten für den Cube.
2. Schnelle Abfragen gewährleisten
Schlussendlich hat der Ressourcenverbrauch auch einen Einfluss auf die Geschwindigkeit der Abfragen. Durch viele Basisdaten sind meist auch viele Aggregationsschritte notwendig, um Measures zu berechnen. Das sollten Sie nur in Kauf nehmen, wenn es auch wirklich notwendig bzw. unvermeidbar ist.