Business Intelligence

BI in der modernen Datenanalyse

| Autor / Redakteur: Thomas Strehlow* / Ann-Marie Struck

Es gibt viele Mythen um die Datenanalyse
Es gibt viele Mythen um die Datenanalyse (© max_776 - stock.adobe.com)

Im Zuge der rasanten technischen Entwicklung werden konventionelle Ansätze der Datenanalyse zunehmend in Frage gestellt. Anlass hierzu geben unter anderem diverse Business-Intelligence-„Mythen“, die sich inzwischen als gültige Wahrheiten verbreiten. Demnach hat beispielsweise das Data Warehouse ausgedient. Auch die Datenqualität scheint durch einen angedachten Verzicht auf ­Datenmodellierung und Single Point of Truth an Relevanz zu ver­lieren. Der konkrete Blick in den Projektalltag führt indes ein anderes Bild zu Tage.

Artificial Intelligence (AI), Machine Learning, Realtime, Self-Service – das sind nur einige der Begriffe, um die sich gegenwärtig die Diskussionen im Bereich der Datenanalyse drehen. Dabei erweckt der Hype um neue Technologien und Verfahren oftmals den Anschein, dass das „Althergebrachte“ nunmehr überflüssig sei. So ist Business Intelligence (BI) aus dem Diskurs wichtiger Trends und Themen weitestgehend verschwunden. Und wenn das Gespräch auf diese klassische Form der Datenauswertung kommt, dann wird sie meist als träge und kostenintensiv bezeichnet.

Aber entspricht das den Fakten? Wo haben die Vorurteile ihren Ursprung? Wie ist der Status quo in den Unternehmen? Ist BI tatsächlich ein Auslaufmodell, das für die Datenanalyse der Zukunft irrelevant sein wird? Es lohnt sich genauer hinzuschauen und einige der gängigen Behauptungen – im weiteren auch Mythen genannt – anhand konkreter Projekterfahrungen zu hinterfragen. Zunächst gilt es aber, kurz einige Eckpunkte zu klären und somit ein gemeinsames Verständnis zu schaffen.

Business Intelligence vs. explorative Analyse

Zum Einstieg sei noch einmal kurz erläutert, was wir unter der klassischen BI verstehen: Im Kern handelt es sich um Auswertungen auf Basis historischer Daten, deren Ergebnisse in Reports und Dashboards visualisiert werden. Zu ­diesem Zweck werden Daten aus diversen Quellen qualitätsgesichert an einem zentralen Ort – dem Data Warehouse (DWH) – integriert und bereitgestellt.

Keine Frage: Im Zuge wachsender Datenmengen und -quellen sowie der neuen technischen Möglichkeiten bekommt das DWH vielfältige Konkurrenz. An seine Stelle treten moderne analytische Plattformen, die meist mit Unterstützung von Cloud-Diensten aufgebaut werden. Diese Plattformen können auch unstrukturierte Daten übergreifend integrieren. Sie lassen sich nach Bedarf erweitern und vereinen verschiedene Themen bzw. Technologien unter einem Dach. Allerdings zeigt sich, dass BI-typische Bausteine weiterhin ein fester Bestandteil der analytischen Plattformen bleiben. Das belegen aktuelle Digitalisierungsinitiativen von Unternehmen. Ebenso betont die BARC die untrennbare Verbindung zwischen der „alten“ und der „neuen“ Datenwelt.

Dem Nutzer mag es oftmals nicht bewusst sein, aber Self-Service- oder AI-Anwendungen liefern ohne qualitätsgesicherte, historische Daten keine belastbaren Analyseergebnisse. Ebenso ist das klassische Berichtswesen aus Unternehmen kaum wegzudenken. Dabei nimmt auch die Anzahl der Mitarbeiter stetig zu, die mit den datenbasierten Erkenntnissen arbeiten. Woher resultiert also der vermeintlich schlechte Ruf der BI? Werfen wir einen Blick auf verschiedene Mythen.

Mythos 1: Datenmodellierung ist nicht mehr erforderlich

Wozu brauchen wir noch eine Datenmodellierung? Diese Frage zu einem der typischen Arbeitsschritte in der BI wird bei dem Aufbau oder der Modernisierung von Analytics-Lösungen immer häufiger gestellt. Dahinter steckt die Befürchtung, dass die resultierende Architektur zu komplex und unflexibel für eine agile Umsetzung ­neuer Anforderungen ist. Zudem ist die Modellierung und Integration von Daten eine handwerkliche Tätigkeit, die Zeit benötigt und entsprechende Kosten produziert.

Allerdings ist diese Sichtweise stark verallgemeinernd. Ob ein Modell im Kontext eines modernen Analyseumfeldes funktioniert, hängt von diversen Faktoren ab – angefangen bei der Kompetenz von Architekten und Entwicklern. So ist es vielen Akteuren gar nicht bewusst, dass sie einfach auf die falsche Methode setzen.

Beispielsweise steht der Aufwand bei der dritten Normalform nach Bill Inmon meist nicht mehr im Verhältnis zum Nutzen. Demgegenüber kann sich eine dimensionale Modellierung nach Kimball auch in einem modernen Analyse-Umfeld durchaus bewähren, da sie einfach, wiederverwendbar und erweiterbar ist. Ebenso gilt es, abhängig von den individuellen Voraussetzungen den richtigen Zeitpunkt für die Modellierung zu bestimmen – sprich: Sollte die Modellierung vor der Datenspeicherung, also „Schema on write“, oder zum Zeitpunkt des Lesens, also „Schema on read“, erfolgen. Nicht zuletzt können handwerkliche Fehler dazu führen, dass eine an sich passende Modellierung nicht den gewünschten Effekt hat.

Fakt ist derweil: Wer sich verlässliche Erkenntnisse wünscht, der kommt um eine Modellierung seiner Daten nicht herum.

Ein gutes Modell zählt zu den unverzichtbaren Grundlagen für eine hohe Datenqualität. Das zeigt die Erfahrung aus unzähligen Projekten. Ohne diesen Arbeitsschritt haben analytische Plattformen nicht lange Bestand. Insofern ist eher die Frage, welche Art der Modellierung in einem konkreten Anwendungsfall passend ist – und nicht, ob überhaupt modelliert werden sollte.

Auf der nächsten Seite geht es weiter.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46033466 / System & Services)