Jedes Jahr scheint sich die Welt von Data und AI neu zu erfinden. Kaum eine Branche verkörpert das Prinzip der VUCA-Welt so stark wie diese.
Neue Begriffe, neue Hypes, neue Methoden – und doch bleibt eine alte Frage bestehen:
Muss ich noch Daten modellieren? Gibt es in Zukunft noch DWHs oder modelliert KI für uns?
Ziel dieses Artikels ist es, die wichtigsten Begriffe einzuordnen und zu zeigen, welche Rolle Datenmodellierung im modernen Daten- und KI-Umfeld tatsächlich spielt.
Die vielen Begriffe: Data Lakes, Lakehouse, DWH & Co.
Wie lassen sich all die Schlagworte einordnen – Data Lake, Data Lakehouse, klassisches Data Warehouse (DWH) oder Enterprise DWH (EDWH)?
Und wenn modelliert wird, folgt man dann eher dem Bottom-up-Ansatz nach Kimball oder dem Top-down-Ansatz nach Inmon?
Oder gibt es vielleicht ein übergreifendes Konzept, das alles vereint?
Kann man sich die Modellierung sogar ganz sparen – dank moderner Konzepte wie Data Products und Data Assets?
Selbstorganisierende Datenarchitekturen? Ein Mythos.
Hört man aktuellen Marketing-Vorträgen von Herstellern oder liest man KI-bezogene Fachartikel, könnte man glauben: Datenarchitekturen organisieren sich heute von selbst – und Datenmodellierung sei überflüssig geworden.
Doch das ist und bleibt eine Illusion.
Ist ein Data Warehouse denn überhaupt noch zeitgemäß?
Die Diskussion um Kimball, Inmon oder Data Vault wirkt oft wie ein Methodenstreit. Dabei lohnt es sich, das Gemeinsame zu betonen:
Alle Ansätze verfolgen das Ziel, einen strukturierten Kern (Core Model) zu schaffen, der die Datenobjekte eines Unternehmens organisiert, und darüber einen Reporting- oder Interface-Layer, der für Analysen optimiert ist.
Ohne dieses Schichtenmodell lassen sich Daten kaum sinnvoll in Beziehung setzen. Im Grunde passiert hierbei die Wertgenerierung.
Data Vault legt dabei den Fokus auf Automatisierung (DWA – Data Warehouse Automation) und versucht mit Data Vault 2.0, die klassischen Modelle in einem integrierten Vorgehensmodell zu vereinen.
Das Data Lakehouse wiederum kombiniert die Konzepte von DWH und Data Lake – eine interessante Wendung, wenn man bedenkt, dass Data Lakes einst als Ablösung des DWH galten. Heute wissen wir: Das DWH ist nicht verschwunden, sondern Teil einer weiterentwickelten Architektur geworden.
Data Assets, Datenprodukte & Data Mesh?
Konzepte wie Data Products oder Data Mesh operieren auf einer höheren organisatorischen und managementorientierten Ebene – sie ersetzen weder Datenmodellierung noch ein DWH. „Raw“ und „Combined“ Data Products stehen vielmehr für ein iteratives Vorgehen: Man startet einfach, ergänzt dann Schichten und Modelle, sobald sie benötigt werden.
In der Praxis geht es dabei weniger um den Ersatz klassischer Modellierung, sondern um Priorisierung. Denn fast jedes Unternehmen hat ohnehin einen Modellierungsrückstau.
Data Mesh erweitert obige Gedanken organisatorisch und technisch: Es richtet Datenverantwortung an konkreten Produkten aus.
Wenn ein Datenprodukt modellierte Daten benötigt – und das ist meist der Fall –, müssen diese im zugehörigen Data Asset bereitgestellt werden.
Ein Raw Product allein stiftet selten echten Mehrwert.
Hybride KI und Modellierung von Daten
Auch im Zeitalter großer Sprachmodelle (LLMs) bleibt Datenmodellierung unverzichtbar.
LLMs sind aufgrund ihrer probabilistischen Natur in Enterprise-Umgebungen nur begrenzt einsetzbar: Halluzinationen und Vergessen erfordern zusätzliche Strukturen wie Vector RAG oder Graph RAG – also Datenbanken, die Business-Kontext speichern und nutzen.
Doch auch in diesen hybriden KI-Systemen wird weiterhin klassisch modelliert:
Man überlegt, wie Daten und Geschäftsprozesse zusammenhängen, und organisiert sie gezielt für die Wertschöpfung.
Der Aufwand bleibt bestehen – das LLM ist dabei nicht der Architekt, sondern das Werkzeug, das auf den modellierten Daten operiert.
Fazit:
Alle beschriebenen Konzepte tragen dazu bei, Datenarchitekturen moderner, effizienter und flexibler zu gestalten.
Doch kein Ansatz – weder Data Lakehouse noch Data Mesh, weder KI-Systeme noch vordefinierte Branchenmodelle – erspart uns die Arbeit der Modellierung.
Das Data Warehouse ist also keineswegs überholt.
Es lebt in neuen Formen weiter – als Teil moderner Architekturen, als Fundament für Data Products oder als Rückgrat von KI-Systemen.
Künstliche Intelligenz kann bei der Modellierung unterstützen, Entitäten aus natürlicher Sprache vorschlagen, Muster erkennen oder Modelle dokumentieren, doch die eigentliche Aufgabe, Daten zu strukturieren, Entitäten zu verknüpfen, Schlüssel zu definieren und zukünftige Anforderungen mitzudenken, bleibt menschliche Expertise.
Datenmodellierung ist kein Relikt der Vergangenheit.
Sie ist – und bleibt – das Fundament jeder wertschöpfenden Datenarchitektur.



