


Modernisierung der Datenarchitektur bei loadbee
B2B Premium Insights für SaaS-Anbieter
Ausgangssituation & Herausforderung
loadbee ist ein SaaS-Anbieter, der A+ und Premium-Content von Markenherstellern direkt in die Produktdetailseiten von Online-Shops integriert. Im Lauf der Zeit konnte die auf Elasticsearch basierende Datenarchitektur von loadbee die gestiegenen Anforderungen nicht mehr erfüllen. So war beispielsweise jede Änderung in den Reporting-Anforderungen aufwändig und erforderte manuelle Anpassungen in den ETL-Prozessen. Zudem war die granulare Datenverfügbarkeit auf Marken-, Shop- und Tagesebene beschränkt, während Kunden detailliertere Analysen auf Produktebene und einen längeren Analysezeitraum wünschten. Die bestehende Infrastruktur verursachte nicht nur hohe Wartungskosten, sondern schränkte auch die Möglichkeit ein, zusätzliche Daten für Anwendungsfälle wie Ereignisanalysen zu integrieren.
Die Herausforderung für loadbee bestand also darin, eine zukunftssichere Datenarchitektur mit validen Prozessen zu entwickeln, die sowohl eine große Skalierbarkeit als auch erweiterte Analysemöglichkeiten bietet.
Lösungsansatz
In initialen Workshops mit b.telligent wurde der Status quo genau analysiert und die nötigen Anforderungen ermittelt. Nach Auswertung der Ergebnisse empfahl b.telligent die Einführung einer modernen AWS-Lake-House-Architektur, die die Vorteile eines Data Lakes und eines Data Warehouses kombiniert. Hier dient der Data Lake als zentraler Speicher für Tracking-Daten ebenso wie für weitere Quellen wie Produktstammdaten und Ereignisdaten. Im Data Warehouse werden diese Daten dann integriert, strukturiert und für Dashboards aufbereitet.
Zu den weiteren Datenquellen gehören beispielsweise die Stammdaten der Marken, ihrer Online-Shops und deren Produktinformationen sowie Ereignisdaten zu Syndikationsinhalten. Im Data Warehouse werden die Syndikations- und Stammdaten dann in ein Kernschema integriert. Das Kernschema dient als Quelle für maßgeschneiderte Aggregate in der Präsentationsschicht, die als Datenquelle für die neuen Dashboards dient.

Die Datenverarbeitung und das Metadatenmanagement wurden mithilfe einer Kombination aus Amazon Glue und dbt implementiert. Glue-Datenpipelines extrahieren die Daten aus den Datenquellen und schreiben sie in den Data Lake, wo sie in einer Rohdatenschicht in ihrem ursprünglichen Datenformat, JSON oder CSV, gespeichert werden. Die Datenpipeline verarbeitet die Rohdaten dann in der standardisierten Datenschicht weiter, die alle Daten in ein einheitliches Format konvertiert und als Parquet-Dateien speichert. Während des Prozesses werden Metadaten über die Daten im Glue Data Catalog gesammelt.
Auf Basis des Data Catalogs wird Redshift Spectrum verwendet, um eine virtuelle Staging-Schicht im Redshift-Serverless-basierten Data Warehouse zu definieren. Für die Datenverarbeitung und -transformation im Data Warehouse wurde DBT (Data Build Tool) ausgewählt, ein Open-Source-Tool zur Datentransformation. Mit DBT konnten DWH-Transformationen erstellt werden, um die Rohdaten in eine Kerndatenschicht und nachfolgend in die Präsentationsschicht zu integrieren. Auf diese Präsentationsschicht greifen die Dashboards zu, die in Yellowfin BI implementiert sind.
Während der Umsetzung des Projekts wurden DataOps Best Practices eingeführt und die Infrastruktur sowie die Datenpipelines entsprechend implementiert. Die AWS-Infrastruktur wird über Code in Terraform definiert. Bereitstellungen erfolgten ausschließlich über die CI/CD-Pipelines von GitHub. CI/CD-Pipelines wurden auch für die Bereitstellung aller Datenpipelines verwendet.
Als Teil der Datenverarbeitung wurden Datenqualitätstests eingeführt und in den automatisierten Datenpipelines ausgeführt. Die Überwachung der Infrastruktur und der Datenverarbeitung im Data Lake ist im AWS Cloud Watch Dashboard verfügbar, und bei Ausfällen von Datenpipelines werden Nachrichten per E-Mail über den Benachrichtigungsdienst AWS SNS versandt, um einen durchweg performanten und reibungslosen Betrieb zu gewährleisten.
Dank des neuen, mehrschichtigen Datenmodell-Ansatzes wurde die Anreicherung der Daten von der Implementierung der Tracking-Daten entkoppelt. Marken-, Produkt- und Shop-Informationen aus den Stammdaten-Quellsystemen werden nun gemeinsam mit Syndication-Event-Daten in die Kernschicht des Data Warehouses integriert. Dadurch eröffnen sich völlig neue Möglichkeiten zur Datenanalyse, da alle zusätzlichen Felder und Informationen aus den Stammdatensystemen direkt für die Analyse von Syndikationen und Ereignissen genutzt werden können. Um performante Dashboards zu gewährleisten, wurden in der Präsentationsschicht spezifische Aggregattabellen für die jeweiligen Anwendungsfälle erstellt.
Stimmen aus dem Projekt
b.telligent Leistungen auf einen Blick
Konzeption einer modernen AWS-Lake-House-Architektur
Entwicklung einer zukunftssicheren Plattform, die die Flexibilität von Data Lakes mit der Struktur eines Data Warehouses verbindet.
Implementierung von Datenpipelines mit AWS Glue
Automatisierte Extraktion, Transformation und Laden der Daten über serverlose ETL-Prozesse – effizient und skalierbar.
Transformation und Modellierung mit dbt
Aufbau eines robusten Datenmodells mit DBT zur strukturierten Integration und Aufbereitung der Daten im Data Warehouse.
Aufbau von CI/CD-Pipelines und Einführung von DataOps
Durchgängige Automatisierung von Bereitstellungen und Tests für stabile, wartbare Datenprozesse nach DataOps-Prinzipien.
Integration von Monitoring- und Benachrichtigungssystemen
Echtzeitüberwachung mit AWS CloudWatch und automatisierte Alerts via SNS sorgen für einen reibungslosen Betrieb.

Ergebnisse & Erfolge
Skalierbare Lake-House-Architektur: Die neue AWS-Datenplattform kombiniert Flexibilität und Performance – mit erweiterter Datenhistorie, optimierter Datenstruktur und Zukunftssicherheit.
Dashboards in Rekordzeit: Dank standardisierter Datenmodelle und CI/CD-Pipelines wurde der Aufwand zur Erstellung neuer Dashboards um über 75 % reduziert.
Neue Umsatzpotenziale durch Data Products: loadbee kann valide Analyse-Daten nun direkt vermarkten – ein echter Mehrwert für Markenkunden und ein neues Geschäftsmodell.
Die neue Datenarchitektur führte in kurzer Zeit zu vielversprechenden Ergebnissen: Sie ermöglicht loadbee-Kunden detailliertere Analysen, und zwar nicht nur auf Marken-, Shop- und Tagesebene, sondern bis hinunter zur Produktebene. Darüber hinaus wurde der Speicherzeitraum von 90 Tagen auf ein ganzes Jahr erweitert, so dass den Kunden nun ein beträchtlicher Datenschatz zur Verfügung steht.
Zudem konnte der Aufwand für die Erstellung neuer Dashboards auf bestehenden Datensätzen um zum Teil mehr als 75 % reduziert werden. Im besten Fall dauert es nicht einmal einen Tag, um ein neues Dashboard zu erstellen und in Betrieb zu nehmen. Neue Informationen über Shops, Marken oder Produkte können von den Data Engineers schnell integriert und für Analysen bereitgestellt werden – ohne dass das Portalentwicklungsteam von loadbee eingebunden werden muss.
Die Datenarchitektur ermöglicht außerdem die Integration neuer Datentypen – wie beispielsweise Ansichtszeiten für Premium-Inhalte – in die Plattform. So kann das Nutzerverhalten noch besser analysiert werden, was wiederum den Marken entscheidende Vorteile bei der Contententwicklung bietet. Diese wichtige Ebene detaillierter Daten und Analysefähigkeiten wurde erst durch die neue, skalierbare Dateninfrastruktur und die Integration von Syndikations- und Stammdaten möglich.
Ein zusätzlicher Vorteil des Projekts war die Verbesserung der Datenqualität: So konnten Datenprobleme, die während des Projekts entdeckt wurden, direkt in den Quellsystemen behoben werden – was nicht nur die Datenqualität auf der Plattform, sondern auch in den operativen Systemen nachhaltig verbesserte.
Besonders schön: Der ROI dieses Projekts basiert nicht nur auf Kosteneinsparungen. Die neue Infrastruktur ist 50 % günstiger als die vorherige Lösung, bietet jedoch allein für die Syndikationsdaten eine 1.000-fach größere Datenmenge. Zusätzlich eröffnet die neue Architektur loadbee neue Umsatzmöglichkeiten, da sie ihren Markenkunden nun auch valide Daten verkaufen können.
Technologien im Einsatz

Amazon Web Services (AWS)
Als Advanced Partner von AWS unterstützt b.telligent seine Kunden bei der Migration und Einrichtung von Datenplattformen in der AWS-Cloud. Mehr Infos hier!

Die ganze Story zum Download
Du möchtest unsere Success Story als druckbaren Flyer? Für Dich, oder um Deinem Team das Projekt vorstellen zu können?
Dann lade Dir einfach hier die ganze Erfolgsstory als pdf herunter.
Viel Spaß beim Lesen!
Inspiriert?
Du findest unsere Success Stories spannend? Du hast eine ähnliche Herausforderung rund um die Themen Data, Analytics & AI und wünschst Dir professionelle Unterstützung? Dann melde Dich gern bei uns. In einem unverbindlichen Beratungsgespräch können wir schnell klären, wie wir Dir am besten helfen können.
