Performanceoptimierungen können nicht in Stein gemeißelt werden. Denn Optimierungen, die bei einem Unternehmen mit bestimmter Systemarchitektur und bei gewissem Datenvolumen super funktioniert haben, müssen nicht zwingend an einer anderen Stelle genauso gut klappen. Kurzum: Es müssen individuelle Lösungen erarbeitet werden. Prinzipiell geht es aber immer darum, die Balance zwischen Arbeitsspeicherauslastung und Datenbankauslastung sowie zwischen Implementierungskomplexität und Wartbarkeit zu finden. Dabei steht die Verarbeitungszeit stets im Zentrum.
Table of Contents
Wie wir aus dem vorangehenden Artikel erfahren haben, ergibt es weiterhin Sinn, auch beim Ansatz einer In-Memory-Datenbank wie HANA, Cache-Tabellen in SAP-BW-Transformationen zu verwenden. Mit Cache-Tabellen sind in diesem Kontext interne ABAP-Tabellen gemeint, die zur Laufzeit von Daten-Transformations-Prozessen (DTP) erstellt und befüllt werden. Dies ist vor allem dann der Fall, wenn Implementierungslogik in ABAP-Routinen umgesetzt werden muss, weshalb die Transformationen nicht in der SAP-HANA-Datenbank verarbeitet werden können.
Oft braucht man die Datenzeilen nur zu duplizieren oder zu löschen. Dies geschieht am besten mit Blockoperationen. Im Gegensatz dazu muss in anderen Fällen mit Lookups gearbeitet werden:
Bei Lookups wird im Besten Fall jeder relevante Datensatz mit Informationen aus einer oder mehreren weiteren Datenbanktabellen bereichert. Genau in diesen Fällen ist der richtige Aufbau der Lookups kritisch für die Performance der BW-Transformation.
Anhand eines Beispiels, das mich zuletzt häufiger in der Praxis begleitet hat, werden wir uns in dieser Serie mit möglichen Implementierungstechniken für den Aufbau performanter Lookups auseinandersetzen.
Freue Dich also auf unsere fünfteilige Serie zum Thema "Performante Lookups in BW-Transformationen aus der Praxis". Dabei werden die häufigsten, praxisrelevanten Fragen im Detail geklärt. Folgende Inhalte werden in den nächsten Teilen dieser Blogserie geklärt:
Du willst den IoT Core durch eine Multi-Cloud-Lösung ersetzen und die Vorteile weiterer IoT-Services von Azure oder Amazon Web Services nutzen? Dann melde Dich bei uns und wir unterstützen Dich bei der Umsetzung mit unserer Expertise und dem b.telligent Partnernetzwerk.
Exasol ist ein führender Hersteller von analytischen Datenbanksystemen. Das Kernprodukt ist eine auf In-Memory-Technologie basierende Software für die professionelle, parallele und schnelle Datenanalyse. Normalerweise werden SQL-Statements in einem SQL-Skript sequenziell abgearbeitet. Wie können aber mehrere Statements gleichzeitig ausgeführt werden? Dies zeigen wir anhand eines einfachen Skripts in diesem Blogbeitrag.
Viele Unternehmen mit SAP-Quellsystemen kennen diese Herausforderung: Sie wollen ihre Daten in einen Azure Data Lake integrieren, um sie dort mit Daten aus anderen Quellsystemen und Applikationen für Reporting und Advanced Analytics weiterzuverarbeiten. Auch die neuen SAP-Informationen zur Nutzung des SAP-ODP-Frameworks führten bei b.telligent Kunden zu Fragen. In diesem Blogbeitrag stellen wir drei gute Ansätze zur Datenintegration (in die Microsoft Azure Cloud) vor, die wir bei b.telligent empfehlen und die von der SAP unterstützt werden.
In Teil 1 fassen wir die Anforderungen der Kunden zusammen.
Viele Unternehmen entscheiden sich im Rahmen ihrer aktuellen Modernisierung- und Digitalisierungsinitiativen, ihr Datawarehouse (DWH) oder auch ihre Datenplattform in die Cloud zu heben. Dieser Beitrag diskutiert aus fachlicher/organisatorischer Sicht, welche Aspekte dafür besonders wichtig sind und welche Strategien dabei helfen, etwaige Risiken zu minimieren. Eine Migration sollte nicht als rein technische Übung verstanden werden. "Weiche" Faktoren und Fachlichkeit haben einen deutlich höheren Einfluss.