In seinem Vortrag auf dem BI Kongress, den b.telligent am 3. Mai 2018 in München veranstaltet, verrät Roman Egli, wie seine Abteilung einen signifikanten Mehrwert für Swisscom TV realisiert hat. Im Interview vorab beschreibt er kurz, welches die Erfolgsfaktoren sind, um eine "Daten-DNA" in einem Unternehmen zu verankern.
Swisscom TV gehört zu den innovativsten und benutzerfreundlichsten IPTV-Lösungen im deutschsprachigen Raum. Seit seinem Einstieg ins TV-Geschäft Ende 2006 hat sich Swisscom innerhalb weniger Jahre zum Marktführer mit 33 % Marktanteil in der Schweiz entwickelt. Neben dem Fokus auf Innovation und Benutzerfreundlichkeit war von Anfang an die Messung der Quality of Experience (QoE) eine Top-Priorität. Für seine marktführende User-Experience und Performance-Qualität hat Swisscom TV bereits zahlreiche Preise gewonnen. Unter anderem können Nutzer über eine Spracheingabe in Schweizerdeutsch sowie in unterschiedlichen Schweizer Dialekten nach Inhalten suchen, Sender wechseln und durchs Menü navigieren. Swisscom gilt als Technologietreiber für TV-Lösungen in der Schweiz und darüber hinaus.
Um die Quality of Experience und die End-to-End Service-Qualität kontinuierlich im gesamten Swisscom-Netzwerk zu messen, zu analysieren und zu verbessern, baute Senior Data Analyst Roman Egli bereits 2007 als Product Owner ein eigenes Technical Data Warehouse für den TV-Bereich der Swisscom auf. Seit 2013 arbeitet er bei Swisscom TV Business Operations und verantwortet dort den Bereich TV Analytics. Dank datengetriebener Quality-Assurance, optimierten Business-Prozessen und Multi-Vendor-Management konnte sein Fachbereich bislang mehrere Millionen Franken für das Unternehmen einsparen. Darüber hinaus hilft die anonymisierte Auswertung der TV-Nutzungsdaten, die TV-Produkte entsprechend weiterzuentwickeln und zu optimieren.
Swisscom IPTV Analytics haben Sie aus dem eigenen Fachbereich heraus mit einem geringen Headcount entwickelt. Wie sind Sie dabei vorgegangen und was ist Ihr Erfolgsrezept?
Roman Egli: Wir haben 2007 aus der Not eine Tugend gemacht und gleich aus unserem Fachbereich mit dem Aufbau des “Swisscom TV Data-Mart” begonnen. Zu diesem Zeitpunkt gab es nichts Vergleichbares innerhalb der Firma. Also haben wir ein eigenes DWH aufgebaut und es von Anfang an konsequent mit dem IPTV Service verknüpft. Damals gab es eine längere Projektphase, in der wir eine initiale Datenarchitektur definiert und danach die Datenbank Stück für Stück aufgebaut haben. Wir konnten also parallel zur Entwicklung des Services auch permanent den Swisscom TV Data-Mart weiterentwickeln.
Unser Antrieb war, mit Hilfe von TV Analytics und dem Feedback der Kunden, schnell die Quellen von qualitativen Problemen zu finden und zu beheben. Immerhin hatten wir es mit einer komplett neuen Technologie auf dem Telefon-Kupfernetz zu tun. Heute dient die Datenlösung auch als Grundlage für die Weiterentwicklung des TV-Produkts und um den datengetriebenen Kundensupport weiter zu optimieren. Wir kombinieren technische Daten, welche die Box erzeugt, mit verschiedenen anderen Quellen. Die Berichte für den Agenten im Call Center werden jetzt immer schneller verfügbar und bewegen sich stetig in Richtung Real-Time.
Wie verbessern Sie sukzessive die Navigation im Menü der IPTV-Box von Swisscom TV?
Roman Egli: Das können Kleinigkeiten sein, indem wir oft genutzte Funktionen leichter erreichbar machen oder wenig genutzte wieder aus dem Produkt entfernen, um es damit einfach in der Bedienung zu halten. Wir versuchen die Interessen unserer Kunden perfekt abzubilden, indem wir für die beliebtesten Themen eigene Welten entwickeln, wo sie die ganze Breite des verfügbaren Angebots gebündelt finden.
Welches waren die Herausforderungen im Bereich Data Science und Big Data, auch bezogen auf die Gesamtorganisation?
Roman Egli: Die Hauptaufgabe des Swisscom TV Data-Mart ist die Verbesserung der Qualität der TV-Produkte. Die hohe Kundenzufriedenheit, Qualität und Stabilität haben für uns oberste Priorität. Ein schlecht funktionierendes Produkt verursacht zu hohe Supportkosten und führt zu einem schlechten NPS (Net Promoter Score). Wenn wir durch die Datenanalyse die Produktqualität verbessern können und wir dadurch gleichzeitig die wöchentliche Call-Rate um 0,1 Prozent pro Woche senken, dann erzielen wir bei 1,4 Millionen Kunden eine Kostenersparnis von deutlich über 1 Millionen Franken pro Jahr und steigern gleichzeitig die Kundenzufriedenheit. Da wir seit dem Start von Swisscom TV kontinuierlich an diesen Stellschrauben drehen, ist die Hebelwirkung mittlerweile groß und wir können die Qualität heute noch schneller verbessern.
Könnte man sich die Umsetzung des Projektes auch ohne den analytischen Data-Mart vorstellen?
Roman Egli: Der Swisscom TV Data-Mart kombiniert Daten aus der IPTV-Box mit Daten aus der Software. Er läuft über das gesamte Managed Network von Swisscom und bezieht dabei die komplette End-to-End-Lieferkette mit ein. Wir haben die Datensilos aufgebrochen, um besser festzustellen, wo in der Lieferkette die Probleme anfangen. Das macht den Erfolg des Data-Mart aus. Wir haben seit Beginn einen hohen Qualitätsanspruch bei Swisscom TV. Ich denke nicht, dass wir ohne den Data-Mart diesen Erfolg gehabt hätten und so schnell hätten wachsen können. Der Erfolg von Swisscom TV ist sehr eng mit dem Swisscom Data-Mart verbunden.
In Ihrem Vortrag decken Sie die Erfolgsfaktoren der „Daten-DNA“ für Unternehmen auf – Können Sie uns vorab schon einen Faktor nennen, der unabdingbar ist?
Roman Egli: Die Manager von Swisscom TV haben von Anfang an das Projekt geglaubt. Das war unser größter Vorteil. Wenn man eine DNA entwickeln und sie in die Organisation tragen möchte, benötigt man vor allem Zeit. Und die haben wir bekommen. Wir konnten aber auch von Anfang an mit dem Swisscom TV Data-Mart sichtbare Erfolge vorweisen.
Im letzten Jahr haben Sie ihren Swisscom TV Data-Mart durch eine neue High-Performance-Lösung ersetzt. Welche Herausforderungen mussten Sie dabei meistern?
Roman Egli: Wir haben 2017 eine Migration unserer Datenbank zu einem anderen Hersteller vollzogen. Auf die Frage, wie eine solche Migration am besten zu bewerkstelligen wäre, gab es zwei Antworten. Die eine Option war die detaillierte Analyse aller Load-Prozesse und eine komplette Überarbeitung der Datenarchitektur, welche zum einen Altlasten beseitigt hätte und zum anderen die Performance des neuen Systems gleich optimiert hätte. Die zweite Option war eine 1:1 Migration, bei der wir die vorhandenen Prozeduren und Architekturen beibehalten und falls nötig im Nachgang Anpassungen vorgenommen hätten. Da wir sowohl unter Kosten- wie auch unter Zeitdruck standen, haben wir uns für die zweite Option entschieden. Für uns war das sicherlich die bessere Methode, da sie auch eher unserer normalen iterativen Arbeitsweise entspricht.
Welchen Ratschlag geben Sie anderen Data Analysts, wenn es darum geht, eine Datenlösung aus dem eigenen Fachbereich heraus aufzubauen, so wie Sie das erfolgreich umgesetzt haben?
Roman Egli: Damals gab es weder die dafür notwendige Infrastruktur noch das Know-how innerhalb der Swisscom. Außerdem war die schnelle Verbesserung der Produktqualität essentiell für den Erfolg von Swisscom TV. Heute trifft man oftmals auf bereits sehr gute Infrastrukturen, auf die man aufbauen kann und soll. Darum gehe ich davon aus, dass wir heute auf bestehende Infrastrukturen setzen würden. Ich bin aber sehr überzeugt davon, dass die Analytics aus der Domäne heraus getrieben werden muss und alle notwendigen Ressourcen dafür als interdisziplinäre Einheit ins Team integriert werden sollten. Nur wer sich mit dem Produkt identifizieren kann, die täglichen Probleme von Markt, Produktentwicklung und Business Operations versteht, wird zielgerichtete und wertschöpfende Analytics betreiben können. Die Aufgabe der IT besteht meines Erachtens darin, als Enabler die Infrastrukturen zur Verfügung zu stellen, damit die entsprechenden Fachbereiche darauf ihre Analytics aufbauen können.
Infos zum BI Kongress
Bereits zum dritten Mal veranstaltet b.telligent den BI Kongress in München. Best Practices, Vorträge und Networking-Events bringen am 3. Mai 2018 Führungskräfte, Manager und Experten aus den Bereichen Big Data, Business Intelligence, CRM und DWH in einem exklusiven Kreis zusammen. AbschließenderKeynote-Vortrag von Sascha Lobo: “Von Maschinen und Menschen: Die Radikalität der Digitalisierung – wie Sensorenfluten, Plattformen und Künstliche Intelligenz die Welt verändern"
b.telligent BI Kongress 2018
Datum:
Donnerstag, 3. Mai 2018
Ort:
Hilton Munich Park Hotel
Am Tucherpark 7
80538 München
Alle weiteren Informationen zur Agenda, den Referenten und Sponsoren: