Die PAW ist mittlerweile auf drei parallele Tracks angewachsen und dementsprechend inhaltsreich. Meine Favoriten an diesem ersten Tag gehören meist zum längeren (genauer: einstündigen) Vortragsformat der Deep Dives, bei denen es richtig zur Sache und in die Details geht. Mehr Zeit, mehr Input.
Sven Crones Deep Dive drehte sich um Zeitreihenprobleme: wie man sie modern und souverän angeht, aber auch, wie man darüber einen Vortrag hält, der keine Sekunde langweilig ist. Anders als viele andere Zeitreihenspezialisten tat Sven dabei nicht so, als wären klassische statistische Zeitreihenmethoden (ARIMA & Co.) der einzig richtige Weg, Zeitreihenprobleme zu lösen. Stattdessen zeigte er, wie man neuronale Netze sinnvoll zur Zeitreihenprognose einsetzt. Neuronale Netze hier einzusetzen, ist keine hypegetriebene Modeentscheidung, sondern eine Konsequenz der Tatsache, dass neuronale Netze bei diesen Problemen sehr viel besser funktionieren als viele der anderen robusten Arbeitspferde wie Random Forest. Spannend dabei: Tiefe Netze bieten bei Zeitreihenproblemen typischerweise wenig Mehrwert. Flache Architekturen liefern eine ähnliche Genauigkeit bei deutlich geringerer Komplexität. Tiefe neuronale Netze lassen sich sinnvoll einsetzen, indem man auf die Metaebene wechselt: Man kann Deep Learning benutzen, um anhand der Zeitreihendaten zu entscheiden, welcher Algorithmus für diese Daten am besten funktioniert.
Dr. John Snow hat mit Datenvisualisierung Menschenleben gerettet. Das war zu Zeiten der Choleraepidemie in London, als er mit Hilfe einer Karte von Todesfällen in einem besonders heimgesuchten Viertel die Ursache der Häufung finden und unschädlich machen konnte. Mit diesem Beispiel stieg Alfred Inselberg in seinen Vortrag zur interaktiven Datenvisualisierung mit parallelen Koordinaten ein. Ich bin ehrlich gesagt noch nicht sicher, wie nützlich ich Visualisierungen mit parallelen Koordinaten für meine Arbeit finde – bisher habe ich immer draufgeschaut und nichts gesehen. Gelernt habe ich, dass das möglicherweise daran lag, dass ich statische Plots angeschaut habe. Wenn es funktioniert, dann nur mit interaktiven Plots, die zudem mit anderen Grafiken kombiniert werden (Scatterplots zum Beispiel), die sich gleichzeitig und konsistent mit aktualisieren.
Ein (ehemaliges?) Modethema hatte sich Phil Winters vorgenommen: Bots. Nicht gerade mein Lieblingsthema, um ehrlich zu sein: zu viel Hype, zu wenig praktischer Nutzen bis jetzt. Aber ich dachte mir, wenn Phil es behandelt, wird’s schon passen: Er hat ein Talent dafür, Hypethemen zu erden und mit viel gesundem Menschenverstand auf ihren Praxisnutzen zu testen. Der eigens für den Vortrag geschaffene Bot Emil diente als durchgängiges Beispiel für eine erfreulich detaillierte Darstellung, verbunden mit einem überzeugenden Plädoyer für mehr Einbeziehung von Nutzerfeedback in prädiktive Modelle (Active Learning).
Last, but not least gab’s ein Thema, das ich, ehrlich gesagt, zunächst im Verdacht hatte, vielleicht nicht ganz seriös zu sein. Ich musste mein Vorurteil revidieren: Jonathan Mall gab eine spannende, fundierte und extrem gut präsentierte Einführung in die psychologisch geschickte Nutzung von Word Embeddings für Marketingzwecke. Für mich einer der spannendsten Vorträge, weil er zwei Lieblingsthemen kombinierte: Word Embeddings und Psychologie. Er zeigte, wie sich Word Embeddings nutzen lassen, um Begriffsassoziationen länder- und sprachspezifisch zu quantifizieren, passende Assoziationen zu finden und unpassende zu modifizieren.