Predictive Analytics & Kapitalmärkte: Wo stehen wir?

Global Investor hat vier Fragen an Christian Brandlhuber gestellt: Wie steht es um Predictive Analytics an den Kapitalmärkten? Der Experte für Big-Data-Analytics und Künstliche Intelligenz gibt seine Gedanken zum Besten. Seine Einschätzung zur gegenwärtigen Lage gibt er in seinem Gastbeitrag.

Wo liegen die Chancen und Grenzen von Predictive Analytics?

Zunächst muss man abgrenzen, worin sich Predictive Analytics im Kapitalmarktumfeld von anderen Einsatzkontexten, z. B. bei vorausschauender Polizeiarbeit, unterscheidet. Zwei Faktoren sind wesentlich. Da ist zunächst das Thema der Signal-to-noise-Ratio: Bei den meisten industriellen Anwendungen, die Predictive Analytics erfolgreich einsetzen, ist der Signalanteil im Verhältnis zum “Rauschen” relativ hoch. Die zur Lageeinschätzung relevante Information ist in den erfassten Daten wirklich enthalten und kaum durch Umgebungseinflüsse gestört. Das klingt trivial, aber in vielen praktischen Anwendungen scheitert die Realisierung genau daran: Die erfassten Daten enthalten keine relevante oder nur fragmentarische Information, und sie sind von einer Vielzahl anderer Umgebungseinflüsse überlagert. Information, die bei der Erfassung von Rohdaten verloren geht, ist nur sehr schwer zu reproduzieren.

Nun ist das nicht neu. Predictive Analytics wird derzeit aber deshalb mit so großer Begeisterung eingerüstet, weil es wegen der kostengünstigen Verfügbarkeit von Rechenleistung gelungen ist, Künstliche Intelligenz (KI), namentlich Neuronale Netze, zu entwickeln und zu trainieren, die durch ihre schiere Größe sehr viel kompliziertere Abbildungen von Daten hin zu verwertbarer Information ermöglichen. Das Stichwort ist hier natürlich Deep Learning.

Basierend auf Erfolgen bei Standardaufgaben der KI keimt nun die Erwartung auf, man könnte doch Systeme entwickeln, die weder Fachexpertise noch Wissen über das zu beobachtende Objekt oder System benötigen, sondern nur aufgrund der Daten wesentliche „Insights“ selbst lernen könnten. Solch theorieloses Vorgehen ist aber ein Glücksspiel. Denn erstens ist die Chance hoch, dass die erfassten Daten in ihrer Auflösung die benötigte Information nicht oder nur teilweise tragen, andererseits benötigen solch große Systeme (mit Hunderttausenden freier Parameter, die im Laufe des Lernverfahrens optimiert werden müssen) auch eine entsprechend hohe Datendichte, um tragfähige Resultate zu erzielen. Es ist ja kein Zufall, dass die großen Erfolge von Deep Learning-Verfahren entweder von Applikationen erzielt werden, in denen repräsentative Datensätze mit enormem Volumen leicht erzeugt werden können – wie Texte oder Videos aus dem Internet –, oder von Systemen, die Trainingsdaten per Self Play in beliebiger Zahl erzeugen können, so wie beim Go-Spiel.

Man mag sagen, mit zigtausenden Transaktionen im Kapitalmarkt haben wir doch dort sowohl die ideale Umgebung als auch die Datendichte, um große Systeme zu trainieren. Das stimmt aber so nicht ganz. Betrachtet man die Momente, in denen „neue Information“ in den Markt fließt, stellt man fest, dass trotz Terabyte sekündlicher Marktdaten eine EZB eben doch nur alle 4 bzw. 6 Wochen eine einzige Presskonferenz abhält. Schon wird aus vermeintlich Big Data doch nur Very Small Data.

Verstehen Sie mich nicht falsch, ich sage nicht, dass datengetriebene Systeme und Ansätze im Kapitalmarkt nicht funktionieren – im Gegenteil. Die Zukunft wird aber meines Erachtens Systemen gehören, die in dem Sinne hybrid sind, dass sie in den Daten erkannte semantische Konzepte vor dem Hintergrund einer makroökonomischen Lage interpertieren können und damit sowohl Theorie als auch datenzentrierte Ansätze miteinander verbinden. Solche Ansätze findet man in der militärischen Lageanalyse als sog. Datenfusion schon seit Jahrzehnten etabliert.

Das zweite große Thema von Predictive Analytics im Kapitalmarktumfeld ist das Problem, dass Preisbildungsprozesse nicht stationär sind. Bedingt durch strukturelle Änderungen des Marktes ändern sie ihre statistischen Eigenschaften. Viele Fonds, die vor der Finanzkrise 2008/9 sehr erfolgreich waren, hatten in den Märkten danach große Probleme. Bei datengetriebene Ansätze können bereits kleinste Veränderungen im statistischen Footprint von Daten dazu führen, dass eine erlernte Strategie nicht mehr mit der realen Marktumgebung zusammenpasst. Der Schlüssel liegt darin, Systeme zu entwickeln, die Datenanalysen mit theoretischen Weltmodellen verbinden; das hat auch den Charme, das, was die KI gerade „denkt“, dem menschlichen Nutzer zu erklären, so dass man es eben nicht mehr nur mit einer Blackbox zu tun hat.

Werden Predictive-Analytics-Systeme den Kapitalmarkt revolutionieren? Wenn man sie als Datenfusionsansatz begreift, werden sie zumindest eine systematischere und vollständigere Sicht auf Marktrisiken und Chancen erlauben.

Welche Technologie bzw. Anwendung dominiert ihrer Meinung nach die Zukunft?

Die Frage der Dominanz ist nachrangig. Technologien sind nichts als Werkzeuge. Nehmen Sie die KI. KI ist keine einzelne Technologie, sondern ein Catch-All-Konzept, das auf eine Reihe von Techniken mit vielfältigen Anwendungen anspielt. Sie reichen von Abwehrmaßnahmen der Börsen, den Wolf Detectors, über kognitive Anwendungen, die quantitative oder qualitative Analysen umfassen, bis hin zur Entscheidungsunterstützung oder -automatisierung. Je nach Einsatzszenario sind Technologien unterschiedlich gut geeignet.

Andererseits hängt die Frage, was in der Praxis funktionieren wird oder den größten Wert erzeugt, nicht allein von der Technologie ab, sondern auch davon, wie sich der Anwendungskontext entwickelt.

Sie können ein wunderbares Handelsmodell haben – ab dem Zeitpunkt, zu dem sich aufgrund internationaler geo-politischer und geo-strategischer Veränderungen oder auch nur aufgrund regulatorischer Massnahmen Märkte strukturell verändern, kann es sein, dass ein Modell schlicht aus dem Kontext fällt.

Aus meiner Sicht zeichnen bei Kapitalmarktapplikationen für reines Asset Management drei große Entwicklungsstränge ab:

  1. Applikationen, die stark datengetrieben sind und auf Aspekte wie die Analyse von Transaktionsmustern und Mikrostrukuren im Markt abzielen. Hier findet man auch die benötigte hohe Datendichte vor. Technisch werden dort voraussichtlich rekurrente Tiefschichter zum Einsatz kommen; möglicherweise Reinforcement-Learning-Systeme. Im Endeffekt bekommt man es mit Systemen zu tun, die smarter, aber langsamer sind als HFT-Systeme, und die hohe Anforderungen an ihre Einsatzumgebung, Datenverbindung etc. stellen. Wir haben solche Ansätze unter der Rubrik Execution Support im Einsatz.
  2. Applikationen, die primär die Informationsbeschaffung und Automatisierung der Datenaufbereitung betreffen. Hier eröffnet sich ein breites und produktives Feld für die KI, z.B. bei der Analyse von bild- und textbasierten Quellen (News), z.B. sog. Named Entity Recognition. Produktiv insbesondere aus dem Grund, da sich dort sehr schön „vortrainierte“ Modelle (quasi mit einem Grad an Allgemeinwissen) lernen lassen, die dann sehr viel weniger Daten benötigen, um sie auf ein Spezialgebiet per Transfer Learning zu migrieren, wo sie sich Quellen zugänglich machen, die bisher nicht erschlossen werden konnten. Für uns war der Einsatz solcher Systeme z.B. zur kontinuierlichen Analyse chinesischer Technologiepublikationen und Trenderkennung eine echter Aha-Effekt.
  3. Probabilistische Modelle, die die Ergebnisse der beiden ersten Stränge zueinander in Beziehung setzen und interpretieren. Diese Modelle wird man hauptsächlich als strategische Risikomodelle vorfinden, wo sie m.E. das Potenzial haben, bestehende quantitative Modelle um die Einbeziehung neuer Informationsquellen zu erweitern, um so zu einer adäquateren Risikobewertung zu führen.

Nicht berücksichtigt sind hier alle die Bereiche, die man vielleicht als Auxiliary Use bezeichnen könnte, etwa KI für die Compliance oder die „smartere“ Workflow-Steuerung.

Wo sehen Sie die Limitierung von Künstlicher Intelligenz in der Finanzwelt?

Ich sehe wenig Limitierung der Technologie an sich – allerdings auch nicht den Ersatz bisheriger Ansätze durch die große Master-KI. KI-Anteile werden wir in vielen Systemen als Teilkomponente finden. Im Einzelfall, und nur, wenn sie gut gemacht ist, kann sie Situationen besser einzuschätzen, indem sie Analysen mehr oder weniger in Echtzeit durchführt. Hier bieten KI-Systeme die Möglichkeit, bisher rein quantitative Ansätze in ihrer Leistungsfähigkeit substanziell zu erweitern.

Limitierungen sehe ich allerding da, wo KI unreflektiert und ohne theoretisches Konzept oder mathematisches Modell, das fit for purpose ist, eingesetzt wird, etwa unter der Annahme, man könne alles aus Daten herauslesen und müsse das Anwendungsumfeld nicht wirklich verstehen.

Welche ethischen Bedenken und Fragen bringt die Entwicklung Ihrer Meinung nach mit sich?

Ich bin kein Ethiker oder Moralphilosoph. Die Frage der Ethik ist auch nicht primär auf der technischen Ebene zu beantworten. Wohl aber sollten sich Technologen darüber Gedanken machen, in welchem Einsatzkonzept man neue Technologien an den Start bringt, welche unmittelbaren Effekte der Einsatz neuer Technologie mit sich bringt, aber auch welche Langzeitfolgen der Einsatz neuer Technologie hat.

Dort, wo seit jeher hochtechnisierte Systeme unter missionskritischen Rahmenbedingungen zum Einsatz kommen, etwa im militärischen Kontext, gibt es eine gute Tradition, für unmittelbare durch den Technologieeinsatz verursachte Effekte eine „Risiko- und Bedrohungsanalyse“ durchzuführen; für langfristige Auswirkungen nimmt man eine Technologiefolgenbewertung vor. Letztere ist eher ein andauernder Diskurs.

Risikoanalysen sollten schon bei der Entwicklung neuer Technologien erfolgen: Ist es ethisch vertretbar, dass man Kunden von Predictive-Analytics-Systemen „Insights“ verkauft, die letztlich Artefakte des eigenen Datenerfassungsprozesses sind, um hohe Entwicklungskosten zu rechtfertigen und Investoren gegenüber vermeintliche Erfolge verkünden zu können? Wie weit man das unter „Starthilfe für noch nicht ganz ausgereifte Innovation“ toleriert und ethisch vertretbar findet, ist eine Gewissensfrage. Manchmal ist sie aber auch rechtlich relevant, nur halten viele Technologen Gesetze für vorgestrig und nicht mehr als ein theoretisches Konzept. Wieviel Test- und Validierungsaufwand setzt man wirtschaftlich in Systeme, deren Verhalten ja oft nur in aufwändigen statistischen Testreihen validiert werden kann, bevor man ein System mit möglicherweise unzulänglichem Verhalten und erheblichem Schadpotenzial in den Betrieb gibt? Fragen, die in der Praxis nicht einfach zu beantworten sind.

Ein Aspekt, der beim Einsatz der Technologie derzeit notorisch unterbelichtet ist, sind die Wechselwirkungen, wenn KI-Systeme (mittelbar) miteinander interagieren. Beim Hochfrequenzhandel – der ja wenig mit KI zu tun hat – hat man durchaus einen Vorgeschmack von entsprechenden Markteffekten bekommen, wenn sich Systeme in ihren Aktionen gegenseitig aufschaukeln. Mit dieser Thematik werden wir voraussichtlich ab dem Zeitpunkt zunehmend zu schaffen haben, ab dem sog. Reinforcement-Learning-Systeme in größeren Stil im Markt tätig werden.

Spätestens dann, wenn man nicht nur das Asset Management, sondern das Asset-Liability-Management betrachtet, sind wir wirklich bei der Technologiefolgenbewertung. Ich verstehe jeden Aktuar einer Versicherung, der das Risiko eines Versicherungsfalles so genau wie möglich einschätzen und deshalb jeden Einzelfall durch weitreichende Datenanalysen absichern möchte. Genau hier stellt sich aber die Frage, was ein solcher Transparenzwahn langfristig mit einer Solidargemeinschaft, als die wir eine Gemeinschaft Versicherter verstehen, macht.




Nachricht an die Redaktion

Hier können Sie uns einen Kommentar zu dem Artikel zukommen lassen.
Wir freuen uns auf Ihr Feedback.

[honeypot additional-name-406]]

Bei unseren Lesern momentan beliebt