KI im Finanzbereich

Shownotes

In der aktuellen Episode des NORD/LB Podcasts "Investors Talk" diskutieren Host Marcel Leist und Ron Große mit Hans-Jörg von Mettenheim über die Rolle der Künstlichen Intelligenz im Finanzwesen. Schwerpunkt der Diskussion sind Large Language Modelle (LLMs) wie ChatGPT, die in den letzten Jahren stark an Bedeutung gewonnen haben. Gemeinsam beleuchten sie, welche Chancen und Risiken diese Technologie für etablierte Unternehmen und Start-ups mit sich bringt und wie LLMs tatsächlich in der Vermögensverwaltung eingesetzt werden können. Hype oder echte Revolution – das erfahren Sie in dieser spannenden Folge.

Transkript anzeigen

00:00:00: Herzlich willkommen zum Investors Talk Impulse für Ihre Geldanlage. Hier hören Sie, was die

00:00:07: Finanzwelt bewegt und wie Expertinnen und Experten der NordLB den Kapitalmarkt analysieren.

00:00:12: Noch ein kurzer Hinweis, bevor es losgeht.

00:00:18: Die in diesem Podcast besprochenen Aktien,

00:00:21: Fonds und Finanzprodukte stellen keine Kauf- oder Anlageempfehlungen dar. Die NordLB haftet nicht

00:00:27: für etwaige Verluste, die dadurch entstehen, dass im Podcast genannte Gedanken und Ideen ohne

00:00:32: individuelle Beratung und Empfehlung umgesetzt werden. Herzlich willkommen, liebe Zuhörerinnen und

00:00:37: Zuhörer, zu einer neuen Folge unseres NordLB Podcast Investors Talk Impulse für Ihre Geldanlage.

00:00:42: Ich bin Marcel Leist, Portfolium Manager aus dem Portfolium Generationenmanagement. Und ich

00:00:47: habe mir heute natürlich wieder Gäste eingeladen. Zum einen ist es Ron Große, Leiter Portfolium

00:00:53: Generationenmanagement. Und einen, auf den ich mich besonders heute freue, einen externen Gast,

00:00:58: den wir uns heute eingeladen haben. Das ist Hans Jörg von Mettenheim. Er ist Professor an der

00:01:02: E-Pack Business School in Paris und leidet dort das Department für Ökonomie und Finance. Und unser

00:01:08: Thema heute und passender kann es eigentlich gar nicht sein, soll sein künstliche Intelligenz und

00:01:14: das Zusammenspiel mit dem Finanzmarkt, in dem Finanzbereich. Da wollen wir ein bisschen reingucken,

00:01:18: zum einen, wie ist es eigentlich entstanden, wie ist da so die Historie, wie ist der heutige

00:01:24: Stand und auch ein Ausblickwagen zu diesem Themenbereich. Was geht da eigentlich, was kann

00:01:29: man heute damit schon machen? Und wie gesagt, da haben wir die perfekten Gäste heute für hier

00:01:34: im Podcast und wir starten dann auch ein Stück weit rein. Hans Jörg, magst du ein bisschen was

00:01:41: zu deiner Person vielleicht am Anfang erzählen und dann einen Einblick darin geben zum Thema

00:01:46: Historie, Künstliche Intelligenz im Finanzmarktbereich. Wie bist du vielleicht auch dazu gekommen? Und

00:01:52: wie hat sich das eigentlich in der Historie entwickelt zu dem Stand, wo wir heute sind? Das

00:01:57: würde uns und unsere Zuhörerinnen und Zuhörer, glaube ich, brennen interessieren. Ja, Marcel,

00:02:01: vielen Dank. Dann gehe ich erstmal, sag ich mal, auf meine eigene persönliche Historie ein. Also in

00:02:07: der Tat mittlerweile beschäftige ich mich seit über 20 Jahren mit künstlicher Intelligenz und zwar

00:02:13: bevorzugt mit der Methode der künstlichen neuronalen Netze, auch Artificial Neural Networks genannt

00:02:19: im Englischen. Dieses Stichwort findet man immer wieder mal und habe diesen Bereich mittlerweile

00:02:25: in Forschung und Praxis aus vielen verschiedenen Perspektiven beleuchtet. Wenn man jetzt mal 20

00:02:32: Jahre zurück denkt, dann waren natürlich die Datensätze deutlich kleiner. Die Hardware, die man

00:02:38: vielleicht dann auch als Masterstudierender oder als Doktorant zur Verfügung hatte, war natürlich

00:02:43: auch deutlich geringer ausgeprägt, als das, was einem heute so zur Verfügung steht. Algorithmen

00:02:50: waren ein Stück weit schwieriger zu implementieren, sodass man sieht, da hat sich schon einiges getan.

00:02:57: Aber letztlich die Probleme, die wir uns anschauen, die sind irgendwie immer noch ähnlich. Also wir

00:03:04: haben Finanzmarktdaten, das können beispielsweise Preise sein, das können fundamental Daten sein,

00:03:09: das können auch, sag ich mal, vollkommen anders geartete Daten sein, sogenanntes Alternative Data,

00:03:15: wie beispielsweise Satellitenbilder oder vielleicht auch News oder vielleicht auch Aufnahmen von

00:03:21: Pressekonferenzen. Und diese Daten, die versuchen wir eben zu verarbeiten, um dann eine Aussage über

00:03:28: die Zukunft zu treffen. So, bevor wir uns da zu tief reinbegeben, klar, es ist schwer Aussagen

00:03:35: über die Zukunft zu treffen, das ist, sag ich mal, ein Spruch, der ja in verschiedensten Varianten

00:03:39: schon lange kursiert. Aber, sag ich mal, wir versuchen aus dem vorhandenen Daten und mit

00:03:47: den entsprechenden zur Verfügung stehen Algorithmen das Beste zu machen. Und es ist

00:03:53: natürlich sehr interessant, diese Bereiche einerseits aus der akademischen Forschung heraus zu

00:04:00: betrachten. Das gibt einem Freiraum, sag ich mal, in die verschiedensten Richtungen zu denken. Aber

00:04:07: dann letztlich braucht es auch die Anwendung. Denn man kann natürlich in beliebig viele

00:04:12: Richtungen denken, wenn man es jetzt nicht testet, wenn man das nicht an den Märkten ausprobiert

00:04:18: oder diese Information, die man zusätzlich generiert, keinen Nutzen entfaltet, dann ist es natürlich

00:04:24: auch ein bisschen leer als Betätigung. So, insofern mag ich diese Mischung sehr gern einerseits

00:04:32: der akademische Bereich an der E-Pack Business School in Paris jetzt, habe vorher an der

00:04:38: Leibniz Universität in Hannover, war ich tätig und parallel dazu auch die Beratungspraxis,

00:04:46: also wirklich solche Modelle einzuführen, zu nutzen und eben zu schauen, was bringt das an den

00:04:54: Märkten da draußen. Und jetzt Marcel, hattest du ja auch die Historie der künstlichen Intelligenz

00:05:01: angesprochen. Und ich finde es auch für mich selbst immer wieder erstaunlich, zurückzuschauen,

00:05:07: dass dieses Hype-Thema im Grunde genommen schon sehr alt ist. Und zwar durchaus 70 Jahre alt,

00:05:16: wenn man an die ersten Versuche von Frank Rosenblatt, so hieß der Ingenieur und Forscher damals,

00:05:22: zurückdenkt, der eben, naja, neuronale Netze, also schon durchaus die Struktur, die wir heute

00:05:28: kennen, mit sehr einfachen, sehr primitiven Methoden modelliert hat in den 40er und 50er Jahren.

00:05:37: Und das aus meiner Sicht Interessante ist, dass das, was wir heute machen, gar nicht so

00:05:44: unterschiedlich ist, im Vergleich zu dem, was vor 70 Jahren bereits geschah. Das heißt, wir

00:05:51: verfügen über eine jahrzehntelange Erfahrung, über ein halbes Jahrhundert Erfahrung, Algorithmen,

00:05:59: Methoden, wie neuronale Netze gebaut werden können. Und was sich heute geändert hat und vielleicht

00:06:06: auch ein Stück weit der Grund für den Hype, den wir sehen, das ist im Prinzip die Weite verfügbar.

00:06:14: Und zwar verfügbarkeit auf mehreren Ebenen. Denken wir erstmal an die Datenmengen. Daten

00:06:23: lassen sich heutzutage sehr leicht generieren. Es ist eher das Problem, dass wir zu viele Daten

00:06:31: haben. Wir können ohne Probleme Dutzende von Terabyte an Daten generieren. Die Datenbanken,

00:06:37: die wir nutzen, umfassen mittlerweile mehrere Peter-Bite. Man muss sich erst mal an diese

00:06:42: Einheit gewöhnen, nicht? Also ein Peter-Bite, das sind 1000 Terabyte, nur für die Forschung. Das sind

00:06:47: also sehr, sehr große Datenmengen, aus denen wir letztlich auswählen müssen. Wir haben also eher

00:06:52: die Qual der Wahl im Vergleich zur Zeit davor, wo es durchaus schwieriger war, an bestimmte

00:06:59: Datensätze zu kommen. Das heißt, wir haben diesen Aspekt der Daten. Jeder kann heutzutage relativ

00:07:06: leicht zu geringen Kosten oder vielleicht auch gratis an sehr interessante Daten kommen. Der zweite

00:07:15: Aspekt, der sich geändert hat, ist die verfügbare Hardware. Das heißt, mit Grafikkarten, die jeder

00:07:23: in seinen Rechner stecken kann, können wir sehr, sehr interessante Modelle bauen. Auch das, was

00:07:31: wir heutzutage als large Language-Modell kennen, was ChatGPT bekannt gemacht hat, das ist heutzutage

00:07:39: für jeden verfügbar. Vielleicht nicht genau in dieser Leistungsfähigkeit, aber auch da werden

00:07:45: entsprechende Fortschritte festgestellt. Aber das kann im Prinzip jeder machen. Das ist jetzt, man

00:07:51: braucht da jetzt keinen Supercomputer mehr für 100.000 oder Millionen Euro. Hardware für einige 100

00:08:01: Euro, wenige 1.000 Euro steht uns zur Verfügung und ist vollkommen ausreichend dafür. Der dritte

00:08:08: Punkt, vielleicht der Wichtigste sogar, ist die Software, der Fortschritt der Verfügbarkeit der

00:08:16: Algorithmen. Es geht nicht so sehr darum, was wir da genau berechnen. Diese Algorithmen sind

00:08:22: eigentlich schon ganz gut bekannt. Klar gibt es da auch Fortschritte, aber es geht insbesondere

00:08:27: darum, dass diese Algorithmen in gut nutzbaren und optimierten Bibliotheken zur Verfügung stehen.

00:08:35: Das heißt, wenn ich auch einfach nur 20 Jahre zurückdenke, da wurde noch sehr viel von Hand

00:08:42: kodiert. Da musste ich also wirklich einzelne Algorithmen Schritt für Schritt entwickeln. Und

00:08:50: das ist natürlich auch sehr lehrreich und sehr interessant. Aber wenn ich jetzt einfach nur die

00:08:54: Methode, das Verfahren nutzen möchte, dann ist es natürlich schon sehr interessant zu sehen,

00:09:00: okay, ich kann das eben auch an einem Nachmittag einfach mal testen, ob dann die Ergebnisse so

00:09:05: toll sind. Das ist eine andere Frage, aber ich kann es sehr leicht testen. Ich muss nicht mehr

00:09:10: Wochen oder Monate meiner Zeit investieren, sondern ein Nachmittag reicht aus. Ja, das ist

00:09:16: vielleicht in der Nutschall so, dass was sich geändert hat und ein kurzer Rückblick auf die

00:09:22: Entwicklung. Ja, vielen Dank schon mal dafür. Und man kann natürlich auch festhalten, dass das

00:09:27: Thema ja viel mehr auch medial, sage ich mal, den Vordergrund natürlich gerückt ist und die

00:09:31: Verfügbarkeit sicherlich zugenommen hat für solche Modelle und dass ich eben auch mehr dafür

00:09:38: interessiere, mehr damit beschäftigen. Hardware-Verfügbarkeit, das denke ich dann immer in

00:09:42: Nvidia, an die ganz großen Rechner, die dann doch sehr, sehr teuer sind, aber dass man das eben

00:09:47: auch mit kleinerem Budget gut umsetzen kann. Auch das ist ja eine gute Erkenntnis und sollte

00:09:52: auch dann für die weiteren Trends sicherlich hilfreich sein. Vielleicht kurze Frage an dich, Ron.

00:10:00: Wir hatten ja gerade über die Historie gesprochen, wie das im Finanzmarktbereich entstanden ist und

00:10:06: welche Möglichkeiten man heute hat im Vergleich zu früher. Wie hat das dann quasi im Finanzbereich

00:10:13: vielleicht auch mehr Einfluss gewonnen, dieses Thema Künstler-Digenz und Datenmodelle? Magst

00:10:18: uns da vielleicht nochmal einen kurzen, kurzen Rückblick zu geben. Ja, vielen Dank Marcel.

00:10:22: Vielen Dank, dass ich heute mit euch gemeinsam, mit dir gemeinsam und Hans Jörg mich mal über

00:10:28: das Thema Künstler-Digenz und Historie-Entwicklung austauschen darf. Vielen Dank dafür. Das ist

00:10:34: unglaublich spannend. Bevor ich da eine Frage beantworte, fällt mir eine Frage direkt an Hans

00:10:37: Jörg nochmal ein. Nämlich, wie fühlt sich das eigentlich an, wenn man über 20 Jahre in diesem

00:10:44: Segment tätig ist und auf einmal spricht jeder von Large Language-Modellen. Was macht es mit dir?

00:10:50: Ja, Ron. Vielen Dank für diese Frage. Also klar, das ist natürlich eine Bestätigung,

00:10:56: dessen was man über Jahrzehnte so fabriziert hat, wenn das plötzlich in aller Munde ist,

00:11:02: wenn dieses Thema also gehypt wird. Das ist also auch ein schönes Smalltalk-Thema. Man darf natürlich

00:11:09: nicht vergessen, es ist nicht das erste Mal, dass künstliche Intelligenz so stark gehypt wird.

00:11:14: Das heißt, das sind im Prinzip so Phasen hin und wieder gibt es mal eine Anwendung, von der man

00:11:19: auch vielleicht nicht wirklich sagen kann, wieso genau die diesen Hype auslöst. Das war jetzt bei

00:11:25: den Large Language-Modellen ChatGPT. Es war dann auf einmal verfügbar, aber wir haben ähnliche

00:11:31: Hypes im Bereich Machine Learning auch schon in der Vergangenheit erlebt. Das heißt, man muss da so

00:11:37: ein bisschen vorsichtig sein, auch würde ich sagen, denn der Hype der App auch wieder ab. Wir

00:11:43: machen das durchgängig, ob Hype oder nicht und bleiben eben bei dieser Methodik, bei diesen

00:11:50: sehr interessanten Verfahren unabhängig vom Hype. Das ist vielleicht auch etwas, was man im Kopf

00:11:55: behalten sollte. Ich kam deswegen auf die Frage, Hans Hürg, weil ich denke immer, wir waren ja

00:12:01: relativ frühzeitig auch dran bei dem Thema und haben entdeckt, welche Möglichkeiten uns zur

00:12:07: Verfügung stehen und wenn dann jeder redet davon, dann denkt man, verliert man irgendwie die Lust.

00:12:13: Das ist aber nicht der Fall. Gott sei Dank, nicht der Fall. Wir sehen ja auch bei dem Thema,

00:12:17: das nimmt ja auch richtig Fahrt auf. Das hatten wir auch in unserem Jahresausblick 2024 gesagt.

00:12:23: Wir stehen erst völlig am Anfang, weil wir

00:12:26: das Thema künstliche Intelligenz im Grunde genommen in jede Branche jetzt oder in jeder

00:12:31: Branche einzughält. Und das wird im Grunde genommen Volkswirtschaften verändern. Also

00:12:38: wir sind da einen absoluten Strukturbruch im Moment drin, wenn man das global mal betrachtet.

00:12:44: Um auf deine Frage nochmal zurückzukommen Marcel, Hans Jürg und ich, wir wurden so ein

00:12:49: bisschen verkuppelt 2017 von unserem Kollegen Tobias Basse in dessen Wohnzimmer wir heute im

00:12:56: Grunde genommen sind und weil wir uns die Frage gestellt haben, wie können wir im Grunde genommen

00:13:00: unsere Anlageentscheidungen und den Anlageerfolg für unsere Kundinnen und Kunden verbessern. Und

00:13:08: uns fällt natürlich da immer einfach ein, wir müssten eigentlich noch disziplinierter sein in

00:13:14: der Anlageentscheidungen. Und mir fiel dann sofort ein, ich beschäftige mich ja mit dem Thema

00:13:21: Behaviour Finance, also Börsenpsychologie schon seit vielen Jahren, seit über zwei Jahrzehnten

00:13:26: mittlerweile. Und da kommt KI dann in Spiel und Hans Jürg, weil ich gefragt habe mehr,

00:13:31: wie könnten wir eigentlich die Behaviour Finance im Grunde genommen operationalisieren aus den

00:13:36: vielen Daten, die wir haben, zum Beispiel aus Sentiment umfragen, wie können wir diese übertragen,

00:13:42: zum Beispiel ins Portfoliomanagement und demnach eben auch den Anlageerfolg unserer Kundinnen

00:13:48: und Kunden verbessern. So sind wir mal zusammengekommen und haben dann eben versucht, das über

00:13:55: das Risikomanagement Modelle zu entwickeln, um Anlageentscheidungen noch disziplinierter,

00:14:00: noch besser zu machen. So, das ist erstmal die erste Sicht. So sind wir mal gestartet 2017 in

00:14:06: unserem gemeinsamen Wirken und haben dann unter anderem eben Modelle zum Risikomanagement,

00:14:13: zur Absicherung von, sagen wir mal, Aktien, Quoten, Temporär, mal entwickelt. Wir haben

00:14:18: gemeinsam Sentiment, Indicator Romeo entwickelt, der im Grunde genommen Sentiment Daten umfragen

00:14:26: auswertet und dort auch ein Signal gibt, ob man jetzt investieren oder deinvestieren sollte als

00:14:33: Investor. So und jetzt mit diesen Datenmengen und mit den zur Verfügung stehenden Mitteln,

00:14:39: haben wir eben die Gelegenheit, das auch gut auszuwerten. So sind wir im Grunde genommen

00:14:44: zusammengekommen, das ist die eine Sicht und die andere Sicht ist aber nämlich welche Auswirkungen

00:14:50: hat das auf das Investieren auf der einen Seite und auf die Investments auf der anderen Seite und

00:14:56: da können wir im Grunde genommen uns jede Branche angucken. Also du hattest ja mal gesagt, im Grunde

00:15:02: genommen, der erste Blick sind immer die Hardwarehersteller, also TSMC zum Beispiel oder im

00:15:08: Chiphersteller, Highlighterhersteller oder so Chip Designer wie Nvidia oder ARM. Das ist der erste

00:15:16: Fokus und der zweite Fokus wird dann sein, wo hält KI, Künstliche Intelligenz im Grunde genommen,

00:15:21: Einzug in der Branche und was verändert sich volkswirtschaftlich? Das sind spannende Themen,

00:15:26: weil wir wissen, dass wir natürlich erst einmal Investitionen haben in KI, in Hardware, in Ausrüstung,

00:15:33: die werden zunehmen und letztlich wird es dazu führen, dass im Grunde genommen Produktivität

00:15:39: gesteigert wird und die Effizienzen im Grunde genommen in Unternehmen geroben werden. Da kann

00:15:44: man sich im Grunde genommen jede Branche angucken. Ja vielen Dank Ron, auch für deinen Einblick und

00:15:48: für die Historie und ja wir sind ja schon mittendrin quasi im aktuellen Umfeld, wo wir uns

00:15:54: bewegen, wo wir gerade sind. Jeder redet davon, Hype, viel schonmal das Wort. Ein spannendes,

00:16:02: sehr sehr spannendes Thema wird auch sicherlich in vielen vielen Brongen schon einzugehalten.

00:16:06: Mal gucken, wann so ein, vielleicht ein Hype auch mal wieder abflacht. Das war, das ist richtig

00:16:10: gestichwort. Meistens ist es ja tatsächlich so, dass das passieren wird. Aber das Thema der Datenzentren

00:16:17: jetzt aufgebaut werden, das Thema, dass man diese Daten ja irgendwie nutzen will, dass man dafür

00:16:21: jetzt sehr viel Geld in die Hand nimmt, das investiert. Der Trend ist ja da und dann will

00:16:26: es natürlich auch genutzt werden und dann versucht man natürlich auch alle Brongen in

00:16:30: irgendeiner Weise damit mal zu bedienen und zu gucken, wo kann man eigentlich das Thema

00:16:35: Künstlingeinsetzen. Da sind wir dabei im Thema, wo stehen wir heute und was ist eigentlich der,

00:16:40: hört doch der Ausblick nach vorne. Wie kann man diese KI-Modelle, diese großen Datenmengen nutzen,

00:16:47: natürlich vor allen Dingen auch im Finanzmarktbereich, was ja unser Thema heute ist und zu sagen,

00:16:52: was gibt es so auch vielleicht allgemein für Trends. Noch mal im Thema Künstlingeins Hans Jörg,

00:16:56: da bist du ja tief drin und sicherlich am Puls der Zeit vielleicht magst du uns da einfach

00:16:59: noch mal einen Einblick geben in das Thema. Ja, sehr gerne Marcel. Was man beobachtet,

00:17:07: wie du es gesagt hast, ist ein Hype mit überzogenen Erwartungen. Das heißt, ich möchte kurz skizzieren,

00:17:13: was nicht eintritt. Also wir haben jetzt keine Weltbeherrschung durch die KI zu befürchten,

00:17:20: so einer Matrix oder The Creator. Das steht uns nicht bevor. Das heißt, wir werden auch entsprechend

00:17:31: Erwartungen haben, die enttäuscht werden. So jetzt muss man sich überlegen, was können denn diese

00:17:37: Verfahren? Wohin sind die denn gut? Und was wir bislang hatten, war, dass wir, sag ich mal,

00:17:43: aus strukturierten Daten eigentlich schon ganz gut Informationen rausziehen können. Nicht,

00:17:50: das sind so statistische Verfahren, neuronale Netze natürlich auch und auf strukturierten Daten

00:17:54: ging das schon lange eigentlich ganz gut. Und was jetzt dazu kommt, ist durch die, sag ich mal,

00:18:02: neueren Algorithmen, durch die Large Language Modelle, ist, dass wir immer besser darin werden,

00:18:07: Informationen auch aus unstrukturierten Daten herauszuziehen. Das heißt, diese Funktionen,

00:18:13: dass wir einem Modell ein längeres Textdokument geben als Kontext beispielsweise und dann

00:18:20: Fragen im Kontext dieses Dokuments stellen können. Das ist neu, das ist also eine echte nützliche

00:18:28: Funktionalität, vielleicht nicht weltbewegend, damit wird man wahrscheinlich die Welt nicht

00:18:32: beherrschen können, aber es ist eine sehr interessante Funktionalität, weil es uns erlaubt,

00:18:37: deutlich schneller zusammenzufassen und zwar sinnvoll zusammenzufassen, nicht nur zusammenzufassen,

00:18:43: dass wir, sag ich mal, ein paar Sätze einfach ausschneiden und das ist dann die Zusammenfassung,

00:18:48: sondern im weitesten Sinne aus einem Dokument oder auch aus hunderten, tausenden Millionen von

00:18:54: Dokumenten Informationen extrahieren und aggregieren. Und da wird es dann natürlich sehr

00:19:00: interessant, denn wir haben viele, viele Textdokumente. Wir denken mal an Jahresabstöße,

00:19:06: wir denken an Bilanzen, die man sich ein Stück weit dann doch irgendwie durchlesen muss,

00:19:10: also die man nicht nur komplett durch Zahlen erfassen kann, so schwache Signale das Rauschen

00:19:15: zu entdecken, das ist ja im Prinzip auch so ein bisschen die Aufgabe eines Analysten und das

00:19:21: wird dadurch einfacher werden. Das heißt, es wird für uns deutlich einfacher werden,

00:19:27: diese große Menge an unstrukturierten Daten, die wir haben, die ja täglich erzeugt werden,

00:19:33: ja zu analysieren und da entsprechend auch Informationen rauszuziehen, die uns natürlich

00:19:41: dann auch bei Investments entsprechend hilft. Also ich gebe einfach mal ein Beispiel, was man sich

00:19:46: vorstellen könnte, das Erkennen von Trends, sage ich mal, im Farmerbereich. Was ist da los? Kann

00:19:53: ich das vielleicht irgendwie quantifizieren? Naja, ich könnte in die entsprechenden Datenbanken

00:19:58: reingehen, in die entsprechenden Textdokumenten und einfach mal gucken, was wird da besonders

00:20:03: häufig zitiert, was ist da los? Und das ist schon, sage ich mal, etwas, was nicht nur eine

00:20:10: inkrementelle Verbesserung ist, sondern das ist wirklich neu und das werden wir in den nächsten

00:20:14: Jahren immer stärker sehen und da vermute ich geht da Trend hin. Ja, Hans-Jürg, das ist unglaublich

00:20:20: spannend. Du merkst auch, wie wir an deinen Lippen hängen, ja, das ist großartig. Ich will noch ganz

00:20:27: kurz auf ein Thema eingehen, nämlich du hast gesagt KI kann grundgernommen den Allerlisten

00:20:33: unterstützen, bei der Analyse, Fundamentalanalyse, Geschäftsmodellanalyse, Trends frühzeitig auch

00:20:38: zu erkennen und das sehen wir auch zum Beispiel bei einem ganzen Thema ESG. Wir glauben, dass ESG,

00:20:46: also Nachhaltigkeit und KI ein unglaublich gutes Match sind, zum Beispiel in der Analyse von

00:20:52: Nachhaltigkeitsberichten. Also ich kann mit Maschinenlearning ansetzen, Nachhaltigkeitsberichte

00:20:57: analysieren, kann also schauen, wo wird geschwafelt, auf der einen Seite, wo gibt es Redundanzen,

00:21:03: wo gibt es Doppelung und das sind unglaublich spannende Themen, das heißt, da sehen wir,

00:21:08: dass wir Effizienten steigern und Hans-Jürg, es wird in Zukunft viel viel wichtiger werden,

00:21:14: die richtigen Fragen zu stellen. Ja, vielen Dank Ron, für deine Ausführung. Noch mal eine

00:21:19: Nachfrage zum ganzen Thema, wie kann man das Thema Künstlinigenz eigentlich dann konkret im

00:21:24: Portfolio-Management einsetzen und was haben auch wir vielleicht konkret in diesem Bereich vor,

00:21:28: das ist ja vorhin schon gesagt, wie wir das schon einsetzen, wie auch die Historie ist, aber vielleicht

00:21:33: kommt da ja noch mehr. Auf jeden Fall, vielen Dank Marcel. Also zum einen so wie ich es beschrieben

00:21:38: hatte, das Thema Risikomanagement, also taktische Absicherung von zum Beispiel Aktienquoten in

00:21:44: Portfolien, um einfach den Anlageabfolg noch besser zu machen auf der einen Seite und auf

00:21:49: der anderen Seite ist das Thema ETF ja in aller Munde und die Frage, die sich natürlich viele

00:21:55: Investoren stellen, wie geht es da eigentlich weiter und da haben wir natürlich auch überlegt,

00:22:01: macht es nicht Sinn auch ETF-Portfolien aktiv zu steuern und das machen wir unter anderem eben

00:22:07: mit Hans Jürg, unserem Unternehmen Kinom, gemeinsam, dass wir die ETF, die einzelnen ETFs,

00:22:16: die einzelnen Märkte gemeinsam sozusagen mit einem Algorithmus steuern. Das könnte

00:22:22: vielleicht auch so ein Erfolgsfaktor in der Zukunft sein, wenn man nicht nur plump zum

00:22:27: Beispiel in den MSCI World oder in den S&P 500 investieren will. Ja vielen Dank auch dafür,

00:22:33: dass du uns da nochmal einen Einblick gibst und wir sind näher in uns im Ende des Podcasts

00:22:37: in großen Schritten und ich würde das Mikro zu mir nochmal kurz an Hans Jürg rüber geben,

00:22:42: ich schaue ihn gerade an und würde einfach mal bitten um ein Schlusswort, ein kleines von dir,

00:22:47: was zu erwarten ist, vielleicht nochmal ganz konzentriert zusammengefasst und wie wir auf

00:22:54: das Thema KI vielleicht in fünf Jahren gucken werden. Ja vielen Dank Marcel, sehr gerne auch.

00:23:00: Ja also was wir auf jeden Fall sagen können, es bleibt sehr, sehr spannend, es macht Spaß zur

00:23:05: Zeit im Bereich künstlicher Intelligenz, im Bereich neuronale Netze unterwegs zu bleiben,

00:23:09: zu sein. Ich nehme das auf, was du gesagt hast, Ron, es wird immer wichtiger, die richtigen Fragen

00:23:18: zu stellen. Ja das glaube ich auch, also wenn es irgendeinen Skill gibt, den man sich jetzt

00:23:22: aneignen sollte, ist es einem KI-Modell, einem Latch Language-Modell, die richtige Frage zu

00:23:29: stellen, denn die Antwort, die wird kommen vielleicht noch nicht perfekt, aber sie wird mit

00:23:35: immer besserer Genauigkeit aus auch unstrukturierten Daten herauszuziehen sein und das ist denke

00:23:41: ich das, was in den nächsten fünf Jahren immer wichtiger werden wird, was wir auch beobachten

00:23:47: werden, dass sich keiner mehr hinter irgendwelchen Textwüsten verstecken kann, so wird das ja

00:23:52: manchmal auch getan, man liefert erst mal 200 Seiten Text ab, weil man denkt, naja das versteht

00:23:57: sowieso keiner, liest sich keiner durch, das wird sich reduzieren, das heißt wir werden

00:24:02: schärfere und immer klare Informationen auch aus großem Textenmengen extrahieren können

00:24:08: und das natürlich dann auch Portfoliomanagement und Imrisikomanagement uns zu Nutzen machen

00:24:13: können. Super, vielen Dank und damit sind wir jetzt auch am Ende unserer Podcasts. Vielen

00:24:18: Dank fürs Zuhören, liebe Zuhörerinnen und Zuhörer und ja ich freue mich dann auf die

00:24:22: nächste Folge mit Ihnen. Bis dahin wünsche ich Ihnen eine schöne Zeit.

00:24:27: Investors Talk Impulse für Ihre Geldanlage ist ein Podcast der NordLB. Wir hoffen,

00:24:33: diese folgert Ihnen gefallen. Wenn Sie Feedback haben, freuen wir uns über Ihre Nachricht

00:24:37: unter vermögensverwaltung-vertrieb@nordlb.de

00:24:42: [Musik]

00:24:44: [Musik]

00:24:46: [Musik]

00:24:47: [MUSIK]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.