Die nächste Finanzkrise voraussagen?!

Da wo die meisten eine Kehrtwende machen, wird in diesem Blogbeitrag tief eingetaucht. Volkswirtschaft! Ein komplexes Thema, dass von Methodik, Statistik und Zahlen lebt. Welche besondere Rolle Machine Learning in diesem Bereich spielen kann und bereits spielt, wird in diesem Blogbeitrag erläutert.

Ein Einsatzgebiet von Machine Learning unter vielen, ist die Prognose in der Makroökonomie. Die höchst komplexe Volkswirtschaft und die Entwicklung dieser ist schwer nachzuverfolgen, zu analysieren und vorauszusehen. Unzählige Faktoren und Ereignisse, inner- und außerhalb einer Volkswirtschaft, haben Einfluss auf diese. Ebenso gibt es unzählige Modelle und Ansätze, um für volkswirtschaftliche Entwicklungen, wie zum Beispiel die Inflation, Prognosen zu erstellen. Prognosen können sich mit der Arbeitslosenquote, Angebots- und Nachfragesteuerung, In- und Deflation uvm. beschäftigen. Abseits des akademischen Interesses sollen sie in der Monetär-Politik eine empirisch begründete Preissteuerung und -stabilisierung, sowie Investitionspolitik ermöglichen.[1]

Inflation in den USA

In vielen Bereichen gibt es heute bereits neben klassischen anerkannten Methoden der Prognose vergleichbare Machine-Learning-Ansätze. So wurden unter anderem bei einer Untersuchung verschiedener Ansätze für die Inflation in den USA, Machine-Learning-Methoden und Ansätze integriert. Die Abweichungen der unterschiedlichen Ansätze voneinander und der realen Entwicklung war nicht signifikant, d.h. die Prognosen von Computern sind schon heute ähnlich genau, wie die von Menschen.[2]

Angebots-Nachfrage-Politik

Eigene Machine-Learning-Ansätze wurden auch in der Angebots-Nachfragepolitik verwendet. Das Modell kann Überproduktion auf volkswirtschaftlicher Ebene diagnostizieren. Mit der eingesetzten Methode erreichte das Forscherteam eine Gesamtgenauigkeit in der Vorhersage von 73,3%, welche höher ist, als bei klassischen Ansätzen. Von 14 Fällen, in dem das System eine Überproduktion meldete, waren 8 zutreffend.[3]

Arbeitslosenrate

Ein relevantes Maß für eine Volkswirtschaft ist immer auch die Arbeitslosenrate. Ein Forecasting-Ansatz mit Machine Learning ist signifikant genauer, als vergleichbare Ansätze, ohne Machine Learning. Das fanden Forscher unter der Führung von Aaron Smalter Hall, einem Doktor der Philosophie und Informatiker, heraus.

Ihnen gelang es, mittels eines Algorithmus aus Datensätzen der Vergangenheit Variablen und ihre Bedeutung für die Arbeitslosenrate, herauszufiltern. Die akkurate Filterung solcher komplexen Datensätze wird erst durch den Einsatz von Machine Learning ermöglicht. Es zeigte sich, dass einige Variablen, wie zum Beispiel „Durchschnittliche Zeit in Arbeitslosigkeit“ konstante Faktoren waren. Schwächer und nicht konstant relevant war dagegen die Nachfrage, gemessen an dem „Consumer Sentiment Index“ für die Arbeitslosenrate. Diese Erkenntnisse ermöglichen ein besseres Verständnis von Entwicklungen in der Ökonomie. Gleichzeitig konnten Prognosen genauer werden.[4]

Fazit

Machine Learning hat mittlerweile nicht nur eine höhere Genauigkeit in der Vorhersage. Arbeitslosenraten, Inflation und die Angebotssteuerung lassen sich präzise mit Machine-Learning-Software forecasten. Gleichzeitig werden Erkenntnisse gewonnen. Zum Beispiel durch die Aufdeckung von Datenmustern, wie zum Beispiel der unterschiedlich relevanten Einfluss-Faktoren auf die Arbeitslosenrate durch Hall. Die, mit der zum Menschen nicht vergleichbaren, kognitive Rechenfähigkeit kann Datensätze aufschlüsseln und dadurch neues Wissen generieren. Damit wird durch die Forschung und die daraus resultierende Weiterentwicklung eine große Chance für Wissenschaft und Wirtschaft geschaffen. Wie groß die Perspektive und der Gewinn durch Machine Learning in sein kann, wissen Wissenschaftler bis heute nicht. Technisch sind Entwicklungen von Nöten, um große Visionen erfüllen zu können. Die großen Erwartungen drücken sich in dem folgenden Zitat aus.

“Another thing I’ve learned is that it’s good to be prepared, even if you don’t know what’s coming. Collect all your data now. We don’t know yet what will be useful in five years.” [5]

Vorrausschauend sollen alle Daten gesammelt werden, die gesammelt werden können, weil sie eventuell in Zukunft gebraucht werden.

Stephan Kolassa bezieht sich auf ein Entwicklerteam, welche Probleme bei der Entwicklung eines Algorithmus hatten. Sie hatten Absatzzahlen eines Produktes. Ihnen fehlten jedoch Daten zu Werbekampagnen, um die Verkaufszahlen zu interpretieren. Die Möglichkeiten, komplexe Daten mit Hilfe von Machine-Learning-Technologie auszuwerten, wird uns mit in ein neues Zeitalter begleiten, das von Big Data gekennzeichnet ist.

______________________________________________________________________

[1] Vgl. Vasilios Plakandaras and others, ‘The Informational Content of the Term Spread in Forecasting the US Inflation Rate: A Nonlinear Approach: Term-Spread in Forecasting the U.S. Inflation Rate’, Journal of Forecasting, 36.2 (2017), S. 109.

[2] Vgl. Plakandaras and others, S. 112.

[3] Vgl. Periklis Gogas and others, ‘Yield Curve and Recession Forecasting in a Machine Learning Framework’, Computational Economics, 45.4 (2015), S. 646 .

[4] Vgl. Aaron Smalter Hall, ‘Machine Learning Approaches to Macroeconomic Forecasting’, The Federal Reserve Bank of Kansas City Economic Review, 2018, S. 18

[5] Stephan Kolassa, ‘Forecasting the Future of Retail Forecasting’, International Institute of Forecasters, The International Journal of Applied Forecasting.52 (2019), S.16–17.

Print Friendly, PDF & Email

3 thoughts on “Die nächste Finanzkrise voraussagen?!

  1. Marcus Birkenkrahe

    Was ist denn die Genauigkeit der Vorhersage von Überproduktion “bei klassischen Ansätzen”? Das Beispiel der Fälle (8 von 14) enthält aber nicht die Zahl von 73.3% (das sind 57%) – Beispiel hier etwas zu kurz für meinen Geschmack. Aber vielleicht verstehe ich auch einfach zu wenig von Volkswirtschaft.

  2. Karl@hwr

    Die zwei Zahlen, auf die sie sich beziehen, beschreiben den gleichen Algorithmus, aber unterschiedliche Funktionen von diesem. Insgesamt beträgt die Forecasting-Genauigkeit 73.3%. Das schließt alle Entwicklungen auch abseits der Überproduktion ein, zum Beispiel eine Unterproduktion. Unabhängig von der Gesamtprognose, haben wir die Vorhersage von Überproduktion gesondert betrachtet. In 14 Fällen, in denen der Algorithmus Überproduktion meldete, waren 8 zutreffend. Der Forschungsschwerpunkt der Studie ist die Prognose von Überproduktionen. Deswegen wurde diese Kennzahl gesondert benannt. Konnte ich ihre Frage beantworten?

    1. Marcus Birkenkrahe

      Ja, vielen Dank!

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.