• DAX----
  • ES50----
  • US30----
  • EUR/USD----
  • BRENT----
  • GOLD----

Die KI-Front der ökonomischen Theorie

Volkswirtschaft
Die KI-Front der ökonomischen Theorie
01/2020
Thomas J. Sargent
Project Syndicate

@ Feedback an Redaktion

Seit dem 19. Jahrhundert entwickeln Mathematiker und Statistiker mächtige Methoden zur Erkennung und Interpretation von Mustern in ungeordneten Daten.

14.01.2020 | 08:00 Uhr

Allerdings wurde das, was die ökonomische Forschung daraus über die Welt lernen konnte, bislang durch zwei große Hindernisse beschränkt: Die Datensätze waren klein und kostenintensiv, und die Computer waren langsam und teuer. Diese Hindernisse sind durch stärkere Rechenleistung drastisch geschrumpft, also haben die Ökonomen natürlich damit begonnen, große Datenmengen und künstliche Intelligenz zu verwenden, um damit in sämtlichen Aktivitäts- und Ergebnisbereichen nach Mustern zu suchen.

Die Zusammenstellung von Daten und die Erkennung von Mustern spielen auch in der Physik eine wichtige Rolle. Der Physiker Richard Feynman verglich die natürliche Welt einst mit einem Spiel der Götter: „Wir kennen die Regeln des Spiels nicht, aber wir haben die Möglichkeit, von Zeit zu Zeit – vielleicht in einer kleinen Ecke – auf das Spielbrett zu schauen. Und anhand dieser Beobachtungen versuchen wir herauszufinden, was wohl die Regeln sein könnten.“

Feynmans Metapher ist eine buchstäbliche Beschreibung dessen, was viele Ökonomen tun. Wie Astrophysiker sammeln wir üblicherweise nichtexperimentelle Daten, die von Prozessen erzeugt werden, die wir verstehen wollen. Der Mathematiker John von Neumann definierte ein Spiel als (1) eine Liste von Spielern; (2) eine Liste von Handlungen, die jedem Spieler möglich sind; (3) eine Liste dessen, wie der Nutzen jedes Spielers von den Handlungen aller Spieler abhängt; und (4) ein Timing-Protokoll, das uns mitteilt, wer wann welche Wahl trifft. Diese elegante Definition beinhaltet auch, was wir unter einer „Verfassung“ oder einem „Wirtschaftssystem“ verstehen: eine soziale Übereinkunft darüber, wer wann welche Wahl trifft.

Wie Feynmans metaphorischer Physiker haben auch wir die Aufgabe, aus beobachteten Daten ein „Spiel“ zu postulieren – das für die Ökonomen die Struktur eines Marktes oder eines Systems von Märkten ist. Aber dann gehen wir einen Schritt weiter, den die Physiker nicht gehen: Wir denken darüber nach, wie verschiedene „Spiele“ zu besseren Ergebnissen führen können. Das heißt, wir wollen Experimente durchführen, um zu untersuchen, wie eine hypothetische Veränderung der Spielregeln oder des beobachteten Verhaltensmusters einiger „Spieler“ (wie Regulierungsbehörden oder Zentralbanken) die Verhaltensmuster der übrigen Spieler beeinflussen.

Also versuchen die „Konstrukteure struktureller Modelle“ in der Ökonomie, aus historischen Verhaltensmustern gleichbleibende Parameter für hypothetische (und oft historisch beispiellose) Situationen herzuleiten, in denen eine Regierung oder Regulierungsbehörde einem neuen Regelwerk folgt. Laut einem chinesischen Sprichwort hat die Regierung Strategien, und die Bevölkerung hat Gegenstrategien. „Strukturelle Modelle“ suchen solche gleichbleibenden Parameter, um Regulierungsbehörden und Marktdesignern zu helfen, in historisch neuartigen Situationen Datenmuster zu verstehen und vorherzusagen.

Die Herausforderung, strukturelle Modelle zu erschaffen, wird von den schnell fortschreitenden Bereichen der KI unterstützt, die sich auf die Erkennung von Mustern beschränken. Ein gutes Beispiel dafür ist AlphaGo: Das Team von Computerwissenschaftlern, das den Spielalgorithmus für das chinesische Brettspiel Go entwickelt hat, kombinierte auf geschickte Weise einige Werkzeuge von Spezialisten in den Bereichen der Statistik, Simulationstheorie, Entscheidungstheorie und Spieltheorie. Viele der Werkzeuge, die optimal verwendet wurden, um einen überragenden künstlichen Go-Spieler zu erschaffen, sind auch die wichtigsten Hilfsmittel für Ökonomen, um strukturelle Modelle zu entwickeln oder makroökonomische und industrielle Organisation zu untersuchen.

Natürlich unterscheidet sich die Ökonomie von der Physik in einem wesentlichen Punkt: Während Pierre-Simon „den gegenwärtigen Zustand des Universums als Effekt seiner Vergangenheit und die Ursache seiner Zukunft“ betrachtete, ist in der Ökonomie das Gegenteil der Fall: Das, was wir jetzt tun, wird von dem bestimmt, was andere Menschen unserer Meinung nach tun werden. Normalerweise verwenden wir persönliche Theorien darüber, was andere Menschen wollen, um vorherzusagen, was sie tun werden. Haben wir gute Theorien über andere Menschen, bestimmt das, was sie wahrscheinlich tun werden, die Handlungsweisen, die wir von ihnen erwarten. Diese Denkweise, die manchmal „rationale Erwartung“ genannt wird, verdeutlicht die Art, wie die Zukunft in ökonomischen Systemen „die Vergangenheit verursacht“. Dies zu berücksichtigen, ist für die Entwicklung „struktureller“ ökonomischer Modelle von entscheidender Bedeutung.

Beispielsweise werde ich mich nur dann an einem Ansturm auf eine Bank beteiligen, wenn ich erwarte, dass auch andere Menschen dies tun. Ohne Einlagensicherung haben Kunden einen Anreiz, Banken, die für einen Ansturm anfällig sind, zu vermeiden. Mit Einlagensicherung kümmern sich die Kunden nicht darum und bleiben ruhig. Andererseits werden die Bankenbesitzer, wenn die Regierung die Einlagen sichert, ihre Gelder so umfangreich und riskant wir möglich anlegen, was die Kunden dann auch nicht stört. Ähnliche Wechselwirkungen bestehen zwischen Arbeitslosen- bzw. Arbeitsunfähigkeitsversicherung und offiziellen Rettungspaketen der Regierung oder der Unternehmen. Versichert man Menschen gegen unglückliche Umstände, könnte das ihren Anreiz verringern, selbst Vorsorge zu treffen.

Allgemeiner ausgedrückt: Mein Ruf ist das, was andere von mir erwarten. Ich muss die Wahl treffen, diese Erwartungen zu bestätigen oder zu enttäuschen. Diese Erwartungen haben einen Einfluss darauf, wie sich andere zukünftig verhalten. Zentralbanker denken über so etwas viel nach.

Wie die Physiker verwenden auch wir Ökonomen Modelle und Daten, um zu lernen. Wenn wir nicht akzeptieren, dass unsere alten Modelle keine neuen Daten erklären können, lernen wir keine neuen Dinge. Daraufhin konstruieren wir neue Modelle – im Licht dessen, wie ihre Vorgänger gescheitert sind. Dies erklärt auch, wie wir aus vergangenen Depressionen und Finanzkrisen gelernt haben. Und mithilfe großer Datenmengen, schnellerer Computer und besserer Algorithmen können wir, wo wir vorher nur weißes Rauschen wahrgenommen haben, jetzt Muster erkennen.

Thomas J. Sargent
Thomas J. Sargent
Thomas J. Sargent ist Professor für Ökonomie an der New York University und Senior Fellow an der Hoover Institution

Thomas J. Sargent ist Professor für Ökonomie an der New York University und Senior Fellow an der Hoover Institution.

Copyright: Project Syndicate

Diesen Beitrag teilen: