Dieser Artikel präsentiert in geraffter Form die sogenannte quantitative Revolution des Finanzwesens und dessen Crashs, aber auch dessen Widersprüche und Defizite als System. Anstatt Informationsgesellschaft sollten wir eigentlich Zeitalter des informationstechnisch gestützen Finanzkapitalismus sagen. Die paradigmatischen Leittechnologien - im technopolitischen Sinn - sind die Finanzmärkte und ihre Tools - Formeln, Bildschirme, Netzwerke, Computer. Diese "Revolution" ist begründet auf Finanzmathematik und die Computerisierung und Vernetzung der Börsen; ideologisch vollzog sie sich gleichzeitig mit dem Aufstieg des Neoliberalismus.
Dieser Artikel kombiniert Material aus technopolitischen Forschungen ebenso wie aus dem Radiokolleg "Die Welt der Finanzindustrie, Mythen, Märkte, Mathematik." Sendetermin: Montag 10. Dezember 2012 bis Donnerstag 13.Dezember, jeweils ab 09:05 auf ORF Ö1.
Der informationsgestützte Finanzkapitalismus
Es ist wohl kein Zufall, dass der Begründer der Finanzmathematik Louis Bachelier seine Dissertation "Theorie der Spekulation" im Jahr 1900 veröffentlichte. Es war auch damals eine Phase, in der das Finanzkapital eine wesentliche Rolle spielte. Rudolf Hilferdings Buch "Das Finanzkapital" erschien 1910, das Buch "Imperialism" von John Hobson 1903. Beide dienten für Lenins Bestseller "Imperialismus, the Highest Stage of Capitalism" als Quellen.
Wie Weltsystemtheoretiker Giovanni Arrighi mit Verweis auf Historiker der Annales-Schule Fernand Braudel feststellte, ist die übertriebene Hinwendung auf den Finanzkapitalismus ein Zeichen der hegemonialen Zeitenwende. Das Empire nutzt den Umstand, dass sich die zentralen Institutionen der Ordnung des jeweiligen Systems auf seinem Territorium befinden, und casht noch einmal ab, während die wirtschaftliche Dynamik eigentlich bereits wo anders liegt. Damals war es das britische Empire, dessen Abstieg einsetzte, während es noch vom eigenen Glanz geblendet war. Heute jedoch zeichnet sich der Abstieg der USA bei gleichzeitiger Aufwertung Chinas ab. Damals verließ sich England industriepolitisch noch viel zu sehr auf seine früheren Innovationen aus dem 19. Jahrhundert. Die USA und Deutschland zogen jedoch in den Bereichen Stahl, Elektrizität und Chemie an England vorbei, und das vor allem weil sie die effizienteren Innovationssysteme hatten. Diese waren, um es kurz zu machen, gegründet auf die systematische Anwendung der Forschung für industrielle Zwecke.
In dieser Epoche diente das Finanzkapital vor allem der Expansion des Kapitals, entweder in neue Geschäftszweige oder in neue Länder und Regionen. In diesem überhitzten Klima postulierte Louis Bachelier, dass die Preise von Aktienoptionen sich verhalten wie Partikel in brownscher Bewegung. Optionen sind Optionen auf Basiswerte, oder auch, wie es häufig heißt, ein "Zugrundeliegendes". Dabei kann es sich um eine Aktie handeln oder auch Staatsanleihen, Währungen, Rohstoffe. Der Großteil der Spekulation an den Börsen erfolgt mittels Optionen, nicht mit den Basiswerten. Die Preise dieser Optionen lassen sich nicht exakt vorhersagen aber ihre Wahrscheinlichkeiten ermitteln. 1905 wurde ein mathematisches Modell für brownsche Bewegung unabhängig von Bachelier von Albert Einstein entdeckt und die Arbeit des wenig bekannten Bachelier somit bestätigt. Mathematik-Genie und Erfinder der Kybernetik Norbert Wiener publizierte 1923 ein probabilistisches Modell für die Berechnung der Pfade von Partikeln in brownscher Bewegung, das später nach ihm Wiener-Prozess genannt wurde. Die Denkweise dahinter ist die, dass der Pfad jedes sichtbaren Teilchens abhängig ist von Impulsen wesentlich kleinerer Teilchen.
1973 veröffentlichten Fischer Black und Myron Samuel Scholes die sogenannte Black-Scholes Formel (ursprünglich gemeinsam mit Robert C. Merton entwickelt, der sich jedoch entschloss, separat zu publizieren). Dieses Modell erlaubte es, die Preisentwicklung von Finanz-Optionen vorauszuberechnen, wobei angenommen wurde, dass diese Wiener-Prozessen folgen, so dass sich "die Aktienpreise analog einer geometrischen brownschen Bewegung verhalten" (Wikipedia).
Etwas genauer ausgedrückt, erlaubt es die Black-Scholes-Formel, Zusammenhänge zwischen einzelnen Parametern, die den Preis einer Option bestimmen, und deren zukünftigem Preis herzustellen. Damit können zwar keine exakten Preise vorhergesagt werden, aber Beziehungen zwischen Parametern und dem Preis eines Zugrundeliegenden über die Zeit. Wesentlich ist, dass dieses Modell das Hedging, den Ausgleich eines Risikos durch ein anderes, ermöglicht.
Nach einer verbreiteten Ansicht war die Black-Scholes-Formel mit verantwortlich für den Black Monday, den großen Börsencrash vom 19. Oktober 1987. Ein unvorhergesehenes Ereignis, in diesem Fall der Sinkflug der Preise an der Börse von Hongkong am Freitag davor, veranlasste die verwendeten Programme simultan auf "verkaufen" zu stellen.
Im Jahr 2010 gab es einen sogenannten Flash Crash an den US-Aktienmärkten. Der Börsenindex S&P 500 - der Index der 500 größten Industrieunternehmen - verlor beinahe 10 Prozent in weniger als 4 Minuten. Anlass war zunächst eine außergewöhnlich hohe Transaktion, die dazu führte, dass viele Computerhandelsprogramme sich automatisch aus dem Markt zurück zogen und diesem damit die Liquidität entzogen.
In beiden Fällen hatte ein Ereignis, dessen Wahrscheinlichkeit als extrem unwahrscheinlich eingestuft worden war, die Software "aus dem Konzept gebracht" und es kam zu einem kollektiven Marktversagen. Womit die Wahrscheinlichkeitsrechnung nur unzulänglich umzugehen versteht, ist das Auftreten des Unwahrscheinlichen, des geschichtlichen Events, des Einmaligen. Naseem Taleb hat dafür den Begriff "Black Swan"
Die Informationsrevolution
An dieser Stelle sei es erlaubt, eine Klammer aufzumachen. Jene brownsche Bewegung auf der Modelle für den Finanzmarkt aufbauen, inspirierte auch den englischen Physiker James Clerk Maxwell in "The Theory of Heat" (1870) zu einem Gedankeninstrument, das später maxwellscher Dämon genannt wurde. Dieser wäre in der Lage positive von negativen Teilchen zu sortieren und in unterschiedliche Abteile eines Behälters zu verbannen, so dass sich ein Energieunterschied einstellt, der sich nutzen lässt und somit der Entropie Einhalt gebietet. Leo Szilard zeigte 1929, dass für das Sortieren der Teilchen eine Einheit nötig ist, die sich Information nennt. Die Energiegewinnung lässt sich nur realisieren, wenn die Erlangung der Information gratis ist (im physikalischen Sinn, also keinen Energieaufwand verursacht).
Die Theorie der Information wurde dann simultan von Norbert Wiener und Claude Shannon mit einem gewissen Grad an Abstimmung entwickelt. Abstimmung insofern, als es bereits während des Zweiten Weltkrieges Treffen einer sogenannten "teleological society" gab, Treffen von Größen des militärisch wissenschaftlichen Apparats der Weltmacht USA wie, neben Wiener und Shannon, John von Neumann, Warren McCulloch u.a.m. Ähnliche Treffen hab es später in größerem Maßstab bei den Macy-Konferenzen. Was ich damit postuliere ist keine Verschwörung, sondern dass es hier dazu kam, die Sprachregelung für die neue Konzeption der "Information" zu entwickeln.
Es zeigt sich, dass der Begriff der Information eng an die Physik und insbesondere an die Thermodynamik angelehnt ist. In seinem Buch Cybernetics (second Edition 1961) schrieb Wiener, "we had to develop a statistical theory of the amount of information, in which the unit amount of information was that transmitted as a single decision between equally probable alternatives."(S. 10 Hervorhebung im Original).
Shannon hat die Information als die inverse Wahrscheinlichkeit der Auswahl aus einem vorgegebenen Zeichenuniversum verstanden. Er beschäftigte sich mit der Übertragung von Zeichen zwischen Quelle und Senke. Auch Wiener verstand die Information als Auswahl, jedoch in einem größeren Kontext. Für ihn wurde - angespornt von Erwin Schrödingers "Was ist Leben" - das Leben selbst zur Information, zu jener Kraft, die lokal die Entropie umkehren kann. Leben ist etwas, das Ordnungen schafft, und somit stabile Gleichgewichtszustände auf einem höheren Niveau, als wäre es allein physikalischen Kräften überlassen.
Es stellt sich also heraus, dass nicht nur Informationstheorie und Börsen, sondern auch die Materie und schließlich das Leben selbst sich in ihrem innersten Wesen gleichen, insofern sie von der Wissenschaft auf der Basis einer probabilistischen Revolution betrachtet werden. Alles basiert auf denselben mathematischen Formeln für stochastische Prozesse. Ohne nun damit eine gewichtige Kritik zu verknüpfen, sollte hervorgehoben werden, dass erstens sehr ähnliche epistemologische Grundannahmen für sehr verschiedene Dinge hergenommen werden, was im Einzelfall einer dringenden Überprüfung bedarf.
Zeitalter der Finanzialisierung
Die Veröffentlichung der Black-Scholes-Formel fiel zusammen mit dem was man als die Take-Off-Phase des neoliberalen Informationsparadigmas bezeichnen könnte: zwei Jahre nach der Produktion des ersten Mikrochips 1971; zwei Jahre nach dem Ende fester Währungskurse und dem Beginn der Spekulation in Währungs-Optionen; zugleich mit der Einführung elektronischer Börsen und Nachrichtensysteme wie Reuters und Bloomberg; und das als die Theorien über das segensreiche Wirken des freien Marktes von Friedrich Hayek und Milton Friedman immer mehr Gehör fanden.
Ab dem Ende der 1970er Jahre wurden neo-liberale Wirtschaftstheorien durch Reagan und Thatcher mit eiserner Faust implementiert. Es gab also einen parallelen Prozess der Informatisierung der Börsen, der weltweiten Vernetzung dieser Handelsplätze und des Siegeszugs des Neoliberalismus. Diese Aspekte des Wandels wurden z.B. von David Harvey in mehreren Büchern schon sehr gut beschrieben.
Eine Narration, die aber noch fehlt, ist, welche Rolle die Information im Szenario des Neoliberalismus eingenommen hat. Meine These lautet, dass sich eine seltsame Synthese einstellte, von einem wissenschaftlichen Positivismus, der zugleich spirituelle Züge trug, mit einem starken Vertrauen in die Immaterialität, in die Mathematik, die Formeln, Theorie, d.h. im Prinzip klassische Formen des Idealismus. Ich möchte das provisorisch einen neo-platonischen Marktmystizismus nennen (dessen Konturen noch weiter auszuführen bleiben).
Mir scheint, dass es in dieser Phase des Neoliberalismus eine parallele Tendenz zur Fetischisierung der Information und der Ausblendung der Arbeit gibt. Die Siege Reagans und Thatcher's über die Fluglotsen und Minenarbeiter (siehe Harvey) sind zu Mahnzeichen dieses Umschwungs geworden. Dahinter steht eine tiefere Bewegung in kapitalistischen Gesellschaften: der Triumph der intellektuellen über die manuelle Arbeit verstanden als Sieg des Managements über die Arbeiter. Dieser Triumph wird durch keine andere Maschine besser verkörpert als den Computer. Es ist der Glaube an die Information als verdinglichte automatisierte Arbeit, die den fantastischen Höhenflug des Kapitalismus in der Phase der "digitalen Revolution" der 1990er Jahre symbolisierte. Inzwischen wird kräftig zurückgerudert, längst wurde die reale Welt wieder als Quelle von Wert erkannt, aber auch als verschiebbare Grenze der Fähigkeiten von Computern. Trotzdem wäre es mir ein Anliegen, diese Etappe in einer zukünftigen Arbeit näher zu beleuchten: Wie konnte eine fetischisierende Betrachtung der Information zum innersten Bestandteil der neoliberalen Ideologie werden?
Dieser Trick konnte nur gelingen, indem vorgemacht wurde, dass die Arbeit verschwunden sei. Genau hier sind wir aber im Bereich des Fetisch-Denkens. Denn die Arbeit ist nicht verschwunden, sie hat sich nur verändert. Sehr viel Industriearbeit ist abgewandert, während neue Informationsarbeitsplätze entstanden. An der Spitze der Pyramide sind die Finanzmärkte, wo man glaubt, das Geld für sich arbeiten lassen zu können. Tatsächlich aber ist es weiterhin die Arbeit von Mensch, Tier und Maschine, die Werte schafft. Auch wenn der Maschinenanteil immer höher geschraubt wird, so läuft doch weiterhin ohne menschliche Wärter im Maschinenzoo gar nichts. Auch wenn wir heute wissen, dass die Idee des Fetischismus wie sie zu Marx' Zeiten existierte, veraltet ist, so ändert das nichts am Grundgedanken: dass der quasi übernatürliche Glaube an Dinge oder zur Dinghaftigkeit erstarrter Konzepte die wahren Beziehungen zwischen Menschen verschleiert. Diese Dinge mögen die geneigten Leser_innen im Hinterkopf behalten, wenn wir uns nun mehr in medias res bewegen.
Der Markt als Lebensform
Über die letzten 10 bis 15 Jahre hat die Soziologie des Finanzwesen
Knorr Cetina untersuchte Trading Rooms größerer Investmentbanken. Hier sind die Arbeitsplätze um sogenannte Desks angeordnet, an denen jeweils ein bestimmtes Produkt oder eine Gruppe von Derivaten gehandelt wird. Jeder Trader hat vier bis sechs Schirme, die wiederum in viele Segmente aufgeteilt sind. Hier sehen sie den Markt, ihre eigenen Transaktionen und Streams an vorgefilterten Nachrichten aus aller Welt, aufbereitet von Unternehmen wie Reuters und Bloomberg.
Knorr Cetina hat dafür den Begriff der skopischen Medien eingeführt. Diese fassen zusammen und projizieren, was anderswo geschieht. Sie leisten es, gewisser maßen in Echtzeit eine inverse Projektion der gesamten Welt aufzubauen. Denn für die Trader ist "alles" von Bedeutung, was passieren kann, ob Naturkatastrophen oder politische Ereignisse.
Daniel Beunza hat ebenso wie Karin Knorr Cetina eine auf teilnehmender Beobachtung beruhende Studie gemacht. In seinem Fall handelte es sich jedoch um ein kleineres, spezialisiertes Unternehmen. "Zum Unterschied von einer weit verbreiteten Wahrnehmung, dass es im Finanzsektor um Geschwindigkeit und Information ginge, habe ich herausgefunden, dass es im Spitzensegment dieser Industrie um Kreativität und Interpretation geht. Es geht darum, interessante Beziehungen zwischen verschiedenen Aktien zu eruieren," erklärte Beunza im Interview mit dem Autor.
Im Kern geht es immer um "Arbitrage". Arbitrage im klassischen Sinn würde bedeuten, dass eine Anlage in London billiger ist als in New York. Wer über die entsprechende Information verfügt, kann sich diesen Preisunterschied zunutze machen. Doch auf Grund der Informatisierung der Märkte, des Umstandes, dass alle Computer haben und auf dieselben Informationen auf den Bildschirmen zeitgleich zugreifen können, sind die Zeitfenster für diese Form der Arbitrage extrem kurz geworden.
Aus finanzmathematischer Sicht ist es hingegen so, dass Arbitragefreiheit zu den Grundannahmen im Modell gehört. Walter Schachermayer, Professor für Mathematik und Experte für Finanzmathematik an der Uni Wien weist darauf hin, dass Arbitrage der Versuch ist, in einem unsicheren Environment sichere Gewinne zu machen. Und das gibt es nicht, zumindest nicht, wenn man an effiziente Märkte glaubt. In dieser Hinsicht ist die Finanzmathematik ein Kind der neoklassischen Ökonomie, deren Preisbildungstheorie sie übernommen hat. Wir haben es also mit der abstrakten Welt der von der österreichischen Schule der Neoklassik entwickelten Grenznutzentheorie zu tun. Dieser beruht auf der Annahme des Homo Ökonomikus, der, wie Kulturwissenschafter Joseph Vogl sagt, zur "zentralen Gestalt" kapitalistischer Gesellschaften wurde.
An den Finanzmärkten gibt es nun vereinfacht gesprochen zwei Tendenzen, wie man versucht, Arbitrage zu ermöglichen. Die einen versuchen sich in statistischer Arbitrage, indem sie versuchen Marktineffizienzen auszunutzen. Diese bestehen aber nur für sehr kurze Zeit, deshalb der Trend zu High-Frequency-Trading, dem softwaregesteuerten Handel in extrem kurzen Zeitabständen.
An der Spitze des Marktes, bei den exklusiven Hedge-Funds, versucht man jedoch etwas anderes. "Sie interessieren sich nicht für den Gesamtwert einer Aktie wie z.B. die IBM-Aktie. Sie zerlegen das Ganze das IBM ist in verschiedene Teile und untersuchen diese Aspekte: die Tatsache, dass es ein amerikanisches Unternehmen ist, dass es ein Technologieunternehmen ist, dass die Aktie als Teil eines bestimmten Index gehandelt wird, usw.," erklärt Daniel Beunza. Indem sie nun die Black-Scholes Formel bzw. Weiterentwicklungen derselben verwenden, können sie Beziehungen herstellen zwischen den Parametern aus denen Preise resultieren und auf dieser Grundlage Arbitrage betreiben.
Die Trader greifen auf spezielle Visualisierungen zu und konfigurieren ihre Bildschirme selbst. Mit ihren raffinierten Tools zerlegen sie einzelne Derivate in verschiedene Aspekte und erzielen Gewinne, indem sie Arbitrage-Bedingungen zwischen diesen finden. Sie spekulieren also nicht auf den Preis einer Option, sondern auf Zusammenhänge zwischen den Wahrscheinlichkeiten von Parametern, aus denen die Preise resultieren. Solche "Spiele" gibt es in ganz vielen Varianten, wie z.B. Merger-Arbitrage.
Die Händler, die mit solchen komplexen Strategien arbeiten, unterscheiden sich von den Klischees der Börsenfilme aus den 1980er Jahren, unterstreicht Beunza. Es sind immer weniger "Lads" und es geht immer ruhiger zu, umso höher der Einsatz von Technologie und Finanzmathematik. "Diese Leute müssen zur Reflexion fähig sein," erklärt Beunza, "und an Orten wie New York oder London leben, damit sie sich weiter entwickeln können."
Manche von ihnen lesen französische poststrukturalistische Philosophie, wie z.B. Elie Ayache. Der gebürtige Libanese studierte Mathematik und Physik an der Ecole Polytechnique in Paris und wurde von einer Pariser Bank als Optionshändler angeheuert. Der Börsenplatz an dem er arbeitete funktionierte damals noch nach dem alten Prinzip der "open out-cry markets" (dtsch. Parketthandel).
Im Pit - einer kreisförmigen Plattform im Zentrum einer Vertiefung im Raum - kommunizieren die Händler mit Handzeichen sowie indem sie sich Preise zurufen. Dabei unterscheidet man zwischen Brokern, die im Auftrag von Kunden Positionen nehmen, und sogenannten Market Makern, den Marktmachern. Diese agieren entweder im Auftrag von Banken und Investmenthäusern oder handeln auch mit eigenem Kapital. Sie sorgen dafür, dass der Markt liquide bleibt, indem sie einen Kaufs- und Verkaufspreis nennen. Dafür werden sie von den Märkten selbst oft mit Diskonten belohnt.
Längst hat Elie Ayache den Parketthandel aufgegeben und betreibt nun eine Firma, die Software für die Bewertung von Optionen entwickelt. Die Erfahrungen als Market Maker auf dem Parkett haben ihn jedoch tief geprägt. Das Buch "Black Swan" von Naseem Taleb, mit dem Ayache persönlich bekannt ist, hat in jüngster Vergangenheit viel Aufmerksamkeit erfahren. "Unabhängig davon welche Theorie du hast, die Wahrscheinlichkeit ist die, dass das Ereignis, das wirklich signifikant sein wird, nicht Teil deines Modells sein kann, sondern dieses ruiniert," meint Elie Ayache. Seine Kritik ist, dass Taleb nicht weit genug geht: "Man sollte solchen Ereignissen gar keine Wahrscheinlichkeit zuweisen, denn sie existieren außerhalb der Domäne der Wahrscheinlichkeit. Es ist ein Ereignis, das dein ganzes Modell verändern wird."
Für Elie Ayache ist die Schlussfolgerung, dass die Finanzmärkte, vorausgesetzt keine neuen Regulierungen kommen, unsicher bleiben. Deshalb sei die einzige Möglichkeit, dass menschliche Market Maker das Risiko übernehmen müssten. Allerdings war es laut Daniel Beunza gerade das Misstrauen der US-Regulierungsbehörde SEC gegen menschliche Trader, die den Trend zur Automatisierung der Börsen verstärkt hat.
Das inverse Panoptikon
Die Trading Rooms erzeugen quasi eine inverse Welt, ein digitales Panoptikon, in dem alle Informationsströme zusammen treffen. Sie können als andere Form von Orakel gelesen werden, meint Künstler-Forscher Gerald Nestler, der bei Goldsmiths, University of London, eine Dissertation zum Thema CONTINGENT CLAIMS AND HUMAN DERIVATIVES. From the commodity fetish to a relational daemon of self-colonisation entwickelt. Im Frühjahr 2012 hat Nestler im Rahmen einer Ausstellung zwei Diskussionsveranstaltungen organisiert, eine mit Knorr Cetina und Ayache, und eine mit Brian Holmes, an welcher dieser Autor ebenfalls teilnahm.
Die Beobachtung Knorr Cetinas aufgreifend, dass auf den Bildschirmen der Trader "die ganze Welt" zusammengefasst sein, aufgreifend, lässt sich daraus eine fundamentale Kritik ableiten. Wie die Ökonomin Karin Schönpflug festellt, beruhen neoklassische Konzepte auf vielfach absurden Annahmen. Wenn sich die "Welt" tatsächlich auf Preisbewegungen auf Bildschirmen reduzieren lässt, dann stellt sich die Frage, auf welcher Basis diese Berechnungen beruhen. "Wer zählt denn da," fragt Schönpflug, mit Bezug auf Marylin Warings Arbeiten zur femnistischen Ökonomie. In diesen Modellen sind sehr viele Faktoren nicht eingepreist, von der Gratisarbeit von Frauen oder der Fürsorge, bis hin zu Umweltschäden. Diese verkehrte Welt der Finanzmärkte ist aber nun zur zentralen Steuerungsinstanz geworden. Es scheint dass die Politik der meisten Parteien nur mehr als Erfüllungsgehilfen für das Wohl der Finanzmärkte verstehen. Wir leben in einem Zeitalter finanzieller Kontrolle, wo in den reichen Ländern ein gewisser Spielraum mit enger finanzieller Kontrolle verbunden ist, während in den ärmeren Ländern dieser Spielraum häufig fehlt, und autoritäre Formen der Kontrolle die Arbeiter im Zaum halten sollen.
Seinem Wesen nach bleibt das Finanzsystem ein Pyramidenspiel, wo nur die gewinnen, die bei der Bildung einer Blase vorne dran sind und im richtigen Moment aussteigen. Ob diese Hit-und-Run-Mentalität das richtige Instrument ist, um weltweit die Allokation der Ressourcen zu steuern, muss mehr als fragwürdig erscheinen. Zugleich sollte man die Finanzmärkte auch nicht zu Sündenböcken für politische Dinge machen, die falsch laufen. Zu glauben, dass wir von der Information beherrscht werden, ist ebenso Fetisch-Denken wie der Glaube an die elektronischen Heinzelmännchen.
Anmerkung: Direkte Zitate in diesem Artikel stammen aus der Sendung Radiokolleg "Die Welt der Finanzindustrie, Mythen, Märkte, Mathematik." Sendetermin: Montag 10. Dezember 2012 bis Donnerstag 13.Dezember, jeweils ab 09:05 auf ORF Ö1. Die Sendung kann live im Internet gehört sowie für 7 Tage im Netz gratis nachgehört werden. Ein späteres Nachhören im Netz ist auf Grund idiotischer Gesetzgebung nicht möglich.