Die Kontrollrevolution

Marcus Kracht, 16. Januar 2017

Warum entstand die Informationsgesellschaft?

Neulich fand ich einen Hinweis auf ein wie ich finde äußerst wichtiges Buch: The Control Revolution. Technological and Economic Origins of the Information Society, von James R. Beniger (Harvard University Press, 1986). Ich kannte es bisher nicht, auch nicht seinen Autor, und verdanke den Hinweis einer weiteren wichtigen Quelle von Information, dem Low Tech Magazine. Ich kann es jedem empfehlen, der sich mit der Frage auseinandersetzt, wie man mit weniger Energie auskommen kann (und in früheren Generationen auch ausgekommen ist).

Doch zurück zu dem Buch. Die Frage, die sich Beniger stellte, war, warum der Computer und die Informationsgesellschaft just in der heutigen Zeit entstanden sind. Was zunächst als akademische Frage erscheint, erweist sich im Nachhinein als äußerst fruchtbarer Ansatz. Beniger gab sich nicht zufrieden mit der Analyse, dass ein paar geniale Konstrukteure irgendwann einen Computer zusammngebastelt hätten, für den dann Wissenchaftler und Regierungen irgendwie spannende Anwendungen gefunden hatten. Auch wollte er nicht glauben, dass der Computer eine radikal neue Idee ins Leben rief, die Information. Für Beniger sah es eher so aus, dass der Computer gezielt entwickelt wurde, um Probleme zu lösen, die man bereits identifiziert hatte. (Die Geschichte der mathematischen Logik beweist dies für meinen Teil durchaus.)

Der theoretische Unterbau dieses Buches befindet sich in dem ersten Kapitel. Ich will ihn nicht darstellen, weil er nicht wesentlich mit dem Punkt zusammenhängt, den mir dieses Buch so wichtig macht: den Zusammenhang zwischen Informationsverarbeitung und Industrialisierung. Im Wesentlichen stellt Beniger dar, dass die Industrialisierung zunächst einmal damit begann, mit riesigen Maschinen Kohle abzubauen, beziehungsweise Eisen und Stahl herzustellen. Diese Maschinen setzten nicht nur riesige Kräfte frei, sie benötigten auch riesige Investitionen und benötigten eine zuverlässige Versorgung mit Kohle und Erz. Daraus entstand einerseits ein immenser Bedarf an Dampfschiffen und später auch Eisenbahnen; andererseits aber musste eine gleichbleibende Versorgung der Maschinen und Fabriken sichergestellt werden.

Beniger versetzt uns zurück in eine Zeit, in der nicht nur Waren sondern auch Information mit der Geschwindigkeit eines Pferdes reisten. Die Briefe brauchten Wochen, bis sie den Empfänger erreichten. Man stelle sich nun einen Fabrikbesitzer vor, der auf eine regelmäßige Verproviantierung seiner Maschinen angewiesen ist, und der selbstverständlich nur einen geringen Preis zahlen will. Woher bekam man Informationen zu verfügbaren Mengen, und wie konnte man sicherstellen, dass man die Waren auch dann noch bekam, wenn man sich dazu entschied, sie zu bestellen? Wie konnte man sicher sein, die gewünschte Qualität zu bekommen?

All diese Information war offenkundig überaus wichtig, denn sie entschied über das Schicksal des Unternehmens.

Das Ende des Kommissionärs

Über Jahrhunderte hatten Kaufleute das Problem über das Kommissionsgeschäft gelöst. Sie ernannten einen Vertrauten und ließen ihn die Geschäfte tätigen, ohne den wahren Hintermann offenbaren zu müssen, in dessen Namen das eigentliche Geschäft vollzogen wurde. Da zu einem solchen Geschäft Vertrauen nötig war, beschränkten sich viele Kaufleute darauf, Verwandte oder sorgfältig ausgewählte Vertraute dafür einzusetzen. Dieses System begann Anfang des 19. Jahrhunderts sich aufzulösen. Die Situation in den USA war dabei angesichts der großen Entfernungen speziell. Es war unglaublich schwierig, die Ernte der Bauern im Mittleren Westen halbwegs gesichert an die Ostküste und von dort nach England zu bringen. Nicht nur, weil die Bauern sofort Geld wollten, während die Ware zum Teil noch wochenlang unterwegs war, bis sie endgütig verkauft wurde. Sondern auch, weil bis zum endgültigen Verkauf niemand den Erlös wissen konnte (Baumwollpreise schwankten zum Beispiel erheblich). Und so musste der Bauer wie auch jeder Mittelsmann mit einem vorläufigen Vorschuss Vorlieb nehmen, der nach abgeschlossenem Geschäft mit dem tatsächlichen Erlös verrechnet wurde. Und die Mittelsmänner nahmen natürlich jeder ihren Anteil. Wie viel und warum, das war natürlich jedesmal die Frage. Jeder war im Grunde darauf angewiesen, dass der andere ihn nicht übers Ohr haute. Wissen konnte er es nicht. Aber das Geschäft ließ sich nicht anders bewältigen.

Bei dieser wachsenden Anzahl von Akteuren konnte man nicht mehr nur vertrauen; man musste die Geschäfte kontrollieren können. Der Kaufmann konnte nicht aber überall sein, er musste die Kontrolle über die eigenen Geschäfte also aufteilen. Mit der Größe und Komplexität der Unternehmungen, vor allem auch mit der zu überwindenden Entfernung stiegen allerdings die Probleme. Immer mehr bedurfte es irgendwelcher Mittelsleute, auf deren korrekte Abwicklung von Geschäften man angewiesen war. Max Weber war einer ersten, die die abstrakte Natur des Problems erkannt hatten. Für ihn war die zentrale Frage die des Übergangs zu rationalen Prinzipien der Unternehmensführung. Weber sah darin einen zentralen Vorteil der protestantischen Ethik: dass sie ihre Anhänger auf eine allgemein verlässliche Lebensführung einschwor und somit den Menschen die Einhaltung abstrakter Prinzipien abverlangte, von denen man auch dann nicht abzugehen hatte, wenn man einen momentanen Vorteil erwarten konnte. Dies empfahl diese Menschen folgerichtig für den damaligen Kaufmann (und ließ sie selber erfolgreiche Kaufleute werden).

Beniger ist sich einig mit Weber, dass eine solche Lebensführung genau den Anforderungen der damaligen Zeit entsprach; aber er glaubt nicht, dass sie de facto aus religiösen Prinzipien abgeleitet wurde. Vielmehr glaubt er daran, dass die Menschen im Allgemeinen dank der Zwänge ihrer Zeit erkannten, dass ihnen ein solches Verhalten einen Vorteil würde, und so entwickelte sich möglicherweise bei einigen der Wunsch, dass auch als Gottes Wunsch an die Menschen zu deklarieren.

Was Beniger weiter sieht, ist, dass diese Konditionierung der Menschen durch Religion (oder Unternehmen oder Schulen) eine Form von dem darstellt, was man im Computerjargon Preprocessing nennt, also die Reduktion von der Komplexitä in der Informationsverarbeitung durch geeignete Vorverarbeitung. Die Menschen wurden in diesem Fall durch Kultur und Erziehung in Richtung auf ihre Verwendung hin vereinheitlicht. (In der Technik taucht das in der Form von Standardisierung auf.)

Beschleunigung

In dieses System brachen nun die Dampfmaschine und die Eisenbahn ein und mit ihnen eine Verschnellerung der Produktion und des Transports. Waren und Informationen wurden nun mit mehrfacher Pferdegeschwindigkeit befördert. Und dies brachte eine völlige Transformation der Gesellschaft mit sich.

Zum einen wuchs das Eisenbahnnetz so schnell, dass man immer mehr Fabriken zur Eisen- und Stahlerzeugung aufstellen musste, deren Versorgung ein logistisches Problem darstellte. Zum anderen aber war der Eisenbahnverkehr selbst eine Herausforderung. Meist war der Verkehr eingleisig, sodass man darauf achten musste, dass es nicht zu Kollisionen kam. Außerdem musste man irgendwie sicherstellen, dass es zu den Zügen Anschlüsse gab und die Waren umgeladen werden konnten.

Auf der Ebene der Fabrik waren ebenfalls immer größere logistische Probleme zu bewältigen. Zur Erzeugung von den immensen Mengen an Eisen und Stahl waren ebenso riesige Mengen Kohle nötig, die kontinuierlich angeliefert und in den Ofen geschaufelt werden mussten. Der berühmte Arbeitszeitforscher Frederick Winslow Taylor verdankte seinen Ruhm der Standardisierung der Kohleschaufeln samt eines komplexen Verfahrens zur Beaufsichtigung der Arbeiter um sicherzustellen, dass sie ihre Arbeit wie vorgeschrieben taten. Die große Leistung von Herrn Taylor war dabei im Wesentlichen die Verbilligung der Produktion: Er benötigte sehr viel weniger Menschen für die gleiche Arbeit.

Ich füge an dieser Stelle nur ein, dass man hier sehr schön sehen kann, dass es abgesehen von den Möglichkeiten zu immenser Energieverwendung immer wieder auch die gleichzeitige Rationalisierung gegeben hat. Es war keinem Unternehmer beizubringen, sich mit der Tatsache zufrieden zu geben, dass man über immense Möglichkeiten verfügte, die Arbeitskraft der Menschen zu multiplizieren. Sie wollten immer auch den Faktor vergrößern: mehr Ergebnis bei gleicher Arbeit. (In diesem Bieterwettbewerb musste der Sozialismus irgendwann passen, weil er nicht genug Motivationskräfte freisetzen konnte.)

Während für die Herstellung von Stahl immer noch viel Menschkraft vonnöten war, gab es im 19. Jahrhundert bereits vollautomatische Produktionsmaschinen. So gab es bald eine Maschine, die Haferflocken komplett verarbeiten und verpacken konnte. Sie arbeitete so effizient, dass sie doppelt so viel Hafer verarbeitete, wie überhaupt in den USA damals verkauft wurde. Die hätte man eigentlich wegwerfen müssen oder die Maschine langsamer arbeiten lassen. Beides inakzeptabel für ihren Betreiber. Und so startete er kurzerhand eine Kampagne, um die Menschen dazu zu bringen, mehr Haferflocken zu essen! Das war die Geburtsstunde der Marke Quaker's und der Werbung zur Erzeugung von Nachfrage.

Dass man mit einer simplen Haferflockenpresse über den Bedarf produzieren konnte, mag noch nicht so schlimm sein. Dass allerdings der Automobilmarkt zu Zeiten der Depression General Motors beinahe in die Pleite getrieben hätte, ist schon bemerkenswerter. Wie gesagt, sie hat es nicht, und das ist wiederum Herbert Sloan zu verdanken, der anders als Henry Ford auf den Gedanken verfiel, die Produktion an die Nachfrage anzupassen. Das war allerdings leichter gesagt als getan. Dazu musste man natürlich Marktforschung betreiben, was es damals eben nicht gab. Genauso wenig wie Steuerschätzungen. (Die Einkommensteuer gibt es in den USA seit 1913, also gerade einmal hundert Jahre.)

Daten, Daten und noch mehr Daten

Und im Zuge dieser Entwicklungen wurden immer mehr Daten nötig. Die Gründe waren, wie wir gesehen haben, durchaus vielfältig. Beniger wird allerdings nicht müde zu betonen, dass es keine lineare Bewegung gab in dem Sinne, dass zunächst die Materialproduktion existierte, bevor man zur nächsten Stufe, nämlich des Managements und der Kontrolle schritt. Sondern dass es eine zyklische Bewegung war: Um die Materialströme zu erzeugen, war schon eine gewisse Organisation vonnöten, und auch die Organisation ihrerseits war von gewissen Material- und Energieströmen abhängig.

Der Computer erscheint aus dieser Sicht eine folgerichtige Entwicklung. Hatte schon Herman Hollerith mit der Lochkartenmaschine die Bürokratie erheblich verschnellern können, so gab es in Form von analogen Steuerungen bereits recht ausgefeilte Kontrollsysteme, ohne die der moderne Flugverkehr zum Beispiel nicht möglich war. Diese waren allerdings immer recht spezielle Vorrichtungen, die nur einem einzigen Zweck dienten. Der Computer hingegen war ein Allzweckinstrument. Und das hat zweifellos seine stürmische Verbreitung angefacht.

Der Computer hat allerdings das Karussell nur noch schneller gedreht. Mit Hilfe des Computer wurde die Produktion weiter automatisiert, wobei sein Einsatz immer mehr Daten benötigte, deren Verarbeitung dann immer schnellere und größere Computer erforderte.

Auch der nächste Schritt ist vorgezeichnet. Die Taylorisierung der Arbeit, die Zerlegung von Prozessen in immer mehr standardisierte Arbeitsschritte, hat dazu geführt, dass die Arbeit immer mehr von Robotern erledigt werden kann. Man hat der Arbeit zunehmend die Intelligenz ausgetrieben; beziehungsweise hat man die Maschinen so intelligent gemacht, dass sie diese Arbeit übernehmen konnten.

Der Endpunkt

Hier endet die Geschichte von Beniger (das Buch stammt von 1986). Wir können sie anhand der Entwicklung weitererzählen, aber das soll hier nicht geschehen. Der Endpunkt der Entwicklung wäre logischerweise so etwas wie Industrie 4.0 mit ihrer überbordenden Datensammelei, die sämtliche Prozesse dieser Erde in ein intelligentes Netz integriert, das in der Lage ist, die Ding- und Stoffströme optimal zu steuern.

Dieser Endpunkt wird nicht kommen. Die Grundlage aller Rationalisierung ist der zunehmende Energieverbrauch. Zunehmender Materialverbrauch beziehungsweise Erschöpfung der Vorräte und zunehmende Elektrifizierung bedingen einen Anstieg des Energieverbrauchs. Und außerdem werden sie den Menschen die Arbeit wegnehmen. Die Rationalisierungen haben immer wieder im Ergebnis mehr Menschen arbeitslos gemacht. Solange die moralische Rechtfertigung von Geldbezug die Arbeit ist, solange wird diese Entwicklung hochproblematisch bleiben. Denn es ist nicht davon auszugehen, dass die in dieser Phase eliminierten Arbeitsplätze anderswo geschaffen werden, es sei denn, der Rationalisierungsprozess kollabiert.

Das vielfach beschworene grüne Wachstum ist eine Illusion. Es kann nur so funktionieren, dass die Wachstumsindikatoren anschlagen, obwohl weniger Stoffe und Energie durch das System fließen. Mit anderen Worten: Die Arbeitsproduktivität sinkt gesellschaftsweit. Sie mag pro tatsächlich eingesetztem Arbeiter so hoch sein wie sie will: Da Material und Energieumsatz begrenzt sind, muss es dann eben viel mehr Arbeitslose geben.

Als Letztes eine Bemerkung zur Energiewende. Die Hoffnung auf ein grünes Wachstum speist sich nicht zuletzt aus der Vorstellung, erneuerbare Energien würden die fossilen ablösen können. Dabei ist aber abgesehen von einem immensen Einsatz von Metallen (zum Beispiel Kupfer) auch ein immer ausgefeilteres Informationsnetz vonnöten. Das bringt die Smartmeter ins Spiel. Der Energiefluss muss also mit immer komplexeren Algorithmen (und Daten) gesteuert werden.

Das wird, so meine Prognose, langfristig im Nichts enden. Die Computertechnik hat längst ihren ganz eigenen Materialbedarf und wird sich über kurz oder lang selber abschaffen. Die dann entstehenden Engpässe bedrohen dann aber nicht nur die Spiele- und Computerhersteller, sondern das Fundament unserer Zivilisation: die Energieversorgung.





Marcus Kracht, 2017-1-16