Der Regierungsberatungscomputer

Marcus Kracht, 11. Januar 2013

Der allwissende Computer

Die FAZ wusste dieser Tage von einem bemerkenswerten Projekt zu berichten. Unter Federführung eines Professors der ETH Zürich, Herrn Dirk Helbing, soll eine Art Zukunftsmaschine entstehen, ein Programm, das mit sämtlichen Daten gefüttert werden soll, derer man legal habhaft werden kann, und das dann Zukunftstrends berechnet. Eine Art Steigerung von Google: man kann jetzt nicht nur gesammelte Daten abrufen sondern sich auch sagen lassen, was sie uns bedeuten. Wer sich informieren möchte, das Projekt hat natürlich eine eigene Homepage.

Die Datensammelei soll dazu dienen, tiefergehende Analysen vornehmen zu können. In einer Welt steigender Komplexität muss man mithalten können, und dafür wäre ein solcher Computer ungemein nützlich. Er würde uns zu Erkenntnissen verhelfen, die wir mit unserem beschränkten Horizont nicht erreichen können. Wir könnten also schneller erkennen, wann Finanzkrisen drohen, wo es organisiertes Verbrechen gibt, wie Märkte auf gewisse Entwicklungen reagieren werden, und so weiter. Die schiere Masse an gesammelten Daten hilft hier enorm. Alles, was man noch braucht, sind Algorithmen, die die Daten zu einem großen Gesamtbild synthetisieren können. Nach dem Willen der Initiatoren soll jeder irgendwie partizipieren dürfen. Ich stelle mir da allerdings Abstufungen vor, mit Premiumzugang für zahlendes Publikum und Sektoren, an die nur ein streng begrenztes Feld von Personen herankommt. Regierungen zum Beispiel.

Aber es gibt noch ganz andere Möglichkeiten, aus den Daten zu lernen. Eine Idee ist, dass Menschen zwar individuell verschieden sein mögen, in der Masse aber die Unterschiede überhaupt nicht relevant werden. Sie mitteln sich gewissermaßen heraus, und übrig bleibt ein allgemeiner Trend. Dieser Trend kann sich nun in eine mehr oder weniger gute Richtung entwickeln. Er ist auch von den Einzelnen weder wirklich beeinflussbar, noch ist es immer möglich, sich auf ihn einzustellen, da der Trend selbst eine Fließgröße ist. Das Beispiel aus dem Artikel ist der Autobahnverkehr. Im Normalfall pendelt sich der Verkehr auf eine Geschwindigkeit ein, die alle mehr oder weniger einhalten. Der Trend entsteht daraus, dass alle ständig sich umschauen und dann eine Entscheidung treffen, was sie tun. Sind alle an einem gleichmäßigen Verkehr interessiert, wird er sich übrigens meistens auch einstellen. Wenn alle nur schnell vorankommen wollen, wird es dagegen für alle schwierig. Der Normalfall liegt wie so oft dazwischen: fast alle wollen irgendwie zügig vorankommen, aber nicht alle wollen sich in den Trend fügen, sondern versuchen, mehr für sich herauszuholen. Die erzeugte Unruhe kann schnell zu Staus führen.

Soweit der normale Verstand. Was jetzt Herrn Helbing angeht, so hat er ausgemacht, dass die rein lokale Optimierung oft nicht weiterhilft. Selbst beim besten Willen der Beteiligten kann es zu Defekten kommen (also etwa Staus), und manchmal ließen sich diese im Vorfeld vermeiden, hätte man nur hier und da korrigierend eingegriffen.

Das also sind grob umrissen die Grundlagen für das Projekt. Um der Gemeinschaft zu optimalen Entscheidungen zu verhelfen, genügen die lokal verfügbaren Daten oft nicht. Was gebraucht wird, sind oft riesige Datenmengen und die Fähigkeit, aus ihnen das zu lesen, was für die Entscheidung relevant ist.

Um solch ein Projekt zu realiseren, braucht man natürlich Geld. In diesem Fall nicht wenig Geld, etwa eine halbe Milliarde Euro. Die Europäische Forschungsgemeinschaft (ERC) berät derzeit über den Antrag.

Die Probleme

Irgendwie faszinierend das Ganze, doch die Frage ist, ob das Projekt irgendwelchen Nutzen stiften wird, der den Einsatz der Mittel rechtfertigt. Und da sehe ich leider schwarz.

Datenschutz Wo immer Daten gesammelt werden, gibt es Fragen zum Datenschutz. Kein Problem heißt es da, die Daten werden ohnehin anonymisiert. Ich bin bereit, das zu glauben, obwohl die Datensammelwut bei mir immer Sorgen auslöst. Kommen wir zu den ernsteren Problemen.

Wieso war die Finanzkrise eigentlich nicht vorhersagbar? Immer heißt es, wir leben in einer so komplexen Welt, dass sich niemand mehr auskennt. Das ist so banal wie falsch, weil es zwei Dinge suggeriert: früher war die Welt nicht komplex (sie war es, nur fehlte das Bewusstsein dafür), und zum zweiten, dass die Menschen vor lauter Komplexität nicht mehr wissen könnten, was abläuft. Man staunt immer wieder, wie oft zum Beispiel behauptet wird, die Finanzkrise sei nicht vorhersagbar gewesen. Die Immobilien in Los Angeles verteuerten sich ab 2002 mit jährlich 10 Prozent. Jeder normal denkende Mensch konnte sich ausrechnen, dass da ein hartes Ende kommen würde. Dafür brauchte man keinen Computer. Und es wurde damals davor gewarnt (zum Beispiel von den Ökonomen der UCLA). Nur haben wichtige Entscheider, allen voran Alan Greenspan, nichts unternommen. Ach ja, nur so nebenbei: mit jedem Tag, der vergeht, wird klarer, wieviel Betrug bei diesem Boom im Spiel war. Ich bin gespannt, wie der Computer dereinst mit Betrug und Ähnlichem fertig werden wird. Wenn die Daten manipuliert sind, möchte ich mal ein Programm sehen, dass dies erkennt und die richtigen Schlüsse daraus zieht.

Wir wissen genug Eigentlich wissen wir genug. Unser Defizit liegt woanders: wir handeln nicht danach. Und das kann der Computer leider nicht ändern. Beispiele gibt es zuhauf. Ich will hier nur daran erinnern, dass sämtliche Großprojekte mit geschönten Zahlen heruntergerechnet werden, damit man sie genehmigt bekommt, nur um dann, leider, leider, unvorhersagbare Nachforderungen begleichen zu müssen. Was wird der Einsatz von Riesencomputern daran ändern? Das Problem ist doch nicht das Wissen, sondern die Vorteilsnahme. Natürlich weiß jeder Depp, dass die Projekte am Ende mindestens doppelt so teuer werden — an der Praxis hat das nichts geändert. Obwohl über die Nachforderungen dann oft wichtige andere Vorhaben gekippt werden, für die dann kein Geld mehr da ist.

Solch ein Modell existiert schon Ein solches allumfassendes Modell existiert schon als Kleinversion und heißt World3. Konzipiert wurde es von Jay Forrester und seinen Studenten, namentlich Dennis Meadows (siehe Wikipedia). Sinn und Zweck war es, mögliche Zukunftsszenarien für die Menschheit und ihre Welt zu berechnen, um daraus Handlungsstrategien abzuleiten. Ergebnis: alles läuft nach Plan, die Menschheit weiß zwar über ihr wahrscheinliches Schicksal Bescheid, ist aber insgesamt weder willens noch in der Lage, der Entwicklung Einhalt zu gebieten. Laut Normallauf des World3 stehen wir unmittelbar vor einer Periode abnehmender Industrieproduktion, gefolgt von einer stetigen Abnahme an Nahrungsmitteln pro Kopf und allen möglichen negativen Begleiterscheinungen wie erhöhte Sterblichkeit. Nur so am Rande erwähne ich das Schicksal der Klimaberechnungen des IPCC. Trotz der Eindeutigkeit der Vorhersagen glaubt jeder Hansel von der Hinterbank, er könne das alles berechtigt in Zweifel ziehen. Fazit: die Menschen sehen meist nur, was sie sehen wollen. Der Einsatz des Computers macht da keinen Unterschied.

Die Technik wird sich rar machen Und da wäre noch ein unauflösbares Problem, nämlich dass die Forscher kaum den Fundamentaldaten Beachtung schenken, die ein solches Projekt überhaupt erst sinnvoll erscheinen lassen. Mir will scheinen, nur wenn wir so weiter machen können wie bisher, lohnt sich der riesenhafte Aufwand. Denn dann dürfen wir von weiterhin steigender Komplexität, steigenden Datenströmen, wachsender Innovation und so weiter ausgehen. Wahrscheinlich ist das in meinen Augen nicht. Schön, wenn wir ein solches Projekt haben, aber die wahrscheinliche Trajektorie ist doch, dass die Technik in nicht allzu ferner Zukunft sich von uns verabschieden wird. Da nutzen die besten Computer nichts; im Gegenteil, auch sie werden sich rar machen. Und trotzdem sind wir immer noch fleißig dabei, uns von ihnen weiter abhängig zu machen. Dieser Regierungscomputer ist ein schönes Beispiel dafür.

Kein Umdenken in Sicht

Wann gelingt es Forschern, einzusehen, dass die gesamte Technikflut gar nicht zu unserem Besten ist? Wann beginnen sie zu verstehen, dass sie diejenigen sind, die die Komplexität des modernen Lebens entscheidend mitorganisieren? Wann beginnen sie damit, uns auf die Zeit nach der Technik vorzubereiten?

Vielleicht ja auch erst dann, wenn die Forschungstöpfe sich leeren.

Bleibt uns nur dies als Trost: der Bau des Computers verschlingt laut Planung etwa zehn Jahre. Wenn ich mir vergleichbare Großprojekte anschaue, dann kann man zuversichtlich sein, dass die nicht ausreichen werden. Ob China uns dann noch seltene Erden beziehungsweise die für solche Spielzeuge nötige High-Tech liefern wird, steht in den Sternen. Und werden wir den Rat des Computers dann noch brauchen?

Vermutlich wird dieser Computer ja nie fertig werden.

PS (2013): Die EU hat sich für andere Projekte entschieden. Nicht unbedingt sinnvollere, aber das ja bei der Ausschreibung irgendwie auch nicht zu erwarten.