Unsere digitale Zukunft

Marcus Kracht, 21. Mäz 2015

Deutschland verschläft einen Trend

Dass man in Deutschland technikfeindlich ist, höre ich schon seit Jahrzehnten. Und dass wir deswegen wichtige Trends verschlafen, die uns demnächst die Wettbewerbfähigkeit nehmen. In Deutschland wollen die Leute zum Beispiel keine Kernkraft und keine Gentechnik, weswegen wir hoffnungslos hinterhinken. Und deswegen verschlafen wir auch gerade wieder den nächsten großen Trend, die digitale Zukunft. Deutschland ist, wie man oft lesen kann, digitales Entwicklungsland. Kein Silicon Valley, keine Spitzenunis, kein High Tech.

Natürlich soll sich das demnächst ändern, die Politik ist aufgewacht. Jetzt kommt zum Beispiel Industrie 4.0. Eine Verbindung von Internet und Produktion, sprich Ingenieurskunst. Das alles im Rahmen der digitalen Agenda (siehe die verlinkte Webseite). Man rüstet sich für das Informationszeitalter.

Ich möchte hier aber nicht auf die Frage eingehen, ob wir Kernkraft, Gentechnik oder so machen sollten oder nicht. Es ist, wie so ziemlich alles im Leben, nicht unbedingt falsch, was da gesagt wird. Das größte Problem, das ich damit habe, ist mit der Grundannahme: dass es mit dem Internet so weiter geht wie bisher. Denn wie bei der Kernkraft oder der Gentechnik ist es eine Sache zu fragen, was wir machen wollen. Die andere ist zu fragen, was wir tatsächlich machen können. Das Internet mag noch so vielversprechend sein, es kann wie alles im Leben nicht unbegrenzt wachsen. Wann also kommt es in die Jahre? In hundert Jahren? In ein paar Jahrzehnten? Erleben wir noch die Singularität?

Sehen wir genauer hin.

Digitale Archive

Kürzlich gab es eine Tagung in Düsseldorf, die sich mit den Fragen der digitalen Archivierung befasste. Der Titel Die Zukunft der Wissensspeicher: Forschen, Sammeln und Vermitteln im 21. Jahrhundert war vielleicht etwas sperrig. Wenige nahmen Notiz davon, immerhin berichtete die FAZ. Eine Nachricht von der Tagung ist, dass die Archivierung und Digitalisierung eine immens teure Angelegenheit ist. Und weiter, dass die Speicherung von Forschungsergebnissen im Netz gar nicht so nachhaltig ist, wie man denken möchte. Viele Links gehen ins Nichts, die Ergebnisse sind auf irgendwelchen Servern gespeichert, die leider unauffindbar sind, oder — Gott bewahre — abgeschaltet. Das ist eigentlich gar nicht so erstaunlich, wenn man mal Einblick in die Systemzwänge bekommt. Unser eigener Sonderforschungsbereich hat 40 Terabyte (also 40 Billionen Byte) an Daten erzeugt, und diese müssen nach den Vorgaben der Deutschen Forschungsgemeinschaft, die das Projekt finanziert hat, mindestens 10 Jahre lang aufbewahrt werden. Das ist recht und billig. Das bedeutet nun aber die Anschaffung von 80 Terabyte an Speicherplatz (man muss ja auch Backups machen und so weiter) und das Versprechen, diese Tag und Nacht verfügbar zu halten. Dahinter steckt ein nicht zu unterschätzender Aufwand. Da Universitäten nicht gerade mit Geld überversorgt sind, sind solche Archivierungen nicht einfach zu organisieren.

Auf der Tagung wurde auch von den Kosten der Digitalisierung berichtet. Die gängige Vorstellung, man solle unbedingt die Filme und sonstigen vordigitalen Medien retten, indem man sie digitalisiert und ins Netz stellt, wurde mit der Tatsache konfrontiert, dass eine Digitalisierung sehr aufwändig ist und angesichts begrenzter Mittel nur ein Bruchteil dieser Medien wirklich digitalisiert werden kann. Man stelle sich vor: vor einem Jahrzehnt noch erschien das digitale Netz so unerschöpflich, dass man nicht im Traum daran dachte, man müsse mit seinen Kräften und dem Platz haushalten. Und nun muss man sich offenkundig genau ansehen, welche Dinge man der digitalen Wolke einpflanzen möchte und welche nicht. Welche eine Wende in der Debatte!

Klar, man kann sagen: der Wandel ist halt teuer. In dem Moment allerdings, wo die Daten bereits digital sind, treten derlei Probleme nicht mehr auf. Auf der besagten Konferenz wurde aus der Not eine Tugend gemacht. Nicht alles, was nicht mehr auffindbar sei, sei ein Verlust, oder jedenfalls sei nicht alles gleich wertvoll. Und auch das ist nicht so verkehrt. Es schadet nichts, ab und zu die Frage zu stellen, was wir aufheben wollen. Oder müssen wir wirklich alle Arzt-Romane oder alle Folgen von Perry Rhodan noch einmal im Netz aufheben? Waren die nicht für den Moment geschaffen? Nur so beiseite: das berühmte Köln-Konzert von Keith Jarrett, eine 90minütige Spontanimprovisation, wurde von zwei Japanern transkribiert. Man kann das jetzt nachspielen. Die Noten dazu hat Keith Jarrett durchgesehen. Anfänglich war er von der Idee nicht begeistert, denn schließlich sei ja eine Improvisation ein Momentkunstwerk und eben nicht dazu da, festgelegt zu werden. Die Japaner konterten mit der Bemerkung, das Konzert sei bereits festgelegt (und werde von vielen begeistert nachgespielt), nur eben auf einer Platte.

Wachstum und das Gesetz von Moore

Das Internet ist mit einer gigantischen Geschindigkeit gewachsen. Die heute geschätzten 3000 Exabyte (= 3 * 1021 Byte, ungefähr 3 * 270 Byte, die Werte schwanken sehr, das sind eben alles nur Schätzungen) sind das Ergebnis eines exponentiellen Wachstums. Wenn wir eine Zeit von etwa 70 Jahren unterstellen, in denen das Netz gewachsen ist, so hat die Datenmenge sich bisher jedes Jahr verdoppelt. Das ist irgendwo in der Größenordnung des Gesetzes von Moore, gemäß dem sich die Speicherkapazität alle 2 Jahre verdoppelt. Moore formulierte es für die Anzahl der Schaltelemente auf einem integrierten Schaltkreis, aber es stand Pate für viele vergleichbaren Wachstumsgesetze. Man bedenke im Übrigen, dass sich nicht nur die Speicherdichte ständig erhöht hat sondern auch die Anzahl der Speicherelemente. Es war vor 20 Jahren nicht selbstverständlich, dass jeder einen Computer im Haus hatte. Von Servern ganz zu schweigen.

Man kann sich auf Wikipedia über das Moore'sche Gesetz informieren. Dort findet man auch in dem Abschnitt Technische Grenzen etwas, was ich mehrfach bestätigt gefunden habe. Die Geschwindigkeit von Prozessorkernen stagniert seit etwa 10 Jahren. Was an vermehrter Geschwindigkeit hinzugekommen ist, ist der Tatsache geschuldet, dass man die Anzahl der Kerne erhöht hat und die Algorithmen parallelisiert.

Mehr Rechenleistung ist also nur noch über den Weg von vermehrter Prozessorproduktion zu haben. Nicht, dass die Anzahl nicht noch gesteigert werden könnte, aber man ahnt schon, dass eine permanente Verdopplung jedes Jahr nicht drin ist. Schon jetzt ist die Menge an Elektroschrott immens und die Nachfrage nach seltenenen Erden einigermaßen hoch.

Was aber bedeutet dies für die Praxis? Zunächst werden die meisten gespeicherten Daten in der Praxis gar keinen Berechnungen unterworfen sondern sind lediglich "gespeichert", bis sie abgerufen werden. (Man denke an die zahlreichen wissenschaftlichen Online-Zeitungen.) Und auch das Abrufen ist meist mit sogenanntem Streamen verbunden, das heißt, sie werden für den Nutzer lediglich kopiert und am Endgerät zu Bildern oder anderem zusammengesetzt.

Es gibt aber jenseits von allen Einzelheiten ein gravierendes Problem: die Daten zerfallen. Es gibt eine Verlustrate, die irgendwo im einstelligen Prozentbereich pro Jahr liegt. (1 Prozent pro Jahr für Magnetbänder.) Bei Festplatten ist es so, dass sie zum großen Teil nach 5 Jahren ausgetauscht werden müssen, weil es dann zu viele und vor allem zu viele systemrelevante Fehler gibt. Wird nun die Festplatte ausgetauscht, müssen alle dort liegenden Daten irgendwohin kopiert werden. Und genau für diese Arbeit braucht man einen Computer, und der wiederum wird von seinem Prozessor gesteuert. Der Prozessor bestimmt nun die Menge an Daten, die man in einer Sekunde umschaufeln kann. (Ein weiterer Faktor sind die Schnittstellen, aber lassen wir das hier außen vor.)

Damit haben wir für den Nutzer folgende Rechnung: die Datenmenge, die er in gegebener Zeit speichern kann, ist nach oben hin nicht allein durch die Kapazität der Speichermedien selbst begrenzt sondern auch durch die Prozessorleistung. Im Moment ist das noch nicht so tragisch: man erreicht im Augenblick 1 Gigabit pro Sekunde, das sind 8 Sekunden pro Gigabyte (das sind wirklich Spitzenwerte, die man nicht immer hinbekommt, aber sei's drum). Wenn Sie nun eine Festplatte mit 1 Terabyte haben, voll mit Filmen und so weiter, dann brauchen Sie allerdings 1000 * 8 Sekunden zum Kopieren (das sind 2 1/4 Stunden). Das macht zwar alles der Computer, aber Sie müssen erstens immer mal wieder draufschauen (so geht mir das zumindest), zweitens ahnt man schon: eine Verzehnfachung ist nicht unbedingt mehr darstellbar. Man würde zu viel Zeit mit seinen Daten zubringen, beziehungsweise mit dem Versuch, sie vor dem Verfall zu bewahren. Und wenn man sie stattdessen in der "Cloud" speichert, verschiebt man das Problem nur. Nicht zu vergessen die Tatsache, dass die Daten dann immer durch den Äther müssen.

Die physikalischen Grenzen

Dem Wachstum sind in jederlei Hinsicht Grenzen gesetzt. Auch energetisch gesehen gibt es Grenzen. Man kann thermodynamisch ausrechnen, wie viel Energie man aus einem Bit Information ziehen kann. Wer wissen will, wie man das berechnen kann, sei auf diesen Beitrag zum Thema Maxwell's Dämon verwiesen. Die Mindestenergie für 1 Bit Information ist demnach kBT ln 2, wobei kB = 1,38 * 10-23 J/K (Joule je Grad Kelvin). Das ist unvorstellbar klein. Jedoch kann man ausrechnen, dass das gesamte Universum einen Energieinhalt besitzt, der 1090 Bit Information entspricht.

Es ist zudem noch so, dass die reine Berechnung, insofern sie thermodynamisch reversibel abläuft, gar keine Energie kostet. Quantencomputer haben ganz andere untere Schranken für ihre Rechenleistung, die im Wesentlichen durch das Planck'sche Wirkungsquantum bestimmt werden (dies bestimmt, wie viel Zeit das Quant mindestens braucht, um eine gewissen Energiezustand zu erreichen). Quantenmechanische Überlegungen zeigen, dass ein 1 kg schwerer Computer bis zu 5 * 1050 Operationen pro Sekunde ausführen kann. Die Datenspeicherkapazität liegt hingegen bei 1031 bits. Siehe Seth Lloyd: The ultimate physical limits to computation, Nature, 2000. Lloyd schreibt, dass wir auf ein solches Laptop 250 Jahre warten müssten, falls Moore's Gesetz weiterhin unbeschränkt gilt. (Davor gehen wir allerdings bereits durch Kurzweil's Singularität!)

Die Grenzen sind nach Lloyd's Angaben erreicht worden: die real existierenden Quantencomputer rechnen so schnell, wie es physikalisch gesehen geht. Und natürlich geht das nur, weil die Daten in den Qubits gespeichert werden und nirgendwo sonst (keine physikalische Redundanz). So lange der Quantencomputer also rechnet, geht alles mit der Geschwindigkeit und zu den Kosten der Quantenphysik voran. Allerdings gibt es einen Haken, und der hat es in sich. Um die Quanten stabil (kohärent) zu halten und anfänglich zu konfigurieren bzw am Ende das Ergebnis auszulesen, ist nicht einfach nur Energie nötig sondern eine schnöde Apparatur, die nach wie vor in die Steckdose eingestöpselt werden muss und die einiges an Energie frisst. Wie viel, habe ich leider nicht in Erfahrung bringen können. Ich gehe mal davon aus, dass der Verbrauch mit dem eines PC mithalten kann.

Natürlich sind sich die Physiker im Klaren, dass es hier um Bestwerte geht, um Theorie und eben auch Spekulation. Aber rings um diese Forschungen werden auch viele Geschichten erzählt, werden gezielt oder unbeabsichtigt Hoffnungen geweckt. Forschung ist spannend und schön, aber ob der erwartete oder versprochene Nutzen eintritt, ist eine zweite Frage. Bei den Quantencomputern ist man da geteilter Meinung.

Aber auch die klassischen Computer stoßen an ihre Grenzen. Auch dort gibt es dasselbe Problem, das in den Diskussionen nicht immer Beachtung findet. Und das ist, dass Bits ja nicht einfach nur irgendwohin abgelegt werden müssen. Sondern wir erwarten eine Verlässlichkeit beim Lesen, Schreiben und Bewahren. Dies erfordert einen gewissen physikalischen Aufbau. Bei Schaltkreisen erreichen die Schaltelemente inzwischen eine Dicke von 20 Atomen. Das ist nicht viel, zumal ja nicht einfach nur die exakte Herstellung garantiert werden muss sondern auch eine Haltbarkeit. Ich weiß nicht sicher, inwieweit die Miniaturisierung die Haltbarkeit beeinflusst. Wiederum ist nicht viel an Zahlen zu finden, aber der Trend ist rein physikalisch gesehen nicht umzukehren: je kleiner das Schaltelement, umso empfindlicher ist es.

Es ist immer dasselbe, einfache Gesetz: was wenig Energie in der Herstellung kostet, wird durch entsprechend wenig Energie auch zerstört. Energie sparen bei der Produktion ist gut und schön, hat aber seinen Preis.

Grenzen des Digitalen

Gegenwärtig verbraucht das Internet etwa so viel Strom, wie Deutschland produziert (3 Prozent der Bruttostrommenge von 22 000 TWh, laut einer Studie von Greenpeace). Da inzwischen bei der Stromerzeugung nicht mehr viel Wachstum zu erwarten ist (auch nicht beim Kohlestrom) und der Strom inzwischen vermehrt für den Transport herhalten soll (Elektrofahrzeuge), sind dem Wachstum des Internets enge Grenzen gesetzt. Wobei Fortschritte in der Miniaturisierung nicht bedeuten müssen, dass mehr Energie verbraucht wird, aber dass die Haltbarkeit leidet.

Ich wage deswegen die folgenden Prognosen.

Aus diesen Gründen ist Vorsicht geboten mit Ideen bezüglich der Informationstechnologie und der Vernetzung. Je größer der Digitalisierungsgrad, umso größer die Abhängigkeit und umso größer die Fallhöhe, sollte das Stromnetz den Dienst quittieren.






Marcus Kracht, 2015-3-21