Inakzeptable Risiken

Marcus Kracht

15. September 2014

History doesn't care if we make mistakes,
history doesn't care if we are sloppy;
history has a mandate of its own.
James Howard Kunstler
Der Geschichte ist es egal, wenn wir Fehler machen,
der Geschichte ist es egal, wenn wir schlampig sind;
die Geschichte hat ihren eigenen Auftrag.



Das Vorsichtsprinzip und Beweislastumkehr

Nassim Taleb von der New York School of Engineering (und Autor des Buchs Black Swans) hat zusammen mit weiteren Autoren einen Aufsatz geschrieben mit dem Titel Precautionary Principle: Fragility and Black Swans from Policy Actions, verfügbar unter anderem hier. Darin gehen sie der Frage nach, ob es Technologien gibt, die so gefährlich sein könnten, dass man sie erst erlauben dürfte, wenn prinzipiell sichergestellt ist, dass sie keine solchen Risiken bergen. Mit anderen Worten: gibt es ein Risko, das die Beweislastumkehr in jedem Fall rechtfertigt?

Auch wenn wir es gerne anders hätten: man muss schon ein zwingendes Argument für die Beweislastumkehr vorbringen. Denn die Freiheit ist ein hohes Gut. Bevor wir sie einschränken, wollen wir gute Gründe haben. Das Argument ist nun, dass zumindest solche Technologien dazu gehören, die so gefährlich sein können, dass das Risiko der endgültigen Auslöschung der Menschheit besteht (sogenanntes existenzielles Risiko). Wenn es so etwas gibt, dann ist bei ihrem Einsatz offenkundig allerhöchste Vorsicht geboten. Normalerweise beziffert man das Gefahrenpotential als Produkt aus Unfallwahrscheinlichkeit und zu erwartendem Schaden. Falls aber der Schaden potentiell die gesamte menschliche Existenz ist, so kann man das Experiment nicht wiederholen, der Schaden wäre nicht einfach immens hoch, er wäre unendlich groß. Und das wiederum bedeutet, dass man nicht einfach mit statistischen Rechnungen arbeiten darf. Man darf nicht mehr fragen: wie wahrscheinlich ist es, dass dieser oder jener Schritt fehl geht? Sondern man muss fragen: ist es bei diesem oder jenem Schritt prinzipiell ausgeschlossen, dass es zu Fehlern kommt?

Wenn es so etwas gibt, dann müssten wir also des Vorsichtsprinzip anwenden. Die Autoren beschreiben dieses so:

The PP [precautionary principle] states that if an action or policy has a suspected risk of causing severe harm to the public domain (such as general health or the environment), and in the absence of scientific near-certainty about the safety of the action, the burden of proof about absence of harm falls on those proposing the action.

Das Vorsichtsprinzip besagt, dass, wenn eine Handlung oder Regelung im Verdacht steht, großen Schaden anzurichten (etwa für die allgemeine Gesundheit oder die Umwelt), dann fällt die Beweislast dafür, dass kein Schaden entstehen wird, demjenigen zu, der die Handlung vorschlägt, sofern kein wissenschaftlicher Beweis dafür vorliegt, dass sie fast an Sicherheit grenzender Wahrscheinlichkeit sicher ist.

Taleb, N. et al. (2014), S. 1

Normalerweise ist es so, dass Firmen alles herstellen dürfen, was nicht verboten ist. Man kann ihnen erst dann etwas verwehren, wenn man beweisen kann, dass es gefährlich ist. Wenn aber der Verdacht besteht, das Risiko sei viel zu groß, so soll die Beweislast umgekehrt werden: die Firmen dürfen erst dann loslegen, wenn sie bewiesen haben, dass es zu keinem Schaden kommen kann.

Da ist sie also, die Beweislastumkehr. Hier wäre sie also zwingend geboten.

Gibt es solche Technologien?

Die spannende Frage ist natürlich, ob es solche Technologien gibt, und welche es sein könnten. In dem Aufsatz werden nur zwei betrachtet: die Nukleartechnik und die Gentechnik. Interessanterweise ist das Ergebnis, dass die Nukleartechnik die Bedingungen nicht, die Gentechnik aber sehr wohl erfüllt.

Die Autoren sehen in der massenhaften Entwicklung und Freisetzung neuen Erbguts insbesondere durch die Saatindustrie eine existenzielle Bedrohung der Menschheit. Das sollte man mehrmals durchgehen. Die Autoren sehen die große Gefahr in der Kombination aus

  1. technisch hergestelltem Erbgut und
  2. Monokultur
Dadurch, dass einmal erstelltes Saatgut sofort in Mengen auf den Markt und dann auf den Acker gebracht wird, werden die üblichen Selektionsmechanismen ausgehebelt. Ein gefährliches Erbgut (oder eines, das durch Kreuzung gefährlich werden kann), hat sofort beste Bedingungen, sich durchzusetzen. Es wird ja weltweit angepflanzt. Ferner ist die heutige Gentechnik nicht mit der herkömmlichen Züchtung vergleichbar. Denn Züchtung hat nie in die Zellstruktur direkt eingegriffen. Die heutige Gentechnik tut aber genau dies. Die Veränderungen sind also ungeheuer viel schneller, und die Gefahren solcher gezielten Erbgutveränderungen viel höher, weil viele Schutzwälle der Natur gegen Mutationen umgangen werden.

Das ist starker Tobak. Man würde meinen, Saatgut sei etwas harmloses. Das scheint mitnichten so zu sein. Und das Risiko, dass mit einem fehlerhaften Erbgut unsere Nutzpflanzen für immer geschädigt werden, ist offensichtlich nicht Null.

Dass die Nukleartechnik nicht von dieser Tragweite ist, bedarf des Kommentars. Zunächst einmal war bei ihrer Einführung durchaus nicht klar, wie groß das Risiko wirklich ist. Die Physiker in Los Alamos waren sich nicht sicher, ob die Atmosphäre durch die Zündung einer Bombe nicht etwa dauerhaft Schaden nehmen könnte. Man hat es aber dennoch ausprobiert — und Glück gehabt. Viele Atomtests und einige GAUs haben uns immerhin gelehrt, dass die Schäden, so schrecklich sie auch sein mögen, immerhin begrenzt sind. Ein schwacher Trost, gewiss. Wir haben das Wissen mit dem Leben und der Gesundheit vieler Tausender von Menschen bezahlt.

Prinzipelle Beherrschbarkeit

Dass nun die Kernkraft (und die Nukleartechnologie) wenigstens nicht existenziell bedrohlich sind, mag nun beruhigen. Trotzdem sollte man genauer hinsehen. Denn die Theorie ist das eine, die Praxis das andere. Charles Perrow hat in seinem Buch The Next Catastrophe (Princeton University Press, 2007) die Frage nach unserer Sicherheitskultur gestellt. Dabei hat er viele Sicherheitsrelevante Bereiche untersucht (Chemie- und Nuklearindustrie, das Internet und das Stromnetz), sowie mehrere Quellen von Katastrophen, vornehmlich Natur und Terrorismus.

Perrow wird nicht müde darauf hinzuweisen, dass Organisationen nicht nur versagen können, sondern dann und wann versagen werden, und dass Katastrophen immer wieder geschehen. So etwas wie sichere Technik gibt es nicht. Beherrschbarkeit (wie zum Beispiel neulich das Umweltbundesamt dem Fracking bescheinigt hat), ist gar nicht das, worauf wir uns konzentrieren sollten. Die erste Frage ist: wenn etwas schief läuft, wie groß wird dann der Schaden sein? Womit muss man dann rechnen?

Freiwillige Selbstkontrollen helfen meist gar nichts. Industriestandards und Sicherheitsvorschriften sind schon besser, aber sie müssen schon überwacht werden. Man muss ebenfalls dafür sorgen, dass die Kontrollen effektiv sind und tatsächliches Fehlverhalten sowie Schlamperei entdeckt und geahndet wird. Wer das Buch von Perrow liest, ist geheilt von dem Glauben, dass so etwas wie wirksame Kontrolle in den USA (von denen sein Buch handelt) und anderswo vorliegt. Wie wir nunmehr aus Japan wissen, ist die Nuklearindustrie dort bestens mit der Regierung "vernetzt". Und es ist nicht zu erwarten, dass es anderswo anders ist. Die Deregulierung (zusammen mit der Privatisierung) hat das nicht etwa besser gemacht. Das war zu erwarten. Sie ist eine der großen Eseleien der jüngeren Vergangenheit, mit deren Folgen wir heute noch leben müssen. Nicht dass der Staat notwendig besser wäre. Aber die Schlamperei hat definitiv zugenommen. Und die Preise auch. Es gibt halt dank Privatisierung viel mehr Spielraum für persönliche Vorteilnahme.

Die Risiken, die uns täglich umgeben, sind enorm. Hochgiftige Chemikalien werden routinemäßig durch große Städte geleitet, gefährliche Anlagen werden nur mäßig gesichert und die Kontrollen sind zum Teil getürkt. Dass dabei noch kein größerer Unfall geschehen ist, ist eigentlich ein kleines Wunder. Die Stromnetze in den USA sind jedenfalls in marodem Zustand und in Gefahr, irgendwann einmal komplett auszufallen. Sie dann wieder hochzufahren, wäre gar nicht so einfach und könnte Wochen dauern.

Existenzielles Risiko

Und nun also dies: eine kleine unscheinbare Industrie, die nichts weiter als Saatgut herstellt, ist in der Lage, uns an den Rand der Auslöschung zu bringen. Ich selber hatte das Risiko nicht so hoch eingeschätzt, obwohl ich zunehmend skeptischer geworden bin anhand der zunehmenden Zentralisierung der Agrarindustrie (was für ein Wort!). Und die Antwort seitens der Politik darauf? Wird vermutlich auf sich warten lassen. Im Moment setzen alle auf Freihandelsabkommen, die uns in Europa und anderswo zu noch mehr Gentechnik zwingen sollen. Weil ja angeblich die schädlichen Folgen nicht erwiesen sind.

Und genau hierum geht es: wir sollten darauf pochen, dass nicht wir nachweisen müssen, dass es schädlich ist, sondern dass stattdessen die Industrie nachweist, dass die von ihr praktizierte Gentechnik risikolos ist — zumindest aber, dass sie kein existenzielles Risiko darstellt. Und zwar auch dann, wenn wir Schlamperei, Terrorismus und technische Defekte mit einrechnen. Denn diese sind auf lange Sicht unvermeidbar.

Der erwähnte Aufsatz ist vorsichtig geschrieben. Welche Meinungen die Autoren privat über die Beweislastumkehr haben, darüber kann man nur spekulieren. Dass sie nicht weiter verbreitet ist, ist angesichts der Studien von Perrow und anderen leider sehr schade. Denn ob nun Nukleartechnik existenziell ist in seiner Bedrohung oder nicht: angesichts der asymmetrischen Machtverhältnisse wäre eine vermehrte Anwendung der Beweislastumkehr durchaus wünschenswert.

Im Augenblick sieht es aber nicht so aus, als würde unsere Sicherheitskultur Notiz nehmen. Es muss wohl irgendwas gründlich schiefgehen, bevor Maßnahmen ergriffen werden. Bis dahin allerdings werden viele davon überzeugt sein, dass die Gentechnikgegner irgendwelche Spinner sind, denen man mit rationalen Argumenten nicht kommen kann. (Der oben erwähnte Aufsatz erwähnt auch die Argumente für Gentechnik und legt dar, warum sie nicht tragen. Das nur nebenbei.)



Marcus Kracht 2014-9-15