7009764-1988_03_09.jpg
Digital In Arbeit

Blitzschach gegen den Tod

19451960198020002020

War etwa auch die Lieferung von spaltbarem Material aus Deutschland nach Pakistan das, was der Amerikaner Charles Perrow eine „normale Katastrophe“ nennt? Etwas, womit auf alle Fälle zu rechnen war? Wir veröffentlichen Auszüge aus einem hochaktuellen Buch über die Bewertung von Risken.

19451960198020002020

War etwa auch die Lieferung von spaltbarem Material aus Deutschland nach Pakistan das, was der Amerikaner Charles Perrow eine „normale Katastrophe“ nennt? Etwas, womit auf alle Fälle zu rechnen war? Wir veröffentlichen Auszüge aus einem hochaktuellen Buch über die Bewertung von Risken.

Werbung
Werbung
Werbung

Ist's vorstellbar? 1978 wollte ein Arbeiter an der Schalttafel von Block 1 der Reaktoranlage Ran-cho Secco in Clay Station, Kalifornien, eine Glühbirne auswechseln, die ihm aber aus der Hand fiel. Das genügte, um in einigen hochempfindlichen Schaltungen einen Kurzschluß herbeizuführen. Drauf kam's zur automatischen Schnellabschaltung, und nun fehlten ausgerechnet die ausgefallenen Meßgeräte, so daß die Bedienungsmannschaft nicht in der Lage war, den Zustand der Anlage festzustellen, und diese in einer Stunde von 290 auf 140 Grad. Celsius abgekühlt wurde. Nur,“ weil der Reaktor jünger als drei Jahre war, entstanden keine Schäden durch Schrumpfspannungen. Nach zehn oder 15 Jahren unter Vollast hätte in dieser Situation der Druckbehälter platzen können.

Willkommen in der Welt hochriskanter Technologien! Mit diesem Satz beginnt ein Buch, das der Diskussion über die Gefahren, die uns politische und wirtschaftliche Entscheidungsträger in Form einer rapid wachsenden Zahl von Hochrisikosystemen auferlegen, neue Nahrung geben und sie zugleich auf ein höheres Niveau heben wird. Vor allem letzteres, denn Charles Perrow, Mitglied der vom US-Präsidenten zur Untersuchung des Reaktorunfalles von Harrisburg eingesetzten Kommission, hat eine Fülle gefahrenträchtiger Systeme und Katastrophenhergänge studiert und völlig neue Kriterien zur Abschätzung der Risken entwickelt.

In seinem Buch „Normale Katastrophen - die unvermeidbaren Risiken der Großtechnik“ (Campus Verlag, Frankfurt/New York) stellt er die Kernenergie in eine Reihe mit Atomwaffen, Luftfahrt, gefährlichen Transporten auf See, Großchemie oder Gentechnik.

In der letzteren sieht er übrigens die am wenigsten „fehlerverzeihende“ Technik, die der Mensch je entwickelt hat, und mit Sorge registriert er den Zustrom von Risikokapital in die industrielle Gentechnik: „Auf der Jagd nach wissenschaftlichem Ruhm oder nach wirtschaftlichem Profit bereiten wir möglicherweise unseren letzten großen Unfall vor. Vielleicht hat er sich sogar bereits ereignet, ohne daß wir es bemerkt haben.“

Aber bekanntlich entscheiden auch in Demokratien einige wenige, mit welchem Risiko^e vielen zu leben haben. Eine interessante Information am Rande: In den USA waren es gar nicht die Manager der E-Wirtschaft, die unter allen Umständen mit voller Kraft und vollem Risiko in die Kerntechnik einsteigen wollten. Das Mitglied einer vom Präsidenten eingesetzten Untersuchungskommission schreibt wörtlich: „Die Regierung (der USA, Anm. d. Red.!) mußte den Stromversor-gungsunternehmen starke Anreize bieten und, als diese nicht fruchteten, mit der Verstaatlichung der privaten Energieunternehmen drohen, bevor diese sich zum Bau von Kernkraftwerken bereit erklärten.“

Selbst die raffiniertesten Vorkehrungen beugen nur dem Vorhersehbaren vor. Als 1947 in Texas City ein Düngemittel-Frachter in Brand geriet, dachte noch niemand an die Möglichkeit jener Explosion, die dann zwei Flugzeuge zum Absturz brachte, und erst recht hatte bei der Planung der öllagertanks und einer chemischen Fabrik niemand damit gerechnet, daß alles das gemeinsam mit dem Frachter in die Luft fliegen und ein Drittel der Stadt niederbrennen und daß dabei 561 Menschen umkommen konnten. Mit der Zahl der Kernkraftwerke und der gentechnischen Laboratorien steigt auch die Gefahr des negativen „Lottotreffers“, daß eine Katastrophe in der Umgebung ein solches Hochrisikosystem in Mitleidenschaft zieht. Experimente mit infektiösen Krebserregern gehören längst zum Repertoire, und die Behauptung, die Infektiosität der dabei verwendeten Darmbakterien sei auf ein Milli-ardstel herabgesetzt, wäre auch dann, wenn man ihr vertrauen könnte, nur ein schwacher Trost. Niemand weiß, wie sich diese Lebensformen verhalten werden -so sie je auskommen.

Perrow beschreibt, wie ein abstürzender Bomber den Reaktor von Charlevoix, Michigan, nur um zwei Sekunden „verfehlte“. Von bombensicheren Laboratorien für gentechnische Arbeiten ist vorerst nicht die Rede. Selbst die bestehenden Vorkehrungen werden als Hemmnis für die Forschung madig gemacht.

Der Amerikaner ist Vertreter einer ziemlich exotischen Wissenschaft- er ist Organisationssoziologe. Und er betrachtet die riskanten Systeme denn auch aus einem völlig neuen Blickwinkel. Während Reaktorbauer und E-Wirtschaft auf Redundanz setzen, auf Verdoppelung und Verdreifachung lebenswichtiger Systeme und im übrigen die besorgte Öffentlichkeit mit dem Hinweis auf immer neue Sicherheitsvprkeh-rungen beruhigen, welche die Komplexität der Kernkraftwerke immer mehr erhöhen, sieht Perrow in der Komplexität gerade eines der beiden entscheidenden Merkmale jenes Risikos, das nicht ausgeschaltet werden kann.

An vieles wurde gedacht, aber nicht daran, daß ein den Boden reinigender Arbeiter eines Tages mit dem Ärmel an einem Schalter hängenbleiben und so den Strom für den Steuermechanismus der Regelstäbe abschalten und einen viertägigen Stillstand des Atomkraftwerks (Kosten: einige hunderttausend Dollar) verursachen würde (geschehen in einem Kraftwerk in North Anna, Virginia, 1980). Oder an einen zweimaligen Ausfall des Notkühlsystems (1983 in Salem). Ganz zu schweigen von dem trivialen Leitblech, das, als Sicherheitseinrichtung gedacht, sich 1966 selbständig machte und den Natriumkreislauf des ersten Schnellen Brüters der USA blockierte. Für die Millionenstadt Detroit bestand dabei zeitweise die Gefahr einer Katastrophe, die bei ungünstigen Windverhältnissen Zehntausende Todesopfer hätte fordern können. Gemeinsames Merkmal der Vorfälle: Eine Störung in einem Untersystem, oft in einem, das der Sicherheit dienen soll, mitunter ein wahrer Trivialdefekt, setzt eine Kette von Interaktionen in Gang, in der die Untersysteme sich gegenseitig beeinflussen, stören, katastrophenträchtig aufschaukeln. Weiteres typisches, gemeinsames Merkmal solcher Krisen: Im Moment weiß kein Mensch, was eigentlich los ist, und niemand kann es wissen. Erst hinterher ist man klüger. Da die möglichen Interaktionen nicht vorhersehbar sind, kann man ihnen auch nicht vorbeugen.

Perrow macht den Planern und Betreibern der Kernkraftwerke den Vorwurf, daß sie nach den Katastrophen, an denen sie gerade noch einmal vorbeigeschlittert sind, auch noch behaupten, gerade das blaue Auge, mit dem man davongekommen sei, beweise doch, wie sicher das alles sei. Für die Systeme, die er meint, gilt das nicht. Ihre Kennzeichen: „Komplexität“ und „enge Kopplung“.

Unter komplexen Systemen versteht er solche, in denen Untersysteme einander unkontrolliert beeinflussen können und Wechselwirkungen möglich sind. Also das Gegenteil etwa einer Au-tofabrik, auf deren Produktionsbändern Einzelschritte in streng festgelegten Abläufen aufeinanderfolgen. Nun ist auch eine Universität ein hochkomplexes System. Um ein hochkomplexes System zu einem Hochrisikosystem zu machen, in dem alles, was im schlimmsten Fall passieren könnte, auch wirklich irgendwann passieren wird, muß die enge Kopplung dazukommen. Sie bedeutet, vereinfacht gesagt, daß man nicht einfach aussteigen und die Situation überschlafen kann, wenn es zu im Moment weder für den Menschen noch für den Computer durchschaubaren Situationen kommt. Ein Flugzeug in Gefahr kann nur abstürzen oder weiterfliegen. Ein defekter Reaktor muß weiter gekühlt werden. Ein Hoch-sicherheits-Labor muß dicht bleiben, was immer drinnen passiert ist — so lang drinnen etwas lebt, was der Menschheit gefährlich werden könnte. Enge Kopplung bedeutet in kritischen Situationen Zugzwang ohne Bedenkzeit. Blitzschach gegen den Tod.

Man kann also Hochrisikosysteme zwar (etwas) weniger risikoträchtig planen, muß aber trotzdem damit rechnen, daß sich Unfälle jeder möglichen Größenordnung auf jeden Fall ereignen werden. Selten vielleicht — aber immer wieder, solang man auf das betreffende System nicht verzichten kann oder will. Wenn Unfälle, die längst hätten passieren können, sich noch nicht ereignet haben, heißt das, etwa bei den Reaktoren, nur, daß die risikoträchtigsten Typen - und das sind jene der Leistungsklasse um 1.000 Megawatt, die heute fast ausschließlich gebaut wird - erst verhältnismäßig wenige Betriebsjahre hinter sich haben. Zu wenig Zeit, so Perrow, um ihr volles Gefahrenpotential zu entfalten. Dasselbe gilt für Gen-Labors.

Ein Unglück wie das der Raumfähre Challenger hätte sich auf jeden Fall irgendwann ereignet — auch, wenn nicht verantwortungsloses menschliches Handeln sein Eintreten beschleunigt hätte. Man mußte unbedingt damit rechnen. Trotzdem sollte bereits beim nächsten Start eine Kapsel mit über 20 Kilogramm Plutonium (!) mitgenommen werden. Wäre sie bereits an Bord der abgestürzten Fähre gewesen und hätte sie der Explosion etwa nicht standgehalten, wäre mit mehr Todesopfern zu rechnen gewesen als bei den Unglücken von Tschernobyl und Bhopal zusammen. Und große Landstriche hätten geräumt werden müssen. Trotzdem beurteilten die Militärs das Risiko als so gering, daß es in Kauf genommen werden konnte.

Die Botschaft des Wissenschaftlers Charles Perrow ist auf den einfachen Nenner zu bringen, daß das, was auf keinen Fall passieren darf, auch keinesfalls riskiert werden darf — und wäre die Wahrscheinlichkeit, daß es dazu kommt, auch noch so gering. Keinesfalls dürfen einige wenige entscheiden, was so wichtig ist, daß die vielen das damit verbundene Risiko tragen müssen. Und schon gar nicht die Militärs.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung