Herzlich willkommen in der Nucleopedia! Hierbei handelt es sich um eine freie Enzyklopädie, die sich auf den Bereich der Kernenergie spezialisiert hat. Die Inhalte sind frei verfügbar und unter Lizenz frei verwendbar. Auch Sie können zum Inhalt jederzeit beitragen, indem Sie als Benutzer den Seiteninhalt verbessern, erweitern oder neue Artikel erstellen.
Vielen Dank für Ihre Unterstützung an dem Projekt!

Benutzerkonto beantragen  Benutzerkonto anfordern

Atomzeitalter

Aus Nucleopedia
Version vom 21. April 2019, 21:28 Uhr von Segelboot (Diskussion | Beiträge) (neu)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu: Navigation, Suche

Als Atomzeitalter oder Nuklearzeitalter wird die gegenwärtige Epoche der Menschheit bezeichnet, wo Energie aus dem radioaktiven Zerfall schwerer Kerne, der Verschmelzung leichter Kerne oder der Reaktion von Materie mit Antimaterie genutzt wird. Dies kann zu verschiedenen Zwecken erfolgen. Die aus der Erforschung dieser Prozesse gewonnenen Erkenntnisse führen zu weiteren technologischen Entwicklungen, was in der Regel mit dem Begriff Quantenzeitalter beschrieben wird. Die so entstehende fortschrittliche Industriegesellschaft des Nuklearzeitalters wird auch als Hyperenergiegesellschaft bezeichnet. Inzwischen beruhen etwa 25 Prozent des Bruttosozialprodukts von Industriestaaten auf der Quantenphysik.[1]

Tscherenkow-Strahlung des Advanced Test Reactors im Argonne National Laboratory, 2009
„Da liest man nun seit Jahren von der Atomenergie. Man hört, wie vernichtend sie in einer Bombe wirken kann, aber auch wie viel Segen sie der Menschheit bringt, wenn sie sinnvoll eingesetzt wird. Man weiß, dass man mit Hilfe der kleinen unscheinbaren Atome die Welt aus den Angeln heben kann; man weiß aber auch, dass sie einen für unsere Begriffe unendlich großen Vorrat an Wärme und damit Elektrizität enthalten. Man weiß, dass jedes Ding, das man in die Hand nimmt, ja, dass man selbst aus Atomen besteht, und doch bleiben die Atome eine recht unwirkliche Sache, unwirklich etwa, wie uns das Leben Julius Cäsars erscheint oder die Existenz der Antarktis.
Doch dann betritt man eines Tages ein etwas größeres Holzhaus. Sein einziger Raum ist nicht viel größer als ein Klassenzimmer. Ein mystisches Dunkel herrscht, nur an den Wänden sind einige Schaukästen erleuchtet. Man tritt in die Mitte des Raumes und blickt in einen Brunnenschacht. Zwei Meter Durchmesser und sieben Meter Tiefe mag er haben und ist fast bis zum Rand mit Wasser gefüllt. Das aber, was man auf dem Grund des Schachtes sieht, das ist ohne Beispiel. Einige hohe schlanke Kästen stehen da eng beieinander. Sie selbst haben nichts weiter an sich. Aber diese "Blechdosen" sind von einem eigenartigen bläulichen Lichtschein umgeben. Das Wasser um sie herum leuchtet kräftig – und doch erkennt man die einzelnen Kästen gut. Wenn die Physiker für diese Cerencov-Strahlung keine sinnvolle Erklärung gefunden hätten, dann könnte man fast an ein überirdisches Phänomen glauben, so gespenstisch ist das Bild. […]
Dieses Erlebnis hatte ich im August 1955 in Genf bei der berühmten Atomkonferenz. Ich sah den ersten Atomreaktor in Betrieb, der zur öffentlichen Besichtigung freigegeben worden war. Bis dahin hatte ich mir eingebildet, dass mich auf atomtechnischem Gebiet so leicht nichts erschüttern könne. Aber es war doch ein ganz eigenartiges Gefühl, nun plötzlich einem leibhaftigen Atomreaktor gegenüberzustehen. Da vollzog sich etwas vor meinen Augen, was bisher nur ganz wenige Menschen an den geheimsten Orten der Erde gesehen hatten. Da spielte sich zu meinen Füssen das sagenumwobene Phänomen der Kettenreaktion ab, ein Phänomen, um dessen technische Nutzung sich die Wissenschaftler und Techniker in der ganzen Welt bemühen. Mit einem Male wurde mir bewusst, dass dieses Atomzeitalter, von dem so viel gesprochen wird, mehr als nur ein leeres Schlagwort ist. Diesen Schritt vorwärts in der technischen Entwicklung kann man höchstens noch mit der Erfindung der Dampfmaschine oder der Entdeckung der Elektrizität vergleichen.
Was mich aber am meisten beeindruckte, das war die Sicherheit und Zuverlässigkeit, mit der man diesen Reaktor steuern konnte. Vor wenigen Jahren noch galt ein Atommeiler als ungeheuer gefährlich und sehr schwierig zu handhaben. In den kühnsten Träumen wagte man sich damals nicht vorzustellen, dass man einmal die aktive Zelle eines Reaktors würde sehen können, so wie ich jetzt die Brennstoffelemente im bläulichen Licht der Cerencov-Strahlung vor mir sah. […]
All das ist keine technische Spielerei oder eine übertriebene Fortschrittsbegeisterung. Der Bau von Atomkraftwerken ist für die Menschheit notwendig, denn der Vorrat an herkömmlichen Energielieferanten – Kohle, Erdgas, Erdöl und Torf – geht bereits bedrohlich zur Neige. Wir verbrauchen gegenwärtig an einem einzigen Tag von diesen Energievorräten mehr, als die Natur in 10 000 Jahren eingelagert hat. Die Vorräte an Kohle und Erdöl in der Kruste unserer Erde sind aber begrenzt, und einerlei, ob wir nun das elektrische Licht anschalten, im Ofen stochern oder auf den Gashebel unseres Autos treten, immer verzehren wir ein klein wenig von dieser begrenzten Energiemenge. Der Energiebedarf der Welt wächst aber noch ständig, er wird bis zum Jahre 2000 auf mehr als das Achtfache des heutigen Verbrauches angestiegen sein. Wenn die Entwicklung so weitergeht und keine neuen Energiequellen erschlossen werden, dann wird spätestens in 150 Jahren das letzte Flugzeug mit dem letzten Liter Treibstoff irgendwo notlanden, wird irgendwo eine Hausfrau die letzte Schaufel Kohlen in den letzten Küchenherd werfen. Auf der berühmten Atomkonferenz im August 1955 in Genf gipfelten die Diskussionen über den zukünftigen Weltenergiebedarf in der Feststellung: "Wenn die Atomenergie nicht bereits entdeckt wäre, würde es höchste Zeit dafür." […]
Genauso, wie wir uns heute kaum vorstellen können, dass unsere Groß- und Urgroßväter in ihrer Jugend keine Eisenbahn und erst recht kein Auto und kein Flugzeug kannten, genauso werden es unsere Enkel kaum verstehen können, wie wir einmal ohne Atomenergie auskommen konnten.[2]


Betrachtungen

Das Nuklearzeitalter

„Die Menschheit steht an der Schwelle zur zweiten industriellen Revolution. Drei Elemente kennzeichnen sie: Die Atomenergie, die Automation und elektronische Maschinen. Die Entfesselung der neuen Kräfte kann zur Vernichtung allen Lebens auf dieser Erde, ihre Bändigung zu nie geahntem Wohlstand für alle Menschen führen. Zum ersten Male können Armut und Hunger auf der ganzen Erde gebannt werden.
[…]
Der Parteitag verabschiedet einen Atomplan: Die kontrollierte Kernspaltung und die auf diesem Wege zu gewinnende Kernenergie leiten den Beginn eines neuen Zeitalters für die Menschheit ein.
Die Erzeugung von Elektrizität aus Kernenergie hat in solchem Umfang zu erfolgen, daß die deutsche Wirtschaft nicht mehr auf die Einfuhr überteuerter Kohle angewiesen ist, der Raubbau in Kohlengruben vermieden und die schädigende Veränderung von Landschaft und Wasserversorgung beim Abbau von Braunkohle eingeschränkt wird; der Aufbau und der Betrieb von Atomkraftwerken wird durch die öffentliche Hand durchgeführt, ihr Zusammenwirken mit den übrigen Elektrizitätserzeugungsunternehmen erfolgt nach langfristig festzusetzenden Plänen;
die Entwicklung von Kernkraftmaschinen an Stelle der Dieselmotoren und anderer Verbrennungskraftmaschinen für feste und fahrbare Kraftstationen, für Schiffe, Flugzeuge und andere Verkehrsmittel muß den Platz Deutschlands in der Reihe der Industrievölker sichern;
die Verwendung der radioaktiven Isotope in Medizin, Biologie, Landwirtschaft und Industrie muß so gefördert werden, daß die großen Möglichkeiten für die Gesundheitspflege, die Züchtung neuer Pflanzenarten und die Anwendung für die technischen Produktionsprozesse auch für Deutschland voll erschlossen werden;
die Forschung im Bereich der Atomwissenschaft und die Ausbildung von Arbeitskräften aller Art, müssen mit allen Kräften gefördert werden, sowohl die mit Kernstoffen Arbeitenden als auch die gesamte Bevölkerung müssen mit allen Mitteln und mit aller Sorgfalt gegen die Strahlenwirkungen geschützt werden.
Die deutsche Öffentlichkeit, das Parlament und die Regierung benötigen zur Beurteilung der Gesamtsituation und aller Veränderungen eine kontinuierlich arbeitende, unabhängig gutachterliche Beratung.
Die SPD fordert deshalb die Errichtung einer deutschen Atomkommission. Kernbrennstoffe können insbesondere durch Unglücksfälle oder Mißbrauch große und fortwirkende Schäden an Leib, Leben und Gütern hervorbringen. Deshalb muß die Allgemeinheit über den Staat und seine Organe schärfste Kontrolle und sorgfältigste Aufsicht auf allen Gebieten der Erzeugung und Verwendung von Kernbrennstoffen ausüben.
Um dieses zu sichern, ist ein »Deutsches Organ für Kernbrennstoffe und die Überwachung ihrer Verwendung« durch Gesetz als Bundeseinrichtung zu schaffen. Die Atomenergie kann zu einem Segen für Hunderte von Millionen Menschen werden, die noch im Schatten leben. Deutschland muß in der Hilfe für diese Völker mitwirken, aber auch die Lebensmöglichkeiten des eigenen Volkes verbessern.“
– 10./14. Juli 1956 Parteitag der SPD in München[3]


Der Begriff atomic age wurde bereits verwendet, noch bevor die erste kontrollierte Kernspaltung ablief. So verwendete zum Beispiel Abraham Gould Jenning den Begriff in seinem Werk The Earth and the World. How Formed?: A Layman's Contribution to the Religious Though of the Times bereits 1900. Unter der Kapitelüberschrift The Atomic Age of Creation spekuliert er über die Entstehung der ersten Elemente im Universum, und des Sonnensystems.[4] Irgendwann zu dieser Zeit wurde der Begriff des Atomzeitalters Teil des gesellschaftlichen Bewusstseins.

Der Journalist Ron Rosenbaum prägte 2008 den Begriff first atomic age für die Geschichte nach den Kernwaffeneinsätzen über Hiroshima und Nagasaki, sowie den Begriff des second atomic age für die Zeit nach dem Ende des Kalten Krieges. In seinem Essay äußerte er sich kritisch über das heutige, lebensfrohe Hiroshima, das die Spuren des Krieges so erfolgreich hinter sich gelassen hat.[5] Die kognitive Dissonanz zwischen der Tatsache, dass man Kontamination einfach entfernen kann, und der Propaganda der Angstindustrie mit ihrem Märchen „Millionen-Tote, für-zehntausende-Jahre-unbewohnbar“, wird beim Lesen des Essays deutlich.[A][6]

Der Geschichtsprofessor Matthew Lavine von der Mississippi State University hält diese Einteilung selbst für kulturelle Amnesie. Matthew Lavine's Essay The First Atomic Age Scientists, Radiations, and the American Public, 1895–1945 ist der einzige, der sich mit dem Zeitgeist vor den Atombombenabwürfen beschäftigt. Ein Essay, der sich im selben Zeitraum mit der Kulturgeschichte auseinandersetzt, ist Spencer Weart’s Nuclear Fear: A History of Images, welcher die Symbolik der Nuklearenergie und ihre psychologischen Grundlagen thematisiert. Die Fachliteratur über die Kulturgeschichte der Kernenergie ist sehr umfangreich und tiefgehend, sodass sie nicht adäquat zusammengefasst werden kann. Die Ikonographie wie zB der Atompilz, die Geschlechterpolitik der Kernenergetik der 1980er Jahre, die Auswirkungen der Nukleartechnik auf die nationale Identität usw. Alle diese Studien bezogen sich auf die Post-Hiroshima-Welt, und blendeten alles aus was vor dem Trinity-Test geschah.[5]

Rosenbaum begann seine Einteilung der Atomzeitalter ab 1945 aus offensichtlichen Gründen. Wenn man aber das Bewusstsein über die zerstörerischen Möglichkeiten des Urans, und die Strahlenangst als Grundlage nimmt, zeugt diese Einteilung von kultureller Amnesie. Mit der Entdeckung der Röntgenstrahlen 1895 und der Radioaktivität 1896 nahmen alle Amerikaner – und, so ist zu vermuten, auch Bürger anderer „westlicher“ Länder – an der Debatte und Darbietungen teil, die aus der wissenschaftlichen Erforschung des Atoms resultierten. Das Nuklearzeitalter vor 1945 auszublenden ist auch deshalb problematisch, weil damals bereits ein großes Netzwerk von Akteuren den Diskurs gestaltete. Röntgenstrahlen und Radium waren vollständig kommerzialisiert, nicht nur in Form von strahlenden Produkten, sondern auch durch Bücher, Vorlesungen und Presseberichte. Die Anbieter von Radiumsalben und Röntgenportraitstudios beeinflussten maßgeblich die Wahrnehmung dieser Energien. Dazu kamen zahllose Akteure, Erzeuger und Käufer gleichermaßen, die das Narrativ begleiteten wie, wann und unter welchen Bedingungen diese Kräfte auf den Markt gebracht werden könnten. 1913 brachte die New York Times eine Titelgeschichte über einen krebskranken US-Senator, der durch eine Strahlentherapie geheilt werden sollte. In blumenreichen Worten wurde die Behandlung und der Tod des Patienten einige Monate später geschildert. Eine Patientin, die im Jahre 1905 ihre Röntgenuntersuchung bekam, hatte mit ziemlicher Sicherheit eine relativ gute Vorstellung davon was die Maschine tat, welche Beschwerden mit ihr diagnostiziert werden konnten, und wie ihre Bilder aussehen würden. Die Patientin hätte ebenso eine Jahrzehnt lange Erfahrung mit „Röntgenstrahlung“ als rhetorische und metaphorische Entität: In dieser Zeit wurde das Wort mit den Adjektiven allwissend, durchdringend, aussetzen, modern, mystisch, wichtig, unergründlich und wissenschaftlich konnotiert. Für diese Person wäre Radium je nach Kontext ein Ding der Wissbegierde, ein Symbol der Zeit, ein Symbol des Wohlstandes, eine Verbraucherneuheit und ein medizinisches Mittel für schwere Fälle.[5]

Nagasaki-Bombe nach der Zündung

US-Amerikaner betraten das Atomzeitalter deshalb nicht unvorbereitet: Der unvergleichlich dramatische Auftritt, mit dem Atomwaffen ihr Debüt gaben, überraschte die Öffentlichkeit, aber nicht die Waffen selbst. Weil es seit 40 Jahren ein Grundthema der spekulativen Literatur war, war die Atombombe ein gut verstandenes Konzept, wie Luke Skywalker's Lichtschwert, wenn es plötzlich im Handel erhältlich wäre. Radioaktiver Fallout – wenig erforscht in Science-Fiction und tatsächlich von Manhatten-Project-Wissenschaftlern selbst stark unterschätzt – erschreckte nicht nur in den Nachrichten aus dem besetzten Japan, sondern auch weil das Konzept der heimtückischen Vergiftung durch nicht nachweisbare Radioisotope der Öffentlichkeit seit Jahrzehnten eingehämmert wurde. Nukleartouristen, die zum Picknicken aufbrachen um Pilzwolken aus Bombenversuchstests zu sehen, fuhren auf denselben Straßen, die Gesundheitstouristen zu den Radiumquellen geführt hatten: Die Berge und Wüsten des Westens hatten in der mentalen Karte der Amerikaner schon seit Jahrzehnten ein schwaches radioaktives Grün.[5]

Der Geschichtsprofessor Kirk Willis von der University of Georgia prägte den Begriff der Nuklearkultur (engl. nuclear culture) und zeigte in einem Essay, dass diese in Großbritannien weit vor Hiroshima und Nagasaki lebendig war. Das Wissen, die Bilder, die Artefakte angewandter Kernphysik waren durch populäre Bücher, Filme, Science-Fiction-Magazine, Nachrichtenmagazine, Demonstrationen usw bereits in den öffentlichen Diskurs gespeist, und dadurch Teil der kognitiven Karte vieler Briten. Die von John Bradley von der University of Arizona herausgegebene Textsammlung Learning to Glow: A Nuclear Reader nennt die Ikonographie des Atomzeitalters: Der Schutthaufen von Hiroshima, die Doomsday Clock, Bert the Turtle, und Slim Pickens der eine Atombombe reitet. Bilder, mit denen der Durchschnittsbürger Umgang pflegte.[5]

Unter diesem Aspekt ist auch der Begriff des Nuklearzeitalters zu verstehen: Als griffiges Schlagwort für Kulturgeschichtler, ähnlich dem Weltraumzeitalter (engl. space age). Die informellen Unterteilungen in verschiedene Atomzeitalter sollen die Wirkmächtigkeit einer Idee in der Breite einer Kultur verdeutlichen. Das Verständnis der US-Amerikaner von Radioaktivität war komplex genug, um jede momentane Erfahrung oder persönliche oder mediale Ansprache zu überdauern. Diese Ideen waren sozusagen die Linse, durch die US-Amerikaner – und Bürger anderer „westlicher“ Länder – die Kultur in der sie interagierten interpretierten. Die Reaktion der Masse auf diese Stimuli ist deshalb sehr vorhersagbar. Der Reaktorunfall in Fukushima-Daichi als Folge des Tsunamis war beispielsweise unerwartet, aber nicht der Diskurs der sich daraus ergab, da er durch Tschernobyl, Three Mile Island und weitere Unfälle bereits einstudiert gewesen ist. Rosenbaums Überlegungen selbst tauchen auch jedes Jahr zu den Hiroshima-Gedenktagen im öffentlichen Diskurs auf.[5] Die Flucht in ein routiniertes Erinnern geht schnell, in moralisierenden Autismus und ein fühlloses Fühlen, in dem jedes unerwartete Negativereignis zum passablen Baustein des eigenen Entwicklungsromans wird, der freilich auch eine ganz banale Seifenoper sein könnte. In dem die Ökologisten ihre Hysterie ausleben, mit ihren Ikonographien, Stichworten und Assoziationen, reproduzieren sie die Nuklearkultur, und tragen so zum Atomzeitalter bei.

Am soziotechnischen Themenkomplex ändert dies nichts. Das was zur Zeit des SPD Parteitages Atomenergie, Automation und elektronische (Rechen-)Maschinen waren, ist im heutigen Diskurs eben Kernenergie, Automatisierung, Industrie 4.0, Quantencomputer und Digitalisierung. Auch die Debatte über versiegende Rohstoffe und Naturschutz ist keineswegs neu. Wer den Auszug aus dem SPD-Parteitagsbeschluss liest wird feststellen, dass umweltfreundliche Kernkraftwerke Strom aus Kohle ersetzen sollten. Die Forderung nach Kernkraftmaschinen entsprang der Vorstellung beschränkter Ressourcen. Ebenso nehmen die heutigen Bücher, Filme, Science-Fiction-Magazine und Diskurse bereits Kernfusion, Quantencomputer, usw. vorweg. Ähnlich wie in dem Moment, als Kernwaffen plötzlich eine reale Existenz erlangten, die Atombombe aber bereits Jahrzehnte zuvor ein Grundthema der spekulativen Literatur war, sind auch Kernfusion und Quantencomputer ein gut verstandenes Konzept und Teil der mentalen Karte vieler Menschen, wenn diese in Zukunft eine reale Existenz als Kernfusionkraftwerk und Quanten-Hochleistungsrechner erlangen.

Die Hyperenergiegesellschaft

Wenn man die deutschsprachigen „Qualitätsmedien“ verfolgt wundert man sich, dass die Industrialisierung durch eine Aufgabe von Wind und Bioenergie hin zur Nutzung von Kohle und Erdöl erfolgte. Bis zum Beginn der Neuzeit lebten die menschlichen Gesellschaften immer in Knappheit. Ihnen standen nur dünne Energieflüsse zur Verfügung: Ein bisschen Wind, ein bisschen Wasser, aber vor allem Holz und die Muskelkraft von Tieren und Menschen. Sklavenarbeit war die notwendige Folge und stets gegenwärtig. Denn die Flächen, die für Ackerbau, Viehzucht und Forstwirtschaft zur Verfügung standen, bildeten praktisch die einzige Energieressource. Damit waren politische Macht, gesellschaftlicher Status und ökonomischer Wohlstand eines Individuums unmittelbar mit dem Besitz von Land verknüpft. Die übergroße Mehrheit der Menschen, mit der Ausnahme von kleinen Eliten, lebte schlecht, kurz und in absoluter Armut. Die nutzbare Energie war zwar erneuerbar, erlaubte aber weder dauerhaftes Wachstum noch grundlegend bessere Lebensbedingungen.[7][8]

Als in der zweiten Hälfte des 18. Jahrhunderts die Wirtschaft mit Hilfe der alten Energiequellen nicht mehr weiterentwickelt werden konnte, änderte sich mit der industriellen Revolution die energetische Grundlage menschlicher Gesellschaften vollständig. Die Grenzen der Entwicklung, die der geringe Wirkungsgrad der Photosynthese definierte, wurden überwunden. Dampfmaschinen wurden zu neuen Arbeitstieren und ihre Nahrung wurde nicht mehr auf dem Acker, sondern wesentlich effektiver durch die verdichtete Sonnenenergie von Kohle, Erdöl und Erdgas gewonnen.[9][8] Später dann kam die Kernkraft hinzu, die die völlige Unabhängigkeit von der Launenhaftigkeit natürlicher Prozesse und der Zufälligkeit geographischer Gegebenheiten gewährleisten kann. Bis heute ist sie die einzige Energiequelle die es ermöglicht, auf dem Meeresgrund oder auf anderen Himmelskörpern Menschen anzusiedeln.[8]

Diese Entwicklung bedeutete eine Verschiebung der Macht, weg von den Landbesitzern hin zu den Produzenten, den Händlern und den Konsumenten. Das knappe Gut Energie, einst vom landbesitzenden Adel kontrolliert, wurde für jedermann zu jedem Zeitpunkt verfügbar. Es entstanden Wohlstand und freiheitliche, durchlässige Gesellschaften, in denen der Status des einzelnen nicht davon abhing, ob er in eine Familie von Landbesitzern hineingeboren wurde. Und es gab eine Perspektive anhaltenden Wachstums unabhängig von der territorialen Größe. Wissen, Kreativität und Innovationspotential entwickelten sich zu entscheidenden, unbegrenzt verfügbaren Ressourcen. Die Sklaverei konnte erst überwunden werden, als eine neue, überall in ausreichenden Mengen verfügbare Energiequelle für den Betrieb von Maschinen aller Art in die Menschheitsgeschichte eintrat.[10][11]

Derzeit decken fossile Energieträger etwa 85% des weltweiten Energiebedarfs. Aus gutem Grund, denn Erdöl, Erdgas und Kohle sind mittels geeigneter Technologie zu jedem Zeitpunkt preisgünstig verfügbar. Umweltschädliche Windmühlen und Solarzellen liefern nur unstetig, abhängig von Tag- und Jahreszeit, von launischem Wetter und sich wandelndem Klima. Hier setzt die Natur die Grenzen. Auf der anderen Seite gibt es mit Kernbrennstoffen noch bessere Energiespeicher. Verglichen mit fossilen Brennstoffen sind diese um Größenordnungen energiedichter. Sie übersteigen die der herkömmlichen Brennstoffe, ob nun Torf oder Holz, Erdgas oder Kohle, um mehrere Größenordnungen. Das macht sie zur Zukunftstechnologie. Vom Standpunkt menschlicher Entwicklung betrachtet bilden Kohle und Uran eine untrennbare Einheit. Ohne Industrialisierung durch die Kohle gäbe es heute keine Kernreaktoren, und Kernenergie ist der logische, natürliche Nachfolger der Kohle.[12][13] Nicht ohne Grund bekämpfen die Grünen beides mit Vehemenz: Mit diesen Energiespeichern konnte der Mensch dauerhaft dem Jammertal der erneuerbaren Ressourcen entkommen, in dem er seit Beginn seiner Existenz gesteckt hat.[13][14]

Kernenergie hat einiges zu bieten: Reaktoren sind sauber. Kein Rauch, kein Ruß, kein Feinstaub geht bei ihrem Betrieb in die Luft. Sie setzen weniger radioaktive Stoffe frei als Kohlekraftwerke. Sie sind kompakt, benötigen weit weniger Rohstoffe und Platz als die material- und landfressenden „grünen“ Energien. Sie liefern billigen Strom und das zu jedem Zeitpunkt. Von allen Kraftwerken haben Kernkraftwerke die höchste Verfügbarkeit. Kernenergie ist deshalb die passende Energiequelle für urbane Gesellschaften, für Städte, die niemals schlafen. Im Laufe dieses Jahrhunderts wird Kernenergie die Kohle mehr und mehr ersetzen – einfach deshalb, weil sie besser ist. Das ist technische Evolution: Das Bessere setzt sich durch, wenn nicht in Deutschland, dann woanders.[13]

Diese Entwicklung ist ein Segen für die Menschheit, da immer mehr Menschen die Errungenschaften des Industriezeitalters, wie ein gesundes und langes Leben, eine Klimaanlage und ein Auto geniessen können. Gerade im Sinne von Milliarden Afrikanern und Indern ist es zu wünschen, dass sich diese Entwicklung noch beschleunigt.

In den wohlstandsmüden Altindustriestaaten ist hingegen die Ökoreligion populär. Diese Religion propagiert eine verarmte, mittelalterliche Gesellschaft. Wohlstand für alle ist dieser Religion ein Graus. Gemäß den Glaubenssätzen dieser Religion führt das frevelhafte Tun der Menschen in den Weltuntergang durch "Endliche Rohstoffe" (70er Jahre), "Waldsterben" (80er Jahre), "Ozonloch" (90er Jahre) und aktuell durch den "Klimawandel" (2000ff). Gerade die Kernenergie mit dem ihr innewohnenden Potential, preiswerte Energie in unbegrenzter Menge überall verfügbar zu machen, bot sich den Misanthropen als ideales Ziel an. Als ökoreligiöser Gegenentwurf zur Technosphäre wurde das Konzept der „Nachhaltigkeit“ entwickelt.

Dabei ruft die Fokussierung auf die Vermeidung potentieller Zukunftsrisiken reale gegenwärtige Gefahren erst hervor. So bedeuten Technologieverbote, wie bei der Kernenergie, bei der Gentechnik oder beim Fracking ein Verzicht auf Innovationen, auf Wettbewerbsfähigkeit, auf Wertschöpfungsoptionen und damit auf künftigen Wohlstand.[15] So postuliert der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) das Ende des „nuklearfossilen Komplexes“ und will stattdessen ein dezentrales System erneuerbarer Energiequellen. Deutschland, so kommentierte der amerikanische Politologe Walter Russell Mead, habe „im Grunde jede realistische Form der Energieversorgung für illegal erklärt, Atomkraft sowieso, aber auch Öl, Gas, Kohle“.[13][16]

Was kommt nach Peak-Fossil? Kernkraft!

Langfristig gesehen sind Kohle, Öl und Erdgas Übergangstechnologien. Ihre Vorkommen sind endlich, und irgendwann wird sich ihre Förderung immer weniger lohnen. Sorgen muss man sich deshalb nicht machen: Kohle reicht noch für Jahrhunderte, Erdöl und Erdgas für mehrere Jahrzehnte. Ohnehin wird es kein abruptes Ende geben, sondern einen Übergang. Die Grafik links macht diesen Übergang deutlich. Sie stammt aus einem Fachartikel des amerikanischen Geologen M. King Hubbard, der in den 1950er-Jahren die Peak-Oil-Hypothese erfand.[12] Unübersehbar ist die einzigartige Rolle der fossilen Brennstoffe.[B] Die Kohle, zusammen mit Öl und Erdgas, beendete die Jahrtausende andauernde Energiearmut. Diese Brennstoffe führten die menschliche Zivilisation in eine Ära zuvor nicht vorstellbaren Reichtums – selbstverständliche Normalität in den Industrieländern heute. Die Nutzung der fossilen Brennstoffe ist ein singuläres Ereignis in der menschlichen Geschichte und ein Glücksfall. Mit der Kernenergie steht bereits der natürliche Nachfolger in den Startlöchern: „Natürlich“ deshalb, weil sie um Größenordnungen leistungsstärker ist. Damit lässt sich nicht nur das vorhandene Niveau halten, sondern mehr Menschen kann ein höherer Lebensstandard als heute gewährt werden. Kernenergie wird dann die Rolle einnehmen, die heute die Kohle hat. Allerdings werden Kohle und Kernenergie noch viele Jahrzehnte nebeneinander existieren. So können Hochtemperaturreaktoren Wärme liefern, um etwa Kohle in Treibstoff oder Synthesegas umzuwandeln.[13][12]

Die „Energiewende“ als Weg ins Mittelalter

Nimmt die Zahl der Kernkraftwerke zu, dürfte immer weniger Kohle verfeuert werden, um Strom und Wärme zu erzeugen. Das macht Sinn, denn Kohle ist ein wichtiger Rohstoff für die chemische Produktion und die Stahlerzeugung. Wann die Dominanz der fossilen Brennstoffe zu Ende geht, ist schwer zu sagen. Vorhersagen eines baldigen Endes lagen bislang immer daneben. Letztlich ist der Zeitpunkt auch belanglos. Was zählt, ist, dass die fossile Ära mit der Kernenergie eine Energietechnologie hervorgebracht hat, die dank der Brütertechnik Energie im Überfluss und zeitlich unbegrenzt liefern kann.[13]

Im Gegensatz zur Propaganda der Nachhaltigkeitspropheten ist die moderne Welt nicht mit Konsum- oder Verhaltenszwängen verbunden. Es geht nicht darum, den ganzen Tag mit dem Auto zu fahren und dabei Burger verzehren zu müssen. Der Unterschied zu vergangenen Epochen besteht in der Möglichkeit, es zu können, wenn man denn möchte. Der Wohlstand eines Landes, dessen energetische Basis im wesentlichen Biomasse bildet, ergänzt durch Wind- und Wasserkraft sowie die Photovoltaik, hängt primär von den vorgefundenen geographischen und klimatischen Bedingungen ab, insbesondere von der verfügbaren Fläche fruchtbaren Ackerlandes. Missernten führen zu Energiearmut, und wer seinen Wohlstand mehren und die Versorgung der Bevölkerung verbessern will, ist zu einer territorialen Erweiterung gezwungen. Längst überwunden geglaubte imperialistische Vorstellungen über die Notwendigkeit zur Gewinnung von „Lebensraum“ könnten wieder aufkommen. In einer auf naturinvasive Energien angewiesenen Welt wäre die Hegemonie des Landbesitzes gegenüber allen anderen Konzepten des Wirtschaftens wieder etabliert. Die Grafik rechts stammt aus dem von der Bundesregierung abgesegneten WBGU-Konzept zur „Großen Transformation“. Sie verdeutlicht die mit der angestrebten „Nachhaltigkeitskultur“ einhergehende Senkung der Energieflächenproduktivität auf mittelalterliches Niveau. Die Folgen kann man sich ausmalen, in einem noch dazu weit dichter besiedelten Land mit weit höherem individuellen Energiebedarf.[10] Der Klimaschwindelpapst Hans Joachim Schellnhuber schreibt dazu in seinem Buch Selbstverbrennung: Die fatale Dreiecksbeziehung zwischen Klima, Mensch und Kohlenstoff, wo er auf den Spuren Wolfgang Harichs wandelt:[11]

„Denkbar sind vor allem zwei vehement auseinanderstrebende Pfade, nämlich zum einen der Weg in die Hyperenergiegesellschaft, wo aus Quasi-Punktquellen (wie Kernfusionsreaktoren oder Kernspaltungsanlagen der übernächsten Generationen) auch pro Kopf immer mehr Energie verfügbar wird. Oder zum anderen die asymptotische Annäherung an eine Nachhaltigkeitskultur, wo sich der Jahresenergieverbrauch pro Kopf stabilisiert und sich der Fortschrittspfeil durch Nutzung von Sonne, Wind, Wellen und Erdwärme in die Fläche zurückbiegt.[C] Dadurch könnte allerdings viertens eine überaus problematische Bedarfskonkurrenz mit anderen Nachhaltigkeitszielen wie der zureichenden Versorgung der Weltbevölkerung mit gesunden Nahrungsmitteln oder der Bewahrung der Arten- und Landschaftsvielfalt entstehen. Wir stehen also in der Tat an einer epochalen Weggabelung und können dort nicht lange ratlos verharren. Wie man dieser dramatischen Herausforderung begegnen könnte, werde ich im dritten Teil (insbesondere Kapitel 27) skizzieren. Zuvor aber noch mal ganz langsam zum Memorieren: Mit der Nutzbarmachung der Kohle im großen Stil begann ein neues Wirtschaften, gestützt auf »Energiesklaven«, die dicht gedrängt im Untergrund bereitstanden. Während ein Mitglied einer Jäger-und-Sammler-Gesellschaft noch etwa das Drei- bis Sechsfache der menschlichen Grundumsatzenergie akquirierte (in Form von Fleisch, Holz etc.), kann jedes Individuum der Industriegesellschaft im Schnitt auf das 70- bis 100-Fache dieser metabolischen Größe zugreifen. Eine Riesenschar von fossilen Energiegeistern ist uns also zu Diensten, sobald wir kleine Schalter umlegen oder flache Tasten drücken. Nichts könnte weniger selbstverständlich sein, und doch erwarten die Menschen in den reichen Nationen genau dies von ihrem Alltag. Und mit der Blüte der Energiesklaverei wurde zwingend der Siegeszug des Industriekapitalismus in Gang gesetzt: Wer über das Geld verfügte, Produktionsanlagen zu erwerben, konnte dort mit den gleichermaßen käuflichen fossilen Ersatzarmeen Waren in ungeheuren Massen erzeugen, diese von den fossilen Transportgeistern in die weite Welt befördern lassen und Gewinne jenseits aller bekannten Grenzen anhäufen.“

Am Ende ist die Hyperenergiegesellschaft nicht nur die zwangsläufige Zukunft, sondern auch die attraktivere. Denn in der Technosphäre sind Gesellschaften robust gegenüber klimatischen Veränderungen, ganz gleich, ob die Warnungen der Klimawandelprediger eintreffen oder nicht.[10] Ein Leben in Wohlstand, umgeben von allerlei elektronischen Helferlein ist den meisten Menschen die erstrebenswertere Option, als in Dunkel und Kälte „nachhaltig“ in einer ökologischen Planwirtschaft zu frieren, oder das Auto wegen Flaute oder Missernte stehen zu lassen. Oder wie es Professor Hans Schimank in den Physikalische Blätter bereits 1954 in dem Beitrag Technik als formende Kraft unserer Zivilisation beschrieb:[17]

„Denn über die Wohlgestalt und den Wertgehalt einer Gesellschaft und einer Kultur entscheidet nicht die Macht der Technik, sondern die Gesinnung und Gesittung von Völkern, die sich verantwortungsbewusst der Technik als ihres Werkzeuges bedienen. Ware ich ein christlicher Theologe, so wurde ich vielleicht formulieren: Gott prüft den Menschen durch die Technik auf die Echtheit seiner christlichen Demut und Liebe. Als Weltkind darf ich nur sagen: Der Mensch versucht sich an der Welt auf vielerlei Weise. Mittels der Technik aber ermisst er mit Genauigkeit Art und Güte seines Wesens und erprobt so die ganze Kraft des wahren Menschentums. Nicht in der Errichtung zyklopischer Bauten und nicht durch die Erfindung von Maschinen titanenhafter Starke feiert die Technik ihre höchsten Triumpfe. Sie darf sie erst feiern, wenn sie dem Menschen jene unvergleichlich kostbare Freiheit erkämpft hat, deren er zur Entfaltung seiner edelsten geistigen und seelischen Kräfte bedarf, die Freiheit, als selbstverantwortliche Persönlichkeit zu leben, tätig zu sein und sich zu entscheiden.“

Zeitalter

Aufbauend auf der von Geschichtsprofessor Matthew Lavine von der Mississippi State University gezogenen Linien zwischen den Atomzeitaltern, werden die einzelnen Zeitalter betrachtet. Zum ersten Atomzeitalter, von der Entdeckung der Radioaktivität bis zur Zündung der Bombe, ist nur sehr spärlich Fachliteratur vorhanden. Hauptwerke sind hier Lavine's Essay The First Atomic Age Scientists, Radiations, and the American Public, 1895–1945 und Spencer Weart’s Nuclear Fear: A History of Images, welches die Grundlage des Lemmas Strahlenangst bildet.

Für den Zeitraum des „Kalten Krieges“ ist hingegen massig Literatur vorhanden, über alle Aspekte der Nuklearkultur und Technik. Leider leiden fast alle diese Betrachtungen unter einer Fixierung auf Kernwaffen, oder beschwören das Ende des Atomzeitalters. Da sich die heutige Soziologie als linke Kampfwissenschaft von den Prinzipien der Wissenschaft selbst verabschiedet hat, ist dies nicht weiter verwunderlich.[18][19][F] Empfehlenswert sind hier die Bände des Druckwerkes Das neue Universum, das zumindest bis in die 70er Jahre hinein einen ökologismusfreien, und damit fortschrittsfreundlichen Blick auf die Welt bot.

Für das letzte Kapitel wird ein Ausblick in die Zukunft gewagt. Die Stichworte dazu stammen aus den Bänden der Verlagsreihe Das neue Universum, dem Buch Zukunft – Das Bild der Welt von morgen (1974) und das in der sogenannten „DDR“ herausgegebene Werk unsere welt von morgen (1960). Diverse von Fachleuten und Wissenschaftlern veröffentlichte Studien flossen ebenfalls mit ein.[G]

Erstes Atomzeitalter

Als Radioaktivität das Licht der Öffentlichkeit betrat, war dies in der Geschichte der modernen Wissenschaft ein Novum: Zu dieser Zeit wurden einige fundamentale wissenschaftliche Erkenntnisse gemacht, zum Beispiel Massenkommunikation durch elektrische Leiter, Elektrizität für Licht und Kraftmaschinen, Verbrennungsmotoren, Flugzeuge, chirurgische Eingriffe unter Betäubung und Keimtötung, synthetische Chemie, die Erkenntnis der Plattentektonik und damit des Alters der Erde, und viele weitere Wunder der Technik, die die Gesellschaft disruptiv veränderten. Alle diese Dinge wurden der massenmedialen Öffentlichkeit als vollendete Tatsachen präsentiert. Die Entdeckung von Strahlung, die aus evakuierten Röhren entwich, war hingegen ein Mysterium. Physiker und Chemiker konnten diese Erscheinung nicht schlüssig erklären, und in diesem Fall war die Öffentlichkeit über die Massenmedien quasi live in die wissenschaftliche Debatte eingebunden. In diesem Interregnum der Physik und Chemie um die Jahrhundertwende bekam die Esoterik aufwind,[5] denn die Esoterik hängt an der Physik wie Parasiten an einem Wirtstier.

Die frühste Erwähnung von Röntgenstrahlen in der US-amerikanischen Presse war ein Fake-News-Artikel in der Chicago Daily Tribune 1896.[D] Neben andern Presseorganen erschien einige Wochen später in der Tribune ein Artikel über die potentielle industrielle Anwendung der Röntgenstrahlen, ein paar Tage später ein Artikel über wissenschaftliche Theorien über die Strahlen, und ein paar Tage später ein Artikel in dem darüber spekuliert wurde, Röntgenstrahlen seien eine Verbindung in die Geisterwelt. Im gleichen Jahr wurden von Becquerel auch Röntgen-ähnliche Emissionen des Urans entdeckt. Marie Curie prägte dafür den Begriff Radioaktivität. Das Problem, das Radioaktivität die damals bekannten Gesetze der Physik verletzte kam 1903 wieder in den Fokus. Becquerel und die beiden Curies bekamen den Nobelpreis, und im Juni wurden Soddys und Rutherfords Entdeckungen zur Transmutation bekannt. Etwas später wurden Röntgenstrahlen und Radium als Mittel zur Krebsbekämpfung einer weiten Öffentlichkeit bekannt, und begonnen Röntgenaufnahmen zu medizinischen Zwecken zu machen. In dieser Zeit wurden von den Qualitätsmedien auch diverse Fake News verbreitet, wonach Radioaktivität Blinde wieder sehen lassen könne und ähnlich sensationelles. Sie stimmten damit in den Chor diverser Wissenschaftler ein, die dramatisierend die Unsicherheit betonten, die die Entdeckung von Röntgenstrahlung und Radium in die Physik und Chemie brachten.[5]

Frederick Soddy beteiligte sich daran, als er 1909 sein populäres Buch The Interpretation of Radium vorstellte. Das Buch erhielt begeisterte Kritiken, wurde in vier Editionen im Laufe der nächsten 11 Jahre gedruckt. Soddy, dadurch ermuntert, schrieb weitere Bücher über Atomstrukturen und die darin gebundenen Energien. H. G. Wells widmete seinen 1914 erschienenen Roman The World Set Free, der von einem Atomkrieg handelt, Soddy, indem er Charaktere aus dem Roman aus The Interpretation of Radium paraphrasieren ließ. Soddy revanchierte sich, indem er 1915 die mediale Öffentlichkeit vor den Gefahren eines Atomkrieges warnte. Science-Fiction- und Populärliteratur griffen das Thema Radium und Radioaktivität auf.[5]

Um die Jahrhundertwende wurde auch festgestellt, das diverse Grundwässer, besonders solche die tief und heiß aus der Erdkruste kamen, radioaktiv waren. Dies verstärkte den Eindruck der damaligen Zeit, welcher Radioaktivität mit Vitalität und Gesundheit verband. Geschichten über Heilerfahrungen und Indianerlegenden an diversen Quellen wurden bald als Beleg für deren Radioaktivität genommen. Heilbäder nutzen diese neue Entdeckung, um für sich zu werben: Die Radonheilbäder entstanden. Ab 1910 kamen dann diverse Tuben, Salben, Pillen, Kleidung, Krüge, Emanatoren und anderes Zeug auf den Gesundheits- und Schönheitsmarkt, das zumindest der Verpackung nach radioaktiv sein sollte. Es wurde damit geworben, dass die Strahlen, den Strahlen der Sonne gleich, die Zellen des Körpers wieder mit Energie aufladen würden.[E] Die Produktpalette wurde um Radiumfarben erweitert, die im Dunkeln selbst leuchten. Um 1920 waren viele Haushalte noch nicht an das Elektrizitätsnetz angeschlossen, sodass selbstleuchtende Schlüssellöcher, Schalter, Uhrenziffern usw. attraktiv waren.[5]

Atomkraftwerkskonzept von 1939

Radioaktivität war damals ein kulturelles Phänomen, und stand für Fortschritt, Gesundheit und Modernität. So wie heute alles Öko, Bio und Grün sein muss, musste damals alles radioaktiv sein. Die Federal Trade Commission (FTC) prüfte bereits damals diverse Radium-Emanatoren. Die meisten enthielten gar kein Radium oder sonstige Radioaktivität, und diejenigen die tatsächlich radioaktiv waren, enthielten weit weniger Radioaktivität als angegeben. Auch radioaktive Tinkturen wurden vom Department of Agriculture geprüft, wobei manche, wie Radol, nicht radioaktiver als normales Leitungswasser waren.[5] Analog zu „Greenwashing“ könnte man von „Yellowwashing“ sprechen.

Atomexplosion in Nagasaki

Gegen Ende des ersten Atomzeitalters kamen Konzepte auf, die heute vertraut sind. Bereits 1934 hatte sich der ungarische Physiker Leó Szilárd die Idee eines Apparates, der eine nukleare Kettenreaktion bei Überschreitung einer kritischen Masse zur Energiegewinnung ausführt, patentieren lassen.[20] Die Kernspaltung wurde im Dezember 1938 am Kaiser-Wilhelm-Institut für Chemie entdeckt. Otto Hahn und sein Mitarbeiter Fritz Straßmann bestrahlten Uran mit Neutronen und stellten dabei fest, dass offenbar auch Spaltprodukte wie Barium entstanden waren. Im Jahr 1939 veröffentlichte das US-Magazin Amazing Stories einen Artikel über zukünftige Atomic Power Plants, die unbegrenzt Energie zur Verfügung stellen sollten. Es handelt sich wahrscheinlich um das erste skizzierte Konzept, Kernenergie zur Stromgewinnung zu nutzen. 1942 wurde Fermis Chicago Pile, der erste Atommeiler der Welt, kritisch. Fermi baute 1944 den ersten Flüssigkernreaktor, in dem Uranylsulfat in Wasser gelöst wurde. Das uransalzhaltige Wasser wurde in einem kugelförmigen Tank, der von einem Neutronenreflektor aus Berylliumoxid umgeben war, kritisch. Damit konnte die kritische Masse von Uran-235 bestimmt werden.[21]

Durch das Manhattan-Projekt gefördert und entwickelt, explodierte am 16. Juli 1945 um 5:29:45 Uhr Ortszeit in den USA die erste Kernwaffe der Welt. Die Testwaffe, eine Plutonium-Implosionsbombe, wurde auf einem 30,5 Meter hohen stählernen Turm in der White Sands Proving Grounds im US-Bundesstaat New Mexico gezündet. Einen Monat später wurden die ersten Kernwaffen auf Hiroshima und Nagasaki abgeworfen. Damit endete nicht nur der Zweite Weltkrieg, sondern auch das erste Atomzeitalter. Milton Rothmar, Science-Fiction-Autor und in Italien stationiert, schrieb dazu im Oktober 1945:[5]

„It was in The Stars and Stripes this morning, and even though I had been expecting it ever since hearing the first guarded stories from here and there concerning “Tennessee”, the reality was hard to believe. The headline said “Atomic Bomb”. To a person who has been raised on stories such as “The Final War”, this was both a terror and a hope. Man could use this to destroy everything. He could also be scared so badly at its possibilities that impending wars would be staved off long enough for a world organization to get going properly. My own personal hope: that I can get home fast enough and get my Doctor’s degree quickly enough so as to be able to get into the middle of the work that will be going on to slow down the atomic explosion and put it into a rocket motor. . . . When we stopped a few minutes at Rome, I heard somebody say on the radio the same remarks concerning the good and evil of atomic energy that I wrote above. It is obvious that many people are saying the same things and, in fact, we science fiction readers have been saying them for years. Goddam but it is thrilling to hear the words “atomic energy” used on the radio like they were talking about the latest model car. I feel like shouting to everybody “I told you so!”“

Zweites Atomzeitalter

„In den Geschichtsbüchern späterer Generationen wird der 27. Juni 1954 als der Tag vermerkt sein, an dem das „Atomzeitalter“ begonnen hat. Nicht die erste Urankernspaltung durch Hahn und Straßmann, nicht der erste Atombrand in Chicago, auch nicht die Zerstörung der Städte Hiroschima und Nagasaki leiteten dieses neue Zeitalter ein, sondern das Anlaufen des ersten Atomkraftwerkes der Welt.“[22]
Das Atomium

Menschen haben über Zehntausende von Jahren auf Grundlage „erneuerbarer“ Energien existiert: in geringer Zahl, mit niedriger Lebenserwartung, abhängig von Naturgewalten, mit einem relativ angenehmen Leben nur für wenige, für die Mehrzahl ein steter Überlebenskampf. Mit Energieträgern hoher Energiedichte (Kohle, Erdöl, Uran) konnten sich menschliche Gesellschaften aus der Begrenztheit dünner biosphärischer Energien (Sonne, Wind, Wasser, Biomasse) lösen. Im Zuge der Industriellen Revolution entstand die energieintensive Technosphäre, die großen Teilen der Menschheit inzwischen ein langes und angenehmes Leben ermöglicht.[14] Als 1851 mit der Great Exhibition die erste Weltausstellung eröffnet wurde, konnten Besucher die Ursache ihres Fortschrittes bewundern: Dort wurde ein massiver, 15 Tonnen schwerer Klumpen Steinkohle aus Südwales ausgestellt, als Monument des Industriezeitalters.[23]

Als 1958 mit der Expo 58 die erste Weltausstellung nach dem Krieg in Belgien unter dem Motto „Technik im Dienste des Menschen. Fortschritt der Menschheit durch Fortschritt der Technik.“ eröffnet wurde, wurden die beiden neuen Zukunftstechnologien Raumfahrt und Atomkraft erstmals einer breiten Öffentlichkeit vorgestellt. Um den Leistungsstand der belgischen Stahlindustrie zu demonstrieren, entwarf André Waterkeyn das Atomium als Symbol für das Atomzeitalter und die friedliche Nutzung der Kernenergie. Im Inneren der Kugeln befanden sich Ausstellungen zum Thema Kernkraft, und in der obersten Kugel ein Restaurant mit Aussicht über das Ausstellungsgelände. Die Verheißung einer nach menschlichen Maßstäben unbegrenzten Energiequelle mit hoher Energiedichte beflügelte die menschliche Phantasie: Nuklear angetriebene Schiffe, Flugzeuge, Lokomotiven und sogar Autos und Raumschiffe wurden prophezeit, um das Industriezeitalter in die Zukunft zu führen.

Das Ende des Zweiten Weltkrieges war aber auch durch die Hochphase der sozialistischen Bedrohung gegen die freie Welt gekennzeichnet. Als die deutsche Reichsregierung 1917 mit Propaganda und deutschen Steuergeldern Wladimir Iljitsch Uljanow (Kampfname: Lenin) zur russischen Oktoberrevolution verhalf,[24] und damit den Spaltpilz des Sozialismus aus der Gosse auf die weltpolitische Bühne hievte, breitete sich dieser in den 1920er und 1930er-Jahren durch den Revolutionsexport der Kommunistischen Internationale weiter aus.[25] Die Anti-Hitler-Koalition seit 1941 überdeckte den Konflikt zeitweise. In der Nachkriegszeit, dem sogenannten „Kalten Krieg“, steigerte sich der Konflikt in ein Wettrüsten zwischen den USA und der 1949 gegründeten NATO auf der einen, und der Sowjetunion und dem Ostblock auf der anderen Seite, welches bis zur Selbstauflösung des Warschauer Pakts Anfang der 1990er Jahre anhielt.

Pilzwolke von Ivy Mike

Hauptwaffe der politischen Rhetorik, war neben „Menschenrechten“, „Freiheit“ und „sozialer Gerechtigkeit“ „Die Bombe“. Zwar hatten die USA anfangs die Nase vorne, wie der erste Kernwaffentest Trinity zeigte. Auch durch die Spionagetätigkeit der Kommunisten Klaus Fuchs, und Julius und Ethel Rosenberg konnte die Sowjetunion bereits 1949 nachziehen, was zu einem beispiellosen nuklearen Wettrüsten führte. Bemerkenswert war auch die erstmalige Entwicklung einer funktionsfähigen Interkontinentalrakete durch die Sowjetunion – der sogenannte Sputnik-Schock von 1957. Im Bereich der Massenvernichtungswaffen wurde zunächst vor allem die Zahl und die Sprengkraft der Kernwaffen erhöht. Die Entwicklung der thermonuklearen Waffen, umgangssprachlich Wasserstoffbombe genannt, zeigte am 9. Mai 1951 erste Erfolge, als ein Sprengkörper mit 225 Kilotonnen das Konzept bestätigte. Ein Jahr später, am 1. November 1952, zeigte die Teller-Ulam-Konfiguration mit dem Sprengsatz "Ivy Mike" ihr Potential: Mit einer Sprengkraft von 10,4 Megatonnen war das Gerät über 450 Mal stärker als die Bombe, die über Nagasaki abgeworfen wurde.

Die sozialistische Agitation gegen (westliche) Kernwaffen führte zur sogenannten „Friedensbewegung“.[H] Ferner entstand bereits mit Beginn der Industrialisierung mit der Steinersche Lehre, der Reform- und Jugendbewegung, der Reformkost und ähnlichen Weltverbesserungsideen eine Gegenbewegung, welche den Menschen in einen „natürlicheren“ Zustand zurückversetzen wollte. Dazu kam, dass nach dem Weltkrieg der kulturelle Marxismus der Frankfurter Schule um Habermas, Marcuse und Adorno den ökonomischen Marxismus bei den westlichen Linken an Beliebtheit ablöste. Mit seiner Kritik an der bürgerlichen Gesellschaft, einschließlich ihrer Herrschaftsstrukturen und sogar gegen ihr Bekenntnis zu Technologie und Rationalität, prägt er die heutige westliche Linke. Auf diesem geistigen Nährboden wuchsen eine Reihe von NGOs und anderer Pressure Groups, sowie die 68er-Bewegung, die in ihrem Marsch durch die Institutionen die meinungsgebenden Eliten in Deutschland porentief unterwanderte. Zur Dauerbeschallung durch links-grüne Tröten gehörten auch die Unkenrufe der Organisation Club of Rome, das fiktive Waldsterben und die Dramatisierung einer Reihe von Chemieunfällen (z.b. das Sevesounglück 1976, oder die Itai-Itai-Krankheit). Dies führte bei vielen Menschen in den westlichen Ländern zu einem Gefühl des Unbehagens, zu Schuldkomplexen und Katastrophentheorien gegenüber der modernen Technik und der weißen, westlichen Gesellschaft.

Ein Dokument des Wandels ist zum Beispiel das Buch Zukunft – Das Bild der Welt von morgen (1974). Alle in diesem Buch dargestellten Probleme einer zukünftigen Menschheit entsprechen dem ökologistischen Schema, in der Form einer Reihe von Weltuntergangs- und Endzeitvorhersagen. Das Narrativ war zu diesem Zeitpunkt bereits in der Hand der links-grünen Meinungsmacher. Im Unterschied zu heute waren die naturwissenschaftlichen Milieus der Ingenieure und Forscher aber noch die bürgerlich-technokratischen der Nachkriegszeit. Der Kontrast von ökoreligiösem Problembewusstsein auf der einen Seite, und nüchtern-sachlicher technischer Problemlösung auf der anderen Seite machen das Buch für jeden Interessierten der Gesellschaftsgeschichte zur Pflichtlektüre – auch um einen ökologiefreien Blick in die Zukunft zu gewinnen.[26]

In der konkreten technischen Implementierung wurden Kernkraftwerke als erstes angegangen: So wurde ab 1949 der Experimental Breeder Reactor I in der National Reactor Testing Station (heute Idaho National Laboratory) gebaut. Am 20. Dezember 1951 konnte erstmals Atomstrom produziert werden, indem vier 200-W-Glühbirnen zum Leuchten gebracht wurden. Ab 1952 wurden in der National Reactor Testing Station auch die BORAX-Experimente durchgeführt. Diese Experimente sollten zeigen, das mit Siedewasserreaktoren ein stabiles Betriebsverhalten möglich war, was von dem Nukearingenieur Samuel Untermyer vorhergesagt wurde. Als BORAX-III am 17. Juli 1955 an das örtliche Stromnetz angeschlossen wurde, konnten 2.000 kWe für die nahe gelegene Kleinstadt Arco, 500 kWe für Idaho, 500 kWe für das BORAX-Testgelände und 1.000 kWe für die National Reactor Testing Station produziert werden. Arco wurde damit die erste Stadt der Welt, welche zu 100% mit Atomstrom versorgt wurde. In der Sowjetunion wurde das Kernkraftwerk Obninsk am 26. Juni 1954 in Betrieb genommen. Es war auch das erste Kernkraftwerk am öffentlichen Netz. 1957 folgte schließlich der kommerzielle Durchbruch der Atomkernenergienutzung: Das Kernkraftwerk Vallecitos wurde als erstes privat finanziert, gebaut und betrieben. Die Anlage wurde auch zur Ausbildung der Operatoren für das Kernkraftwerk Dresden verwendet, welches als Erstes ohne staatliche Zuschüsse gebaut wurde. Die Technik war damit marktreif, nachdem die Unikate der ersten Generation aufgrund ihres experimentellen Charakters und den höheren Produktionskosten nicht mit Kohlekraftwerken konkurrieren konnten.

Das argentinische Kernkraftwerk Atucha erzeugt neben Strom auch Kobalt-60

Als der Club of Rome im Jahr 1972 seinen ökoreligiösen Verzichtsappell „Die Grenzen des Wachstums“ veröffentlichte, und ein Jahr später das Ölembargo arabischer Staaten die Bürger „westlicher“ Länder traf, wurde die Kernenergienutzung in allen Ländern als Lösung des Problems angesehen. Das Schreckgespenst, dass eines Tages durch einen Mangel an fossilen Brennstoffen die Technosphäre durch eine energieoptimierte Erziehungsanstalt ersetzt werden müsse, sollte so verhindert werden. Kernenergie sollte fossile Brennstoffe zunehmend ersetzen und Energie für die Industrialisierung der armen Länder liefern. Europäische Länder forcierten die Kernenergie, um sich von ausländischen Energielieferungen unabhängiger zu machen. Entwicklungsländer wie Indien, Iran, Pakistan, Brasilien und Argentinien legten ehrgeizige Programme zum Bau von Kernreaktoren auf. 1981 veröffentlichte ein internationales Wissenschaftlerteam das erste globale Energieszenario unter dem Titel „Energy in a Finite World: Paths to a Sustainable Future“.[27] Es projektierte eine Weltenergieversorgung, die auf Kernreaktoren und großen Solarkraftwerken in Wüstengebieten beruhte. Weltweit sollten nach dieser Studie zur Jahrtausendwende rund 1600 Reaktoren in Betrieb sein, rund 3600 im Jahre 2020.[13] Weitere angedachten Systeme wie nuklear angetriebene Raumschiffe, Autos, Flugzeuge und Schiffe konnten zumindest technisch verwirklicht werden. Die Massenanwendung scheiterte meist an politischen und wirtschaftlichen Gründen. Einen beispiellosen Aufstieg erlebte neben den Kernkraftwerken auch die Anwendung von Radionukliden in der Nuklearmedizin, der Mutationszüchtung und der Materialforschung.

Mit dem Ende des sogenannten „Kalten Krieges“ begann nach der Einteilung von Geschichtsprofessor Matthew Lavine das Ende des zweiten Atomzeitalters. Die mentale Karte wandelte sich: Das Gleichgewicht des Schreckens, spektakuläre Bilder von explodierenden Kernwaffen und die Logik des Wettrüstens spielten nach dem „Wind of Change“ im Osten keine Rolle mehr. Heutige Bürger assoziieren mit „Atom“ andere Bilder als ein Bürger auf dem Höhepunkt der Blockkonfrontation.

Drittes Atomzeitalter

Lieber Herr Selbstversorger!
Offenbar ist Ihnen nicht bewusst, wie wir unseren Strompreis kalkulieren. Sie zahlen keineswegs für ‚den Strom‘ allein, sondern vor allem für die Baukosten unseres Kraftwerks und die Kosten der Leitungen, die wir unterhalten müssen. Von den 15 Cent, die Sie uns pro kWh bezahlen, verbrauchen wir nur 2 Cent für die tatsächliche Herstellung des Stroms, also für den Einkauf der Kohle, die wir im Kraftwerk verbrennen. Der Rest von 13 Cent geht in die Instandhaltung, die Abschreibung und die Verzinsung und ein bisschen Gewinn wollen wir auch haben, sonst können wir ja gleich aufhören.
Sie zahlten uns bisher 1500 € im Jahr. Dafür bekamen Sie 10.000 kWh. Nun sieht es so aus, als würden Sie nur noch die Hälfte beziehen wollen, aber trotzdem jederzeit die volle Leitung wie früher verlangen. Wir müssen also unser Kraftwerk und die Leitungen genau so bereit halten wie bisher. Deshalb haben wir auch weiterhin fixe Kosten von 1300 €, die von Ihnen verursacht werden. Wir sparen zwar Brennstoff, wenn Sie nur die Hälfte abnehmen, aber das sind nur 100 €. Wenn Sie also nur noch 5000 kWh beziehen wollen, sehen wir uns gezwungen, den Preis pro kWh auf 28 Cent zu erhöhen – sonst müssten wir unseren Preis für alle Kunden erhöhen, um unsere Kosten zu decken und das können wir Ihren Nachbarn nicht zumuten.
Mit freundlichen Grüßen
Ihr Versorger[28]

Bei der Betrachtung der globalen Strompreisentwicklung (oder allgemeiner: Energiepreisentwicklung) lässt sich folgender Trend feststellen: Die Energiepreise sinken seit Jahrhunderten. Um den Preis für eine Stunde Leselicht bezahlen zu können, musste ein durchschnittlich verdienender Brite 1997 etwa eine halbe Sekunde arbeiten. 1950 wären dafür acht Sekunden Arbeit vonnöten gewesen, 1880 fünfzehn Minuten und um 1800 hätte ein Arbeiter sechs Stunden seiner Zeit investieren müssen, um sich eine Kerze zu leisten, die eine Stunde gebrannt hätte.[29] Inzwischen ist der Trend soweit fortgeschritten, das Strom ein typisches Flatrate-Produkt ist.[28] Bei einem Endverbraucherpreis von unter 15 ct/kWh liegen die Erzeugungskosten von Wasser-, Kern- und Kohlestrom in den USA bei 1 – 3,5 ct/kWh, wobei die Brennstoffkosten von Kernkraftwerken bei 0,6 ct/kWh liegen (inkl. 0,1 ct/kWh Entsorgungsabgabe).[30] Zu beachten ist nun, dass alle Kosten ausser den Brennstoffkosten Fixkosten sind. Wenn ein Abnehmer nichts abnimmt, aber sich das Recht vorbehält, jederzeit Strom bis zur vertraglichen Grenze seines Anschlusses zu beziehen, muss der Versorger die volle Kraftwerks- und Netzkapazität jederzeit vorhalten und natürlich die entstehenden Kosten tragen. Dies führt zu der paradoxen Situation, dass ein sinken des Stromverbrauches zu einer Erhöhung des Strompreises führt. Damit wird Strom zum Flatrate-Produkt: Weil wie beim Internet die Benutzung der Leitung gegenüber den Infrastrukturkosten kaum ins Gewicht fällt, zahlt der Kunde einen Fixpreis und kann dann bis zum Anschlussgrenzwert so viel verbrauchen wie er will. Zumindest wäre es aber aufgrund der Kostenstruktur richtig, eine sehr hohe Grundgebühr und einen sehr niedrigen kWh-Preis zu verlangen.[28]

Elektrische Energie wird – mit oder ohne Deutschland – in Zukunft zunehmend in Kernkraftwerken erzeugt werden. Diese Entwicklung ist in einer freien Wirtschaft zwingend, weil Kernenergie inzwischen sicher beherrschbar ist und neben großen Wasserkraftwerken die niedrigsten Kosten verursacht.[31] Würde der Strom sehr billig bzw. per Flatrate bezogen, würden viele Menschen dazu übergehen, elektrisch zu heizen und Elektroauto zu fahren. In der Industrie und Produktion würden mehr Tätigkeiten durch Maschinen erledigt, was zu einem Entwicklungsschub bei Automation und elektronischen Rechenmaschinen führt. Diese Vollautomatisierung führt, zusammen mit der Verfügbarkeit von preisgünstiger Energie zur Welt der Zukunft.[9]

Magnetschwebebahn im Railway Park Museum in Nagoya

Vollautomatisierte Fabriken, in denen kein Mensch mehr arbeitet produzieren Güter. Neue Aufbereitungsfabriken würden Abfall wiederverwerten, um daraus wieder Rohstoffe zu gewinnen. Schwimmende Kernkraftwerke werden gebaut, um auch entlegene Regionen flexibel mit Atomkernenergie versorgen zu können. Bergbau würde auch auf dem Meeresgrund betrieben. Selbstfahrende Automobile mit Elektromotoren, möglicherweise über Induktionsschleifen in der Fahrbahn aufgeladen surren durch die Gegend.[26][9] Geräuschlose Magnetschwebebahnen werden gebaut, um mit Tempo 500 zu reisen. Magnetschwebetechnik käme auch bei der Straßenbahn oder Schienentaxis zum Einsatz, um das Gequietsche bei der Kurven- und Geruckel bei der Weichenfahrt abzustellen.[26]

Zur Ernährung der zukünftigen 15 Milliarden Erdenbürger werden Pflanzenfabriken bzw. Farmfabriken in klimatisierten Gebäuden Nahrungsmittel züchten. Aquakulturen werden verstärkt eingesetzt, um die Produktivität der Fischerei zu verbessern.[26][9] Da die Aufzucht eines Tieres zeit- und kostspielig ist wurde in den 70er Jahren auch daran geforscht, Fleischersatzprodukte aus Soja, oder aus Erdöl mit Hilfe von Mikrobenmasse herzustellen.[26]

Im 1700 m hohen Sky Mile Tower könnten 55.000 Menschen siedeln

Besondere Aufmerksamkeit liegt auf der Stadt der Zukunft. Diese muss natürlich autofreundlicher werden, indem die Straßen verbreitert, getunnelt und aufgeständert werden. Automatische Parkhäuser werden Standard. Angedacht waren auch Städte unter einer Plexiglaskuppel, die mit Kernkraft klimatisiert werden. Durch künstliche Beleuchtung kann der Tag-Nacht-Rhythmus abgeschafft werden. Um die Natur zu schonen, wurden diese Ideen in andere Stadtkonzepte hineinentwickelt: Bei sogenannten Kathedralen-Städten oder Hochhaus-Städten besteht die ganze Stadt aus einem einzigen Gebäude, oder einem Ensemble von miteinander verbundenen Hochhäusern. Die Stadt steht dann wie eine Raumstation in der Landschaft ohne sie zu verschmutzen, da alle schädlichen Gase, Flüssigkeiten und Feststoffe abgesaugt, isoliert und weiterverarbeitet werden. Ein solches Stadtsystem kann überall errichtet werden, selbst in Eis und Wüste.[26][9] Eine Ideenskizze zeigte beispielsweise, wie die Bewohner von Los Angeles in vier 500m hohen Hochhäusern untergebracht werden könnten, mit 22.000 Bewohnern pro Turm. Die umgebende Landschaft kann dann der Natur überlassen werden. Weitere Ideen gehen von Hochhaus-Städten im flachen Wasser der Küsten aus, um Landfläche zu schonen. Die Verbindung zwischen den Hochhäusern bzw. Bewohnern und ihren Einkaufs- und Arbeitsstätten fände dann durch Fahrstühle und Rohrpostsysteme statt. Im Fuß der Türme ist dann unter der Erde der Fernbahnanschluss, und das Parkhaus für die Autos der Bewohner untergebracht.[26]

Diese Art des umweltfreundlichen siedelns wurden vom italienischen Physiker und Systemanalytiker Cesare Marchetti auf die Spitze getrieben, als er 1979 ein Paper mit dem Titel 1012: A Check on the Earth-Carrying Capacity for Man veröffentlichte. Sein Szenario war eines von vielen Papieren, die er am Internationalen Institut für angewandte Systemanalyse (IIASA) in Laxenburg bei Wien verfasste. Marchetti war Mitautor des ersten globalen Energieszenarios „Energy in a Finite World“. In dem Paper beschreibt er, mit überschlägigen Rechnungen untermauert, wie eine Billion Menschen auf der Erde leben könnten, wenn diese in Kathedralen-Städten (teilweise auch aufgeständert im Meer wie Bohrinseln) leben würden.[32]

Alle Energie stammt aus nuklearen und solaren Quellen. Der gesamte Energieverbrauch wird sich auf 10.000 Terawatt belaufen. Das entspricht grob dem gegenwärtigen Energieverbrauch pro Kopf in Europa und den USA. Absolut gesehen wird der zukünftige Energieverbrauch pro Kopf also etwa gleich dem heutigen sein. Allerdings wird diese Energiemenge durch eine höhere Energieeffizienz einen zehnmal größeren Nutzen liefern als heute. In Marchettis Szenario wird ein Teil der Sonnenenergie, die auf die Stadtmaschinen fällt, lokal für Beleuchtung, Gebäudeklimatisierung und Stromerzeugung genutzt. Die industrielle Fertigung, einschließlich der Herstellung von Nahrungsmitteln, benötigt am meisten Energie. Diese kommt aus Brutreaktoren, denn mit der Brütertechnologie ist auch Uran aus Meerwasser wirtschaftlich einsetzbar. Konzeptionell bleiben so tausende Jahre der Kernspaltung, bis die Kernfusion aufgrund des Mangels an Brutstoffen benötigt wird. Güter und Menschen werden mit Magnetbahnen transportiert. Diese gleiten in unterirdischen Vakuumröhren mit Geschwindigkeiten über 500 Stundenkilometer. Für jeden Bewohner der Superstadt war eine Vielzweckverbindung (Supervideophon) zu jeder anderen Person, zu jeder öffentlichen Einrichtung und zu jedem öffentlichen Informationsspeicher angedacht. Jeder Person sollte ein Datenfluss von einem Terabit pro Sekunde (137 GB/s) zur Verfügung stehen.[32]

Das Konzept von Marchetti deckt sich mit den Ideen von Architekten und Physikern der Zeit. Die Idee war und ist stets, die Technosphäre zu kompaktieren und schärfer von der Natur zu isolieren. Diese Entwürfe gehen fließend in die Idee freier Privatstädte über. Freie Privatstädte haben einen Betreiber, der mit den Bewohnern als Staatsdienstleister einen Bürgervertrag auf Gegenseitigkeit abschließt.[33]

Anwendungsfälle

Stromversorgung

Jahrhundertelang hatte sich der Energieverbrauch nicht wesentlich geändert. In dem Jahrhundert von 1850 bis 1950 stieg er auf das Vierfache. Gleichzeitig nahm die Energieeffizienz zu: Die Produktion erhöhte sich in noch schnellerem Tempo, denn der Mensch lernte die Energie immer besser auszunutzen und rentabler zu verwenden. In den ersten fünf Jahrzehnten des letzten Jahrhunderts ist der Nutzwert der Energie auf das Doppelte angewachsen. Aber auch die Bevölkerungszahlen wuchsen. Dazu kamen ständig steigende Bedürfnisse der Menschen.[9]

Von den knapp 8 Milliarden Menschen auf der Erde streben etwa 6 Milliarden Menschen einen Lebensstandard analog der US-Mittelklasse an. Etwa 400-500 Mio. wünschen im Sinne der Ökoreligion eine Rückentwicklung in eine verarmte, feudalistische, vorindustrielle Gesellschaft. Insofern wird der Energiehunger der Welt von morgen ungleich größer sein als heute. Die enorme Ausweitung der automatisierten Produktion, die Entlastung des Menschen von allen schweren körperlichen Arbeiten und die Übernahme zahlloser Kontroll- und Steuerungsaufgaben durch Maschinen, die Überwindung von Armut und Rückständigkeit in bevölkerungsreichen Ländern, all das wird den Energiebedarf in die Höhe treiben. Dieser Energiebedarf wird hauptsächlich durch elektrische Energie gedeckt werden, denn sie ist am flexibelsten:[9] Sie treibt Maschinen und Automaten an, sie kann zum Heizen und zum Kühlen verwendet werden, für Mobilität und Beleuchtung. Ferner kann sie mit geringen Verlusten in andere Energieformen gewandelt, und gut transportiert werden. Der zunehmende Bedarf nach Elektromobilität wird die Nachfrage nach Strom weiter steigen lassen, besonders Nachts, wenn die Akkumulatoren geladen werden. Dies erhöht den Bedarf nach Grundlaststrom, und bevorzugt die Errichtung von Kraftwerken mit hoher Verfügbarkeit und geringen Brennstoffkosten.[34]

In einem Stromnetz müssen Einspeisung und Verbrauch in jedem Augenblick gleich sein. In einem modernen Stromversorgungssystem sichern die rotierenden Massen der Turbogeneratoren der Großkraftwerke die Stabilität im Sekundenbereich, die Kesselreserven der Dampfkraftwerke im Minutenbereich. Darüber hinaus kommen schnell ansprechende Reservekraftwerke zum Zuge, in der Regel sind dies Gaskraftwerke. Umweltschädliche Solarzellen und mittelalterliche Windmühlen tragen nicht zur Netzstabilität bei. Sie erzeugen Strom gemäß den Launen des Wetters, der Tages- und Jahreszeit. Solcher Strom ist in einem bedarfsgesteuertem Netz wertlos. Trotzdem wird von ökobegeisterten Journalisten versucht der Bevölkerung weiszumachen, dass ein Umstieg von grund- und regellastfähiger Stromproduktion auf Zufallseinspeisung möglich sei. Auch das Wort Energieeffizienz wird umgedeutet: Unter Energieeffizienz verstehen technikferne Politiker und ökoreligiöse Journalisten an erster Stelle Schikanen für die Verbraucher wie das Glühbirnenverbot, Staubsaugerdrosselung usw. Deutschland wähnt sich dabei in einer imaginären Vorreiterrolle, die in der Praxis nur aus Abschaltplänen und dem massenhaften Zubau von Kleinanlagen mit Zufallsleistung besteht, gepaart mit Sündensteuern auf Energie, die ein kostbares Gut sein soll.

Fakt ist, dass die Uranvorräte der Erde nach menschlichen Maßstäben unerschöpflich sind, wenn die Wiederaufarbeitung und Brütertechnik genutzt wird. Die Energiefreisetzung bei der vollständigen Spaltung von 1 kg Uran ist 2,5 Millionen mal größer als bei der Verbrennung von 1 kg Steinkohle. Für die Wasserstofffusion sieht die Gewichtsbilanz mit 22,7 Millionen noch besser aus. Brut-, Spalt- und Fusionsstoffe finden sich auch auf dem Meeresgrund, oder auf anderen Himmelskörpern.[9]

„Die Brennstoffvorräte sind unerschöpflich. Ein Bild, gebraucht von einem Schweizer Wissenschaftler, möge das deutlich machen: Wenn der Rhein Hochwasser führt, jagen an der Stadt Basel in jeder Sekunde 6000 m³ Wasser vorbei. Diese Wassermenge enthält 1 t schweres Wasser, aus dem der Ausgangsstoff für Deuterium gewonnen werden kann. Ein anderer Vergleich: Allem schweren Wasserstoff, der auf der Erde vorkommt, entspricht ein Energieäquivalent von solchen Mengen Erdöl, daß man, um sie unterzubringen zu können, einen Tank vom Durchmesser unserer Erde bauen müsste. 1,5 Trillionen t Wasser in allen Weltmeeren sind ein Energiereservoir für viele hundert Billionen Jahre.
Energie aus Wasser – das ist die entgültige Befreiung der Menschheit von allen Energiesorgen. Noch liegt der Zeitpunkt fern, zu dem wir souverän über diese Möglichkeiten verfügen. Aber ob es sich um einige Jahre oder Jahrzehnte handelt – die Vorräte an spaltbaren Materialien reichen um ein Vielfaches länger, als zur Überbrückung dieser Zeitspanne nötig wäre.“[9]

Kernkraftwerk

Mainarticle-yellow.svg Hauptartikel: Kernkraftwerk

Heutige Kernkraftwerke sind fast ausnahmslos Leichtwasserreaktoren mit thermischem Neutronenspektrum. Diese profitierten teilweise von der militärischen Entwicklung auf diesem Gebiet, vor allem der Druckwasserreaktor als Antrieb von U-Booten. Der Siedewasserreaktor ist eine eigenständige Entwicklung und ein evolutionärer Versuch, den Aufbau eines thermischen Kraftwerkes in das Atomzeitalter zu übertragen. Moderne Kernkraftwerke sind sicher beherrschbar, zuverlässig im Betrieb und wirtschaftlich im Unterhalt. Hauptproblem sind heute die hohen Errichtungskosten, die durch staatliche Schikane beliebig in die Höhe getrieben werden können.

Bau des Kühlturmes im Kernkraftwerk Nowoworonesch II

An der grundsätzlichen Ökonomie von Kernkraftwerken ändert sich nichts, egal ob es sich um Kernspaltungs- oder Kernverschmelzungskraftwerke handelt. Die Vorlaufkosten sind gigantisch, die Betriebskosten vernachlässigbar. Damit ähneln Kernkraftwerke großen Talsperren mit Wasserkraftwerk, die eine vergleichbare Kostenstruktur aufweisen. Beide profitieren stark von Größendegressionseffekten, auch Skaleneffekte genannt: Eine große Fabrik produziert billiger als 1000 kleine Anlagen. Aus diesem Grund werden sich Kernkraftwerke in zwei Trends entwickeln: Großkraftwerke werden stetig höhere elektrische Leistungen bereitstellen können. Der aktuelle Spitzenreiter hier ist der Framatome EPR mit über 1650 MWe. Auf der anderen Seite werden kleine modulare Reaktoren mit unter 300 MWe existieren, die kostengünstig in einer Fabrik als Massenware fabriziert werden. Diese Kleinanlagen können zu einem größeren Komplex zusammengeschaltet werden; die Modularität erhöht die gesamte Anlagenverfügbarkeit. Die nukleare Kleintechnik bietet vor allem einen Weg für Entwicklungsländer, um eine Nuklearindustrie zu einem Bruchteil der Kosten und Risiken aufzubauen, die bei Großkraftwerken anfallen würden. Diese Mini-Reaktoren können sowohl Strom als auch Heizwärme für nahe Kommunen liefern, Meerwasser entsalzen oder als Leistungsreaktoren in Schiffe verbaut werden, was die Produktionszahlen weiter steigert. Durch den kleinen, kompakten Aufbau sind passive Kühlsysteme möglich, sie sind für Jahrzehnte mit Brennstoff ausgestattet und während ihres Betriebes wartungsfrei. Die Betriebsweise entspricht der einer wartungsfreien Batterie und die Betreibergesellschaft muss dank Vollautomatisierung kein Fachpersonal bereitstellen.

Wenn Energieversorger neue Kraftwerke projektieren, sind die wichtigsten Kriterien Investitionskosten, niedrige Betriebskosten, Verfügbarkeit, Regelbarkeit, minimale Reibereien mit der Regierung und NGOs und geringe Risiken aller Art. Anders formuliert, wenn Kernkraftwerke keine ökonomischen Vorteile besitzen, werden Versorger auch noch in 50 Jahren Gas- und Kohlekraftwerke bevorzugen. Wahnvorstellungen über Verbrennungsprodukte oder das baldige Ende fossiler Reserven werden langfristig nicht helfen. Die meisten neuen Kraftwerksentwicklungen der Generation IV konzentrieren sich auf fiktive Probleme wohlstandsverwahrloster westlicher Gesellschaften wie Proliferation, Vermeidung von Atommüll und hypothetischer Risiken.

Kernkraftwerk Qinshan mit Schwerwasserreaktoren

Eine zukunftsträchtige Entwicklung bei Großanlagen werden Brutreaktoren mit flüssigen Reaktorkernen aus einer Salzschmelze oder einem Eutektikum sein, oder zumindest eine Flüssigmetall- oder Flüssigsalzkühlung eines festen Reaktorkerns. Hauptschwierigkeit bei der weiteren Erhöhung der Blockleistung von Leichtwasserreaktoren sind (neben Turbosätzen) die Primärkreisläufe, wo das Wasser mit etwa 160 bar beaufschlagt wird. Da der Siedepunkt von Metallen und Salzen erheblich über dem von Wasser liegt, kann ein solcher Flüssigmetall- oder Flüssigsalzkühlkreis drucklos betrieben werden, dh er hat lediglich den dynamischen Druck der Förderpumpen. Zukünftige Kernkraftwerke werden Blockleistungen von 2000 MWe erreichen, was die obere Grenze von Leichtwasserreaktoren darstellen dürfte.

Kernkraftwerke werden regelmäßig gewartet, und Verschleißteile ausgetauscht. Dies ermöglicht bestehende Anlagen regelmäßig kostengünstig leistungszusteigern, sofern der Staat keine Hürden in den Weg legt. In den USA wurde durch Tuning der bestehenden Anlagen von 1970 bis 2018 etwa 7.923 MWe zusätzliche Erzeugungskapazität geschaffen,[35] was etwa 8 mittleren Kernkraftwerken entspricht. Da es erheblich günstiger ist, die Leistung von bestehenden Anlagen zu steigern als ein neues Kernkraftwerk zu bauen, sind die Errichtungskosten dieses fiktiven neuen Kernkraftwerkes konkurrenzlos billig. Der Preis pro installiertes Megawatt beträgt nur 15 – 50 % eines tatsächlichen Neubaus.[36]

Durch die regelmäßige Pflege und gründliche Wartung ist die Lebensdauer von Kernkraftwerken sehr hoch: Ältere Anlagen sind auf 40 Jahre konzipiert, werden aber aufgrund ihres geringen Verschleißes häufig mit einer 60-jährigen Betriebslizenz versehen.[37] Heutige Neubauten sind auf eine Kataloglebensdauer von 60 Jahren konzipiert, werden also etwa 80 Jahre in Betrieb sein, und damit ein Gegenpunkt zur kurzlebigen Wegwerfgesellschaft sein. Auch hier entspricht die Ökonomie der einer Talsperre mit Wasserkraftwerk: Talsperren haben eine konzipierte Lebensdauer von 100 Jahren, können aber dank regelmäßiger Wartung und Pflege erheblich länger am Netz sein. Anlagen wie der 1935 errichtete Hoover Dam werden so vom Kraftwerk zum Landschaftsmerkmal, zur Touristenattraktion und zur Ikone der Region.

Vulkankraftwerk

Unterhalb der Erdkruste befindet sich flüssiges Gestein durch den Stau der Akkretionswärme und der radioaktiven Zerfallswärme, analog zu einer Kernschmelze. Geoneutrino-Detektoren können den Zerfall von 238U und 232Th messen, und erlauben damit eine Schätzung ihres Beitrages zur Erdwärme. Der Zerfall von 235U und 40K ist damit nicht detektierbar, der 40K-Anteil wird aber auf 4 TW geschätzt. Durch diese Messungen wissen wir, dass etwa die Hälfte der Erdwärme durch Radioaktivität erzeugt wird.[38] Geothermie ist deshalb auch eine Art, Kernenergie zu nutzen. Das Verhältnis von Geothermie zur Radionuklidbatterie ist dasselbe, wie von einem Naturreaktor zum Kernkraftwerk.

Der Anlagenkomplex des Vulkankraftwerks Krafla in Island

Bohrt man an einem durchschnittlichen Ort der Erde in die Tiefe, hat man einen geothermischen Gradienten von 2,5–3K/100m.[39] Wie ersichtlich, müsste man mehrere tausend Meter tief in die Erde bohren, um genügend Wärme für einen Kreisprozess zu erhalten. An manchen Gegenden der Erde ist das Magma durch Tektonik aber nahe unter der Erdoberfläche versammelt. Dies kann man sich zu Nutze machen, indem Löcher in den Grund gebohrt werden, durch die Wasser geleitet, und heißer Dampf bezogen wird.[39] Der Dampf lässt sich dann in Turbinen zur großtechnischen, dh wirtschaftlichen Stromerzeugung nutzen. Durch diese Randbedingungen können Vulkankraftwerke nur in der Nähe eines Vulkans errichtet werden. Die alternative Bezeichnung Magma-Kraftwerk macht diesen Sachverhalt ebenfalls deutlich. An den meisten Orten der Welt gibt es aber nur die Option, bis zur nötigen Tiefe zu bohren, um die benötigten Temperaturen zu erreichen.

„Um an diese Wärmequelle heranzukommen, müsste man Schächte bohren, die bisher, mit den derzeitigen Mitteln, nicht erreichbar sind. Abgesehen von "oberflächlichen" Schwankungen, nimmt die Temperatur in der Tiefe im allgemeinen je 33 m um 1°C zu. Man kann sich also sehr leicht ausrechnen, in welchen Tiefen die Temperaturen über dem Siedepunkt des Wassers liegen. Auf der Sohle eines Schachtes von 10 km Tiefe würden bereits 300°C herrschen, bei 20 km also 600°! Bisher haben die tiefsten Bohrungen – bei der Erdölgewinnung – 6 km Tiefe erreicht. Wie die für Erdkraftwerke erforderlichen Tiefen erreicht werden können, ist noch nicht geklärt; wenn es aber eines Tages soweit sein wird, daß Schächte bis 10 oder 15 km tief gebohrt und auf der Sohle dieser Schächte große unterirdische Becken herausgesprengt werden können, braucht man "nur" noch Wasser in diese Wasserreservoire laufen zu lassen, um Dampfkessel zu erhalten, wie sie auf der Erdoberfläche niemals gebaut werden können.“[9]

Ob in Zukunft die Möglichkeit verwendet wird, die natürliche Radioaktivität in Erdkraftwerken zu verstromen, hängt von den Kosten der Bohrung und der erzielbaren Leistung ab. Für das Vulkankraftwerk Krafla werden in weiteren Ausbaustufen Erzeugungskosten von 1,9 bis 2,2 $-ct/kWh angeführt. Die Produktionskosten des Kraftwerkes liegen bei lediglich 0,7 $-ct/kWh, der Rest sind Kapitalkosten.[40] Die Bohrungen gehen nur 1–2 km tief, erreichen aber eine Dampftemperatur von knapp 300°C. Der Kraftwerkskomplex mit seinen Rohren und Bohrfeldern erstreckt sich über 2–3 Kilometern.

Ginge es nur darum warmes Wasser aus der Erde zu beziehen, könnte man auch genauso hochradioaktive Abfälle in Wassertanks stellen, um sie als Wärmequelle zu benutzen. Der Gedanke an eine derartige Nutzung wurde in den 70er Jahren im Kernforschungszentrum Karlsruhe erwogen. Er wurde jedoch aufgegeben, da eine derartige Energiequelle aufgrund der vorherrschenden ökoreligiösen Schikanen in Deutschland nicht wirtschaftlich konkurrieren kann.

Radionuklidbatterie

Eine Radionuklidbatterie wandelt die thermische Energie des spontanen Kernzerfalls eines Radionuklids in elektrische Energie um. Durch ihre Funktionsweise sind Radionuklidbatterien klein und kompakt, erreichen aber nur vergleichsweise geringe Leistungen. Sie sind praktisch wartungsfrei und können über Jahre bis Jahrzehnte hinweg elektrische Energie liefern. Charakteristisch ist der zeitlich exponentielle Leistungsabfall durch die Halbwertszeit des eingesetzten Radionuklids. Bei relativ großen Halbwertszeiten spielt dies aber keine Rolle.

Einsatzgebiete sind zB Herzschrittmacher, Atomautos, Raumsonden und die Stromversorgung von unzugänglichen Gebieten der Erde und im All. Besonders bei Raumfahrtmissionen, die sich in den äußeren Planeten abspielen und auch für einige militärische, niedrig fliegende Aufklärungssatelliten haben sich Radionuklidbatterien durchgesetzt. Radionuklidbatterien werden dabei so ausgelegt, dass auch bei Zerstörung des Satelliten durch Explosion oder Wiedereintritt in die Atmosphäre und Verglühen kein radioaktives Material austritt. Ein Beispiel dafür ist die Radionuklidbatterie SNAP-27, die als Stromerzeugungsaggregat auf dem Mond eingesetzt wurde.

Bei Raumfahrtmissionen wird in der Regel Plutonium-238 eingesetzt, da es bezüglich Kosten, Energiedichte und Halbwertszeit Vorteile bietet. Plutonium-238 muss dafür in Kernreaktoren erbrütet werden. Für leistungsstarke Atombatterien, die unzugängliche Gebiete der Erde mit Strom versorgen sollen, werden radioaktive Substanzen verwendet, die aus abgebrannten Kernbrennstäben in der Wiederaufarbeitung extrahiert werden können, wie Strontium-90. Da der Wirkungsgrad der wartungsfreien thermoelektrischen Wandler sehr gering ist, werden in Zukunft Sterlingmotoren oder Alkalimetall-thermisch-elektrische Wandler (AMTEC) die Konversion von thermischer in elektrischer Energie übernehmen.

Verkehr

Gabrielli-Kármán-Diagramm
„Die Veranstaltung nannte sich „Festival der Utopien“. Zwei Tage hatten die in verschiedene Gruppen aufgeteilten Studenten Zeit, sich Gedanken über die Mobilitätssysteme der Zukunft zu machen. Am Ende wurden die Ergebnisse einer Reihe geladener, als „Strippenzieher“ titulierter Gäste präsentiert. Nicht primär Fachleute waren angesprochen, sondern eher Multiplikatoren aus Wirtschaft, Wissenschaft und Verwaltung. Dies mag erklären, warum die Vorstellungen der Studenten mit einem gewissen Wohlwollen betrachtet wurden. Man fand scheinbar amüsant, was gezeigt wurde. Ich dagegen war erschrocken und verärgert, was ich auch deutlich zum Ausdruck brachte.
„Mobilität“ empfanden die durchweg gesellschaftswissenschaftlich orientierten Nachwuchsakademiker als etwas Bedrohliches, das auf eine im diffusen bleibende Weise die Menschen unglücklich macht und die Erde zerstört. Die zu ziehende Konsequenz erschien daher zwingend: Mobilität gehört abgeschafft. Da das aber nicht geht – und so viel Realitätssinn war durchaus noch vorhanden – verfiel man auf eine naheliegende Alternative: Das Beamen. Mobilitätsbedarfe würden in Zukunft also ganz einfach durch Maschinen abgewickelt, durch die Güter und Personen zeitverlustfrei und ohne sich physisch bewegen zu müssen, von einem Ort zum anderen teleportieren. Den Weg zu diesen Maschinen sollte man per Pferd und Luftschiff zurücklegen können – letzteres mit Pferdemist angetrieben.
Zu kritisieren sind solche Phantasien nicht nur wegen ihrer offensichtlich ökologistischen Motivation. Viel erschreckender war in diesem konkreten Fall die Vehemenz, mit der sich gebildete junge Erwachsene auf Vorstellungen jenseits des physikalisch möglichen und denkbaren versteiften. Weder Energie-, noch Impuls- oder Massenerhaltung zählten, obwohl diese doch einen nicht veränderbaren Rahmen für das Verhältnis von Aufwand und Nutzen technischer Systeme vorgeben. Man darf sich darüber nicht wundern in Zeiten, in denen diese Art zu denken von der Politik vorgelebt wird.“
– Dr. Peter Heller, Astrophysiker[41]

Deindustrialisierung sowie ein allgemeines Absenken des Lebensstandards ist das Ziel einer wildgewordenen Politikerkaste und ihrer grünen Multiplikatoren. Betrachtet man die Mobilität mittels Kraftmaschinen aus wissenschaftlicher Perspektive, landet man beim Gabrielli-Kármán-Diagramm. Der Physiker Theodore von Kármán und der Luftfahrtingenieur Giuseppe Gabrielli stellten 1950 anhand einer Datenanalyse fest, dass wenn man die spezifische Traktionskraft (definiert als Antriebsleistung geteilt durch Masse mal Höchstgeschwindigkeit) in einem doppelt logarithmischen Diagramm über der Höchstgeschwindigkeit aufträgt, alle Mobilitätssysteme die sich am Markt durchgesetzt haben entlang einer Linie verlaufen. Diese Gabrielli-Kármán-Linie hat sich 2004 bestätigt, als die Daten aktualisiert wurden.[42]

Der technische Fortschritt verläuft dabei entlang der Gabrielli-Kármán-Linie: Unten links sind Rollschuh- und Fahrradfahrer, oben rechts Überschalltransporter und Weltraumflüge. Von 1970 bis 2000 nahm der Transportbedarf in jeder Generation etwa um den Faktor 10 zu, während die Reisezeit in jeder Generation konstant bei etwa einer Stunde pro Tag blieb.[42] Die Nutzung der Verkehrsträger verschob sich deshalb entlang der Gabrielli-Kármán-Linie von unten links (zb Eisenbahn) nach oben rechts (zB Flugzeug). Die stetige Optimierung bestehender Systeme drängt diese nach unten rechts: Höhere Geschwindigkeiten bei kleinerer spezifischer Traktionskraft verbessern die Wirtschaftlichkeit des Systems. Systeme die sich weit von der Gabrielli-Kármán-Linie nach oben links entfernen wie Hovercrafts und Rennwagen können nur in Nischen bestehen.[41]

Läuft man die Gabrielli-Kármán-Linie entlang und betrachtet die Verkehrsträger links und rechts der Linie, lassen sich auch alternative Verkehrssysteme identifizieren und zukünftige Entwicklungen abschätzen. So liegen sich Frachtschiffe und Güterzüge gegenüber, Busse und Magnetschwebebahnen, Automobile und Flugzeuge. Vielleicht sind die Mobilitätssysteme der Zukunft Güterzüge von Peking nach Amsterdam, ein Eisenbahntunnel unter dem Atlantik, Kreuzfahrten in Zügen, Magnetschwebebahnen mit unter 350 km/h statt Busverkehr, und mit über 1000 km/h statt Passagierflugzeuge, oder fliegende Automobile für den Individualverkehr?

Kraftfahrzeuge

„So kann man zum Beispiel ziemlich sicher sagen, daß es in absehbarer Zeit keine Autos mit Atommotoren geben wird - von Versuchswagen natürlich abgesehen. Jedenfalls eignet sich die bisher entwickelte Art von Reaktoren nicht für die Verwendung in Automobilen, sofern man nicht sehr große und schwere Autos für weite Überlandreisen herstellen möchte - was allenfalls vereinzelt für Versuche und Spezialzwecke, aber nicht für den Normalfall zu vertreten wäre. Etwas anderes ist es, wenn einmal der technische Weg zur direkten Gewinnung von Energie aus dem radioaktiven Zerfall gefunden wird; denn dann stehen bald auch kleine, leistungsfähige Elektromotoren zur Verfügung, die sich für Atomautos ausgezeichnet eignen können.
Trotzdem besteht durchaus die Möglichkeit, daß die Atomenergie revolutionierend in den Automobilbau und in den Straßenverkehr eingreift. Sie wird uns in absehbarer Zeit einen Überfluß an Elektroenergie bescheren — eine der technisch-materiellen Voraussetzungen für die Erzeugung eines Überflusses an Gütern und Dienstleistungen. Auf der anderen Seite ergibt sich immer dringender die Forderung, mit dem kostbaren Rohstoff Erdöl als Energiespender sparsam umzugehen, da es als Ausgangsstoff für viele chemische Produkte wertvolle Dienste leisten kann. Daraus ergibt sich die Notwendigkeit, intensiv nach einem möglichst leistungsfähigen, leicht handhabbaren Elektromotor für Autos zu forschen. Erfahrungsgemäß bleibt die verstärkte Suche nach neuen, notwendigen Lösungen meist nicht ohne Erfolg. Es ist wahrscheinlich, daß sich bereits in nächster Zukunft im Kraftfahrwesen eine Umstellung vom Verbrennungs- zum Elektromotor vollzieht — was übrigens eine Parallele zur Entwicklung im Eisenbahnwesen wäre, die naheliegt. Kühner und weitgreifender sind Projekte, an denen sowjetische Konstrukteure arbeiten. Sie sehen vor, daß der Wagen nur noch den Elektromotor entweder in den Rädern oder, wie üblich, in das Chassis eingebaut —, nicht aber mehr die Stromquelle mit sich führt. Der Motor wird von hochfrequenten Strömen gespeist, die er drahtlos aus einem unter dem Straßenbelag laufenden Kabel bezieht“[9]
Curiosity, das erste Atomauto

Die Idee, Kraftfahrzeuge mit Kernreaktoren anzutreiben wurde früh verworfen. Bereits 1955 schrieb die Zeitschrift Hobby. Das Magazin der Technik unter dem Titel „So leben wir 1975“, dass das Auto und der LKW der Zukunft elektrisch angetrieben sei, und die Energie durch eine Radionuklidbatterie im Unterboden gewonnen würde.[43] Eine Studie der University of Michigan untersuchte 1956 verschiedene Reaktorkonzepte für Autoantriebe und kam zu dem Schluss, dass selbst ein idealer (punktförmiger) Kernreaktor zu viel Abschirmmasse und -volumen benötigen würde.[44] Die Entwicklung schwenke unverzüglich auf eine Trägersubstanz um: Das Fachjournal The Michigan Technic veröffentlichte im gleichen Jahr die Idee, aus Kernreaktoren Wasserstoff zu erzeugen, und diesen in einer Brennstoffzelle in Fahrzeugen und Kleinanlagen wieder zu verstromen.[45] Die populärwissenschaftliche Zeitschrift Popular Mechanics zitierte 1957 einen Ingenieur der Chrysler Corporation mit den Worten, dass die einzige Hoffnung auf Atomautos eine effiziente Speicherung von Energie in den Autos wäre.[46]

Inzwischen sind konkurrenzfähige Reichweiten und Fahrleistungen mit batteriegetriebenen Autos, Lastkraftwagen und Bussen möglich, oder zumindest greifbar. Die Atomkernenergie kann damit zum Antrieb von Fahrzeugen genutzt werden. Eine Reminiszenz daran ist der Renault Zoé, der nach dem ersten französischen Kernreaktor benannt wurde. Der Autoantrieb mit Radionuklidbatterie ist inzwischen auch möglich, wie am Marsrover Curiosity (Mars Science Laboratory, MSL) gezeigt. Energielieferant ist eine Atombatterie mit 110 W, die zwei Lithium-Ionen-Akkumulatoren mit jeweils 42 Ah und 28 V (2 × 1,17 kWh) läd, aus denen dann die bürstenlosen Gleichstrommotoren in den Radnaben betrieben werden.[47]

Der Eingangs beschriebene Trend im Atomzeitalter: Überfluss an Elektroenergie, und in Folge davon ein Entwicklungsschub bei elektronischen Rechenmaschinen und Automatisierung machen auch vor dem Automobil nicht halt. Das Magazin Hobby ging 1955 davon aus, dass die Autos der Zukunft selbst fahren können, und der Fahrer sich seinen Mitfahrern zuwenden kann. Ferner wird die Kommunikation der Infrastruktur mit den Fahrzeugen beschrieben.[43] Aus diesem Grund hatten automobile Zukunftsentwürfe der 50er und 60er Jahre wie der Simca Fulgur große, kuppelförmige Panoramadächer und schmale Fahrzeugsäulen. Auch andere wissenschaftlich unterfütterten Prognosen wie in dem Buch Zukunft – Das Bild der Welt von morgen (1974) kamen zu diesen Schluss:

„Der Benzinmotor mit seinen Abgaswolken wird gegen einen sauberen Elektromotor ausgetauscht. Heute fehlen dazu zwar noch die leistungsstarken Batterien. Für jedes Pfund Benzin müsste man einen Zentner Batterie mitschleppen. Doch schon ein Mischmotor - halb elektrisch, halb herkömmlich - könnte um 80 Prozent sauberer sein. Daran wird gearbeitet. […] Die eigentliche Revolution aber bedeuten Versuche, sozusagen einen Roboter ans Steuer zu setzen: Beim Flugzeug macht der Pilot heute nur noch Start und Landung mit der Hand; unterwegs wird die Maschine von elektronischen Überwachungssystemen gesteuert. Diesem »Autopiloten« vergleichbar, soll der Wagen von morgen mit einem »Autofahrer« ausgerüstet werden. Man steuert seinen Wagen mit der Hand auf die Autobahn, stellt das Ziel ein und lässt dann das Steuer los. Der Wagen macht alles Weitere von allein.“[26]

Lokomotiven

In den 60er Jahren wurden auch Atomloks propagiert. Diese sollten als Antriebsaggregat einen Kernreaktor mit Wärmetauscher zur Stromerzeugung haben, um die Loks nuklear-elektrisch anzutreiben. Die Konzepte dazu sahen auch eine Verbreiterung der Spur (Breitspur) vor, um die Züge größer und komfortabler für lange Reisen zu gestalten.[9][22] Durch die Elektrifizierung der Strecken erwiesen sich die Pläne als überflüssig: Strom aus umweltfreundlichen Kernkraftwerken konnte dies ersetzen, so wie auch die Dampflokomotive durch E-Loks und effiziente Kohlekraftwerke ersetzt wurde.

Das Hauptproblem heute ist die extreme Unwirtschaftlichkeit des Bahnbetriebes, zumindest was die Personenbeförderung angeht. Der Flächenverbrauch, und die damit einhergehenden Kosten für Wartung und Unterhalt pro Personenkilometer sind katastrophal, hauptsächlich durch die geringe Auslastung der Züge. Gleiches gilt für den Energiebedarf, der, wenn man alle Faktoren wie die Fahrt zum und vom Bahnhof, die Infrastruktur usw. einfließen lässt, pro Personenkilometer höher liegt als beim PKW.[48] Um die Attraktivität zu erhöhen wird von Bahn-Lobbyisten immer eine Erhöhung der Taktfrequenz ins Spiel gebracht, was aber die Zahl der Leerfahrten erhöht. Das Kernproblem, dass Züge nach Plan fahren, und Autos nur bei Bedarf, kann damit nicht umgangen werden. Selbst wenn davon ausgegangen wird, dass ein Reisebus über 30 Liter auf 100 km verbraucht, kann ein Bus mit mehr als 5 Passagieren energieeffizienter (und damit prinzipiell billiger) unterwegs sein als ein Personenzug. Trotz zahlloser Privilegien können diese physikalischen Nachteile nicht überwunden werden: Die Lärmgrenzwerte für Züge in Deutschland sind höher. Nach der Verkehrslärmschutzverordnung darf die Bahn um 5 dB lauter als Straßenverkehr sein, bevor Lärmschutzmaßnahmen an Schienenwegen gesetzlich vorgeschrieben sind. Und für Dieselloks gelten praktisch keine Abgasgrenzwerte: Rußpartikelfilter, SCR-Katalysatoren oder AdBlue-Einspritzung sind dort Fremdworte.

Transrapid-Strecke in Shanghai

Um die grundsätzlichen Nachteile des Rad-Schiene-Systems zu umgehen wurden Magnetschwebebahnen konzipiert: Der Energieverbrauch pro Personenkilometer ist bei gleicher Geschwindigkeit erheblich geringer, trotz Schwebetechnik, weil die Züge deutlich leichter gebaut werden können.[49] Im Rad-Schiene-System können Züge nicht beliebig leicht gebaut werden, da die Kraftübertragung zwischen Stahlrad und Stahlschiene gewährleistet sein muss. Die Magnettechnik ermöglicht auch eine direktere Trassierung, da der Zug größere Steigungen und Gefälle überwinden kann. Ferner fährt ein solcher Zug praktisch geräuschlos. Die Universität Kassel hatte mit dem ökoreligiösen Wuppertaler Institut für Klima, Umwelt, Energie einmal ICE und Transrapid gegenübergestellt. Die Studie kam zu dem Schluss:[50]

„Der Technologievergleich zeigt deutlich, daß der Transrapid prinzipiell bei identischer Geschwindigkeit weniger Ressourcen verbraucht als ein ICE. Wird er mit Geschwindigkeiten deutlich unter 400 km/h betrieben, so wäre sein Einsatz unter dem Gesichtspunkt der Ressourcenproduktivität dem ICE vorzuziehen. […] so zeigen die Ergebnisse, daß bei einem leichten Abrücken von der politischen Vorgabe von einer Fahrzeit von genau einer Stunde hin zu Höchstgeschwindigkeiten von nicht mehr als 350 km/h, eine Fahrt mit dem Transrapid weniger Ressourcen verbrauchen würde als eine mit einem ICE, selbst wenn dieser zu zweidritteln bestehende bzw. andere in Bau befindliche Hochgeschwindigkeitstrassen nutzen würde“
Maglev-Teststrecke in Japan

Weiteren Problemen des Bahnbetriebes wie Flächenverbrauch, Landschaftszerschneidung und Personen im Gleis wurde mit der Aufständerung der Trasse begegnet. Um das Entgleisungsrisiko zu minimieren bewegt sich der Zug in einem Trogbauwerk (Maglev) oder er umklammert den Fahrweg (Transrapid). Alle heutigen Magnetbahnen sind als Kinder des Atomzeitalters selbstverständlich vollautomatisiert, lokführerlos und bei den Ökologisten verhasst.[I] Das Ziel der Magnetbahntechnik war es auch, das Flugzeug auf der Kurzstrecke zu ersetzen. In dem Buch Zukunft – Das Bild der Welt von morgen (1974) wird im Kapitel „Tempo 500: Die Bahn verliert ihre Räder“ und „Personengeschosse in der Röhre: Zwanzigmal schneller als der Schall“ berichtet:[26]

„In einiger Entfernung von der Autoleitbahn, auf der sich die Wagen selber steuern, verläuft ein seltsames Betonband, das von weitem wie eine Autobahn auf Beinen aussieht. Auf diesem Band schießt ein Gefährt dahin, das es bisher noch nicht gibt, an dem aber in mehreren Ländern mit Nachdruck gearbeitet wird. […] Das Anheben des Zuges geschieht durch das Zusammenwirken einer magnetischen Schiene und eines Magneten im Zuge: Beide stoßen einander ab wie zwei gewöhnliche Hufeisenmagneten auch. Die Leitschiene muss ständig mit einem Mantel aus flüssigem Helium auf Tiefsttemperaturen nahe dem absoluten Nullpunkt (minus 273 Grad) gekühlt werden. Dadurch wird sie supraleitend. Ein einziger Stromstoß – und die Schiene bleibt praktisch für unbegrenzte Zeit ein Supermagnet, der den Zug bis zu 30 Zentimeter anheben kann. Nur kühlendes Helium muß ständig nachgefüllt werden; das ist alles. […] Was mit dem fliegenden Zug seinen Anfang nimmt, läßt sich ausbauen. So liegen in der amerikanischen Rand Corporation die fertigen Pläne für eine magnetische Personenschleuder, die den Kontinent in einer halben Stunde durchqueren wird. Von New York am Atlantik bis nach Los Angeles am Pazifik soll das Gefährt mit einer Geschwindigkeit dahinbrausen, die bislang auch das schnellste Raketenflugzeug der Welt nicht erreicht: mit 15000 Kilometern in der Stunde. […] Der größte Trick: Man stopft den Verkehr einfach in Röhrenleitungen. […] Noch phantastischer wurde das Ergebnis, als Techniker der Rand Corporation die Idee des Magnetkissentransports in die Röhre verlegten und die Pipeline fast luftleer pumpten. Ohne jeden Luftwiderstand, so ergab sich, kann das magnetisch gezogene Röhrengeschoss auf die unfaßbare Spitzengeschwindigkeit von 20000 Kilometern pro Stunde gebracht werden.“

Die höhere Geschwindigkeit einer Magnetbahn ist die logische, zwingende Konsequenz wenn die Energiekosten irrelevant sind, und der Verscheiß von Zug und Trasse praktisch null ist, und auch bei höherem Tempo nicht zunimmt.

Schiffe

Schiffe mit Kernenergienantrieb setzten sich schnell durch. Durch das Interesse der Militärs an Atom-U-Booten – diese haben den Vorteil einer fast unbeschränkten Reichweite, die Dauer der Tauchgänge ist nur durch die Nahrungsvorräte an Bord begrenzt – wurde die USS Nautilus (SSN-571) als erstes nuklear angetriebenes U-Boot der Welt bereits 1954 fertiggestellt. Um die Vorteile eines praktisch unbegrenzten Fahrbereiches auch für Überwasserschiffe auszunutzen, folgte 1957 auf russischer Seite die Lenin, das erste nuklear angetriebene Überwasserschiff der Welt (und rein formal das erste zivile Schiff mit Kernenergieantrieb). Die USA folgten 1959 mit der USS Long Beach (CGN-9), das erste nuklear getriebene Überwasserkriegsschiff der Welt. 1961 folgte schließlich mit der USS Enterprise (CVN-65) der erste nukleare Flugzeugträger. Diese Schiffe setzten alle auf Druckwasserreaktoren, der aus praktischen Gründen für Schiffe bevorzugt wird. Ausnahmen sind zum Beispiel die sowjetischen Atom-U-Boote des Projekts 705 (Alfa-Klasse), welche auf flüssigmetallgekühlte Reaktoren setzten.

Die USA bauten mit der NS Savannah das erste Handelsschiff mit Atomantrieb. Der Bau begann 1959 und zog sich bis 1962. Das Schiff war nicht dafür konzipiert, wirtschaftlich zu sein, sondern um die Machbarkeit des Nuklearantriebs für Handelsschiffe zu demonstrieren. Als Luxusyacht mit Paradezimmern sollte sie die Botschafterin einer strahlenden Zukunft sein. Andere Länder wie Deutschland oder Japan hatten mit der Otto Hahn und der Mutsu ähnliche Forschungsprojekte am laufen. Die Otto Hahn sollte der Testträger für das Nukleare Container-Schiff 80 (NCS-80) sein. Damals zeichnete sich ab, dass die Zukunft des Schiffshandels im Container liegen würde. Für die neu zu konzipierenden Containerschiffe war der Nuklearantrieb als wirtschaftlichste Antriebsart errechnet worden:

Der russische Eisbrecher „50. Jahrestag des Sieges“ am Nordpol
„Mit anderen Worten, das Atomschiff ist also - aus Gewichtsgründen - nur bei langer ununterbrochener Betriebszeit wettbewerbsfähig. Andrerseits bleibt eigentliche Herz des Reaktors, das die Wärmeleistung liefert, das „Core", immer ein verhältnismäßig kleines und nur wenige Tonnen schweres Gebilde; auch dann, wenn die Leistungen sich verdoppeln oder vervielfachen sollen. Und damit bleiben auch die umfangreichen und schweren Sicherheitsbehälter und Strahlenschutzwände, die Hilfs-und Regelungseinrichtungen weitgehend gleich, ob nun 10 000, 30 000 oder schließlich 100 000 PS erzeugt werden. Daraus wird klar, daß sich der Atomantrieb nur dort lohnt, wo große Leistungen verlangt werden: also nur bei sehr großen oder sehr schnellen Schiffen. Bei dem heutigen Entwicklungsstand liegt die "wirtschaftliche" Grenze – das heißt die Leistungsgröße, bei der der Atomantrieb über längere Zeitspannen billiger wird als die üblichen Dampfturbinen- oder Dieselmotoranlagen – je nach dem Fahrtgebiet bei etwa 40 000 bis 60 000 PS. Von den Kriegsschiffen abgesehen, haben derzeit nur ganz wenige Schiffe einen so hohen Leistungsbedarf […] Selbst die neuesten Riesentanker von über 200 000 Tonnen Ladefähigkeit benötigen nur 30 000 PS, weil sie relativ langsam fahren. Für eine völlig neue Art von Schiffen erscheint der Kernenergieantrieb jedoch schon in nächster Zukunft sehr aussichtsreich: für die "Container-Schiffe". Das sind Schiffe, wie sie seit etwa zwei Jahren eingesetzt werden und die, um schnell und wetterunabhängig laden und entladen zu können, ausschließlich Container, das heißt „Behälter", befördern. Diese großen metallenen Kisten von genau gleichen Abmessungen passen gerade auf einen Eisenbahnwaggon oder Sattelschlepper – für eine Art von Haus-zu-Haus-Verkehr nach Übersee. Solche Schiffe sind nicht nur sehr groß, sondern müssen aus Wettbewerbsgründen auch möglichst schnell sein. Sie werden schon bald Leistungen zwischen 50 000 und 100 000 PS erfordern, wenn sie, wie erwartet wird, Geschwindigkeiten von 24 bis 28 Seemeilen in der Stunde haben sollen. In wenigen Jahren werden einige Reedereien solche Schiffe bauen wollen und vorher sehr genau die bestmögliche Antriebsart dafür mit allen Vor- und Nachteilen erkunden. Und dann sind sicher die Ergebnisse vorhanden, die mit dem Forschungsschiff "Otto Hahn" auf vielen Versuchsfahrten gewonnen wurden.“[51]

Die wirtschaftliche Umsetzung dieser Technik für die zivile Containerschifffahrt war jedoch nicht möglich, da dieses Antriebskonzept gegenüber einem Schwerölantrieb nicht wettbewerbsfähig war. Lediglich die Sowjetunion und Russland setzen auf Atomeisbrecher, welche im Nordpolarmeer als Schiffe für alles eingesetzt werden. Durch die technischen Fortschritte der Reaktortechnik in den letzten Jahrzehnten hat sich die Wirtschaftlichkeit weiter zugunsten des Nuklearantriebes verschoben. Mussten bei der USS Enterprise noch 8 Reaktoren eingesetzt werden, die alle drei bis vier Jahre neu befüllt wurden, was jedes Mal einen mehrmonatigen Werftaufenthalt bedeutete, hat ihr Nachfolger USS Gerald R. Ford nur einen Bechtel-A1B-Reaktor mit lebenslanger Füllung. Auch die Otto Hahn hatte durch den Kran zum Brennstoffwechsel, das Abklingbecken usw. signifikante Mehrkosten, die bei modernen Nuklearschiffen nicht mehr vorhanden sind. Alle heutigen (militärischen) Schiffe mit Atomantrieb müssen ihren Brennstoff niemals wechseln, sodass alle Zugänge und Hilfen, sowie die Kosten für einen Brennstoffwechsel entfallen können. Die Entwicklung von kleinen modularen Reaktoren für Mini-Kernkraftwerke begünstigt die Nutzung nuklearer Schiffsantriebe, da diese Mini-Kernkraftwerke auf die Erfahrung existierender Schiffsreaktoren zurückgreifen.

Flugzeuge

HTRE-Salzschmelzereaktor mit Flugturbinen
„Auf jeden Fall kann als sicher gelten, daß in wenigen Jahrzehnten der Maschinenpark der großen Luftverkehrsgesellschaften ganze Flotten von gewaltigen Fernverkehrsmaschinen aufweisen wird, die durch Atomenergie angetrieben werden. In Höhen zwischen 10 und 50 km werden sie mit mehrfacher Schallgeschwindigkeit und einer praktisch unbegrenzten Reichweite täglich Hunderttausende von Fluggästen und Millionen von Tonnen wertvoller und eiliger Güter mit einer Schnelligkeit, Pünktlichkeit und Sicherheit befördern, wie sie heute noch kein Verkehrsmittel aufzuweisen hat“[9]

In den sechziger Jahren wurden auch Atomflugzeuge propagiert. Diese sollten am oberen, rechten Ende der Gabrielli-Kármán-Linie die Speerspitze des technischen Fortschrittes darstellen. Die konkreten Entwürfe für solche Flugzeuge wurden alle als "Langhälse" bezeichnet, aufgrund der langgestreckten aerodynamischen Form dieser Überschallflieger. Die Reaktoranlage muss bei so schmalen Flugzeugen aus Strahlenschutzgründen im Heck untergebracht werden, und zur Abschirmung sollte neben einem Strahlenschutzschild nach vorne auch der Abstand zwischen Passagieren und Reaktoranlage erhöht werden. Da der Brennstoffverbrauch vernachlässigbar ist, ist ein Atomflugzeug für hohe Geschwindigkeiten und weite Strecken prädestiniert. Angedacht waren Flugzeuge mit Atommotor für interkontinentalen Passagiertransport und Aufklärungsmissionen. Bedingt durch die Reaktoranlage können die Maschinen auch nicht beliebig klein gebaut werden. Die hohe Fluggeschwindigkeit machte auch die Entwicklung von hitzebeständigen Materialien notwendig[22] – so wie später bei der Concorde. Der Unterschied zwischen Raumfähre und Überschalltransporter verschwimmt ab einer gewissen Geschwindigkeit und Flughöhe; von der Antriebsleistung her sind Atomflugzeuge auch als Raumtransporter zwischen Erde und Weltall denkbar, wenn Stützmasse mitgeführt wird.

Ab 1946 wurden in den USA unter dem Aircraft Nuclear Propulsion (ANP) Programm Flüssigsalzreaktoren erforscht, welche die heiße Salzschmelze zu Wärmetauschern in den Turbinen beförderten, wo der Wärmetauscher die Brennkammer konventioneller Gasturbinen ersetzte. Das Projekt Pluto ab 1961 versuchte, den Kernreaktor selbst als Heißpunkt im Brayton-Kreisprozess der Antriebsturbinen zu verwenden. In dem Buch Zukunft – Das Bild der Welt von morgen (1974) wird auch darüber berichtet, dass das "geheime" Transportflugzeug Lockheed C5A (Erstflug 1968) mit einem Atomantrieb ausgerüstet werden solle.[26] Tatsächlich finden sich heute NASA-Studien, die damals geheim waren, wo ein Atomantrieb für die C5 konzeptionell für machbar befunden wurde. Ein gasgekühlter Reaktor wäre Huckepack, zwischen den Tragflächenwurzeln in einem aerodynamisch verkleideten Buckel untergebracht worden. Statt der Brennkammer hätten die Turboprop-Triebwerke Wärmetauscher, um das heiße Heliumgas des Reaktors als Heißpunkt im Gasturbinenprozess zu verwenden.[52]

Im Jahr 2012 wurde bekannt, dass die Sandia National Laboratories (SNL) zusammen mit dem Luftfahrtkonzern Northrop Grumman eine Studie über ein nukleargetriebenes, unbemanntes Aufklärungsflugzeug anfertigten. Northrop Grumman besitzt bereits Patente für Drohnen, die mit heliumgekühlten Reaktoren als Atomantrieb arbeiten sollen, wobei das Antriebssystem als Ultra-persistent propulsion and power system (UP3S) bezeichnet wird.[53] Das Konzept des gasgekühlten Reaktors, welches die NASA bereits in den 70er Jahren für die Galaxy C5 angedacht hatte, scheint zur Zeit technisch das Plausibelste zu sein.

Raumschiffe

„Wie einst der benzingetriebene Explosionsmotor den Luftraum über der Erde, so wird in absehbarer Zeit der atombetriebene Raketenmotor den luftleeren Raum zwischen den Planeten für die Menschen erschließen, die noch vor einem Jahrhundert an ihrer Erde klebten und vom Fliegen nur träumen konnten.“[22]
Konzeptzeichnung von JIMO

Die nuklearen Raketenantriebe lassen sich in zwei Arten einteilen: In einem nuklear-thermischen Systeme wird ein Arbeitsgas durch einen Reaktor erhitzt, welches zum Antrieb ausgestoßen wird. In den USA begann die Entwicklung dazu ab 1952, und lief über die Projekte Rover, Kiwi, Phoebus und Pewee bis zum NERVA-Triebwerk. Die Triebwerkstests fanden in der Nevada Test Site (NTS) statt. Das NERVA-Triebwerk wurde schließlich 1968 durch das Space Nuclear Propulsion Office (SNPO) für einen Marsflug zertifiziert. Nach Ausbleiben desselben wurde die Entwicklung 1972 eingestellt. Erst von 1987 bis 1991 wurden im Zuge der Strategic Defense Initiative (SDI) die Forschungen mit dem Projekt Timberwind weitergeführt, welches einen Kugelhaufenreaktor verwendete.[54] Das sowjetische Nukleartriebwerk RD-0410 wurde noch bis 1988 weiterentwickelt, ab 1989 ging man auf eine Kombination aus nuklear-thermischem und nuklear-elektrischem Triebwerk über. Die Tests wurden im Atomwaffentestgelände Semipalatinsk durchgeführt.[55]

In einem nuklear-elektrischen System wird der Kernreaktor nur zur Stromerzeugung eingesetzt, und die Energie an einen elektrischen Antrieb weitergegeben. Dies ermöglicht eine bessere Treibstoffeffizienz, auf Kosten der Schubkraft. Hierfür werden im Niedrigleistungsbereich Ionenantriebe eingesetzt; bei elektrischen Leistungen von hunderten Kilowatt oder Megawatts sind magnetoplasmadynamische Antriebe notwendig. Der im Jahr 2005 gestrichene Jupiter Icy Moons Orbiter (JIMO), eine mit einem Kernreaktor betriebene Sonde für die Erforschung der Eismonde des Jupiter, fällt mit seinen Ionenantrieben in diese Kategorie. Eine Herausforderung dieser Antriebssysteme ist die Abwärme, die bei der Wandlung von thermischer in elektrische Energie frei wird, und über Radiatoren in den Raum abgestrahlt werden muss. Diese Radiatoren sind voluminös, und prägen das Erscheinungsbild des Raumfahrtsystems.

Callisto base.PNG

Nukleare Raumfahrtantriebe sind aufgrund ihrer hohen Leistungsreserven alternativlos. Der spezifische Impuls von chemischen Raketenantrieben ist physikalisch begrenzt, und zu gering, um ein sinnvolles Verhältnis von Kraftstoffverbrauch zu Delta-V zu haben. Wenn weiter als zum Mars geflogen werden muss, und/oder nicht 90% der Raumschiffes aus Treibstoff bestehen soll, führt an nuklearen Systemen kein Weg vorbei. Politik und staatlich finanzierte Forschungseinrichtungen versuchen diese Zusammenhänge zu verschleiern, sodass der Fortschritt in der Raumfahrt seit Jahren erheblich nachgelassen hat. Die Filme 2001: Odyssee im Weltraum (1968) und 2010: Das Jahr, in dem wir Kontakt aufnehmen (1984) sind physikalisch-technisch fast korrekte Darstellungen von Raumschiffen und -transportern mit Gaskernreaktoren bzw Festkernreaktoren als Antriebssystem. Da nuklear-elektrische Systeme sehr schubschwach sind, eigenen sie sich in der Regel nur für unbemannte Transportaufgaben oder Forschungsmissionen.

Für die Besiedlung ferner Himmelskörper, oder Raumstationen jenseits des Mars sind Kernreaktoren aufgrund ihrer Energiedichte alternativlos. Eine Raumstation mit künstlicher Schwerkraft, als rotierendes Rad ausgelegt, die um den Jupiter kreist, würde ihre Energie und Wärme ebenfalls aus einer Reaktoranlage beziehen. Der einzige Unterschied zwischen einer Raumstation und einem großen Raumschiff ist die geringere Antriebsleistung der Raumstation, da diese nur kleine Bahnkorrekturen durchführen muss. Das Bild links zeigt eine NASA-Studie über eine Basis auf dem Jupitermond Callisto, die selbstverständlich durch ein Kernkraftwerk mit Energie versorgt würde.

Landschaftskorrekturen

„Es ist ganz klar, daß sich solche "Mängel" der Natur, wie chronische Trockenheit oder ungenügende Sonneneinstrahlung, nur dann an der Wurzel packen und von der Ursache her beseitigen lassen, wenn genügend Energie zur Verfügung steht. Landschaftliche Korrekturen nicht nur örtlicher Art, sondern von geographischem Ausmaß sind ebenso wie klimatische Korrekturen bei vollem Einsatz der Atomenergie durchaus in greifbare Nähe gerückt. Die Verlegung von Wasserscheiden und die Umlenkung großer Flußsysteme, die Anpflanzung von Schutzwäldern großen Ausmaßes, obendrein unter ungünstigen klimatischen Bedingungen, oder die zusätzliche Beleuchtung und Erwärmung von ganzen Landstrichen - das sind Projekte, an die man gestern nur kühn zu denken vermochte, weil sie ein Unmaß von Investitionen und laufender Arbeitsleistung erforderten. Auf den starken Flügeln der Atomenergie werden aber auch sie in das Reich der Wirklichkeit getragen werden.
[…]
Gerade bei einschneidenden Veränderungen der natürlichen Gegebenheiten, bei "Korrekturen" geographischen Ausmaßes, spielen Sprengungen eine große Rolle. Da die Natur zweifellos viel zu wünschen übriggelassen hat und die "natürlichen Gegebenheiten" durchaus nicht immer den Erfordernissen der menschlichen Bedürfnisse entsprechen, besonders wenn man den Maßstab von morgen anlegt, gibt es auch viel zu verändern - mehr, als mit den bisherigen Sprengmitteln zu erreichen war.“[22]

Sprengungen

In einer modernen Industriegesellschaft werden zivile Sprengungen zu vielfältigen Zwecken eingesetzt, zum Beispiel zum Abbruch von Bauwerken, zur Gewinnung von Bodenschätzen, der Herstellung von Geländevertiefungen, dem Tunnelbau, usw usf. Folglich liegt es nahe, die Kraft des Atoms auch in diesem Bereich einzusetzen, um die Möglichkeiten der Menschheit zu verbessern. Die USA begannen 1961 mit ihrer Operation Plowshare, die verschiedensten Möglichkeiten zu Untersuchen, nukleare Explosionen für zivile Zwecke zu verwerten. Die Sowjetunion begann 1965 mit dem ebenso gestalteten Atomexplosionen für die Volkswirtschaft-Projekt.

Insgesamt wurden von beiden Ländern hunderte von offenen und unterirdischen Nuklearsprengsätzen gezündet, um neue Gasfelder zu finden, die Förderrate von bestehenden Öl- und Gasfeldern zu steigern, unterirdische Kavernen für die Öl- und Gasspeicherung zu schaffen, brennende Gasfelder zum Verlöschen zu bringen, Dämme und Kanäle zu errichten, das Zerkleinern von Erzen im Tagebau zu testen, unterirdische Kavernen für Giftmüll zu errichten, den unterirdischen Kohlebergbau zu erleichtern, und um die Migration von Radioaktivität aus den Explosionsorten zu erforschen.[56] Zum Beispiel begann in den 70er Jahren die Atomic Energy Commis­sion (AEC) mit der Industrie Pläne zu entwickeln, um den Ölschiefer der Green-River-Formation durch nukleares Fracking förderfähig zu bekommen.[57] Ein ähnliches Projekt aus der Zeit ist Project Oilsand, das die bitumenartige Masse der Ölsande in Alberta durch unterirdische Nuklearexplosionen geschmeidiger, und damit förderfähiger machen sollte.

Andere angedachte Projekte waren die Anlegung eines Hafens in Cape Thompson, Alaska, oder die Sprengung eines Kanals zwischen Mittelmeer und Qattara-Senke, um die Sahara zu ergrünen und das Mittelmeer abzusenken, und ein Kanal zwischen den Flüssen Petschora und Kama in der Sowjetunion. Eine der Testsprengungen für den Petschora-Kama-Kanal wurde im Zuge von Atomexplosionen für die Volkswirtschaft bereits durchgeführt. Da für den Kanal aber hunderte Sprengungen nötig geworden wären, wurde das Projekt aufgegeben.

Karte des Atlantropa-Projektes

Kraftmaschinen

Durch Kernenergie sind mehrere Großprojekte möglich geworden, die in den 60er Jahren auch diskutiert wurden. Hier sollen nur zwei davon kurz skizziert werden: Zum einen das Projekt Atlantropa des deutschen Herman Sörgel, und das Auftauen der Arktis, was von sowjetischen Ingenieuren vorgeschlagen wurde. Das Konzept von Atlantropa basiert auf der Tatsache, dass ständig Wasser aus dem Atlantik und dem Schwarzen Meer in das Mittelmeer strömt, da dort mehr Wasser verdunstet, als seine Zuflüsse ausgleichen. Durch einen Staudamm in der Straße von Gibraltar und den Dardanellen sollte dieser Zufluss verringert werden, um zur Neulandgewinnung den Meeresspiegel im Mittelmeer abzusenken, ferner sollte der Restzufluss zur Stromerzeugung mittels Wasserkraft genutzt werden. Durch die Verdunstungsdifferenz würde der Meeresspiegel im Mittelmeer jährlich um 1-2 m sinken, bis der gewünschte Pegel erreicht ist. Um schnellere Pegelsenkungen zu erzielen, war in den 60er Jahren auch angedacht das Wasser in die Senken Nordafrikas zu leiten (Projekt Qattara-Senke). Der Name des Projektes steht für das visionäre Ziel des Projektes, einen durchgängigen Kontinent aus dem heutigen Europa und Afrika, verbunden über ein weitgehend trockengelegtes Mittelmeer, zu bilden. Sörgel plante zwei Absenkungsgebiete ein. So sollte eine Landbrücke Sizilien, das heutige Italien und Nordafrika, genauer Tunesien miteinander verbinden. Damit sollte eine durchgehende Eisenbahnverbindung zwischen Berlin, Rom und Kapstadt ermöglicht werden. Im dergestalt zweigeteilten Mittelmeer hätte in der Endausbaustufe der Wasserstand im westlichen Teil um bis zu 100 Meter abgesenkt werden sollen, im östlichen Teil um 200 Meter. Die Wasserfläche des Mittelmeeres wäre um 20 Prozent geschrumpft und 500.000 km² Neuland wären gewonnen worden; eine Fläche etwa in der Größe Spaniens. Das Problem der Versalzung des Mittelmeerwassers sollte durch mit Kernkraft betriebene Entsalzungsanlagen gelöst werden. Ein Fünftel der so gewonnenen Salze seien für die chemische Industrie interessant, der Rest als Kochsalz verwertbar.[22]

Die menschenfreundliche Idee die Arktis aufzutauen wurde 1955 von sowjetischen Ingenieuren vorgeschlagen. Die endlosen Landstriche Nordamerikas, Nordsibiriens und Nordeuropas würden Millionen Quadratkilometer fruchtbares Land zur Besiedelung freigeben, um Getreide, Kartoffeln und Futterpflanzen anzubauen. Die Voraussetzungen dafür ist die Errichtung eines Dammes auf Höhe des 65. Breitengrades zwischen dem Nordkap der Tschuktschen-Halbinsel und der gegenüberliegenden Seward-Halbinsel, die zu Alaska gehört. Dieser Damm mit etwa 90 km Breite ist heute keine Unmöglichkeit mehr. Der Damm würde mit Kernenergie betriebene Pumpstationen enthalten, die das wärmere Pazifikwasser in das nördliche Eismeer lenken. Der natürliche Abfluss des kalten Wassers aus dem Eismeer in den Pazifik würde so unterbrochen und umgekehrt, sodass ein Strom warmen Wassers von Süden nach Norden treibt. Die durchschnittlichen Jahrestemperaturen der arktischen und subarktischen Gebiete würden so um wenige Grad steigen.[22]

Medizin

Die Nuklearmedizin umfasst die Anwendung radioaktiver Substanzen und kernphysikalischer Verfahren in der Medizin zur Funktions- und Lokalisationsdiagnostik sowie der Nutzung von Radionukliden in der Therapie. Die Nutzung von Röntgenstrahlen zur Diagnostik und radioaktiven Präparaten zur Krebsbekämpfung war die erste Nutzung der Kerntechnik überhaupt. Die moderne Nuklearmedizin ist auf Kernreaktoren angewiesen, die Radioisotope für diagnostische und therapeutische Zwecke erbrüten müssen. In der Regel sind dies Forschungsreaktoren, teilweise wird auch auf Leistungsreaktoren oder Wiederaufarbeitung zurückgegriffen.

Neben diagnostischen Verfahren wie die Szintigrafie, die auf Radionuklide angewiesen sind, gibt es inzwischen eine Vielzahl von Untersuchungsmöglichkeiten, welche kernphysikalische Effekte ausnutzen, wie Computertomographie und Kernspintomographie, Positronen-Emissions-Tomographie (PET) und SPECT (single photon emission computed tomography). Diese Verfahren werden inzwischen in den Bereich der Radiologie zusammengefasst, als Teilgebiet der Medizin, das sich mit der Anwendung elektromagnetischer Strahlen zu diagnostischen, therapeutischen und wissenschaftlichen Zwecken befasst. Bei Verfahren die auf Radiopharmakon angewiesen sind, wird eine Substanz, die der Körper als „Nährstoff“ verstoffwechselt, mit einem schwachen radioaktiven Strahler markiert und in die Vene gespritzt. Dieses Radioisotope lässt sich mit einem speziellen Gerät im Körper verfolgen und dessen Anreicherung/Speicherung in den Zellen bildlich sichtbar machen. Mit diesem Prinzip lassen sich die verschiedensten Körperfunktionen überprüfen.[58]

Schwerpunkt der Nuklearmedizin ist aber die Krebsbekämpfung. In der Nuklearmedizin werden Tumoren mit radioaktiven Medikamenten behandelt. Die radioaktive Strahlung zerstört so die Tumorzellen von innen heraus. Als Radiopharmaka werden Substanzen eingesetzt, die sich nicht beliebig im ganzen Körper verteilen, sondern beispielsweise im Stoffwechsel bestimmter Gewebe eine Rolle spielen, also gezielt von den entsprechenden Zellen aufgenommen werden. So gelangt radioaktives Jod zum Beispiel vor allem in die Schilddrüse und kann zur Behandlung von Schilddrüsenkrebs eingesetzt werden. Eine andere Möglichkeit: Man koppelt die strahlenden Teilchen an einen tumorspezifischen Antikörper. Dieser bindet an die Zelloberfläche der Krebszellen und bestrahlt diese von außen.[59]

Lebensmittel

Das Radura-Logo, das Bio-Siegel für bestrahlte Lebensmittel, erfunden 1960

Lebensmittel können auf mehrere Arten von der radioaktiven Strahlung profitieren: Bei der Lebensmittelbestrahlung bzw Strahlenkonservierung werden Nahrungsmittel mit ionisierender Strahlung beleuchtet, die entweder durch radioaktive Substanzen oder Elektrizität erzeugt wurde. Dies verbessert die Lebensmittelsicherheit, da die Haltbarkeit der Nahrung verbessert wird, krankheitsauslösende Keime abgetötet werden, sowie Nachreifung und Austrieb verhindert wird. Diese Steriliserung tötet auch Insekten und andere Schädlinge in und auf der Nahrung. Auch Astronautennahrung wird auf diese Weise behandelt, bevor sie ins All geschickt wird.[60][J] Da die Lebensmittelbestrahlung umweltschonend und gesundheitlich unbedenklich ist, was durch viele unabhängige Untersuchungen festgestellt wurde, wird sie in über 60 Ländern verwendet, wobei jedes Jahr etwa 500.000 Tonnen Lebensmittel verarbeitet werden.[61]

Bei der Mutationszüchtung werden Pflanzen oder Samen radioaktiv bestrahlt. Durch Auswahl und Dosierung der radioaktiven Strahlung können die Zellen positiv beeinflusst werden. So kann sich eine Beschleunigung des Wachstums einstellen, die Pflanzen und ihre Früchte können beachtlich an Gewicht zunehmen, höhere Erträge können erzielt werden. Dazu werden die Pflanzen oder Samen einer Kobalt-60-Strahlenquelle ausgesetzt, aber auch die Vorkeimung in einer Lösung aus Spaltprodukten sind erfolgversprechend. Die Strahlendosis darf dabei nicht zu hoch anfallen, da es sonst zu Wachstumshemmungen kommen kann. Durch die Mutationen, also Änderungen an den Erbanlagen, lassen sich die Eigenschaften der Pflanzen ändern und neue Pflanzensorten züchten.[22] Die Internationale Atomenergie-Agentur (IAEA) führt mit der Mutantensortendatenbank (Mutant Variety Database, MVD) eine Übersichtstabelle der Erfolge, mit zur Zeit über 3.300 Einträgen.

Radioaktivität kann aber auch beim Schutz vor Ungeziefer und Pflanzenkrankheiten helfen: 1953 wurde die Insel Curaçao, durch ihren Pomeranzenlikör bekannt, von Heeren parasitärer Fliegen befallen. Es handelte sich dabei um die Fliege Lucilia macellaria, die unter der Haut von Schafen ihre Eier ablegt, was den Tieren eiternde Wunden zufügt. Um dem Ungeziefer Herr zu werden, wurden auf einer Versuchsstation in Orlandi fünf Tage alte Fliegenpuppen mit einer Co-60-Strahlenquelle bestrahlt, um ihre Fortpflanzungsfähigkeit zu zerstören. Mit dem Flugzeug wurden die Puppen auf die Insel gebracht und dort ausgeschlüpft, und dann mit dem Flugzeug über der Insel verteilt. Dieses Experiment wurde achtmal wiederholt, und war ein voller Erfolg: Alle nun aufgefundenen Eier waren unfruchtbar, und der Insektenüberfall abgeschlagen.[22] Diese Sterile Insect Technique (SIT) wird auch heute noch in Zusammenarbeit mit der Food and Agriculture Organization of the United Nations (FAO) verwendet, um zum Beispiel der Mittelmeerfruchtfliege den Druck aus dem Kessel zu nehmen.[62]

Diese Experimente führten in den 60er Jahren auch zu interessanten Nebenerkenntnissen. Um der Gefäßkrankheit „Eichenwelke“ Herr zu werden, die Eichen in den USA betraf, wurde radioaktive Markerflüssigkeit in die Gefäße infizierter Bäume gespritzt. Ziel war es, durch diesen Tracer festzustellen, wie die Krankheit von einem Baum zum anderen übergeht. Obwohl die Bäume des Waldes relativ weit auseinanderstanden, wurde festgestellt, dass die radioaktive Flüssigkeit nach kurzer Zeit auch bald in benachbarten Bäumen zirkulierte. Es stellte sich heraus, dass alle Bäume dieses Waldes, die an Eichenwelke erkrankt waren, über die Wurzeln miteinander verwachsen waren. Dadurch konnte die Seuche isoliert werden.[22] Heute weiß man, dass das „Wood Wide Web“ nicht nur durch die Verwachsung von Wurzeln, sondern auch durch Pilze aufrecht erhalten wird. Die Erkenntnis, dass alle Bäume eines Waldes, mal mehr, mal weniger miteinander direkt oder indirekt verwachsen sind, war damals aber neu.

Zitat

„Ängste, so lautet die Binse aller Merkelschen Sonntagsreden, sind ein schlechter Ratgeber. Gerade eben erst hat die Bundeskanzlerin diesen Satz wieder vor CDU-Mitgliedern in Thüringen vom Stapel gelassen. So schön der Satz klingt, so falsch ist er doch. Nach dem Politikwissenschaftler Ernst Fraenkel ist es die Aufgabe der Politik, den „empirisch vorfindbaren Volkswillen zu veredeln“. Dieser empirisch vorfindbare Volkswille speist sich jedoch zu erheblichen Teilen aus Ängsten. Sie zu veredeln, heißt also: Maßnahmen zu treffen und zu ergreifen, um die Ängste nicht in Hysterie umschlagen zu lassen.
Eine der am leichtesten zu aktivierenden Ängste der Deutschen ist die Angst vor der Naturzerstörung, wie sie heute in der Furcht vor der Klimakatastrophe und der Atomkraft ihren zeitgemäßen Ausdruck findet. Eine andere Angst ist die vor Krieg, die sich seit den Tagen des Nato-Doppelbeschlusses und der Stationierung atomar bestückter Pershings in Deutschland mit der Angst vor der atomaren Katastrophe aufs Vortrefflichste kombinieren lässt.
Um das Potpourri an Ängsten der „moralisch Hochbegabten“ zu vervollständigen, darf natürlich die „Angst vor Rechts“ nicht fehlen. Sie speist sich aus dem größten Wunsch der Deutschen, dass es Hitler nie gegeben haben dürfte. Und wenn es ihn schon gegeben hat, dann aus dem zweitgrößten Wunsch der Deutschen: zu beweisen, dass man ihm unbedingten Widerstand geleistet hätte, was, je weiter das Dritte Reich zurückliegt, mit umso größerer Inbrunst gezeigt werden muss.
In einem kontinentalen Durchgangsland wie Deutschland, das im Lauf der Geschichte zudem noch eine kollektive Ich-Schwäche herausgebildet hat, ist die Angst vor Identitätsverlust und Überfremdung ebenfalls eine dieser Ängste, die recht schnell in Hysterie umschlagen können. Ihr an die Seite gesellt sich spätestens seit dem 11. September 2001 eine Angst vor der Islamisierung, die an das Gefühl der Überfremdung andocken kann. Gemeinsam mit der Angst vor sozialem Abstieg sind das die Ängste, über die die moralisch Hochbegabten nur mit dem Kopf schütteln können, weswegen sie den etwas hochnäsigen Begriff der „Abgehängten“ prägten. Deren Erkennungszeichen sind eben die Ängste vor Überfremdung, Islamisierung und sozialem Abstieg.
Natürlich gehört es zum Spiel der Ängste, dass man dem politischen Gegner das Recht auf dessen Angst abspricht und sie eine „eingebildete“ nennt, während nur die eigenen Ängste als „echt“ und „begründet“ anerkannt werden. Dieses Ritual kann man erleben, wenn wieder einmal ein Religionist des Friedens einige Menschen vom Leben in den Tod befördert hat.
So sicher wie das Amen in der Kirche wird irgendjemand von der Süddeutschen Zeitung oder der Bertelsmann-Stiftung um die Ecke kommen und darauf hinweisen, dass von der Leiter zu stürzen wahrscheinlicher sei, als einem islamischen Attentat zum Opfer zu fallen. Dass vom Atomtod hinweggerafft zu werden, noch um ein Vielfaches unwahrscheinlicher ist, auf diese Erwähnung sollte man jedoch tunlichst verzichten, will man im besten Deutschland aller Zeiten noch als seriös gelten.
Der große Unterschied zwischen den Ängsten der moralisch Hochbegabten und denen der Abgehängten ist allein der, dass die guten Ängste zur Regierungspolitik erhoben wurden, während die schlechten Ängste als „nicht hilfreich“ abgestempelt und derart aus der Sachdebatte ausgeschlossen wurden.“
– Markus Vahlefeld[63]


„Im Verlauf jeder wirtschaftspolitischen Diskussion gelangt man an den Zeitpunkt, an dem sich jemand mit dem Satz zu Wort meldet: „Aber wir müssen uns doch mal überlegen, wo wir in zwanzig Jahren sein wollen!“ Müssen wir? Können wir? Sollten wir? Es mag Zusammenhänge geben, in denen dieser Ansatz sinnvoll ist. Wenn man als Privatperson eine Immobilie finanziert oder auch, wenn Politik über grundlegende Rechtssetzungen nachdenkt. Aber in Bezug auf Innovationen ist diese Art zu Denken nicht nur nicht hilfreich, sondern kontraproduktiv. Innovationen finden in der Gegenwart statt, nicht in der Zukunft. Sie sind Objekte des Hier und Jetzt. Je nach Branche ist das „Hier und Jetzt“ natürlich dehnbar. Manche müssen die nächste Produktgeneration, die nächste Neuheit in Monaten präsentieren, manchen genügen ein, zwei oder drei Jahre und einige wenige denken tatsächlich in Jahrzehnten.
Der Satz oben aber stellt eine Metapher dar, die nicht nur meint, gleich mehrere Produktgenerationen im Voraus, sondern gar eine Art endgültiges Ziel festlegen zu müssen. Die Motivation verdeutlichen diverse synonyme Formulierungen, in denen die Aussage ebenfalls angeboten wird. „Wenn wir jetzt nicht in diese oder jene Richtung aufbrechen, werden wir in zwanzig Jahren vor großen Problemen stehen!“ heißt es dann beispielweise. Furcht treibt die Protagonisten der politischen Sphäre, die die technische Entwicklung steuern wollen. Klima- und Umweltkatastrophen, Rohstoffknappheit oder auch der demographischer Wandel sind prominente Angstszenarien, mit denen staatliche Eingriffe in den Markt und damit in Innovationsprozesse begründet werden. Von der Förderung der vorwettbewerblichen Entwicklung über die Subventionierung von Produkten bis hin zu Regulierungen und Verboten wird gegenwärtig das gesamte Portfolio der verfügbaren Maßnahmen eingesetzt, um heute schon festzulegen, mit welchen Technologien auf welche Weise die Menschen ihre Bedarfe in ferner Zukunft erfüllen sollen.
[…]
Vor diesem Hintergrund kann man sich nun ausmalen, wie der Häuptling seine Leute zusammentrommelt und ihnen eröffnet, das mit der Jagd sei nun Vergangenheit. Ab sofort würden Felder angelegt und bearbeitet. Weil nämlich der „Rat der Ältesten“ in Sorge sei. Der Stamm sei zu stark gewachsen (aufgrund der guten Versorgungslage). Wenn man nicht umsteuere, dann würden die Nachfahren „in zwanzig Jahren“ hungern. Man solle also lieber jetzt mit dem Verzicht beginnen. „In zwanzig Jahren“ sei die Landwirtschaft dann weit genug, um alle wieder zu ernähren.
Abstrus? Allerdings. Nur leider sind exakt solche Prozesse Teil unserer Gegenwart. Unser Häuptling ist die Bundeskanzlerin. Unser „Rat der Ältesten“ schimpft sich WBGU und propagiert die „Große Transformation“. Beide gemeinsam fordern uns auf, jetzt Elektromobile statt Benzin- oder Dieselfahrzeuge zu kaufen, damit uns nicht „in zwanzig Jahren“ der Himmel auf den Kopf falle. Und außerdem sei ja dann „in zwanzig Jahren“ die Elektromobilität gut genug entwickelt, um wirklich wettbewerbsfähig zu sein. Es mag einige wenige Kunden geben, die Dinge deswegen kaufen, weil sie kein anderer hat. Die weitaus meisten aber werden das Neue nur erwerben, wenn es einen über den etablierten Stand der Technik hinausgehenden Nutzen aufweist. […]
[…] Wer in der Elektromobilität aber nur ein Instrument zur Weltrettung sehen mag, darf man sich nicht wundern, wenn diese nicht genutzt werden. Innovationsprozesse politisch zu lenken bedeutet immer, durch eine fehlgeleitete Allokation von Ressourcen auf viele Optionen zu verzichten, um einige wenige zu erzwingen. Wer Elektromobilität wirklich will, sollte gegenteilig handeln. Technologieoffenheit in der vorwettbewerblichen Förderung und Deregulierung in allen denkbaren Nutzungssegmenten wären mal ein guter Beginn.
Auf den Satz „Aber wir müssen uns doch mal überlegen, wo wir in zwanzig Jahren sein wollen!“ entgegne ich immer: „Das überlegen wir uns dann in zwanzig Jahren – und keinen Tag früher.“ Denn Innovation kann nicht erzwungen werden. Schon gar nicht durch geplante Rückschritte, auch wenn diese als temporär gedacht sind. Der Markt weiß um die gegenwärtigen Möglichkeiten und er wird nichts akzeptieren, was hinter diesen zurückbleibt. Eine Innovation als neues, marktfähiges Produkt ist im Hier und Heute erfolgreich, weil sie einen unmittelbaren, über den Stand der Technik hinausgehenden Nutzen für eine bestimmte Zielgruppe aufweist. Sie ist nicht erfolgreich, wenn sie einen solchen nur hypothetisch für irgendeine Zukunft versprechen kann. Die Jäger und Sammler der Jungsteinzeit haben die Landwirtschaft nicht akzeptiert, weil sie die Hoffnung auf Brot hatten. Sie haben wohl eher den Drogenanbau forciert, weil der Bedarf nach dem Rauscherlebnis sofort erfüllt werden konnte.“
– Peter Heller[64]

Weblinks

Anmerkungen

A. - „The very fact that Hiroshima is thriving with its KFC and Starbucks, with the carefully manicured lawns of its "Peace Memorial Park"—the only evidence that hell was unleashed here—may have the opposite, anodyne effect. This is not John Hersey's Hiroshima, the Hiroshima of the horrific immediate aftermath, but is to a certain extent a Hiroshima that says a nuclear detonation is a transient thing, something that's eminently recoverable from with a little time and some good landscaping.“
B. - Dieselben Kreise, die seine Peak-Fossil-Theorie lautstark propagieren, sind sehr verschwiegen, wenn es um die von Hubbart skizzierte Lösung geht. Lässt man das Rosinenpicken beiseite fällt auf, dass Hubbart in der Studie nur einen Wandel beschreibt, und keine Gesellschafts- oder Energiekrise. Peak-Fossil ist kein Problem, sondern ein Übergang.
C. - In den achtziger Jahren wurde von Seiten der Ökosozialisten noch von K- und S-Strategie gesprochen, vom "harten" Weg über die Kernenergie und dem "sanften" Weg über Sonne und Sparen. Der K-Pfad entspricht im heutigen Duktus der Grünlinge der Hyperenergiegesellschaft, der S-Pfad dem der Nachhaltigkeitskultur.
D. - Matthew Lavine schreibt dazu: In the middle of a much longer column on the state of affairs in Europe, Harold Frederic, a New York Times political correspondent, chided Kaiser Wilhelm II for summoning Roentgen to demonstrate his work with cathode ray tubes and awarding him a medal, when “already it is found that this discovery was ... made by a Prague professor in 1885, who got an admirable photograph of Mont Blanc at dark midnight by virtue of the cathodic rays.” Frederic’s report ran first in the Chicago Daily Tribune on January 19, 1896, on page 9; on page 38, a better-informed and full-length article, vividly illustrated with line drawings of skeletons posed in drawing rooms, told in the awed tones more characteristic of x-ray reportage about the furor that Roentgen’s rays had caused among “photographers all over the world.” Die Presse lieferte auch damals qualitativ hochwertige Berichte zur Emotionalisierung der Massen, die inhaltlich leider falsch waren.
E. - Diese Formulierung der Werbeanzeigen legt nahe, dass Esoteriker die Zielgruppe dieser Produkte waren. Das könnte auch erklären, warum über die Gesundheitsschäden von Radiumziffernmalerinnen lang und breit berichtet wird, da hier das kapitalistische Feindbild gemolken werden kann. Wie viele Esoteriker im Verhältnis dazu durch die radioaktiven Quacksalbereien verkrebsten, wird in der Regel nicht erörtert.
F. - Ein Exemplar grüner Wissenschaft, das es sogar in die KIT-Bibliothek geschafft hat ist zum Beispiel Die Formel und die Sinnlichkeit : Bausteine zu einer Poetik im Atomzeitalter von Heinrich Schirmbeck
G. - Fachleute und Wissenschaftler sind nicht mit sogenannten „Experten“ zu verwechseln. Wer alte Dokumentation des öffentlichen Fernsehens gesehen hat, zum Beispiel die Sendungen von und mit Heinz Haber, kennt die Phrasen „die Wissenschaftler sagen uns“ oder „Fachleute sprechen davon“. Da der Ökosozialismus keinen Bezug zu Wissenschaft und Realität hat, wurde der sogenannte „Experte“ erfunden. Ein Experte ist dort ein Mensch mit einer richtigen, dh genehmen Haltung.
H. - Weltanschaulich gefestigten Menschen ist besonders das in der sogenannten „DDR“ gedruckte Buch Gigant Atom von 1957 empfohlen, das nukleare Zukunftsverheißungen im Sozialismus mit Anti-Atom-Agitation gegen den kapitalistischen Klassenfeind verband. Beim Lesen des Buches fällt auf, dass alle Stichworte der Anti-Atom-Bewegung aus dem Ostblock bezogen wurden.
I. - Falls sich doch einmal die Erkenntnis durchsetzen sollte, dass Magnetbahnen ressourcenschonender und energieeffizienter als Rad-Schiene-Fahrzeuge unterwegs sind, hat man sich bereits die Geheimwaffe „Elektrosmog“ gesichert. Diese kann nach belieben auch gegen Elektrofahrzeuge eingesetzt werden.
J. - Vermutlich wurde deshalb von interessierter Seite die Behauptung in die Welt gesetzt, Astronautennahrung käme aus der Tube und sei geschmacklos.

Einzelnachweise

  1. Stanford News: Top physicists gather at Stanford to discuss the value of fundamental research Abgerufen am 16.02.2019 (Archivierte Version bei Wayback Machine)
  2. Das neue Universum: Atome arbeiten für uns Band 73. Union Druckerei GmbH, 1956
  3. Franz Osterroth, Dieter Schuster: Chronik der deutschen Sozialdemokratie 3. Nach dem Zweiten Weltkrieg FES Library, 2001. Abgerufen am 28.08.2018 (Archivierte Version bei Wayback Machine)
  4. Abraham Gould Jennings: The Earth and the World. How Formed?: A Layman's Contribution to the Religious Though of the Times Ulan Press, 2012 ASIN: B00A6GPSE6
  5. a b c d e f g h i j k l Matthew Lavine: The First Atomic Age Scientists, Radiations, and the American Public, 1895–1945 PALGRAVE MACMILLAN, 2013
  6. Ron Rosenbaum: Welcome to the Hotel Hiroshima SLATE, 25. März 2008. Abgerufen am 19.08.2018 (Archivierte Version bei Wayback Machine)
  7. Novo: Das fossile Zeitalter ist noch nicht zu Ende. Abgerufen am 25.8.2018 (Archivierte Version bei Wayback Machine)
  8. a b c Science-Skeptical Blog: Deutschlands Energiediät – Teil 3: Keine Perspektive. Abgerufen am 25.8.2018 (Archivierte Version bei Wayback Machine)
  9. a b c d e f g h i j k l m Karl Böhm, Rolf Dörge: unsere welt von morgen Verlag neues Leben, 1960
  10. a b c Science-Skeptical Blog: Die gefährliche Utopie der Klimakrieger. Abgerufen am 25.8.2018 (Archivierte Version bei Wayback Machine)
  11. a b Hans Joachim Schellnhuber: Selbstverbrennung: Die fatale Dreiecksbeziehung zwischen Klima, Mensch und Kohlenstoff. <Herr Schellnhuber verwendet keine Seitenzahlen> Bertelsmann Verlag, 2015. ISBN 3570102629
  12. a b c M King Hubbert: Nuclear Energy and the Fossil Fuels Drilling and Production Practice, 1956. Abgerufen am 20.10.2018 (Archivierte Version bei Wayback Machine)
  13. a b c d e f g Novo: Kohle und Kernenergie: Was denn sonst?. Abgerufen am 25.8.2018 (Archivierte Version bei Wayback Machine)
  14. a b Novo: Was Sie schon immer über Energie wissen wollten, aber nie zu denken wagten (Teil 2) Novo-Argumente Abgerufen am 16.03.2015 (Archivierte Version bei Wayback Machine)
  15. Science-Skeptical Blog: Die grüne Falle. Abgerufen am 25.8.2018 (Archivierte Version bei Wayback Machine)
  16. Welt: Walter Russell Mead. Abgerufen am 1.9.2018 (Archivierte Version bei Wayback Machine)
  17. Physikalische Blätter: Technik als formende Kraft unserer Zivilisation, Dezember 1954. WILEY‐VCH Verlag GmbH & Co. KGaA
  18. Danisch: Links als die Ursache des Übels Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  19. Novo: Wie der Postmodernismus die Aufklärung abwickelt Abgerufen am 18.10.2018 (Archivierte Version bei Wayback Machine)
  20. GB630726 (A): Improvements in or relating to the transmutation of chemical Elements
  21. Thorium Energy Alliance: Liquid Fuel Nuclear Reactors Abgerufen am 20.10.2018 (Archivierte Version bei Wayback Machine)
  22. a b c d e f g h i j Karl Böhm, Rolf Dörge: Gigant Atom. Verlag neues Leben, 1960. S.130
  23. PMSA: Great Exhibition Lump of Coal Abgerufen am 04.10.2018 (Archivierte Version bei Wayback Machine)
  24. Christopher Read: Lenin: A Revolutionary Life Routledge, 2005. ISBN-10: 0415206499
  25. Gerd Koenen: Die Farbe Rot. Ursprünge und Geschichte des Kommunismus Beck, München 2017, S. 740 ISBN-10: 9783406714269
  26. a b c d e f g h i j Ulrich Schippke, Roland Gööck: Die Zukunft - Das Bild der Welt von morgen Bertelsmann, 1974. ASIN: B002LP5QRE
  27. IIASA: Energy in a Finite World HarperCollins Distribution Services, 1981 ISBN 0884106411
  28. a b c Science-Skeptical Blog: Dezentral ist ideal? Vom Glück der Autarkie Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  29. Matt Ridley: Wenn Ideen Sex haben YouTube. Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  30. U.S. Energy Information Administration: How much does it cost to generate electricity with different types of power plants? Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  31. KE Research: Energiepolitik im Konzeptnebel Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  32. a b Novo: Alles Tera, oder was? Eine Billion Menschen auf der Erde Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  33. Deutscher Arbeitgeber Verband: Von Freien Reichsstädten zu Freien Privatstädten Vorschlag für eine alternative Ordnung Abgerufen am 14.10.2018 (Archivierte Version bei Wayback Machine)
  34. WNA: World Energy Needs and Nuclear Power Abgerufen am 25.10.2018 (Archivierte Version bei Wayback Machine)
  35. NRC: Backgrounder on Power Uprates for Nuclear Plants Abgerufen am 25.10.2018 (Archivierte Version bei Wayback Machine)
  36. POWER: Nuclear Uprates Add Critical Capacity Abgerufen am 27.10.2018 (Archivierte Version bei Wayback Machine)
  37. May Fawaz-Huber: Going Long Term: US Nuclear Power Plants Could Extend Operating Life to 80 Years IAEA, 16. Jan 2018 Abgerufen am 01.11.2018 (Archivierte Version bei Wayback Machine)
  38. Research Center for Neutrino Science, Tohoku University: Partial radiogenic heat model for Earth revealed by geoneutrino measurements Nature Geoscience, Volume 4, S.647–651 (2011)
  39. a b Mary H. Dickson, Mario Fanelli: What is Geothermal Energy? International Geothermal Association, 2004 Abgerufen am 28.10.2018 (Archivierte Version bei Wayback Machine)
  40. Department of Electrical and Computer Engineering: Renewable Energy Resources in Iceland – Environmental Policy and Economic Value. Nordic Conference on Production and Use of Renewable Energy, Juli 9-11, 2008, Vaasa, Finland. Abgerufen am 29.10.2018 (Archivierte Version bei Wayback Machine)
  41. a b Science-Skeptical Blog: Technikfeindlichkeit am Beispiel Elektromobilität Abgerufen am 30.04.2018 (Archivierte Version bei Wayback Machine)
  42. a b Yong, J & Smith, Rod & Hatano, L & Hillmansen, Stuart: What price speed-revisited Ingenia. 22. 46-51. (2005) Abgerufen am 10.11.2018 (Archivierte Version bei Wayback Machine)
  43. a b AVES: Atomantriebe: Utopien und Realitäten Abgerufen am 14.02.2006 (Archivierte Version bei Wayback Machine)
  44. Schwartz, Ohlgren: Automotice nuclear heat engines and associated high-temperature materials May, 1956. IP-164
  45. The Michigan Technic: Technic Spotlights Progress Bände 75-76, S.52, 1956
  46. Popular Mechanics: The Atom-Powered Car April 1957, Seite 141
  47. Wikipedia: Mars Science Laboratory Abgerufen am 21.10.2018
  48. FAZ: Noch eine unbequeme Wahrheit, 14. Oktober 2007 Abgerufen am 02.11.2018
  49. ScienceBlogs: Energieverbrauch des Transrapid, 14. Januar 2008 Abgerufen am 02.11.2018 (Archivierte Version bei Wayback Machine)
  50. MARKUS UHLENBROCK, VOLKHARD NORDMEIER, H. JOACHIM SCHLICHTING Die Magnetschnellbahn Transrapid im Experiment Universität Münster Abgerufen am 02.11.2018 (Archivierte Version bei Wayback Machine)
  51. Das neue Universum: Otto Hahn - Das erste europäische Atomschiff Band 84. Union Druckerei GmbH, 1967
  52. L Allen, John & H Fishbach, Laurence & Strack, William: PRELIMINARY STUDY OF A SUBSONIC NUCLEAR CRUISE AIRPLANE HAVING A HELIUM-COOLED THERMAL REACTOR. NASA, Oktober 1968
  53. The Guardian: US draws up plans for nuclear drones, 2. April 2012 Abgerufen am 05.01.2019 (Archivierte Version bei Wayback Machine)
  54. Encyclopedia Astronautica: Timberwind Abgerufen am 02.11.2018 (Archivierte Version bei Wayback Machine)
  55. Encyclopedia Astronautica: Russian Mars Propulsion - Nuclear Thermal Abgerufen am 02.11.2018 (Archivierte Version bei Wayback Machine)
  56. US Department of Energy: The Soviet Program for Peaceful Uses of Nuclear Explosions, 1. September 2000 Abgerufen am 03.02.2019 (Archivierte Version bei Wayback Machine)
  57. The New Republic: Power-Hungry America: Where Will We Get the Energy, 11 Juli 1970 Abgerufen am 03.02.2019 (Archivierte Version bei Wayback Machine)
  58. Gemeinschaftspraxis Koch: Was ist Nuklearmedizin? Unterschiede zur Radiologie. Abgerufen am 9.2.2019 (Archivierte Version bei Wayback Machine)
  59. Krebsinformationsdienst: Nuklearmedizin: Durchführung und Nebenwirkungen der Radionuklidtherapie. Abgerufen am 09.2.2019 (Archivierte Version bei Wayback Machine)
  60. US Food and Drug Administration: Food Irradiation: What You Need to Know. Abgerufen am 14.2.2019 (Archivierte Version bei Wayback Machine)
  61. United States General Accounting Office: FOOD IRRADIATION Available Research Indicates That Benefits Outweigh Risks. Abgerufen am 14.2.2019 (Archivierte Version bei Wayback Machine)
  62. IAEA: Nuclear Technique Helps Dominican Republic Eradicate Insect Pest That Hurt Agricultural Sector. Abgerufen am 20.4.2019 (Archivierte Version bei Wayback Machine)
  63. Achse des Guten: Gute Ängste, schlechte Ängste Abgerufen am 23.10.2018 (Archivierte Version bei Wayback Machine)
  64. Science-Skeptical Blog: Elektromobilität: Zukunftsangst gegen Innovation. Abgerufen am 09.2.2019 (Archivierte Version bei Wayback Machine)