Herzlich willkommen in der Nucleopedia! Hierbei handelt es sich um eine freie Enzyklopädie, die sich auf den Bereich der Kernenergie spezialisiert hat. Die Inhalte sind frei verfügbar und unter Lizenz frei verwendbar. Auch Sie können zum Inhalt jederzeit beitragen, indem Sie als Benutzer den Seiteninhalt verbessern, erweitern oder neue Artikel erstellen.
Vielen Dank für Ihre Unterstützung an dem Projekt!

Benutzerkonto beantragen  Benutzerkonto anfordern

Nucleopedia:Objektiver Standpunkt

Aus Nucleopedia
(Weitergeleitet von NP:OS)
Wechseln zu: Navigation, Suche

Der Objektive Standpunkt bildet die Basis des Standpunktes, aus dem in der Nucleopedia Artikel verfasst werden. Der Gegensatz dazu ist der Neutrale Standpunkt, der verschiedene Ansichten zu einem Thema gleichberechtigt darlegt, ohne diese auf ihre Plausibilität und Relevanz zu prüfen. In der Praxis wird aber in der neutralen Fassung meist tendenziell eine der Meinungen direkt bevorzugt, sodass das Ziel des Neutralen Standpunkts ad absurdum geführt wird. Dieses willentliche Außerkraftsetzen des Bewusstseins, diese Ablehnung des Denkens leugnet die Existenz einer objektiven Realität und öffnet damit den Raum für Beliebigkeit. Diese Beliebigkeit leugnet den menschlichen Verstand, das Gesetz der Identität und den Wert wissenschaftlichen Arbeitens und ist deshalb nicht zur Wissensbildung geeignet. Die nachfolgenden Ausführungen sollen einen Überblick über die Gewichtung von Informationen und damit den Umgang mit verschiedenen → Quellen in der Nucleopedia geben. Es ist ebenfalls möglich auf Basis von eigenen belegten Recherchen und Schlussfolgerungen einen Standpunkt zu formulieren, wobei keine Diskussion zu einem Konsens führen soll, sondern auf Basis weiterer Diskussionen bei Anfechtung der Angaben eine Spezifizierung des Abschnitts vorgenommen werden sollte, um die Objektivität zu gewährleisten.

Vorgehensweise

„Solange wie die Menschen in der Wildnis kein Konzept von einer objektiven Realität hatten und glaubten, dass die Natur durch die Launen von unerkennbaren Dämonen oder Götter beherrscht würde, war kein vernünftiger Gedanke, keine Wissenschaft und keine Produktion möglich. Nur als die Menschen entdeckten, daß die Natur fest war, vorhersagbar, absolut, waren sie fähig, sich auf ihr Wissen zu verlassen, ihren Kurs zu bestimmen, ihre Zukunft zu planen und sich langsam aus der Höhle emporzuarbeiten.“

Wissenschaftliches Arbeiten dient zur Erfassung dieser objektiven Realität (in den Gesellschaftswissenschaften nicht immer) und ist ein methodisch-systematisches Vorgehen, bei dem die Ergebnisse der Arbeit für jeden objektiv nachvollziehbar oder wiederholbar sind. Das bedeutet, Informationsquellen werden offen gelegt (zitiert) und Experimente so beschrieben, dass sie reproduziert werden können. Wer eine wissenschaftliche Arbeit liest, kann stets erkennen, auf Grundlage welcher Fakten und Beweise der Autor zu seinen Schlussfolgerungen gelangt ist, auf welche Forschungsergebnisse anderer Wissenschaftler er sich beruft (Zitation) und welche neuen Aspekte von ihm sind. Kernpunkte dabei sind:

  1. Eine objektive, logische Begründung, keine gefühlsmäßige Argumentation
  2. Eine systematische Vorgehensweise, z.B. durch das Aufstellen von Ad-hoc-, a priori-Hypothesen und Axiomen
  3. Eine wissenschaftliche Auseinandersetzung mit anderen Arbeiten
  4. Eine Quellenauswahl anhand von wissenschaftlichen Publikationen und Grauer Literatur
  5. Eine Verwendung von Fachbegriffen, um Unklarheiten zu vermeiden
  6. Eine Publikation in einem Fachjournal ist wegen Peer-Review wünschenswert

Fachliche Auseinandersetzungen werden auf wissenschaftlicher Publikationsebene, nicht in der Boulevardpresse und nicht mit persönlichen Beleidigungen oder gar Verleumdungen ausgetragen (Ausnahmen von der Regel gibt es, beispielsweise wie weit bekannt die Klimaforschung). Ist ein Forscher der Auffassung, ein Kollege oder Konkurrent hätte in einer begutachteten Fachpublikation sachlich Unzutreffendes oder Unsinniges geschrieben, gibt es hierfür stets Einspruchsmittel. Bei Nature können bspw. Kommentare eingereicht werden, welche begutachtet und, falls fachlich in Ordnung, veröffentlicht werden.

Besonders die objektive, logische Begründung fällt vielen Menschen schwer und ist in den Gesellschaftswissenschaften wegen “Sozialer Gerechtigkeit”, “Islamophobie”, “Toleranz” usw. nicht möglich aufgrund der vertretenen Ideologie. In den Naturwissenschaften gelten hingegen die Gesetze der Logik und Mathematik. Bei kritischen Fragen lohnt es sich deshalb den Hintergrund einer Aussage zu erfassen, statt nur triumphierend zu verkünden: „ Eine Studie des Massachusetts Institute of Technology besagt, das neue Kernkraftwerke nicht mit Faulgasanlagen (Neusprech: Biogas) konkurrieren können.“ So spielen im Beispiel viele Dinge eine Rolle, welche das Ergebnis beeinflussen: Subventionen, Laufzeiten, Zinssätze, Betriebs- und Wartungskosten, Entsorgungkosten, Auslastung und die Frage, ob Stromspeicher oder Reservekraftwerke und deren Kosten bei Zufallsstromerzeugung berücksichtigt werden. All diese Punkte sollten schlüssig sein; so lassen sich die aktuellen Zinssätze für Unternehmensanleihen (Corporate Bond) leicht mit einer Suchmaschine für die verschiedenen Bonitäten finden. Die Schlüssigkeit von Laufzeiten, Auslastungen, Betriebs- und Wartungskosten lässt sich durch Anlagen in Betrieb abgleichen. Dieser Prozess ist mühsam aber nötig, wenn es zu Widersprüchen kommt. Dafür steht die Diskussionsseite eines Artikels zur Verfügung.

Zu beachten ist, dass das Kriterium des objektiven Standpunktes nur bei der Ermittlung und Darstellung von objektiven Fakten gilt. In der Praxis gibt es immer Meinungen und Fakten, da alles von einem Standpunkt aus erklärt werden muss, und gesellschaftliche Themen nicht voll durch die Wissenschaft abgedeckt werden. Wertende Aussagen („Die Studie ist Müll“, „Der Grenzwert hat keine Entsprechung in der Wissenschaft und ist rein politisch“, usw.) sind deshalb in der Nucleopedia möglich, solange die Fakten korrekt dargestellt werden und diesen Schluss zulassen. Prinzipiell sollten schlechte Quellen im Allgemeinen und schlechte Studien im Speziellen aber ignoriert werden, denn der Artikelnamensraum der Nucleopedia ist keine Diskussionsplattform. Um die Objektivität einer Studie oder Quelle zu diskutieren steht, wie oben erwähnt, die Diskussionsseite eines Artikels zur Verfügung.

Pseudowissenschaft

Die Wissenschaft hat einen langen Weg hinter sich. Vom Anbeginn der Menschheit bis in die 1970er Jahre hinein stand die Wissensbildung und -vermehrung im Vordergrund. Nachdem die politische Linke das antikapitalistische Potential des Ökologismus erkannte und dessen Forderungen übernahm, wurde die Gesellschafterziehung durch Pseudowissenschaft großgeschrieben. Ein anschauliches Beispiel dafür bietet die Wissenssendung Was sucht der Mensch im Weltraum? von Heinz Haber, die für heutige Verhältnisse zu unkritisch, zu sachlich und nicht emotional genug wäre. Moderne „Dokumentationen“ und „Wissenssendungen“ müssen bereits beim Lastheben eines Kranes über die Absturzgefahr und -folgen schwadronieren und Pseudo-Konflikte zwischen Mensch und Umwelt ansprechen. Durch eine durchgehende Unterwanderung von Meinungsmultiplikatoren haben die Grünen nicht nur „dieses Land seit Jahrzehnten mit ihren völlig frei erfundenen Schwachsinnigkeiten besamt wie Lachse auf dem Höhepunkt der Paarungszeit den Fluß“ (Akif Pirincci), sondern auch die Wissenschaft als Waffe entdeckt, um Presse und Parteien mit Munition zu füttern. Neben Junk Science kommen dabei auch rhetorische Tricks zur Anwendung.

Junk Science

Junk Science ist Forschung, mit deren Ergebnissen Vertreter wirtschaftlicher, religiöser oder politischer Interessen versuchen, hoheitliche Entscheidungen und Metapolitik zu ihren Gunsten zu beeinflussen. Die Interessenvertreter sind dabei die Geldgeber der Forschung, oder die Forscher selbst sind diesem Milieu zugehörig. Die Studien selbst und deren Rezeption in der Presse sollen diesen Zusammenhang verschleiern oder zumindest nicht offenkundig machen. Auf diese Weise erwecken die Forschungsergebnisse den Eindruck der Objektivität. Prinzipiell ist nicht jede Studie, die im Auftrag oder von Interessenvertretern oder Ideologen erstellt wird, Pseudowissenschaft. Eine Hilfestellung können folgende Methoden sein, welche gerne in manipulativer Absicht verwendet werden:

  • Das Risiko muss unbeweisbar sein: Meist wird dabei ein Risiko gewählt, das nach wissenschaftlichen Standards nicht ermittelt werden kann, entweder weil es nicht existiert oder die Fallzahlen zu gering sind, um eine statistisch relevante Aussage machen zu können. Dies bedeutet im Umkehrschluss, dass das nicht-Risiko nicht beweisbar ist. Damit kann die Studie nicht wiederlegt werden, da man sich immer auf ein mögliches Risiko berufen kann. Die nicht-Beweisbarkeit des Risikos wird durch die Unterstellung eines möglichen Risikos in der Studie kompensiert, und am besten durch lautstarke Berichterstattung in den Massenmedien flankiert. Beliebt dabei sind kerntechnische Anlagen und Leukämie, Dioxine und Pestizide im Essen oder Lungenkrebs und Radon im Keller, aber auch elektromagnetische Felder.
  • Das Risiko muss allgegenwärtig sein: Möglichst jeder sollte von dem Risikofaktor betroffen sein um große Medienresonanz zu erzielen, allerdings muss die Messung über das Ausmaß der Kontamination oder Exposition schwierig sein, damit der Autor der Studie Spielraum zur Datenmassage hat. Dioxin im Essen, oder die isotrope Abschätzung der Strahlendosis in der KiKK-Studie in bis zu 90 km Entfernung vom Kernkraftwerk sind Beispiele hierfür. Geübte Autoren werden greifbare Risiken die real sind, z.B. Verkehrsunfälle, Flugzeugabstürze, oder Schlaganfälle und Morde ignorieren, da Personen diese vermeiden können, oder das neue „Risiko“ im Vergleich dazu vernachlässigbar finden könnten.
  • Das Risiko muss intuitiv sein: Das vermeidliche Risiko muss der Bevölkerung intuitiv korrekt erscheinen, z.B. nach dem Prinzip: „Wenn wir jährlich 500 Mrd. Tonnen CO2 in die Atmosphäre pusten, kann das nicht ohne Folgen bleiben“. Die elektromagnetische Strahlung von Handys oder Mobilfunkmasten, Kernkraftwerke, Meeresverklappung von Nuklear- oder Giftmüll, Pestizide und Genfood eignen sich hervorragend dafür. Die Aufgabe der Studie bzw. ihres Autors besteht nur noch darin, dieses gefühlte Risiko zu beweisen. Auch als postmoderne Wissenschaft bekannt.
  • Das Risiko muss unverteidigbar sein: Wird eine Gruppe beschuldigt ein Gesundheitsrisiko zu verursachen, darf die Verteidigung nicht leicht fallen. Es lohnt sich deshalb die Verbindung von intuitiven Risiken mit unangenehmen Dingen wie Abgasen, Müll, Strahlung, Lärm, Stress oder dem Vorwurf, dass dabei etwas gutes, natürliches und reines kontaminiert oder zerstört wird. Moralisch verwerfliche Dinge wie Rauchen, Kernwaffen, Unkrautvernichtungsmittel, Jagen oder Saufen sind auch kommunikativ sinnvolle Auslöser eines Risikos.
  • Das Risiko muss unfreiwillig sein: Die Bevölkerung akzeptiert Risiken, die über 1000-mal größer sind, wenn sie nur freiwillig angenommen werden. Ein unfreiwilliges Risiko, egal wie niedrig es ist, verursacht einen Aufschrei. Beispielweise ist das Restrisiko des Reaktorbetriebs mit 1:1.000.000 Jahre für einen Umzug aufgrund von freigesetzter Radioaktivität wesentlich geringer als die Wahrscheinlichkeit, an einem Verkehrsunfall zu sterben. Auch Hochspannungsleitungen können das Ziel dieser Kampagnen sein. Hier lohnt es sich für den erfahrenen Autor einer Studie, gezielt diese vernachlässigbaren, aber unfreiwilligen Risiken zu untersuchen.
  • Die Beseitigung des Risikos darf keine persönlichen Opfer erfordern: Es wäre kommunikativ unklug, etwas als Risiko zu bezeichnen, was den Menschen lieb und teuer ist. Eine Studie über das Absturzrisiko von Billigfliegern nach Mallorca oder Thailand ist deshalb ein No-Go. Auch Handystudien sind unbeliebt, besser sind Handymasten, da diese bis auf den (profitorientierten) Betreiber niemand direkt betreffen. Geeignet sind auch Endlager oder überirdische Hochspannungsleitungen, wenn der Staat die Kosten zur Beseitigung fiktiver Risiken, oder die Elektrizitätsgesellschaft (EVU) die Kosten der unterirdischen Leitung tragen muss. Die meisten Menschen sind sich nicht bewußt, dass der Endverbraucher bzw. Steuerzahler am Ende immer alle Kosten trägt, da weder Staat noch EVU's über himmlische Konten verfügen.
  • Das Risiko muss überraschend sein: Kommunikativ wichtig ist ein unbekanntes Risiko zu entdecken, dass trotz jahrzehntelanger Forschung auf diesem Gebiet unentdeckt geblieben ist. Das erhöht die mediale Wirkung und damit den Einfluss auf die Bevölkerung und Politik, auch wenn die Studie später verrissen, und nie in einer Fachzeitschrift publiziert wird. Profis gehen deshalb direkt zu den Massenmedien, um sich das lästige Peer-Review zu ersparen. Beispiele dafür sind der Mädchen-Schwund um Gorleben, oder radioaktive Partikel im Elbmarsch.
  • Rate- und Zahlenspiele: In der Epidemiologie werden meist zwei Arten von Studien angefertigt: Kohortenstudien und Fall-Kontroll-Studien. Kohortenstudien sollten vermieden werden, da hier eine spezifische Gruppe in die Zukunft beobachtet wird. Obwohl sie zuverlässigere Ergebnisse liefern, können diese Jahre oder Jahrzehnte andauern. Um unnötiges Warten zu vermeiden, empfehlen sich Fall-Kontroll-Studien. Hier wird eine Gruppe von Kranken mit einer Gruppe von gesunden Kontrollpersonen verglichen, indem untersucht wird, welche der beiden Gruppen wie einem (vermeidlichen) Risiko ausgesetzt waren. Der Vorteil aus Sicht des politisch engagierten Akademikers ist, das man im Rückblick mehr finden kann, aus wenn nur ein bestimmtes Untersuchungsthema in die Zukunft getragen wird, welches sich vielleicht als Niete erweist. Wenn die Exposition der Fallgruppe größer als in der Kontrollgruppe war, liegt der Jackpot nahe. Der Unterschied wird als relatives Risiko ausgedrückt: Die Expositionsrate der Fälle geteilt durch das Auftreten der Exposition bei den Kontrollen. Wenn z.B. der Zusammenhang zwischen fettigem Essen und Lungenkrebs ein relatives Risiko von 6 ergibt, bedeutet dies, dass fettreiches Essen in der Lungenkrebsgruppe sechsmal häufiger vorkam als in der Gruppe ohne Lungenkarzinom. Da diese Aussage fachlich, aber nicht politisch korrekt wäre und kommunikativ suboptimal ist, ist eine peppigere Formulierung nötig: „Die Studie zeigt, dass das Lungenkrebsrisiko bei fettreicher Ernährung sechsmal höher ist.“ Dabei gilt: Je größer das relative Risiko, desto besser für die Kommunikation. Allerdings handelt es sich nur um eine statistische Assoziation, es ist kein Beweis, das fettiges Essen tatsächlich etwas mit Lungenkrebs zu tun hat. So läßt sich auch ein katastrophales relatives Risiko zwischen Büstenhaltern und Brustkrebs wissenschaftlich beweisen. Auch für kolorektale Karzinome und Stress am Arbeitsplatz läßt sich so ein hohes relatives Risiko finden, ebenso für chloriertes Wasser und Nierenkrebs. Um mehr Aufmerksamkeit zu bekommen kann es hilfreich sein, über einen biologischen Zusammenhang zu spekulieren, um die Suggestion der Kausalität zu verstärken.
  • Unsignifikante Signifikanz: Nachdem ein relatives Risiko über 1 festgestellt wurde, muss noch eine wichtige Hürde überwunden werden: Ist das Risiko (korrekt: die statistische Assoziation) statistisch signifikant? In der Regel wird hier ein 95-%-Konfidenzintervall verlangt, d.h. man muss sich zu 95% sicher sein, dass das Ergebnis kein Zufall ist. Wenn beispielsweise ein relatives Risiko von 1,2 errechnet wurde, kann das 95-%-CI-Intervall bei 1,05–1,35 liegen. Die Wahrscheinlichkeit liegt also bei 95%, dass das Ergebnis zwischen 1,05 und 1,35 liegt. Statt des Konfidenzintervalls kann auch ein p-Wert angegeben werden, welcher mit CI = 100 - p berechnet wird, und das Risiko eines Glückstreffers angibt. Sollte der 95-%-CI-Bereich um 1 liegen, steht der Autor vor einem Problem, da keine statistische Signifikanz vorliegt. Um das Problem zu lösen, sind drei Methoden möglich: 1. Massage der Rohdaten: Irgendein Confounder läßt sich immer finden, auch wenn es nur die Höhe des Wohngeschosses ist. Passivrauchen kann als Störfaktor „vergessen“ werden, oder Verkehrslärm dazugenommen werden. Auch die Autoren anderer Studien waren mit Kreativität gesegnet. 2. Ignoriere alle Regeln: Die meisten Menschen, und dazu gehören auch Journalisten, können mit p-Werten oder CI nichts anfangen. Wozu also der Stress? 3. Ändere die Spielregeln: Wenn der 95-%-CI die Niete ist, kann vielleicht der 90-%-CI helfen. Logischerweise führt kleineres Vertrauen auch zu einem kleineren Vertrauensbereich. Und schon kann das Ergebnis Risiko statistisch signifikant sein!
  • Blinde-Kuh-Spiel: Um den größtmöglichen Spielraum zur Datenmassage zu bekommen ist es wichtig, dass die Exposition einer Gruppe mit einem Risiko nicht genau bestimmt werden kann. Hier helfen geniale Ideen weiter: Soll beispielweise ein Zusammenhang zwischen Krebs und Dioxinen gefunden werden wäre es viel zu aufwendig, die Exposition jeder Person einzeln zu bestimmen. Also nimmt man an, das Chemiearbeiter von Berufs wegen einer höheren Belastung ausgesetzt sind, und deshalb ein höheres Krebsrisiko haben müssten. Klingt intuitiv, ist aber unlogisch, da ein höheres Krebsrisiko auch durch andere Chemikalien oder Störfaktoren erreicht werden könnte. Im Nuklearbereich sind Studien mit Tieren oder Anwohnern von Kernkraftwerken oder Standortzwischenlagern beliebt, welchen eine generell höhere Strahlendosis als der Durchschnittsbevölkerung unterstellt wird. Wissenschaftlich gesehen sind die Daten völlig wertlos, was sie so attraktiv macht. Vielleicht ist ja ein Glückstreffer dabei? Mädchenschwund und kleine Schmetterlingsflügel wurden bereits gesichtet. Fußballergebnisse konnten leider noch nicht korreliert werden.
  • Früher war alles besser: Früher war alles besser, aber so genau weiß das niemand. Der Vorteil von Fall-Kontroll-Studien ist, dass sie in der Vergangenheit wühlen. Hier darf man nicht zimperlich sein und sollte Ereignisse erfragen, die 30 Jahre oder mehr zurückliegen. Wenn man bedenkt, dass die meisten Menschen nicht einmal mehr wissen, was letzte Woche Donnerstag zu Mittag auf dem Tisch stand, sind erfrischende Ergebnisse garantiert. Bei Erinnerungslücken kann nachgeholfen werden, indem die Fragebögen oder Interviews dem Teilnehmer klar machen, was eigentlich untersucht werden soll. Kranke Menschen finden es immer entlastend, einen Schuldigen für ihre Krankheit zu finden. Warum nicht Feinstaub bei Lungenkrebs, oder Kernkraftwerke bei plötzlichem Kindstod?
  • Zielscheibenfehler: Der Zielscheibenfehler (Texas sharpshooter fallacy) bezeichnet den Denkfehler, aus einer Häufung von Ereignissen auf einen kausalen Zusammenhang rückzuschließen. Kausalität kann jedoch prinzipiell nur gezeigt werden, wenn die Hypothesen vor dem Experiment formuliert und dann getestet werden. Der Name bezieht sich auf einen Texaner, der seine Waffe zufällig auf ein Scheunentor abfeuert und dann um die größte Trefferhäufung eine Zielscheibe malt. Cluster von irgendwas finden sich immer irgendwo, da der statistische Mittelwert für das Auftreten einer Krankheit überall entweder über- oder unterschritten wird. Dann muss nur noch ein vermeidlicher Auslöser in der Nähe des Clusters entdeckt werden. Dies fällt umso leichter, je häufiger das fiktive Risiko auftritt: Mobilfunkmasten und pestizidbehandelte Ackerflächen stehen praktisch überall.
  • Datenfischen: Data Fishing bezeichnet die Suche nach statistisch signifikanten Mustern oder Relationen in großen Datenmengen, ohne eine a priori-Hypothese aufzustellen. Wenn eine genügend große Anzahl von Hypothesen getestet wird, sind darunter fälschlich signifikante Ergebnisse zu erwarten. Kluge Autoren werden deshalb einen Datensatz nach allen möglichen Mustern durchsuchen, bis ein statistisch signifikates Artefakt Risiko auftaucht. Profis betreiben Schleppnetzfischerei, z.B. wenn eine Fall-Kontroll-Studie nach den Ursachen von Kinderkrebs sucht und als mögliche Risiken Chemikalien, elektromagnetische Felder, medizinische Behandlungen, Tabak- und Drogenkonsum der Eltern, oder Ernährung in Betracht zieht. Wenn die Ernährung dann noch in neun verschiedene Lebensmittel aufgeteilt wird, inklusive Frühstück, Mittagessen, Hamburger, Orangensaft und Cola, sind sicher Treffer dabei. Am Ende des Angelausfluges kann ein statistisch signifikanter Zusammenhang zwischen Brusternährung, In-Door-Pestiziden, Haartrocknern, Fernsehgeräten, Steckdosen und Leukämie wissenschaftlich bewiesen werden.
  • Datenmixen: Was, wenn weder die Fingerübungen auf dem Schießstand, noch der Angelausflug von Erfolg gekrönt war, oder der Staat keine Gelder für eine epidemiologische Studie locker machen will? Hier muss guter Rat nicht teurer sein: Man kombiniert einfach bereits existierende Studien zu einem Thema unter der Annahme, dass diese ähnlich genug sind. Dies ist als Meta-Analyse oder Metastudie bekannt. Ein Beispiel hierfür ist eine Studie der Environmental Protection Agency zum Risiko des Passivrauchens. Von 30 Studien konnten acht ein statistisch signifikanten Zusammenhang zwischen Passivrauchen und Lungenkrebs entdecken, 22 fanden keinen. Von den 11 Studien, welche sich auf die US-Population bezogen, konnte nur eine einen statistisch signifikanten Zusammenhang entdecken. Da diese Unsicherheit schlecht kommunizierbar ist, legte die EPA alle Studien zusammen und konnte ein relatives Risiko von 1,19 bei einem CI von 90% errechnen. Auf Basis der Daten wurde verkündet, dass in den USA jährlich 3000 Menschen an Lungenkrebs durch Passivrauchen sterben würden. Das Problem bei Metastudien ist immer die Ähnlichkeit der Untersuchungsmethoden. Im Beispiel wurden die Expositionsdaten durch Interviews älterer Frauen und Verwandten ermittelt, welche sich an die Rauchgewohnheiten ihres verstorbenen Mannes (oder Verwandten) erinnern sollten, die teilweise Jahrzehnte zurücklagen.
  • Instant-Risiko: Schon Paracelsus wusste, dass allein die Dosis das Gift macht. Dies ist kommunikativ aber ungünstig, wenn eine bestimmte Substanz verboten werden soll. Es empfielt sich deshalb, hohe messbare Risiken bei hoher Exposition auf kleine Expositionen zu übertragen. Im Nuklearbereich gibt es dazu die LNT-Hypothese, in der das Strahlenrisiko bei hoher Exposition von Atombombenopfern linear auf niedrige Dosen herunterskaliert wird. Wenn eine epidemiologische Studie keinen Zusammenhang zwischen Lungenkrebs und Radon im Keller finden kann, lohnt sich eine Hochrechnung auf Basis der LNT-Hypothese, um tausende Tote verkünden zu können. Denkbar ist auch die Argumentation „Im Kinderspielzeug wurde eine signifikante Menge der Substanz X gefunden, welche als krebserregend gilt.“ Ob die Substanz in das Kind gelangt, und in einer Dosis die eine Gesundheitswirkung erwarten lässt, spielt dabei keine Rolle. Günstig ist auch die Erwähnung eines Grenzwertes, der vom Staat willkürlich festgelegt wurde, und alle Jubeljahre auf Druck der Öko-Lobby grundlos abgesenkt wird, um Skandale zu kreieren.
  • Garbage in, garbage out: GIGO ist besonders bei Wirtschaftlichkeitsberechnungen beliebt, da die Gesetze der Mathematik nicht überwunden werden können. Also müssen die „richtigen“ Annahmen getroffen werden, um das gewünschte Ergebnis zu erhalten. Sind Anlagen wie Kernkraftwerke besonders kapitalintensiv, empfielt es sich absurd hohe Kapitalzinsen und kurze Laufzeiten anzunehmen. Benötigt die favorisierte Stromerzeugungsart keinen Brennstoff, wird für alle anderen beleglos ein starker Anstieg der Brennstoffkosten prognostiziert. Am Besten eignen sich Computersimulationen für GIGO; hinterher kann sowiso niemand mehr überprüfen, ob alle 10.000 Parameter und ihre Interaktion nach bestem Wissen und Gewissen „richtig“ gewählt wurden.
  • Das Gesetz der großen Zahlen: Die Aussage, dass das relative Risiko für eine Krankheit bei den Teilnehmern einer Studie um X Prozent steigt wenn der Risikofaktor ins Spiel kommt mag fachlich korrekt sein, haut aber niemand vom Hocker. Besser ist es, das gefundene Risiko mit einer möglichst großen Gruppe zu multiplizieren, um eine apokalyptische Gefahr, oder zumindest eine Gesundheitskrise zu suggerieren. Wenn beispielweise eine Studie festgestellt hat, dass 16% aller Todesfälle auf Übergewicht zurückzuführen waren lohnt es sich, 16% aller Todesfälle der USA auf Übergewicht zurückzuführen und 350.000 Tote zu verkünden. Ob die Studienteilnehmer für alle Amerikaner „repräsentativ“ sind interessiert niemand, und geht im Aufschrei der Medien unter. Profis können so den Reaktorunfall in Fukushima für 14.000 krebstote US-Amerikaner verantwortlich machen.
  • Erzeugte Plausibilität: Normalerweise werden Bioassays für in vivo-Untersuchungen verwendet um zu überprüfen, welche Wirkung bestimmte chemische Stoffe auf lebende Organismen haben. Bioassays sind standardisierte Tests, um das Vorhandensein von Substanzen in einer Probe nachzuweisen, oder um beispielsweise die Potenz von Arzneimitteln oder Giftstoffen zu messen. Allerdings kann es Probleme geben, wenn das Risiko im Tierversuch nachgewiesen wurde, epidemiologische Studien aber beim Menschen keinen Zusammenhang finden können. In diesem Fall ist jahrzehntelange, verbissene und ergebnislose Forschung auf Kosten des Steuerzahlers die richtige Wahl. In Debatten muss stets auf das Risiko im Tierversuch verwiesen werden, und die gescheiterten epidemiologischen Studien unterschlagen, relativiert oder gar nicht erst veröffentlicht werden. Jeder Zweifel, Tiere mit Menschen gleichzusetzen, muss damit vermieden werden.
  • Guter Ratt' ist teuer: Da Menschenversuche aus der Mode gekommen sind, bleibt nur der Tierversuch. Anfänger stehen vor der Frage, welche Art sie Wählen sollen: Ratten, Mäuse, Meerschweine oder Affen? Aus finanziellen Gründen empfielt es sich Ratten und Mäuse zu nehmen, diese sind billig, und benötigen wenig Platz und Pflege. Um ein statistisch aussagekräftiges Ergebnis zu erzielen, sollten mindestens 300 Tiere teilnehmen, wobei auch schon Studien mit weniger medienwirksam zitiert wurden. Vor dem Bioassay empfielt es sich Hasen, Ratten, Mäuse usw. auf die Empfindlichkeit der Exposition zu testen, und die empfindlichste Tierart auszuwählen. Profis wie Gilles-Eric Séralini wählen auch gezielt Rattenstämme aus, die dafür bekannt sind, spontan sehr schnell Krebsgeschwüre zu entwickelt. Bei einem Fütterungsversuch mit Genmais kann so schonmal 1/3 der Kontrollgruppe an Riesentumoren sterben, während bei Ratten die 22% bzw. 33% GMO-Mais im Futter erhielten, nur 1 Tier vorzeitig starb. Da sich in jeder Testgruppe nur 10 Tiere befanden, sind sie Ergebnisse wissenschaftlich gesehen völlig wertlos. Erst Bilder von Tumoren mit dem Hinweis auf Genfood machen sie kommunikativ so attraktiv.
  • Die Wahl der Qual: Es kann vorkommen, dass die Tiere nicht mitspielen wollen, und sich hartnäckig einer Erkrankung verweigern. In diesem Fall ist Kreativität gefragt, denn viele Wege führen nach Rom. Wenn z.B. ein Antischuppenshampoo beim Hautkontakt mit Tieren keine Wirkung erzielt, warum nicht füttern oder unter die Haut spritzen? Wenn das Einatmen von Glasfaserschnippseln keinen Erfolg zeigt, warum nicht in die Lunge injizieren? Wenn Füttern bei einer Substanz nicht weiterführt, vielleicht hilft ja die Injektion ins Auge, um Gehirntumore auszulösen? Es gibt viele Behandlungspfade, um die Substanz in das Tier zu bringen. Am Ende kann dann triumphierend verkündet werden, dass die Substanz wesentlich gefährlicher ist, als bisher angenommen.
  • Viel hilft viel: Nichts ist kommunikativ schlimmer als eine Fütterungs- oder Bestrahlungsstudie mit Tieren, die partout nicht häufiger verkrebsen wollen als eine Kontrollgruppe. Und wenn die Exposition von Menschen so niedrig ist, dass man zur Überprüfung eines Risikos Millionen von Versuchstieren benötigen würde, geht das auch ins Budget. Die Massen an Tieren werden allerdings nur benötigt, um ein kleines statistisch relevantes Risiko bei geringer Exposition messen zu können. In der Praxis empfielt sich deshalb möglichst hohe Dosen zu verwenden, um die Maximale Tolerierte Dosis (MTD), die LD50 oder LD100 zu bestimmen. Denn Tiere sind auch nur Menschen, und halbe Dosis ist halbes Risiko, zehntel Dosis nur zehntel Risiko....
  • Peer “Review”: Das Peer-Review-Verfahren muss keine Hürde für einen politisch engagierten Wissenschaftler sein. Große Bekanntheit erlangte beispielweise eine Kohortenstudie mit 115.195 krebsfreien Frauen, welche 1976 startete und sich über Jahrzehnte hinzog. Technisch gesehen lief die Studie sauber ab, allerdings machte das Ergebnis keinen Sinn: Übergewichtige hatten ein 5-%-Risiko für einen früheren Tod, die übergewichtigen Nichtraucherinnen 42%, und die übergewichtigen Nichtraucherinnen mit stabilem Körpergewicht 70%. Nichtraucherinnen hatten in der Studie also ein achtmal höheres Risiko, und ein 15-mal höheres Risiko, wenn Nichtrauchen mit stabilem Körpergewicht kombiniert wurde. Rauchen wäre damit quasi ein Gesundheitstipp für Übergewichtige. Diese Studie wurde im The New England Journal of Medicine veröffentlicht, und durchlief dort das Peer-Review-Verfahren unbeanstandet. Um das Risiko einer Zurückweisung beim Peer-Review zu vermeiden, wenden sich Profis gleich an die Öffentlichkeit, und publizieren auf der Homepage ihres Instituts, oder einer staatlichen Behörde.
  • Gut salzen: Das Wichtigste an einer Studie ist nicht die Untersuchung selbst, sondern das Abstract (Zusammenfassung). Die meisten Menschen werden nur dieses lesen, weswegen es gewissenhaft sorgfältig formuliert werden muss. Wissenschaftlich korrekte Formulierungen wie „statistische Assoziation“, „Fall-Kontroll-Studie“ oder „kann das Risiko erhöhen“ sind kommunikatives Niemandsland, und werden vom Leser nicht beachtet. Besser ist: „Die Studie beweist, dass X die Krankheit Y verursacht“. Der letzte Absatz sollte noch eine Handlungsaufforderung an staatliche Stellen, Verbraucher usw. enthalten. In dieser Form wird das Abstract auch von den Medien zitiert, was das Endziel von Junk Science ist. Unsicherheiten wie statistische Aussagekraft, oder Spekulationen über kausale Zusammenhänge sollten in der Zusammenfassung vermieden werden.
  • Der Auftritt: Wie bereits oben erwähnt, ist die Wahl des Publishers von entscheidender Bedeutung. The New England Journal of Medicine, The Journal of the American Medical Association, The American Journal of Public Health oder andere, es gibt genug, irgendeines wird die Veröffentlichung sicher übernehmen. Wichtig ist, dass das Peer „Review“ keine Probleme macht (Science sollte besser vermieden werden), und dass die Mainstreampresse die Veröffentlichungen des Journals mit Argusaugen verfolgt. Nach der Veröffentlichung sollte ein Medienansturm folgen, wenn das Abstract gut gesalzen ist. Exzellentes kommunikatives Verhalten und die Fähigkeit, eine zwanzigseitige Studie in 20 Sekunden zusammenzufassen und zu dramatisieren, sind hilfreich. Auf Wissenschaftlichkeit sollte dabei verzichtet werden, wichtig sind die Folgerungen der Studie und die Forderungen des Autors.

Rhetorik

Kurz nach der Veröffentlichung von Junk Science wird die Studie von Fachkollegen oder Kritikern verrissen werden. Um den Verriss zu verzögern, und einfache Geister ohne wissenschaftlichen Hintergrund bei der Stange zu halten, ist ein Mindestmaß an Redekunst nötig. In ökologisch gleichgeschalteten Ländern wie Deutschland ist dies weniger wichtig, weil bereits die hysterischen Presseberichte Relevanz und Glaubwürdigkeit einer Studie suggerieren. Jede Kritik am Ergebnis der Studie wird von den Kommentatoren am Ende eines Online-Zeitungsartikels bereits fachkundig als „Lobbyismus“ und „Verharmlosung“ erkannt, und mit antrainierten Reflexen bekämpft. Trotzdem ist des hilfreich, die wichtigsten rhetorischen Tricks zu kennen:

  • Angriff ist die beste Verteidigung: Persönliche Angriffe, direkt oder indirekt, gehen immer. Phrasen wie „außerhalb des wissenschaftlichen Konsens“ oder Lobbyismusvorwürfe sind gute Totschlagargumente. Inzwischen muss nicht einmal mehr eine finanzielle Verbindung zu einer Industrie herrschen, es reicht, sich positiv zu Kernkraft oder Gentechnik zu äußern, um als „Lobbyist“ zu gelten. Auch finden sich bei großen Organisationen sicher geringfügige Überweisungen, die vor 20 Jahren vom Industriezweig X oder der genfreundlichen Regierung Y getätigt wurden, um Kritiker ohne Argumente zu diskreditieren.
  • Komplizierter machen: Auf Kritik bietet sich die Frage an: „Wie erklären sie sich dann die Ergebnisse?“. Wenn der Skeptiker dann anfängt, über statistische Assoziationen, statistische Signifikanz, biologische Plausibilität oder ähnliches zu Reden, schlafen sowieso alle Zuhörer ein. Die meisten Menschen sich schon mit Begriffen wie „Fehlerbalken“ überfordert, und stolz darauf, in Mathe versagt zu haben.
  • Argumentiere nie mit einer Person außerhalb des Systems: Diese Leute haben nichts zu verlieren, und könnten offen Kritik üben. Ein Strahlenschützer, der von Staatsgeldern abhängig ist, wird immer nett sein, keine persönliche Kritik üben oder den gesamten Wirtschaftszweig des Strahlenschutzes kritisieren. Eine Kritik am LNT-Dogma wird von ihm nie zu hören sein, er sollte deshalb der Interviewpartner Nummer eins sein, wenn eine Niedrigdosisstudie kein erhöhtes Risiko zeigen konnte.
  • Verteidige statistische Insignifikanz: Die meisten Studien, die den Schwerpunkt von der Wissensbildung auf die Meinungsbildung legen, arbeiten mit vernachlässigbaren Risiken, statistischer Insignifikanz oder haben keine plausible biologische Ursache. Wenn ein Kritiker darauf hinweist darf die Antwort nicht fehlen, dass nach Ausschluss aller Störfaktoren keine andere Erklärung übrig blieb. Logisch, denn entweder wurden die Confounder ignoriert oder aus dubiosen Studien übernommen, oder es wurden keine Daten gesammelt, welche eine Bestimmung dieser Störfaktoren zulassen würden.
  • Das Gesetz der kleinen Zahlen: Wenn eine Million Studien kein Risiko finden können, und der Einen widersprechen, macht das nichts. Wichtig ist nur die eine Studie, welche das Risiko behauptet. Jede neue Studie, welche das gefundene Risiko nicht bestätigen kann, muss ignoriert und diskreditiert werden. Jede Argumentation sollte sich auf diese eine Studie berufen. Bei Widerspruch reicht es auf seiner Position zu beharren, denn das Endziel von Junk Science wurde erreicht, die eigene Meinung als “wissenschaftlich” zu belegen. Die Studie dient dann als Autoritätsargument, um sich nicht mit ihren inhaltlichen Schwächen auseinandersetzen zu müssen.
  • Non Sequitur: Non sequitur ist ein Fehlschluss innerhalb der Argumentation eines Beweises, der darauf basiert, dass die geschlussfolgerte These nicht aus den zugrundeliegenden Prämissen abgeleitet werden kann. Zum Beispiel lässt sich auf den Hinweis, dass das gefundene Risiko im Vergleich zu den restlichen Risiken des Lebens vernachlässigbar ist antworten, dass ein kleines Risiko in einer große Gruppe ein großes Risiko sei.
  • Korrelation ist Kausalität: In der Presse werden Korrelationen oft in einer Weise berichtet, die eine direkte Kausalität suggeriert, obwohl eine Gemengelage direkter und indirekter Zusammenhänge besteht. Während eine Korrelation lediglich eine Beziehung zwischen Merkmalen beschreibt, handelt es sich bei der Kausalität um Ursache und Wirkung, was auch bewiesen werden muss. So können weder Kinderkrebs noch Mädchen-Schwund, Fußballergebnisse, Abiturnoten oder die Größe von Schmetterlingsflügeln auf ein Kernkraftwerk zurückgeführt werden, wenn nicht erwiesen ist das Strahlung diese Wirkung auslöst, und erst recht nicht dort wo gar keine zusätzliche Radioaktivität gemessen wird und nach Ausbreitungsrechnungen auch keine sein kann.
  • Ich weiß, dass ich nichts weiß: Wusste schon Sokrates, und was für die alten Griechen galt, gilt auch noch heute. Beliebt ist es Unwissen als Argument einzusetzen, oder als Grund für hanebüchene Schätzungen anzuführen. In Wirtschaftlichkeitsberechnungen zur Kernkraft wird z.B. gerne die „ungelöste Endlagerfrage“ bemüht, und fantastische Summen für die Entsorgung berechnet. Alternativ ist das Prinzip, dass wenn einem irgendetwas nicht gefällt, man nur irgendwo auf der Welt einen Wissenschaftler finden muss der sagt, dass es nicht um wissenschaftliche Überprüfung gehe, sondern ein Verdacht zu Verbot und Einschränkung bereits genügt.
  • Gebetsmühle: Alle Religionen sind so erfolgreich, weil sie selbst den größten Unsinn permanent und ohne Selbstzweifel wiederholen, bis er geglaubt wird. Das Gleiche funktioniert auch in Debatten. Warum nicht zum hundertsten Mal behaupten, dass Kernkraft eine Risikotechnik sei, auch wenn es keine Studie gibt, die dies belegen könnte? Warum nicht zum tausendsten Mal behaupten, dass die IAEA die WHO an der kurzen Leine führe, auch wenn im verwiesenen Dokument von einer Zusammenarbeit auf Augenhöhe die Rede ist? Schon Orwell wußte, dass eine Lüge nur oft genug wiederholt werden muss, um geglaubt zu werden.
  • Anmaßung von Wissen: Mit der Anmaßung von Wissen kommt man weit: Beim gerne diskutierten Thema “Plastikmüll auf See” gehen bereits die Schätzungen über die Größe der Müllteppiche von 700.000 km² zu über 15.000.000 km² auseinander, ein Unterschied um den Faktor 21. Bei Netzsammlungen wurde mal eine Teilchendichte von 335.000 Stk/km² bzw. 5,1 kg/km² im Müllteppich bestimmt, allerdings schwanken die Ergebnisse um Größenordnungen. Trotz der großen Unsicherheiten werden gerne Fantasiezahlen verbeitet, z.B. dass der Müllteppich die doppelte Größe der Vereinigten Staaten habe, oder das ein Drittel aller Meeresvögel daran verenden würde. Das Ziel der Anmaßung von Wissen ist es ein intuitives, moralisch unverteidigbares Problem zu schaffen, ohne auf Junk Science zurückgreifen zu müssen.

Tipps

Mit den oben aufgelisteten Methoden können Muster gesellschaftsverändernder „Wissenschaft“ schnell erkannt werden. Wenn zum Beispiel die Presse verkündet, eine Studie habe einen Zusammenhang zwischen Fleischkonsum und Darmkrebs gefunden kann mit fast hundertprozentiger Sicherheit von Junk Science ausgegangen werden. Ähnlich wie beim Fall Brustkrebs und Büstenhaltern werden auch die meisten Därme mit Fleisch gefüttert, sodass hier nach einigem suchen sicher eine statistische Assoziation gefunden werden kann. Im Zweifelsfall empfielt es sich, auf der Diskussionsseite eines Artikels nachzufragen. Denn immer dran denken: Alles ist reversibel und kann immer aus der Versionsgeschichte zurückgeholt, oder wieder geändert werden. Viel Spaß!