01.03.2010

Klimafieber

Kommentar von Peter Heller

Gibt es eine geeignete Metrik zur Charakterisierung eines mutmaßlich menschgemachten Klimawandels? Die „mittlere globale Temperatur“ jedenfalls ist keine.

Vom 7. bis zum 18. Dezember 2009 tagt in Kopenhagen die „United Nations Climate Change Conference“. Die Delegierten werden von den Regierungen von mehr als 150 Staaten dieser Welt, von supranationalen Gremien, insbesondere solchen der UNO und der EU, sowie von akkreditierten Nichtregierungsorganisationen entsandt. Ziel der Zusammenkunft ist die Vereinbarung eines internationalen Abkommens, durch das die Menge an Treibhausgasen in der Atmosphäre auf einem Niveau stabilisiert werden soll, das „gefährlichen anthropogenen Klimaveränderungen vorbeugt“. Ein Nachfolger des Kioto-Protokolls ist also gewünscht.

Ab wann allerdings werden „anthropogene Klimaveränderungen“ gefährlich? Die Antwort auf diese Frage ist entscheidend, um die Wirksamkeit politischer Maßnahmen zur Emissionsminderung und die Sinnhaftigkeit des „Klimaschutzes“ insgesamt einschätzen zu können. Daher beschlossen die Staatenlenker auf dem G-8-Gipfel in Aquila im Juli 2009, der Natur eine anthropogen definierte Grenze aufzuerlegen. Um nur mehr zwei Grad, so der erklärte Wille der Regierungen der industriellen Welt, dürfe nun die „mittlere globale Temperatur“ gegenüber ihrem „vorindustriellen Wert“ steigen, ansonsten drohe die Apokalypse. In Kopenhagen sollen die Maßnahmen beschlossen werden, mit denen dieses „Zwei-Grad-Ziel“ zu erreichen ist.

Schauspiel epochaler Verirrung

Die Staatenlenker schaffen es nicht, in ihren jeweiligen Ländern die Haushalte zu sanieren, sie versagen bei der Stabilisierung von Sozial- und Gesundheitssystemen, ihnen misslingt die Bekämpfung der Arbeitslosigkeit – nicht einmal die kluge Organisation von Autobahnbaustellen in einer führenden Wirtschaftsmacht wie Deutschland liegt im Bereich des Möglichen. Aber das Klima ordnet sich ihnen offenbar bereitwillig unter. Die Mächtigen setzen mit all ihrer Macht und Weisheit endlich einen uralten Traum der Menschheit in die Tat um: Sie sorgen per Dekret für immerwährend gutes Wetter. Denn nun, so das Heilsversprechen, werden Sturmfluten und Überschwemmungen, Hitzewellen und Dürren, Orkane und Starkregen einfach ausbleiben. Sie werden nicht geschehen, denn erst wenn die „Zwei-Grad-Grenze“ überschritten ist, kann die Natur dergleichen erschreckendes auslösen. Oder?

Man kann dieses Ziel naiv nennen (oder schlicht dämlich), aber man kann es beim besten Willen nicht ernst nehmen. Jeder halbwegs rationale Zeitgenosse sollte angesichts dieses Beschlusses in lautes Lachen ausbrechen. Doch außerhalb des glücklicherweise noch immer freien Internets klatschen viele Medien Beifall. Der „Durchbruch beim Klimaschutz“ wird als dringend benötigte Weltrettung in den Rang eines sakrosankten Dogmas erhoben, das unser Leben und Denken in Zukunft zu bestimmen hat. Wie kann es geschehen, dass eine deutsche Bundeskanzlerin in der Tat der Auffassung ist, das Klima unterliege ihrer Kontrolle? Man ist wohl ziemlich heruntergekommen im Land der Dichter und Denker wie auch im übrigen Europa und dem Rest der Welt, wenn man seinen Regierungschefs Derartiges einfach so durchgehen lässt.

Es gibt keine „mittlere globale Temperatur“

Die physikalische Begründung setzt mit der Tatsache an, dass sich die Erdatmosphäre nicht im thermischen Gleichgewicht befindet. Da sich daher die Geschwindigkeits- bzw. Energieverteilung der Moleküle in unserer Lufthülle nicht durch eine globale Maxwell-Boltzmann-Verteilung beschreiben lässt, ist für den Naturwissenschaftler völlig einsichtig, nicht aber für den durchschnittlichen Politiker. Aber es geht ja auch einfacher. Es sollte eigentlich eine Alltagserfahrung sein, dass man nicht einfach jeden beliebigen Satz an Eigenschaften oder Größen aufaddieren, geschweige denn daraus einen Mittelwert ermitteln kann, ohne vollkommenen Unsinn zu berechnen.

Der Mittelwert aller Postleitzahlen in Deutschland ist nun mal keiner Adresse zugeordnet, man würde scheitern, sollte man versuchen, diesen durch einen Brief zu kontaktieren. Den Mittelwert aller Telefonnummern in Deutschland kann man nicht anrufen, und die Kenntnis des Mittelwertes aller Lottozahlen erhöht nicht die Gewinnaussichten. Noch weniger kann man aus dem Mittelwert aller Hausnummern Rückschlüsse auf deren lokale Verteilung oder gar auf die bundesdeutsche Bevölkerungsdichte ziehen.

Wenn man nun an einem Ort der Erdoberfläche eine Temperatur von 10 Grad Celsius misst und an dem anderen 20 Grad, dann sollte einsichtig sein, beiden Orten „zusammen“ nicht etwa eine Gesamttemperatur von 30 Grad zuweisen zu können. Und wenn schon dieser erste Rechenschritt sinnlos ist, so ist es der zweite, der auf eine „mittlere“ Temperatur von 15 Grad führt, erst recht. Man heize in seiner Küche den Ofen auf 200 Grad und öffne ihn sowie das Eisfach, das vielleicht auf –20 Grad herunter kühlt. Ist es sinnvoll zu sagen, die „mittlere“ Temperatur zwischen diesen beiden Reservoiren betrage nun 90 Grad? Kann diese Temperatur geeignet sein, den Zustand in der Küche zu beschreiben? So wenig, wie die mittlere Rückennummer aller Fußballspieler einen Rückschluss auf die Menge an Toren zulässt, so wenig erlaubt die „mittlere Temperatur“ von 90 Grad einen Rückschluss auf die in der Küche vorhandene Wärmemenge. Wärme und Temperatur sind nun mal zwei verschiedene Dinge – und immerhin spricht man ja von der „globalen Erwärmung“ und nicht von der „globalen Temperaturerhöhung“.

Innere und äußere Eigenschaften

Es gibt (und damit soll noch eine wissenschaftlich exaktere Beschreibung gegeben werden) innere und äußere Eigenschaften, die ein System charakterisieren. Und innere Eigenschaften von Systemen, wie die Temperatur eines darstellt, lassen sich nicht addieren, geschweige denn mitteln. Wenn zwei Menschen unterschiedlich viel Gewicht aufweisen, beispielsweise 50 und 100 Kilogramm, dann kann man tatsächlich sagen, beide zusammen würden 150 und im Mittel 75 Kilo wiegen. Denn diese beiden Personen bringen zusammen ebenso viel auf die Waage wie zwei Personen, die jeweils 75 Kilogramm schwer sind. Die Masse eines Systems ist eine äußere Eigenschaft. Wenn nun aber die eine Person blaue Augen hätte und die andere grüne, wer käme auf die Idee, beide zusammen hätten Augen mit genau dem braunen Farbton, der durch die Mischung von Blau und Grün entsteht? Die „Augenfarbe“ ist eine innere Eigenschaft eines Menschen, und die „durchschnittliche Augenfarbe“ einer Personengruppe ermöglicht ganz offensichtlich keine Rückschlüsse auf irgendetwas.

So, wie eine „durchschnittliche Augenfarbe“ eine sinnlose Größe ist, so ist es auch die „mittlere globale Temperatur“. Sie existiert nicht, und der Mittelwert aller Temperaturmessungen auf diesem Planeten lässt keine Aussage über das Klima oder gar das Wetter zu. Klimaforscher würden einwenden, dass ihnen das bewusst sei. Sie würden zugeben, nicht wirklich die mittlere globale Temperatur zu messen, sondern die Mittelwerte der Temperaturen für jeden einzelnen Ort zu bestimmen, an dem ein Thermometer steht, und dann an jedem Ort die Abweichungen von dieser mittleren Temperatur im Laufe der Jahre zu beobachten und daraus die globale mittlere monatliche Abweichung (die globale mittlere Temperaturanomalie) abzuleiten.

Aber selbst dies ist aus physikalischer Sicht ein Wert mit höchst begrenzter Aussagekraft. Das Verfahren ist vergleichbar der Idee, aus der Änderung der Anzahl an Telefonanschlüssen die Änderung der Bevölkerungszahl abzuleiten, indem man nicht etwa tatsächlich die Anzahl an Telefonanschlüssen zählt, sondern die Trends in der Dicke von Telefonbüchern bestimmt. Um dies zu verdeutlichen: Man nehme die Telefonbücher einer Stadt aus den vergangenen 30 Jahren. Jedes Telefonbuch ist unterschiedlich dick. Die mittlere Dicke lässt sich bestimmen. Nun berechnet man für jedes einzelne Telefonbuch, inwieweit es von dieser mittleren Dicke abweicht. Es ist entweder dicker (Abweichung oder Anomalie positiv) oder dünner (Anomalie negativ). Und dann betrachtet man den Trend dieser Anomalien. Ist er positiv, bedeutet dies, dass die Telefonbücher im Laufe der Jahre dicker werden. „Heureka“, sagt der damit beschäftigte Forscher, „ich habe zweifelsfrei ermittelt, dass die Bevölkerungszahl zunimmt.“ Das kann stimmen. Aber es muss nicht so sein. Denn die Dicke eines Telefonbuches hängt von vielen Parametern ab. So mag sich im Laufe der Jahre das Papier, auf dem gedruckt wurde, geändert haben. Die Schriftgröße mag von Jahr zu Jahr variiert worden sein, die Zahl der Anzeigenkunden mag sich geändert haben. Die Menschen mögen nicht mehr, aber Großfamilien seltener und Singles häufiger geworden sein etc. Um von der Änderung der Dicke eines Telefonbuches auf die Änderung der Einwohnerzahl einer Stadt schließen zu können, muss man also alle diese und noch mehr Parameter und deren Entwicklungstrends kennen. Naturwissenschaftler entwickeln hierzu sogenannte „Modelle“.

Modell für Temperaturanomalie

Über ein solches Modell verfügen die Klimaforscher für die mittlere Temperaturanomalie natürlich auch. Denn diese ist u.a. von der Instrumentierung (es werden ganz unterschiedliche Thermometer verwendet, und dies auch für ein und dieselbe Station im Laufe der Zeit) ebenso abhängig wie von den Messverfahren (die Ablesung erfolgte und erfolgt zu völlig unterschiedlichen Zeiten und mit völlig unterschiedlichem Einsatz der jeweiligen „Meteorologen“ – die für zwei Drittel der Erdoberfläche keine solchen sind, sondern Kapitäne oder Matrosen, die messen, wann, wo und was sie wollen (und zumeist wie sie es wollen), und natürlich von der Umgebung der Messstation (früher Wald, dann Parkplatz und heute vielleicht ein Gebäude oder gar ein Flughafen).

Was man also in all den vielen Temperaturkurven so sieht, sind in Wahrheit keine wirklich gemessenen Werte, sondern anhand eines solchen Modells berechnete. Was die Klimaforscher zeigen, ist nicht, was tatsächlich festgestellt worden ist, sondern was nach ihrer Meinung festgestellt worden wäre, hätte man denn an idealen Orten mit der idealen Technik und dem idealen Verfahren gemessen. Was sie zeigen, ist also ein Modell der mittleren globalen Temperaturanomalie. Das „Zwei-Grad-Ziel“ müsste korrekt also lauten: „Der durch die Klimaforscher definierte Modellwert der mittleren globalen Temperaturanomalie soll um nicht mehr als zwei Grad nach oben von dem Modellwert der mittleren globalen Temperaturanomalie der vorindustriellen Zeit abweichen.“ Wahrscheinlich ist dies den Politikern nicht so ganz klar. Wäre es klar, sollte man nämlich zumindest erwarten, dass diese Modellvorstellung offengelegt und durch unabhängige Gremien ständig überprüft wird.

Unbekannte und geheime Verfahren

Dem aber ist nicht so – und das ist der zweite wichtige Punkt. Ganz gleich, ob das „Zwei-Grad-Ziel“ erreicht wird oder nicht – niemand könnte der Politik (respektive der Öffentlichkeit) darüber wirklich verlässlich Auskunft geben. Sämtliche Daten des Modells der mittleren globalen Temperaturanomalie beruhen auf der Arbeit von nur zwei Forschergruppen, die zusammen vielleicht 20 Personen umfassen. Die eine ist am Goddard Institute for Space Studies (GISS) der NASA ansässig, die andere am Hadley Center der staatlichen Agentur für Meteorologie („Met Office“) Großbritanniens. Und beide haben irgendein Modell, irgendein Verfahren entwickelt, aus dem sie ihre globalen Temperaturkurven ableiten. Auf der einen Seite handelt es sich um teils jahrzehntealte Computerprogramme, an denen mehrere Generationen von Studenten mitgeschrieben haben, die veraltete Programmiersprachen verwenden, nicht dokumentiert sind und bei denen daher auch nicht nachvollziehbar ist, was sie im Einzelnen mit den wirklich gemessenen Werten veranstalten. Auf der anderen Seite halten diese beiden Gruppen ihre Modelle schlicht geheim, sie veröffentlichen teils weder die Rohdaten noch die Kriterien, nach denen die Messungen einer Wetterstation berücksichtigt werden oder nicht, teils nicht die mathematischen Modelle, mit denen diese Messungen umgewandelt werden, um die oben genannten Effekte (und noch ein paar mehr) zu berücksichtigen.

An welchen Orten man mit welchen Instrumenten nach welcher Verfahrensweise Temperaturen messen sollte, ist durch die Berufsverbände der Meteorologen genau definiert. Aber überprüft wird das nicht. An Tausenden von Wetterstationen weltweit werden Temperaturen gemessen. Dabei werden unterschiedlichste Technologien, also Thermometer unterschiedlichster Genauigkeit, verwendet. Die Ablesung erfolgt durch Personen unterschiedlichster Qualifikation mit unterschiedlichstem Engagement. Und all diese vielen Messungen gehen irgendwann den beiden genannten Arbeitsgruppen zu. Und diese wiederum wählen aus allen diesen Werten nach irgendeinem Schema irgendwelche aus (bei Weitem nicht alle Messungen werden verwendet, sondern in Wahrheit nur relativ wenige), füttern mit diesen ein der übrigen wissenschaftlichen Gemeinde völlig unbekanntes Modell und erhalten irgendeine Kurve. Diese wird dann durch zusätzliche statistische und zeichnerische Tricks so interpretiert, als zeige sie eine kommende Klimakatastrophe (also stetig und beschleunigt steigende Temperaturen).

Man sollte sich als Bürger einmal fragen, welche Fieberfantasie unsere Regierungen ergriffen hat, sich von einem derartigen Prozess abhängig zu machen. Und man sollte sich fragen, welche Bereitschaft man aufweist, sich weitreichenden politischen Entscheidungen zu unterwerfen, die letztlich durch diesen Prozess begründet werden.

Indirekte Nachweise

Aber es kommt noch besser: Es geht ja nicht um einen Anstieg von zwei Grad gegenüber dem letzten April – sondern gegenüber der sogenannten „vorindustriellen Temperatur“. Diese aber ist nicht bekannt. Denn aus der Zeit vor etwa 1850 liegen keine weltweiten Temperaturmessungen vor, und aus der Zeit vor 1700 sind gar keine Messungen bekannt. Wie auch, das Thermometer heutiger Prägung war ja noch nicht erfunden. Auch hier wissen sich die Klimaforscher zu helfen. Man zieht indirekte Nachweise heran, vor allem Wachstumsvorgänge aller Art – von Bäumen bis hin zu Tropfsteinen. Man kann so ungefähr feststellen, welche Pflanzen und Tiere wann und wo gediehen sind. Man kann auch Wetterberichte von Augenzeugen, etwa alte Schiffslogbücher, auswerten. Nun haben alle diese indirekten Werte, sogenannte „Proxys“, den Nachteil, nicht direkt und ausschließlich von der jeweiligen Temperatur abzuhängen. Auch Niederschläge und vor allem spezielle lokale Gegebenheiten, die sich im Laufe der Zeit geändert haben mögen, spielen hier eine wichtige Rolle. Zudem liegen solche Proxy-Daten nur sehr punktuell vor.

Die Rekonstruktionen der mittleren globalen Temperaturanomalie, die auf diese Weise (also wieder mittels mehr oder weniger verlässlicher Annahmen, wieder mittels sogenannter Modelle) entstanden sind, beziehen sich ausschließlich auf die Nordhalbkugel und sind im besten Fall aus nicht mehr als einigen Dutzend Messpunkten zusammengerechnet. Alle diese kann man dem aktuellen IPCC-Bericht entnehmen. Und was man dann sieht, wenn man es denn sehen will, ist eine geradezu gigantische Schwankungsbreite von zwei Grad oder mehr – zwischen und innerhalb der einzelnen Rekonstruktionen. So muss natürlich dem Sehenden nicht mehr erläutert werden, dass es im Mittelalter Warmphasen gegeben hat, die sich von unserer aktuellen (so sie denn tatsächlich eine ist) nicht unterscheiden. Ebenso wenig muss man auf die kalten Jahrzehnte, die sogenannte „Kleine Eiszeit“ des 17. und 18. Jahrhunderts, hinweisen. All dies aber scheint den Politikern ebenfalls unbekannt zu sein. Es ist damit drittens festzuhalten: Es gibt keinen Wert der vorindustriellen Temperatur, an dem man das „Zwei-Grad-Ziel“ sinnvollerweise festmachen könnte.

Unsinnige Ziele

Das „Zwei-Grad-Ziel“ ist barer Unsinn. Es bezieht sich auf eine Größe, die physikalisch nicht sinnvoll definiert werden kann. Es kann lediglich auf eine Hilfsgröße, einen Indexwert, ausgerichtet sein, für den es kein integeres und verlässliches Verfahren der Messung gibt. Auch ein unabhängiges Gremium, dem die Überprüfung von Integrität und Verlässlichkeit des Verfahrens möglich wäre, existiert nicht. Ob dieser Indexwert überhaupt einen Aspekt der Realität widerspiegelt, ob er also überhaupt eine Aussage über klimatische Veränderungen zulässt, ist ungeklärt. Und schließlich ist der Nullpunkt, der Ausgangswert, auf den sich das Ziel bezieht, nicht ausreichend genau feststellbar.

Man könnte hier die übliche naturwissenschaftliche Unbildung erkennen, wie sie unter Politikern weit verbreitet ist. Man kann auch Opportunismus erkennen, also den Versuch, umweltbewegten Parteien nicht das Monopol auf ein Mobilisierungsthema zu überlassen. Das Ziel kann auch schlicht und einfach der grenzenlosen menschlichen Hybris entspringen, der Mittelpunkt des Universums, das von Gott nach seinem Bild erschaffene Geschöpf und damit der zentrale Faktor im natürlichen Geschehen zu sein. Wenn denn schon das Klima sich ändert (was es schon immer tat und auch immer weiter tun wird), dann allerdings muss es ja die „Krone der Schöpfung“ sein, die hierauf den entscheidenden Einfluss hat. Die eigene Machtlosigkeit einzuräumen, und sei es nur angesichts der Kräfte und Energien, die Phänomene wie Dürren oder Überschwemmungen hervorrufen, fällt vielen Menschen offenbar schwer. Und die, die das in keinster Weise können, werden heutzutage wohl typischerweise Staatsführer oder Ähnliches. Der unbeirrbare Glaube an die eigene Machtfülle versagt dann auch nicht angesichts eines Thermometers. Das „Zwei-Grad-Ziel“ als Basis für die Verhandlungen in Kopenhagen zu verwenden zeigt einmal mehr, von welchen Absurditäten die internationale Klimapolitik derzeit geprägt ist.