Wissenschaftler neigen in der Regel nicht dazu, mit dramatischen Worten politisches Handeln zu fordern. Doch die Tonlage seriöser Klimaforscher wird immer drängender. Maximal 750 Milliarden Tonnen Kohlendioxid (CO2) dürfe die Menschheit bis zur Mitte des Jahrhunderts noch in die Atmosphäre blasen, schrieb der Wissenschaftliche Beirat für globale Umweltveränderungen, der die Bundesregierung berät, im Juli. „Klimapolitik ist zum Erfolg verdammt, denn eine zweite Chance wird es nicht geben!“ Unumkehrbare und kaum beherrschbare Folgen seien sonst überaus wahrscheinlich. Um sie zu verhindern, müsse quasi sofort der Gesamtausstoß an klimaschädlichen Gasen verringert werden.
Dass Kohlendioxid und Wasserdampf in der Atmosphäre wie ein Treibhausdach wirken, ist seit langem bekannt. Diesen im Prinzip für das Leben auf der Erde sehr nützlichen Zusammenhang hat der Physiker John Tyndall 1862 herausgefunden. Die Gase absorbieren einen Teil der Sonnenstrahlung und verhindern dadurch, dass die Wärme sofort wieder in den Weltraum entschwindet. Ohne Treibhauseffekt wäre die Erde eine Eiswüste mit durchschnittlich minus 18 Grad. Dagegen beträgt die Temperatur heute auf unserem Planeten im Mittel angenehme plus 15 Grad.
Vor der Entdeckung von Kohle und Öl lag die Kohlendioxidkonzentration in den unteren Luftschichten bei 280 ppm (parts per million), das heißt 0,028 Prozent der Atmosphäre bestand aus CO2. Das zeigen natürliche Archive wie Gletscher: In Grönland sind die unteren Eisschichten 120.000 Jahre alt, in der Antarktis können die Forscher mit ihren Bohrungen bis zu 800.000 Jahre in die Vergangenheit zurückblicken. Erst vor gut 200 Jahren begann der Mensch, in großem Stil fossile Brennstoffe auszubeuten – unterirdische Kohlenstofflager, die in Urzeiten aus abgestorbenen Pflanzen entstanden sind. Ihre Verbrennung ließ die CO2-Konzentration in der Atmosphäre langsam steigen. Inzwischen hat sie 385 ppm erreicht und steigt jährlich weiter um über 2 ppm.
Autorin
Annette Jensen
ist freie Journalistin in Berlin mit den Schwerpunkten Umwelt, Wirtschaft und ArbeitsbedingungenWeil das Klima ein äußerst komplexes System ist, in dem zahlreiche Faktoren sich wechselseitig beeinflussen, ist der Zusammenhang zwischen Kohlendioxidkonzentration in der Atmosphäre und Temperaturerhöhung nicht unmittelbar feststellbar. Beispielsweise belegten Messungen zwischen 1940 und 1970 tendenziell sinkende Temperaturen auf der Erde, so dass zeitweise sogar von einer drohenden Eiszeit die Rede war. Einige Wissenschaftler – insbesondere solche, die im Verdacht stehen, der Ölindustrie nahe zu stehen – stellen den menschenverursachten Klimawandel bis heute in Frage und begründen das mit derartigen gegenläufigen Tendenzen und Unsicherheiten. Doch die große Mehrheit ist überzeugt, dass vor allem die zunehmende Luftverschmutzung den Temperaturanstieg damals vorübergehend gebremst hat: Kleine Schwebeteilchen reduzierten die Sonneneinstrahlung und „maskierten“ so den stattfindenden Wandel. Zugleich haben die Ozeane einen Großteil der menschengemachten Erwärmung aufgenommen, was wegen ihrer immensen Ausdehnung zunächst nicht auffiel. Studien aus den vergangenen beiden Jahren belegen aber, dass die Temperatur des Meerwassers signifikant angestiegen ist – und zwar wesentlich schneller, als die Wissenschaftler noch vor kurzem erwartet hatten.
Als sich die Hinweise verdichteten, dass der Mensch das Klima verändert, richtete die internationale Staatengemeinschaft 1988 den Weltklimarat (Intergovernmental Panel on Climate Change, IPCC) ein. Das aus mehreren hundert Wissenschaftlern bestehende Gremium betreibt selbst keine Forschung, sondern fasst Tausende von Einzelstudien zusammen. Hartmut Graßl vom Max-Planck-Institut für Meteorologie in Hamburg, der als erster Vertreter Deutschlands ins IPCC berufen wurde, betont die Unabhängigkeit des Gremiums: Immer wieder habe es sich erfolgreich gegen politische Vereinnahmung gewehrt, die den Wissenschaftlern mit einer Verbesserung der finanziellen Situation schmackhaft gemacht werden sollte. Andererseits sind an der Endredaktion der alle fünf bis sechs Jahre erscheinenden IPCC-Berichte auch Regierungsvertreter und Juristen beteiligt, und die versuchen nicht selten, wissenschaftliche Erkenntnisse zu verwässern.
Vier Sachstandsberichte hat das IPCC inzwischen veröffentlicht, den jüngsten im Jahr 2007. Zwar gibt es bis heute immer noch Zweifler. Doch laut IPCC ist der seit Anfang des zwanzigsten Jahrhunderts gemessene Temperaturanstieg von über 0,7 Grad „mit hoher Wahrscheinlichkeit“ auf menschliche Aktivitäten zurückzuführen.
Neben Kohlendioxid haben die Wissenschaftler eine ganze Reihe weitere Gase identifiziert, die das Klima anheizen. Lachgas entsteht bei traditionellem Reisanbau oder wenn ein Bauer zu viel Stickstoffdünger auf sein Feld kippt. Es ist 300 Mal so schädlich wie Kohlendioxid, kommt aber in wesentlich kleineren Mengen vor. Methan entweicht aus den Mägen von Wiederkäuern und aus Mülldeponien und ist zugleich in großen Mengen in den sibirischen Permafrostböden oder als Hydrat auf dem Meeresboden gebunden. Um die Emissionen von Kühen, Kunstdünger und Kraftwerken in ihrer Klimawirkung vergleichbar zu machen, werden alle Emissionen in CO2-Äquivalente umgerechnet.
Mit immer aufwändigeren Computerprogrammen versuchen die Forscher, die Vergangenheit möglichst genau nachzubilden und daraus abzuleiten, wie sich das Klima unter verschiedenen Bedingungen entwickeln wird. Dabei haben sie in den vergangenen Jahren immer mehr Faktoren einbezogen. So haben sie herausgefunden, dass bei Wärme mehr Wolken entstehen, die den Treibhauseffekt zwar etwas mildern, zugleich aber die Gefahr von Starkregen erhöhen. Auch die Vegetation und das Klima beeinflussen sich gegenseitig, und zwar regional und global. Bedeutsam ist auch die Rolle der Meeresströmungen. Manche Forscher fürchten, der Europa wärmende Nordatlantikstrom könne aus dem Gleichgewicht geraten und sich deutlich abschwächen, wenn das aus der Karibik heranfließende salzige Wasser vor Neufundland von schmelzenden Eismassen immer stärker verdünnt wird. Bisher wird es dort infolge der Eisbildung salziger und damit schwerer, bis es absinkt und so den Golfstrom antreibt.
Mehrere renommierte Wissenschaftlergruppen haben kurz vor der Konferenz in Kopenhagen noch einmal den aktuellen Forschungsstand zusammengetragen. Das macht deutlich, dass sich die Lage dramatisch zuspitzt. Ein Bericht des UN-Umweltprogramms UNEP vom September zeigt nicht nur auf, dass die weltweiten Emissionen von Treibhausgasen in den vergangenen Jahren stark gewachsen sind: Lagen die Steigerungsraten in den 1990er Jahren noch bei durchschnittlich 1,1 Prozent pro Jahr, so erreichten sie in diesem Jahrhundert durchschnittlich 3,5 Prozent und entsprechen damit den pessimistischen Szenarien des IPCC. Zugleich verdichten sich die Hinweise, dass die Aufnahmekapazität sogenannter CO2-Senken abnimmt. Darunter verstehen die Wissenschaftler natürliche Systeme, die Klimagase auf längere Frist aus dem Verkehr ziehen, indem sie etwa Kohlenstoff binden. Beispiele dafür sind Waldflächen und dicker werdende Bäume, Moore oder Plankton, das auf den Meeresgrund sinkt und dabei Kohlenstoff mit in die Tiefe nimmt.
Daraus ergeben sich für die Wissenschaft überaus vielfältige Fragen. Politisch entscheidend sind vor allem folgende: Was bedeutet es, wenn die Menschheit einfach weitermacht wie bisher? Um welche Mengen müsste sie ihre Emissionen verringern, um einen gefährlichen Temperaturanstieg zu vermeiden? Ab wann ist der Temperaturanstieg gefährlich – wann erscheint er tolerabel?
Um Antworten darauf zu finden, hat das IPCC mehrere mögliche Zukunftsszenarien entwickelt. Zum Beispiel das Modell A1: Die Wirtschaft wächst weltweit sehr rasch, neue Technologien breiten sich schnell aus, und bis zur Mitte des Jahrhunderts nimmt die Bevölkerung weiter zu, bevor die Zahl der Menschen stagniert und dann langsam sinkt. In diesem Modell wird die Durchschnittstemperatur nach Angaben des IPCC bis zum Ende des Jahrhunderts um 2,4 bis 6,4 Grad steigen – am wahrscheinlichsten um etwa vier Grad. Auch das wesentlich stärker auf Nachhaltigkeit setzende B1-Szenario des IPCC hat eine Spannweite von plus ein bis drei Grad.
Weitgehend einig sind sich die Forscher, dass bestimmte Kipppunkte unbedingt vermieden werden müssen. Tauen beispielsweise die sibirischen Permafrostböden auf, würden immense Mengen Methan in die Atmosphäre entlassen, die die Temperaturen weiter in die Höhe treiben und den Effekt damit noch verstärken würden. Auch das Schmelzen arktischer Eisflächen kann zum sich selbst verstärkenden Kreislauf werden. Während nämlich weiße Flächen das Sonnenlicht zum Großteil zurückstrahlen, nimmt das dunklere Meer die Wärme stärker auf. Verwandelt sich also Packeis in Wasser, nagt es anschließend an den verbliebenen Eisflächen, die dadurch umso schneller tauen.
Will man solche Prozesse vermeiden, dann ist man bei einem Temperaturanstieg von maximal 1,5 Grad bis zum Ende des Jahrhunderts nach Ansicht der meisten Wissenschaftler auf der sicheren Seite. Allerdings gibt es ernst zu nehmende Stimmen, die das Abschmelzen des arktischen Sommereises bereits ab einem Plus von 0,2 Grad erwarten. Bei 2 Grad Erwärmung liegt die Wahrscheinlichkeit, dass unaufhaltsame Kettenreaktionen ausgelöst werden, nach Ansicht der meisten Experten noch deutlich unter 50 Prozent. Allerdings: Wer würde sich bei einer Absturzwahrscheinlichkeit von weit über 30 Prozent in ein Flugzeug setzen?
Biologen gehen außerdem davon aus, dass Korallenriffe eine solche Temperaturerhöhung nicht verkraften, ausbleichen und dann größtenteils absterben. Die Folgen für Mensch und Natur sind unabsehbar, schließlich beherbergen Korallenriffe etwa ein Viertel der biologischen Vielfalt der Meere. Zudem wird bei zunehmendem CO2-Gehalt der Atmosphäre das Wasser der Ozeane immer saurer. Das greift die harten Kalkschalen von Schnecken und Muscheln an, die für viele andere Lebewesen ein Grundnahrungsmittel darstellen.
Steigen die Temperaturen um mehr als drei Grad, sind katastrophale, sich selbst verstärkende Entwicklungen wie das Abschmelzen von arktischen Eismassen nach Ansicht der meisten Forscher überaus wahrscheinlich. Ganze Ökosysteme wie der Amazonasregenwald könnten kollabieren, mehr als ein Drittel der Arten aussterben und Milliarden Menschen ohne ausreichendes Trinkwasser dastehen. Schon in den letzten Jahren wurden verstärkt Dürren, Überflutungen und Tropenstürme registriert, und dieser Trend wird sich den Prognosen zufolge fortsetzen.
Auch der Anstieg des Meeresspiegels ist bereits Realität, wie jüngste Forschungsergebnisse belegen. Bis zum Ende des Jahrhunderts könnten die Pegel um 19 bis 150 Zentimeter steigen, sagt das IPCC voraus. Das ist nicht nur dem Schmelzwasserzufluss, sondern auch der Tatsache geschuldet, dass warmes Wasser mehr Platz beansprucht als kaltes. Große Teile von Bangladesch und kleine Inselstaaten würden in den Fluten versinken. In knapp 300 Jahren könnte auch der Großteil von Schleswig-Holstein untergegangen sein, sollte sich der Meeresspiegel bis dahin um 2,5 bis 5 Meter gehoben haben, wie es der wissenschaftliche Beirat der Bundesregierung für möglich hält.
Dass ein Plus von zwei Grad bis Ende des Jahrhunderts das Maximum ist, was man angesichts der Verletzbarkeit der Ökosysteme riskieren kann, ist inzwischen politisch Konsens. Nicht nur die G-8-Staaten, sondern auch China, Indien und Brasilien haben das in diesem Herbst offiziell anerkannt. Erheblich dazu beigetragen hat der im Oktober 2006 veröffentlichte Report des ehemaligen Chefökonomen der Weltbank, Nicholas Stern. Er hatte errechnet, dass vorsorgender Klimaschutz etwa ein Prozent der weltweiten Wirtschaftsleistung kosten würde, einfach abzuwarten aber bis zu zwanzig Mal so teuer würde. Inzwischen geht Stern davon aus, dass für einen wirksamen Klimaschutz mindestens zwei Prozent des Weltinlandsprodukts aufgewandt werden müssten.
Zwar sind Teile von Sterns Methoden umstritten: Wie berechnet man die Kosten von Millionen Toten, absaufenden Inselstaaten oder ausgerotteten Tier- und Pflanzenarten? Und welchen Zinssatz soll man annehmen, um künftige Kosten im Vergleich mit heutigen zu bewerten? Doch für den Ausbruch der Klimadiskussion aus einer naturwissenschaftlich dominierten Perspektive war die Studie sehr wichtig. Das politische 2-Grad-Ziel führt erneut zu Fragen an die Wissenschaft. Wie viel klimaschädliche Gase dürfen der Atmosphäre dafür noch zugemutet werden? Während manche Forscher davon ausgehen, dass eine Verdoppelung der CO2-Konzentration im Vergleich zur vorindustriellen Zeit tolerabel ist, sind andere wesentlich pessimistischer und prognostizieren dann für das Ende des Jahrhunderts 4,5 Grad mehr. Kurzum: Die wissenschaftlichen Ergebnisse bewegen sich erneut auf einem relativ breiten Korridor. Auch die Empfehlung des IPCC, die Kohlendioxidkonzentration auf 445 bis 490 ppm zu begrenzen, ist keineswegs punktgenau. Ein vor kurzem veröffentlichter Bericht, in dem zwölf renommierte Klimaforscher die neuesten Erkenntnisse zusammenfassen, ist sehr pessimistisch, dass das 2-Grad-Ziel überhaupt noch erreichbar ist. Denn alle Klimagase zusammengerechnet, befinden sich schon heute 463 ppm CO2-Äquivalente in der Atmosphäre. Das heißt schon die gegenwärtige Konzentration wird wahrscheinlich zu einer Erwärmung von 2 bis 2,4 Grad führen. Wenn die Menschheit die Temperatur auf diesem Niveau stabilisieren wollte, müsste sie die Klimagase sofort um 60 bis 80 Prozent reduzieren, schreiben die Autoren. Weil das nur theoretisch denkbar sei, werde das 2-Grad-Ziel „zwangsläufig“ überschritten.
Wer unter solchen Umständen auf der sicheren Seite sein will, sollte nicht in der Mitte des Korridors gehen, den Wissenschaftler berechnet haben, sondern auf der Seite der Vorsicht. Bisher tun die Politiker das Gegenteil: Sie proklamieren das 2-Grad-Ziel, peilen aber für die Emissionsmengen die Obergrenze des Korridors an, in dem es erreichbar scheint. Die Wissenschaft kann zwar nicht ausschließen, dass das gut geht. Doch angesichts der Tatsache, dass die Menschheit nur einen einzigen Versuch hat, ist ein solches Vorgehen mehr als gewagt.