September 14, 2021
Von ZĂŒndlumpen
269 ansichten


Über die Entstehungsbedingungen eines militĂ€risch-politischen Kontrollinstruments und seinen resultierenden grĂŒnen techno-wissenschaftlichen Totalitarismus

[Es ist so weit: Beim ZĂŒndlumpen hat man sich endgĂŒltig um den Verstand gesoffen oder gekifft – ein Verdacht, den manch eine*r schon immer heimlich gehegt hat – und nun wird nach Corona und dem Segen der Immunisierungsimpfungen sogar der Klimawandel „geleugnet“. Zeit dieses „Schwurbelblatt“ endgĂŒltig ad acta zu legen? Aber doch sicher nicht, ohne sich zuvor noch die geballte Dröhnung dieses ketzerischen Beitrags zu geben und diesen letzten Trip noch einmal voll auszukosten – und wer weiß, vielleicht bleibst du darauf ja hĂ€ngen; Editorische Anmerkung der Redaktion]

Wenn man die Theorie des Klimawandels, wie sie uns heute beinahe als ontologische Tatsache prĂ€sentiert wird, nutzen wollen wĂŒrde, um die sozialen und ökologischen Katastrophen (besser) zu verstehen, die sich um uns herum ereignen, so ist es meines Erachtens nach unbedingt notwendig, sich auch mit der Genese dieser wissenschaftlichen Theorie auseinanderzusetzen. Denn egal was man nun im Allgemeinen von der modernen Wissenschaft halten mag, egal ob man diese als kolonial und patriarchal betrachtet oder als ein Werkzeug der Emanzipation, egal ob man einer wissenschaftlichen Analyse mehr Bedeutung beimisst als einem GefĂŒhl, einer Erfahrung oder einem Traum – und ich sage nicht, dass diese Fragen nicht von Belang wĂ€ren, ich will sie nur vorerst zurĂŒckstellen –, so muss man doch zumindest der Wissenschaft als Institution, ihren zahlreichen staatlich-kapitalistischen und militĂ€rischen Instituten, ihren Hierarchien und vor allem den aus ihrer Forschung resultierenden Technologien ein Minimum an Misstrauen entgegen bringen, wenn man vermeiden will, nicht einer Ideologie aufzusitzen, wenn man nicht in Manier der KirchgĂ€nger*innen, die ergeben den Priestern lauschen, willentlich oder unwillentlich am nĂ€chsten Kreuzzug, der nĂ€chsten Inquisition oder – zeitgemĂ€ĂŸer ausgedrĂŒckt – dem nĂ€chsten Kolonialisierungsfeldzug mitwirken will. Vor diesem Hintergrund will ich zunĂ€chst eine – von leviathanischer Geschichtsschreibung gar nicht allzu divergierende – Geschichte der Erforschung des Klimawandels erzĂ€hlen, eine Geschichte, die 1945 nirgendwo anders beginnt als in Hiroshima und Nagasaki.

***

Am 6. und 9. August 1945 wurden die „Little Boy“ und „Fat Man“ getauften Atombomben ĂŒber Hiroshima und Nagasaki abgeworfen und löschten dabei insgesamt rund 100.000 Menschen von einem Wimpernschlag auf den nĂ€chsten aus und hinterließen noch einmal mindestens ebenso viele verstĂŒmmelte Überlebende, die das nĂ€chste Jahr nicht mehr erleben sollten. Der als Schwarzer Regen bekannt gewordene Fallout dieser Atomexplosionen sollte die MilitĂ€rstrategen der US-Armee in den folgenden Jahren noch intensiv beschĂ€ftigen und diese BeschĂ€ftigung wĂŒrde schließlich ein gĂ€nzlich neues, interdisziplinĂ€res Forschungsfeld hervorbringen. Wie verteilt sich der Fallout einer Atombombe in der AtmosphĂ€re und den Meeren? Was hat das fĂŒr Auswirkungen? Und wie lĂ€sst sich feststellen, ob nicht gerade vielleicht ein anderer, feindlicher Staat, eine solche genozidale Superwaffe testet? Diese Fragen trieben hochrangige MilitĂ€rs um und ließen sie des Nachts nicht schlafen und so beauftragten sie diverse Wissenschaftler*innen, unter anderem auch Geologen, Meteorologen und Ozeanologen damit, Antworten auf diese Fragen zu finden.

Bei ihren Untersuchungen entwickelten einige dieser Wissenschaftler*innen eine heute sehr populĂ€re Theorie weiter und schufen Möglichkeiten, mithilfe globaler Messungen diese Theorie zu bestĂ€tigen (wie sich eine wissenschaftliche Theorie eben bestĂ€tigen lĂ€sst): Es geht natĂŒrlich um den Kohlenstoffdioxid-induzierten Treibhauseffekt. Als im Jahre 1957/58 ein internationales Geophysikalisches Jahr ausgerufen wird (ein freilich politisches Manöver zur Legitimation militĂ€rischer Forschung und AufrĂŒstung, wie der in diesem Rahmen ins All geschossene Satellit Sputnik und das gescheiterte Vanguard-Projekt, das in diesem Rahmen ebenfalls einen US-Satelliten in den Orbin befördern wollte, zeigen), erhĂ€lt unter anderem Charles David Keeling erhebliche Fördermittel, um weltweit mithilfe entsprechender Sensoren den CO₂-Gehalt der AtmosphĂ€re zu messen. Seine Messreihe, die auch Keeling-Kurve genannt wird, ist der erste wissenschaftliche Beweis fĂŒr einen kontinuierlichen Anstieg des CO₂-Gehalts in der AtmosphĂ€re. Etwa zeitgleich, ab dem Jahre 1956, entwickelt der Wissenschaftler Gilbert Plass  ein Computermodell, das die zu erwartende globale ErwĂ€rmung aufgrund dieses CO₂-Anstiegs errechnen sollte. Diese Berechnungen können wohl als die historische Geburtsstunde dessen gelten, was uns heute von der Popkultur, ebenso wie von Staaten und Regierungen, aber auch Klimaaktivist*innen und sogar zahlreichen Anarchist*innen als „Klimawandel“ untergejubelt wird. Gilbert Plass, bzw. eigentlich muss man ja sagen, sein Computer errechnete – oder sollte man es orakeln nennen? – fĂŒr eine Verdoppelung des CO₂-Gehalts in der AtmosphĂ€re einen globalen Temperaturanstieg um 3,6 Grad Celsius. Bis zum Jahr 2000 wĂŒrde die Temperatur, bei einem angenommenen Anstieg der CO₂-Konzentration um 30 %, um rund 1 Grad ansteigen.

Es lohnt sich zu bemerken, dass zeitgleich zu dieser Forschung Atombombentests in gigantischem Umfang stattfinden, sowohl ĂŒberirdisch als auch unterirdisch, im Wasser und in der Luft. Dabei werden ganze Landstriche verwĂŒstet, Tiere und Pflanzen ausgelöscht, Menschen zwangsweise umgesiedelt (beispielsweise auf Bikini und Enyu, aber keineswegs nur dort), sowie tausende Versuchstiere gezielt den Explosionen ausgesetzt und folglich ermordet und verstĂŒmmelt. Mehrere hunderttausende Menschen sterben in der unmittelbaren Umgebung der Testorte an den Folgen dieser Tests. Was dabei als radioaktiver Fallout auch Bevölkerungen und Natur weit ab von den Testorten vergiftet, lĂ€sst sich heute kaum noch bestimmen, auch, weil nicht nur die Tests selbst, sondern auch deren Auswirkungen der Geheimhaltung unterliegen. In der Sowjetunion und den USA wird darĂŒber hinaus auch am „zivilen Einsatz“ von Atomsprengköpfen, etwa zum Bau von KanĂ€len, usw. geforscht.

Die einst zum Zwecke der Bestimmung der Auswirkung von Atombomben bestellten Forscher*innen, sie haben lĂ€ngst ihren eigenen Umgang mit dieser unfassbaren Auslöschung von Leben gefunden. Sie interessieren sich nicht mehr fĂŒr radioaktive Strahlung und deren Folgen, sondern fĂŒr CO₂. Und dabei widmen sie sich vor allem zwei ganz neuen Sparten militĂ€rischer Forschung: dem Computer und der Raumfahrt.

Es lohnt sich hier, noch einmal einen Schritt zurĂŒckzutreten, in die 1940er Jahre und uns die Arbeit von John von Neumann zu GemĂŒte zu fĂŒhren, einem der heute als UrvĂ€ter der Informatik geltenden Wissenschaftler, die damals fĂŒr das US-MilitĂ€r arbeiteten. Nachdem er sich zuvor bereits vor allem mit Fragen der Ballistik und den Druckwellen von Bomben- und Minenexplosionen beschĂ€ftigt hatte, wirkte von Neumann ab 1943 am sogenannten Manhattan-Projekt mit, das jene Atombomben hervorbrachte, die 1945 die Bevölkerungen von Hiroshima und Nagasaki auslöschen wĂŒrden. Von Neumann gehörte dabei nicht zu jenen Wissenschaftler*innen, die im Anschluss an diese AtombombenabwĂŒrfe wenigstens vorgaben entsetzt darĂŒber zu sein, was sie geschaffen hatten – sofern man das ĂŒberhaupt fĂŒr glaubwĂŒrdig halten mag –, und sich auf recht wirkungslose und ebenso beschrĂ€nkte Weise, wie es einem*r Wissenschaftler*in, die*der ein*e solche*r bleibt, eben zuzutrauen ist, gegen nukleare Waffen einsetzten; Nein, von Neumann nahm am darauffolgenden atomaren WettrĂŒsten aktiv teil und trug unter anderem dazu bei, die Wasserstoffbombe zu entwickeln. Neben seinem Engagement als Atombombenbauer engagierte sich von Neumann jedoch auch wesentlich auf dem Gebiet der Kybernetik. Zusammen mit deren populĂ€ren BegrĂŒnder Norbert Wiener organisierte er im Winter 1943/44 ein Treffen von Ingenieuren, Neurowissenschaftlern und Mathematikern, das sich mit den „Gemeinsamkeiten zwischen dem Gehirn und Computern“ beschĂ€ftigte. Er trug auch maßgeblich zum Bau von Computern bei, leitete eigene militĂ€rische Projekte zur Entwicklung von Computern, mit denen beispielsweise ballistische Berechnungen durchgefĂŒhrt werden sollten. Bereits 1946 schlug von Neumann vor, Computer zur numerischen Wetterprognose zu verwenden, im MĂ€rz 1950 wurde auf dem militĂ€rischen Großrechner ENIAC, der von Neumann mit entwickelt worden war, die erste solche computergestĂŒtzte Wettervorhersage auf Basis tatsĂ€chlicher Wetterdaten errechnet. Diese Berechnungen und die dabei entstandenen Modelle wĂŒrden die Grundlage der in den spĂ€ten 50er und frĂŒhen 60er Jahren aufkommenden, computerbasierten Klimamodelle bilden. Nach den Arbeiten von Gilbert Plass entwickelten Syukuro Manabe und Richard Wetherald 1967 das „Manabe-Wetherald one dimensional radiative-convective model“, das fĂŒr eine Verdopplung des CO₂-Gehalts der AtmosphĂ€re einen globalen Temperaturanstieg um 2,3 ° C vorhersagte. Dieses und die folgenden computerbasierten Modelle zur Vorhersage von KlimaphĂ€nomenen basieren vor allem darauf, dass die aus verschiedenen Eisbohrkernen der Arktis und Antarktis (die in der Regel vom oder mit UnterstĂŒtzung des US-MilitĂ€rs aus dem Eis gebohrt wurden) gewonnenen Daten ĂŒber frĂŒhere CO₂-Konzentrationen der im Eis eingeschlossenen Luft der AtmosphĂ€re, sowie die heutigen Messungen damit simuliert werden. Spiegeln die Ergebnisse diese (sehr selektiv erhobenen) realen Messungen aus diesen Proben wieder, gelten sie als tauglich, tun sie das nicht, gelten sie als untauglich (was auf mehr als 90% solcher Modelle zutrifft) und werden verworfen. Es handelt sich also bei diesen Modellen um wissenschaftliche Orakel, deren genaue Funktionsweise selbst den entwickelnden Forscher*innen unergrĂŒndlich bleibt, von denen man sich jedoch erhofft, dass diese auf die eine oder andere Weise möglichst prĂ€zise Vorhersagen machen.

Im Zusammenhang mit dem atmosphĂ€rischen CO₂-Messungen der Vergangenheit und Gegenwart sind besonders zwei PhĂ€nomene, der sogenannte Kernwaffen-Effekt und der Suess-Effekt, hervorzuheben. Die Klimawissenschaft selbst widmet diesen PhĂ€nomenen bloß insofern Aufmerksamkeit, als dass sie diese bei der Kalibrierung ihrer Messmethoden berĂŒcksichtigt, abseits der wissenschaftlichen Brille betrachtet, könnte sich aus diesen PhĂ€nomenen, wie aus der Tatsache, dass es die MilitĂ€rforschung um Atomwaffen und Kernphysik ist, die so gut wie alle Grundsteine der Klimawandelforschung legte, ein ganz anderes Bild ergeben: In der AtmosphĂ€re kommt der in CO₂ gebundene Kohlenstoff in verschiedenen Isotopformen vor, vor allem als 12C und 14C. Isotope sind Atome des gleichen Elements, was sich durch die Protonenanzahl im Kern auszeichnet, bei denen jedoch die Neutronenanzahl verschieden ist. 12C etwa hat 12 Neutronen im Kern, 14C dagegen 14. 14C ist leicht radioaktiv. Es wird von der Wissenschaft angenommen, dass in der AtmosphĂ€re stets ein gewisses Gleichgewicht aus 12C und 14C-Isotopen des CO2 gebundenen Kohlenstoffs existiert, weil die 14C-Isotopen in höheren AtmosphĂ€renschichten gleichmĂ€ĂŸig durch die Sonneneinstrahlung aus Stickstoffatomen entstehen und mit einer gewissen Halbwertszeit wieder zu 12C-Isotopen zerfallen. Das VerhĂ€ltnis aus 12C und 14C-Isotopen mĂŒsste also eigentlich ĂŒber die Zeiten konstant sein. Ist es aber nicht. Neben angenommenen natĂŒrlichen Ursachen fĂŒr Schwankungen werden vor allem zwei Technologie-induzierte Schwankungsursachen angenommen: Der Suess-Effekt trĂ€gt zu einer Verschiebung dieses Gleichgewichts in Richtung der 12C-Isotope bei. Diese Verschiebung beginnt vor ca. 150 Jahren mit der Industrialisierung und der vermehrten Verbrennung von fossilen Brennstoffen, in denen sich die 14C-Isotope aufgrund des hohen Alters ihrer Bindung, das ihre Halbwertszeit oft ĂŒberschreitet, durch den radioaktiven Zerfall grĂ¶ĂŸtenteils in 12C-Isotope verwandelt haben. Das bei der Verbrennung frei werdende CO₂ enthĂ€lt also eine deutlich höhere Konzentration an 12C-Isotopen als das atmosphĂ€rische Gleichgewicht und verschiebt dieses folglich in Richtung einer höheren 12C-Konzentration. Eine umgekehrte Verschiebung dieses Gleichgewichts wird durch den sogenannten Kernwaffeneffekt bewirkt. Insbesondere durch die oberirdischen Wasserstoffbombentests ab 1953 hat sich der Anteil der 14C-Isotope in der AtmosphĂ€re verdoppelt, da bei einer Kernwaffenexplosion solche Isotopen freigesetzt werden. Bis heute hat sich das 12C/14C-VerhĂ€ltnis nicht wieder normalisiert. Bei Unterwasser-Kernwaffentests werden ĂŒbrigens ebenfalls 14C-Isotope freigesetzt, die sich jedoch kaum vertikal im Ozean verteilen, sondern teilweise eine etwa 1 Meter dicke Wasserschicht auf hunderte von Quadratkilometern radioaktiv kontaminieren. Mittlerweile testet man Atomwaffen deshalb nicht mehr in Luft oder Wasser, sondern unter der Erde 
 Jaja, was die Wissenschaft nicht alles fĂŒr uns tut.

Die bereits angesprochenen Computermodelle fĂŒr Klimaorakeleien wurden Mitte der 1960er Jahre durch eine weitere militĂ€rische Technologie ergĂ€nzt: Satelliten. Schun kurz nachdem 1959/60 die ersten militĂ€rischen Erdbeobachtungssatelliten, auch Spionagesatelliten genannt, von den USA aus ins All geschickt  wurden und sich zunĂ€chst vor allem mit der Beobachtung der UdSSR, der Volksrepublik China und schon bald mit dem Mittleren Osten (insbesondere im Sechstagekrieg) beschĂ€ftigten, wurde 1960 von den US-Behörden ESSA (Environmental Science Services Administration), NASA (National Aeronautics and Space Administration) und NOAA (National Oceanic and Atmospheric Administration) das erste Wettersatellitenprogramm namens TIROS (Television and InfraRed Observation Satellite) ins Leben gerufen. Die Satelliten der TIROS-Generation waren mit Kameras ausgestattet, die eine Auflösung von etwa 3 Kilometer und einer Beobachtungsbreite (Schwadbreite) von rund 1200 Kilometern besaßen. Zudem befanden sich StrahlungsmessgerĂ€te an Bord, die beinahe das gesamte Spektrum elektromagnetischer Strahlung abdeckten und eine Auflösung von 50 Kilometer hatten. Ab 1966 standen die in diesem Rahmen ins All beförderten Satelliten der Klimaforschung zur VerfĂŒgung. Das bereits parallel begonnene Wettersatellitenprogramm Nimbus lieferte dem bereits erwĂ€hnten Klimapropheten Manabe 1969 jene Messdaten, mit denen sein Klimamodell „verifiziert“ werden konnte (d.h. es errechnete Ă€hnliche Ergebnisse). Die seither in der Klimaforschung eingesetzten Erdbeobachtungssatelliten dienen dazu, Eisfelder zu vermessen und damit deren Schwund zu bestimmen, die WĂ€rmerĂŒckstrahlung der ErdoberflĂ€che zu bestimmen, Wind- und Meeresströmungen zu beobachten, usw.

Es dauert nicht lange, bis die Klimaforschung, die zuvor beinahe ausschließlich eine militĂ€rische Angelegenheit gewesen war, auch zu einem weltpolitischen Gegenstand wird. 1979 wird in Genf die erste Weltklimakonferenz abgehalten, aus der in weiterer Folge das Weltklimaforschungsprogramm ebenso wie das IPCC, das Intergovernmental Panel of Climate Change, auch bekannt als Weltklimarat hervorgehen werden. Ein letztes Mal noch wird die Klimaforschung in den 1980er Jahren auf ihr Entstehungsgebiet, nĂ€mlich die FolgenabschĂ€tzung von KernwaffeneinsĂ€tzen zurĂŒckkommen. Unter der Bezeichnung „Nuklearer Winter“ sollte vor den Auswirkungen eines globalen Atomkriegs gewarnt werden, die durch eine Verdunkelung der AtmosphĂ€re durch Ruß, Rauch und Staub als globaler Temperaturabfall um 6 bis 8 Grad prognostiziert werden. Als Reagan und Gorbatschow jedoch ihre Atomraketen wieder einpacken, wird mit ihnen auch jegliche populĂ€re Referenz der Klimawandelforschung auf diese Epoche atomarer Vernichtungswaffen verschwinden. Mit dem zunehmenden Dahinscheiden des Kalten Krieges gewinnt der sogenannte Klimawandel als ordnungspolitisches Paradigma der Weltpolitik an Bedeutung. In den 90er Jahren wird eine Klimakonferenz die nĂ€chste jagen, bei denen Staaten untereinander regeln, wie viel CO₂ sie jeweils ausstoßen dĂŒrfen und so dieses eindimensionale Maß fĂŒr die Zerstörung der BiosphĂ€re gefestigt wird. Motivation fĂŒr diese Konferenzen: Durch die prognostizierten Folgen einer globalen ErderwĂ€rmung sehen sich die Herrschenden existenziell bedroht. Sie fĂŒrchten nicht nur Hungersnöte in Folge von Naturkatastrophen und kollabierenden Ökosystemen, sondern vor allem auch AufstĂ€nde ihrer Bevölkerungen sowie Völkerwanderungen, die ihre geopolitischen Interessen gefĂ€hrden. Diese Überlegungen sind bis heute maßgeblich und fĂŒhrten zu einer neuen AufrĂŒstungswelle, die weniger in genozidale Superwaffen investiert (auch wenn solche Projekte lĂ€ngst nicht vollstĂ€ndig eingestellt wurden), als in Grenztechnologie und andere Technologien des globalen Bevölkerungsmanagements (siehe auch den Artikel „Planspiel Klimawandel“ in dieser Ausgabe).

***

Was hat nun diese Genese des heute weitverbreiteten Szenarios eines Klimawandels damit zu tun, ob ich mich dieser Analyse guten Gewissens bedienen kann, um die ökologische Zerstörung dieses Planeten besser zu begreifen?

ZunĂ€chst einmal fĂ€llt unweigerlich auf, dass die Zerstörung der BiosphĂ€re seit der Entwicklung des Modells „Klimawandel“ weitergegangen ist, ja vielfach sogar noch zugenommen hat, ebenso wie bereits vor der Etablierung dieses Modells als allgemein anerkanntes Szenario Menschen auch ohne RĂŒckgriff darauf begriffen haben, dass die industrielle Verpestung der Umwelt, die BetonwĂŒsten der StĂ€dte und die landwirtschaftliche Vernichtung von Lebewesen fatale Folgen fĂŒr das (freie) Leben auf diesem Planeten haben. Weder lĂ€sst sich also sagen, dass die globale Zerstörung der BiosphĂ€re nur mithilfe des Modells des „Klimawandels“ begriffen werden kann, noch hĂ€tte dieses neue VerstĂ€ndnis dieser Zerstörung dazu beigetragen, dass irgendeine Änderung eingetreten wĂ€re. Soweit verhĂ€lt sich das Modell „Klimawandel“ also bestenfalls neutral, wie ĂŒbrigens so viele wissenschaftliche Dogmen.

Zugegeben: Die bildmĂ€chtige kulturelle Rezeption des Szenarios „Klimawandel“ vermag noch einmal eine andere Sprache zu sprechen, als die sich hinter ihr versteckende Wissenschaft. Sie bedient sich dessen, was die Wissenschaft als eine bestimmte Anzahl an Tonnen CO₂ zu abstrahieren pflegt, wenigstens als Bilder gigantischer Rauchwolken ĂŒber Kohlekraftwerken oder als beinahe faschistisch anmutende, allmorgend- und allabendliche Autoparaden durch die Straßen irgendeiner (Beton-)Stadt. Doch es ist gar nicht im engeren Sinne die wissenschaftliche Theorie des Klimawandels, die dort im Vergleich zu irgendwelchen fĂŒr den gemeinen Fernsehzuschauer beeindruckenden ebenso wie exotischen Naturaufnahmen ĂŒber das GerĂ€t flimmernden Bildern dargelegt wird. Nein, es sind ja eben keine nuklearen Differenzialgleichungen, keine SchaltplĂ€ne von Computern, ja nicht einmal die Schaubilder irgendeines der zahlreichen kybernetischen Klimamodelle, die dort gezeigt werden.  All das, es wĂ€re dem gemeinen Fernsehzuschauer völlig unbegreiflich, ebenso wie es dem vielleicht wissenschaftlich-mathematisch-kybernetisch geschulten Auge bloß eine rationale, emotionslose ErlĂ€uterung eines Modells bleibt und selbst den entwickelnden Wissenschaftler*innen selbst ein nettes Zahlenspiel ist, angetrieben von einer vielleicht gewissermaßen verstĂ€ndlichen Faszination, das fehlende Element in einem RĂ€tsel zu finden und manchmal vielleicht auch von irgendwelchen technokratischen Utopien beflĂŒgelt oder wenigstens von der Aussicht eines Karriereschubs.

Man kann nun freilich darauf vertrauen, dass die Damen und Herren Wissenschaftler*innen, die sich in ihrem Alltag mit jenen Zahlenspielen befassen und mal hier, mal dort eine Zahl austauschen, einen Parameter hinzufĂŒgen oder entfernen oder eine gĂ€nzlich neue Gleichung aufstellen, ihre Arbeit schon gewissenhaft machen werden. Und obwohl ich selbst das bezweifle, ist das vielleicht auch gar nicht das Problem: Denn man kann seine Arbeit ja schon gewissenhaft machen, kann wie vielleicht Robert Oppenheimer vor dem Trinity-Test auch nach Abschluss aller Arbeiten noch einmal alle Berechnungen durchgehen, um zu ĂŒberprĂŒfen, dass einem auch ja kein Fehler unterlaufen ist, und dennoch kann mein Projekt, an dem ich da gerade arbeite, vom Typus des Manhatten-Projekts sein. Was uns vielleicht zu dem eigentlichen Problem bringt: Kann ich darauf vertrauen, dass jene Wissenschaftler*innen, die zuvor direkt oder indirekt an Projekten wie dem Manhatten-Projekt beteiligt waren, jene, deren Branche nur in der Nachfolge solcher Projekte entstehen konnte, jene, deren gesamte wissenschaftliche Tradition, deren Dogmen oder Axiome, wie man auch sagt, auf diesen vorangehenden Arbeiten grĂŒnden, an irgendetwas arbeiten, was in meinem Sinne sein könnte? Ich denke, ich kann es nicht.

Wenn ich darauf jedoch nicht vertrauen kann, wie kann ich dann das Modell „Klimawandel“ fĂŒr mich nutzen und es ĂŒbernehmen? Der einzige Weg dazu wĂ€re aus meiner Sicht, wenn ich es alleine oder gemeinsam mit anderen, die meine Ideen teilen, nachprĂŒfe. Ich benötige also Computer (und wir sprechen hier gewiss nicht von einem handelsĂŒblichen Personal Computer), Satelliten, gigantische Bohrer, Arktis-Forschungsstationen, Equipment zur Radiokohlenstoffdatierung und vielleicht, das wird sich zu gegebener Zeit dann noch herausstellen, benötige ich sogar Kernwaffen, um meine eigenen Tests damit durchzufĂŒhren. Anders ausgedrĂŒckt: Ich mĂŒsste eben jene industriell-technologisch-militĂ€rische Todesmaschinerie nachbauen oder mich ihrer uneingeschrĂ€nkt bedienen (können), die eben auch die Klimawandelforschung hervorgebracht hat. Denn wie anders sollte ich in der Lage sein, den „Klimawandel“ selbst zu begreifen, ohne mich dabei auf die Behauptungen derjenigen zu stĂŒtzen, die sich schon so oft als meine erbittertsten Feind*innen erwiesen haben?

Aber stellen wir diese Problematik fĂŒr den Moment noch einmal zurĂŒck und widmen wir uns, bevor nun irgendwer auf die Idee kommen mag, ein „anarchistisches“ Atomprogramm ins Leben zu rufen, noch einmal den möglichen Erkenntnissen, die uns eine eigene, wissenschaftlich abgesicherte und vereinheitlichte (weil sie ObjektivitĂ€t behauptet und damit subjektive Erfahrungen abwertet und schließlich eliminiert) Theorie des Klimawandels erwartungsgemĂ€ĂŸ liefern wĂŒrde: Die momentane industrielle, militĂ€rpolitische AusprĂ€gung dieser Theorie, sie vermag vor allem eines zu liefern: Zukunftsprognosen. Wenn „wir“ dies oder jenes nicht innerhalb der nĂ€chsten 5, 10, 20, 30, 50 oder hundert Jahre Ă€ndern wĂŒrden, dann 
 ja dann kommt die Apokalypse. Und weil es diese Apokalypse weder geben soll, noch darf, verlĂ€ngert sich das Zeitfenster nach 5 Jahren auf 10, nach 10 auf 20, nach 20 auf 30, und so weiter. Manchmal wird auch erklĂ€rt, man habe eine entsprechende VerĂ€nderung nun erreicht oder irgendeine neue Forschungsarbeit erklĂ€rt eben kurz und knapp, dass man sich in der Vergangenheit ohnehin geirrt habe und man nicht dies, sondern jenes hĂ€tte verĂ€ndern sollen, was also die ausgebliebene VerĂ€nderung irrelevant macht. Hat man von den Wissenschaftler*innen des Klimawandels jemals den Vorschlag vernommen, hier und jetzt, also jetzt gleich, hinzugehen, zum nĂ€chsten Kraftwerk, zur nĂ€chsten Autobahn, zum nĂ€chstgelegenen Tagebau, zur nĂ€chstgelegenen Raffinerie oder Fabrik und dieses Elend ein fĂŒr alle Mal niederzubrennen? Gewiss nicht. Und jenen, die schon dazu neigen zu betonen, dass eigentlich alles sofort stoppen mĂŒsste, taugt als Vorwand im Zweifel, dass der Akt des Abfackelns ja nur neues CO₂ produzieren wĂŒrde. Wie praktisch. Zumindest fĂŒr jene, denen am Fortbestand der alten Ordnung gelegen ist. Stattdessen wird die gegenwĂ€rtige Zerstörung der BiosphĂ€re den Klimawandel-Prophet*innen zunehmend zum Referenzpunkt des gerade noch ErtrĂ€glichen, zu dem, was spĂ€ter rĂŒckgĂ€ngig gemacht werden könne, zu dem, was zwar beendet werden soll, aber weder mitten im GeschĂ€ftsjahr, noch solange keine ertragreiche, nunmehr CO₂-neutrale Alternative der Zerstörung derselben BiosphĂ€re gefunden ist.

Sowieso: CO₂-neutral. Auch wenn man das Klima als ein ĂŒbermĂ€ĂŸig kompliziertes und ohne Computer, Satelliten und wissenschaftliche Propheten unmöglich zu verstehendes (und doch ist man ĂŒberrascht, dass indigene Bevölkerungen oft ebenso bessere Prognosen als die der Wissenschaft liefern, was diese PhĂ€nomene angeht, wie die wenigen ĂŒberlieferten „Bauernweisheiten“ selbst innerhalb des zivilisierten Lebens) Gebilde zu inszenieren versteht, so sind doch die praktischen SchlĂŒsse, die man daraus zu weissagen versteht, vergleichsweise banal: CO₂ und Treibhausgase, die sich als CO₂-Äquivalent angeben lassen, mĂŒssten beschrĂ€nkt werden. DafĂŒr ist es auch tauglich, neue Akte der Zerstörung der BiosphĂ€re zu begehen, indem etwa CO₂ in unterirdische Gesteinsschichten hineingepresst werden soll, oder gar allzu offensichtliche Schönrechnungsversuche, indem ganze Biotope gerodet werden und dort im Anschluss neue, schneller wachsende BĂ€ume (etwa Eukalyptus) gepflanzt werden, als Ausgleich dafĂŒr, dass etwa fossile Brennstoffe beim Transport von Waren und Menschen verbrannt werden. Ebenso verwandeln gigantische Tagebaue ganze Landstriche in WĂŒsten, um nach jenen Technologie-Rohstoffen zu schĂŒrfen, mit denen dann die CO₂-neutralen, erneuerbaren Wind-, Wasser-, und Solarkraftwerke errichtet werden, fĂŒr deren Bau mancherorts ebenfalls WĂ€lder gerodet werden. Nicht zuletzt wird sogar die Atomkraft als „saubere“ Energiequelle gehandelt, weil eben atomarer MĂŒll, der noch in 10.000 Jahren eine tickende Zeitbombe sein wird, ebenso wie die schon heute gesundheitsschĂ€dliche und tödliche Strahlung selbst um „intakte“ Kernreaktoren mit nur „unbedenklichen Rissen“ oder selbst ohne irgendwelche Risse eben kein CO₂ und kein CO₂-Äquivalent sind. Das alles sind die Entscheidungen, die auf Basis der Erkenntnisse der aktuellen „Klimawandel“-Theorie von Herrschenden getroffen und der ĂŒberwiegenden Mehrheit gehirngewaschener Bevölkerung gutgeheißen wird. Das ist der faktische Nutzen, den diese Theorie derzeit in einem Kampf gegen die Zerstörung der BiosphĂ€re einzubringen vermag.

***

Wenn ich mich in der Welt umsehe, egal ob ich den ErzĂ€hlungen von GefĂ€hrt*innen aus SĂŒdamerika lausche, mich mit GeflĂŒchteten von beinahe ĂŒberall aus der Welt ĂŒber die ZustĂ€nde in ihrer Heimat unterhalte, die Analysen von Anarchist*innen aus anderen Teilen der Welt lese, oder vor die eigene HaustĂŒr trete, so nehme ich eine gigantische ökologische Zerstörung wahr. Waldrodungen fĂŒr Plantagen, die die Böden in wenigen Jahren aufbrauchen, Tagebaue, die Quadratkilometer um Quadratkilometer der BiosphĂ€re in lebensfeindliche WĂŒsten verwandeln, schwindende Wasserresserven, die zu DĂŒrren fĂŒhren, WaldbrĂ€nden und WĂŒsten, auf Feldern ausgebrachte Pflanzengifte, die Insekten ausrotten, Böden und Wasser kontaminieren und nur noch den Anbau von genmanipuliertem, patentiertem Saatgut möglich erscheinen lassen, landwirtschaftliche Monokulturen, die die Böden Jahr um Jahr schwinden lassen und gigantische Mengen an DĂŒngemitteln erfordern, GewĂ€sser, die aufgrund der landwirtschaftlichen Vergiftung kippen, schwindende FischbestĂ€nde, PlastikmĂŒll in den Meeren, strahlenverseuchte Umgebungen, betonversiegelte FlĂ€chen, auf denen nichts mehr gedeiht, luftverpestende Industrie, die Krankheiten bei Mensch, Tier und Pflanzen hervorruft und Artensterben verursacht, Autobahnen, deren LĂ€rm Tier und Mensch vertreibt, StĂ€dte, mit ihren BetonwĂŒsten und ihrer Lichtverschmutzung, MĂŒllberge, die Böden und GewĂ€sser vergiften, Windparks, die zum Aussterben von Mikroorganismen und Insekten fĂŒhren, Solarparks, die man auch schwarze WĂŒsten nennen kann, Wasserkraftwerke und begradigte FlĂŒsse, deren Biotope dadurch zerstört werden, anhaltende Trockenheitsperioden und Wetterextreme, die zu DĂŒrren und Überschwemmungen fĂŒhren, aussterbende Vogelarten, Bienensterben, Insektensterben im Allgemeinen, usw. usw. Und man braucht kein*e Wissenschaftler*in  zu sein, um zu wissen, was fĂŒr all diese Dinge verantwortlich ist, ebensowenig wie es den ohnhein zweifelhaften Verstand eines Mathematikers braucht, um sagen zu können, dass all diese Zerstörungen schon in KĂŒrze dazu fĂŒhren werden, dass die Grundlage fĂŒr unser Leben auf diesem Planeten vollkommen zerstört sein wird. Man könnte vielleicht geneigt sein zu behaupten, dass die in StĂ€dten lebenden Menschen durch ihre Lebensweise so sehr von ihrer Umwelt entfremdet sind, dass sie diese Vernichtung nicht erkennen wĂŒrden, aber ich bin nicht geneigt, das zu glauben. Nein, von der eigenen Umwelt entfremdet oder nicht, wer halbwegs mit offenen Augen durch diese Welt wandelt, der*dem kann diese Zerstörung nicht entgehen. Und es entgeht den Menschen ja auch nicht, dass die Welt um sie herum mitten in einem Kampf auf Leben und Tod mit der industriellen Zivilisation steckt. Und vielleicht ist durchaus bereits den meisten gedĂ€mmert, dass es nun an ihnen ist, sich fĂŒr eine Seite in diesem lĂ€ngst tobenden Krieg zu entscheiden: fĂŒr die Todesmaschinerie des Fortschritts oder fĂŒr die Möglichkeit des Lebens.

Das Narrativ des Klimawandels, es erfĂŒllt dabei vielleicht den schmutzigsten Zweck von allen, indem es den Fortschritt als auf Seiten des Lebens stehend ausgibt und die völlig unbegrĂŒndete Hoffnung aufkeimen lĂ€sst, dass wenn dieser Fortschritt nur CO₂-neutral wĂ€re, er vielleicht weniger todbringend sein könnte
 Zugleich ist die Theorie des Klimawandels unzweifelhaft auch ein Instrument militĂ€risch-technologischer Kontrolle, das strategisch relevante ökologische und soziale ZusammenbrĂŒche vorhersehbar und folglich daraus resultierende Erhebungen gegen die Herrschenden schon prĂ€ventiv bekĂ€mpfbar macht bzw. machen soll. Es ist naiv zu glauben, dass ForschungsbeitrĂ€ge, die sich mit den Auswirkungen von klimainduzierter Flucht, Nahrungsmittelknappheiten, Umweltkatastrophen und Co. befassen und diese sogar in den Mittelpunkt der eigenen Forschung rĂŒcken, zu irgendetwas anderem (etwa einem Erweckungserlebnis der westlichen Bevölkerung) beizutragen vermögen, als dazu, solche Katastrophen besser verwaltbar zu machen. Egal ob man sich nun mit eigenen ForschungsbeitrĂ€gen aktiv an dieser Herrschaftssicherung beteiligt, oder ob man der Wissenschaft durch eine außerhalb von ihr stehende, sich jedoch uneingeschrĂ€nkt positiv auf sie beziehende, Bewegung dazu verhilft, neuen Nachwuchs zu rekrutieren, das Vertrauen der Menschen in sie zu steigern oder auch nur den Mördern im Weißkittel das GefĂŒhl verleiht, etwas „fĂŒr die Menschheit“ zu leisten. In jeder Form kann ein Bezug auf die Wissenschaft und ihr Narrativ des Klimawandels meiner Meinung nach keinesfalls der Ausgangspunkt einer anarchistischen Analyse sein.

Wo uns die Wissenschaft das Bild vermittelt, es mit einem komplexen System aus un- oder auch nur schwer durchschaubaren EinflĂŒssen zu tun zu haben, das die BiosphĂ€re, unser aller Lebensgrundlage zu einer lebensfeindlichen WĂŒste verwandelt, in das wir daher nur Ă€ußerst besonnen, das heißt, dem Rat der Nekrowissenschaftler*innen folgend, eingreifen sollten, ist die RealitĂ€t doch eigentlich ganz einfach: Es ist nicht mehr und nicht weniger als die industrielle Zivilisation, die fĂŒr diese Zerstörung der BiosphĂ€re verantwortlich ist; und auch wenn es freilich auch ein Interesse des techno-industriellen Komplexes ist, die LebensfĂ€higkeit der BiosphĂ€re gerade soweit zu erhalten, dass diese auch weiterhin die notwendigen Rohstoffe zur Reproduktion der industriellen Zivilisation zu liefern vermag, so ist es doch gĂ€nzlich unvorstellbar, dass die Technologie ebenso wie die Wissenschaft dieses Komplexes irgendeinen Beitrag dazu zu leisten vermag, dass wir einst wieder Seite an Seite mit anderen freien Wesen in einer intakten BiosphĂ€re leben können werden.




Quelle: Zuendlumpen.noblogs.org