Lieferservice – in Zeiten von Home-Office ein boomender Markt. „Man hat ja keine Zeit“, ist die Ausrede, kurz bevor die Online-Bestellung abgeschickt wird.
Obwohl zuhause kochen weitaus günstiger ist, geht der Trend immer mehr zum: „Bestell mal was!“. Doch was ist das denn eigentlich, was wir da essen. Hat es gut gelebt? Was hat es selbst gegessen? Wie wurde es verarbeitet? Das Bewusstsein über gesunde, nachhaltig produzierte Lebensmittel ging uns nicht erst mit Beginn der Fast-Food-Ära verloren. Schon viel früher wurde damit begonnen, Lebensmittel in Konserven zu stopfen.
Dank professioneller Werbung macht man Pressfleisch (Schnitzel) nun im Toaster und die Kühe wurden lila. Mit dieser Naivität und Ignoranz für Lebensmittel schaden wir nicht nur uns selbst, sondern auch den Tieren, die wir via „je billiger desto besser“ in die „Quältierhaltung“ treiben.
Das neoliberalistische „Höher, Schneller, Weiter, Mehr!“ funktioniert auch in der Landwirtschaft – mit fatalen Folgen für Böden und Tiere. Wenn man Tiere nur noch als Ware oder Milch-Maschinen betrachtet, kann kein gesundes und schon gar kein ethisch vertretbares Leben mehr gelingen. Das Bigotte dabei: Um unsere Haustiere kümmern wir uns mit extremer Fürsorge, mit Leidenschaft und Liebe – vom Tier aber, das direkt in unseren Körpern landen soll, wissen wir höchsten noch den Angebotspreis.
Mit Franz Keller haben wir einen Koch am Tisch, der mit seinem neuen Buch „Ab in die Küche!“ einen Appell an alle richtet, die essen. Ein Appell für ein Erinnern an ein verlorengegangenes Bewusstsein für Lebewesen, Nutztiere und unser täglich Brot. Der Mann, der schon für Staatschefs gekocht hat, schenkt uns wertvolle Einblicke in den Alltag einer Sterneküche und versucht, uns das Kochen am eigenen Herd häppchenweise wieder schmackhaft zu machen.
Hören, sehen, fühlen und probieren wir, ob wir das folgende Gespräch gut verdauen können. Prost, Mahlzeit!
Inhaltsübersicht:
0:07:04 Die wichtigsten Werkzeuge in einer Küche
0:21:35 Tierwohl, artgerechte Haltung, Sterbebegleitung
0:33:52 Popcorn-Fleisch – die Perversion der Fleischproduktion
0:40:53 Rentabilität in der Landwirtschaft
0:46:00 Radeberger für Putin, Dessert für Merkel
0:57:56 Paul Bocuse – der Ferrari unter den Köchen
1:10:05 Hochleistungssport Sterne-Kochen – eine Sucht?
1:21:56 Fleischproduktion und Umweltschutz
1:33:28 Chemotherapie für die Landwirtschaft
1:43:40 Mutig sein – selber kochen
+++
KenFM jetzt auch als kostenlose App für Android- und iOS-Geräte verfügbar! Über unsere Homepage kommt Ihr zu den Stores von Apple und Google. Hier der Link: https://kenfm.de/kenfm-app/
+++
Abonniere jetzt den KenFM-Newsletter: https://kenfm.de/newsletter/
+++
KenFM unterstützen mit FLATTR: http://bit.ly/KenFM-Flattr
+++
Jetzt kannst Du uns auch mit Bitcoins unterstützen.
Bitcoin Adresse: https://commerce.coinbase.com/checkout/1edba334-ba63-4a88-bfc3-d6a3071efcc8
+++
Dir gefällt unser Programm? Informationen zu weiteren Unterstützungsmöglichkeiten findest Du hier: https://kenfm.de/support/kenfm-unterstuetzen/
Agrar-Subventionen Agrarindustrie Agrarwende artgerechte Haltung Bio Ernährung Fleischproduktion Koch Kochen Küche Landwirtschaft Lebensmittelkontrolle Massentierhaltung merkel Nouvelle Cuisine Nutztiere Ökologie Ökologische Landwirtschaft Ökologischer Anbau Paul Bocuse Pestizide putin Radeberger Rentabilität Sterbebegleitung Sternekoch Subventionen Tierwohl Tierzucht Umweltschutz
Für alle, die es interessiert, hier ein paar
Wissenschaftliche Fakten zum Klimawandel
(für Hinweise oder Verbesserungen wäre ich dankbar)
– Computersimulationen: das Hauptargument der „Klimaschützer" und auch ihr schwächstes zugleich. Numerik, wenn man sie nicht ausschließlich qualitativ nutzt, um Zusammenhänge oder Kopplungen von Parametern phänomenologisch zu erfahren, ist immer problematisch. Ich schreibe "phänomenologisch zu erfahren", weil das numerische Modell im besten Fall reproduzierbare Ergebnisse wiedergibt, die man sich ansehen kann, was aber noch lange nicht heißt, dass man diese Ergebnisse dahingehend verstehen wird, das man ein Modell daraus entwickeln kann. Bei globalen Klimasimulationen kommen Rechenergebnisse heraus, die sich zwischen Abkühlung des virtuellen 'Planeten' von einigen Grad Celsius und Erwärmung von vielen Grad unterscheiden. Und sie würden auch noch größere Abweichungen berechnen, wenn man den Ergebnisbereich nicht auf einen „sinnvollen“ Wertebereich begrenzen würde. Man könnte mit ihnen durch Parameteränderungen ohne weiteres auch +50° und -50° erreichen. Daher ist jedes quantitative Ergebnis einer numerischen Simulation grundsätzlich als unrichtig zu bewerten und kann, wenn überhaupt, nur durch andere wissenschaftliche Methoden, z.B. einfache analytische Modellrechnungen oder Messungen, validiert werden. Außerdem gilt: der Raum für falsche Ergebnisse steigt mit der Komplexität numerischer Modelle, also umso komplexer, umso unzuverlässiger und umgekehrt.
– Temperaturmessungen: sind immer problematisch und oft ungenau. Fehler entstehen durch die Wärmekapazität, die Wärmeleitung, die Eigenwärme und Trägheit des Messsystems und eine ungenaue Kalibrierung des eingesetzten Verfahrens. Wenn jemand von gradgenauer Temperaturmessung oder gar mehr spricht (0,1°-Ziele), ist immer Vorsicht angebracht. Wie konnte mit der angewandten Messmethode eine solch hohe Genauigkeit erreicht werden?
– Durchschnittstemperatur der Erde: eine solche gibt es so nicht. Sie muss immer erst definiert werden, weil es unendlich viele Möglichkeiten gäbe, sie zu berechnen (außer für einen Idealmond, also einen theoretischen, homogenen, topologielosen, atmosphären- und ozeanlosen, kugelsymmetrischen Himmelskörper an seiner Oberfläche). Das Problem der Durchschnittstemperatur betrifft sowohl Satellitenmessungen wie auch Computermodelle. Also muss die Frage immer lauten: „welche Temperatur genau, wie wurde sie definiert, gemessen oder berechnet?“. Wer das nicht im Detail angibt, hat keine valide Darstellung. Fast jeder heute in den Medien dargestellte historische Temperaturverlauf der Erde ist hochproblematisch und meist unwissenschaftlich im Sinne von Überprüfbarkeit. Wenn ich jedoch Artikel über Temperaturmessungen von Satelliten anschaue, wird mir immer schnell klar, dass unterschiedliche statistische Methoden auch unterschiedliche Werte liefern (das belegen die wissenschaftlichen Autoren ja auch meist offen und ehrlich) und auch nur sowas anscheinend einfaches wie eine lokale „Oberflächentemperatur" sehr schwierig zu ermitteln ist, indem man wiederum physikalische Modelle von indirekten Messmethoden dazwischen schalten muss, die wiederum sauber kalibriert sein müssen. Letztendlich geht dies auf das Problem der Temperaturmessung an sich, s.o., zurück. Aber auch die statistische Auswertung und Ermittlung der "durchschnittlichen Oberflächentemperatur" ist hochproblematisch, nicht zuletzt, weil die Temperaturen ja ständig in Bewegung sind. Manche Politiker, Aktivisten und Journalisten reden da von 0.1°C-Unterschieden und einem 1.5°C-Ziel oder sowas. Ich frage mich immer: wissen sie, von was sie reden?
– Klimatische Systemelemente (Wärmesenken, -quellen, -speicher und Regler): Das sind Meeres- und Luftströmungen, Klimagase, Sonnenflecken, Eis-, Wüsten-, Wolken- und Ozeanalbedo, Wasser als Kapazität, ebenso Luft und Gestein, Land- und Unterseevulkanismus, Vegetation, etc. Das Zusammenspiel aller Senken, Quellen und Speicher im System beschränkt sich ja nicht allein auf Treibhausgase. Wir wissen nur, dass die Systemelemente der Treibhausgase, besonders der Wasserdampf die Oberflächentemperatur im einfachsten Klimamodell von -18°C um ca. 32°C auf ca. +14°C anhebt, weil es als wichtiger (geologisch) kurzzeitiger Wärmespeicher dient. Das angesprochene Modell ist aber äußerst simpel und in Wirklichkeit sind auch die anderen Systemelemente mit daran beteiligt, dass es hier wohlig warm ist. Alle anderen Senken, Quellen und Speicher spielen eine ebenfalls große Rolle, die gerne in der Diskussion unter den Tisch gekehrt werden. Alle anderen Systemelemente außer Treibhausgase gehen in die Klimamodelle der Wissenschaft selbstverständlich mit ein und führen dort je nach Parameterisierung zu großen Ergebnisschwankungen bei den Temperaturen.
– Treibhausgase: der Wasserdampf ist DAS Treibhausgas, das den Treibhauseffekt bestimmt (mit 60% bis 70%). Alle anderen Treibhausgase kann man in erster Näherung vernachlässigen (global gesehen; beschränkt man sich jedoch auf das Wüstenklima, wo es wenig Wasserdampf gibt, ist das anders). In der zweiten Näherung kommen kondensierter Wasserdampf (Wolken) und natürliches CO2 hinzu (mit jeweils etwa 15% am Treibhauseffekt). In der dritten Näherung kommen anthropogenes CO2 (mit 5% der 15% CO2 also 0,75% am Treibhauseffekt) und weitere Treibhausgase hinzu. Aus politischen Gründen die Forschungsaktivitäten auf CO2 zu legen und nicht auf den Wasserdampf macht keinen Sinn. Die Wolken neben dem CO2 zu vernachlässigen ist ebenso unnsinnig. Anthropogenes CO2, das wenigier als 5% des gesamten CO2 ausmacht, überhaupt zu betrachten ist schon fraglich. Der Treibhauseffekt der Erde wird vom Wasserdampf dominiert. Punkt. Es wäre wissenschaftlich, sich an die Zahlen und Relationen zu halten. Wer hier was anderes behauptet, dessen Beweis möchte ich sehen. Im übrigen gehen all diese Größen in die Klimamodelle ein und es wird in der medialen Diskussion einfach unter den Tisch gekehrt, dass CO2 wenig Einfluss und anthropogenes CO2 nur in geradezu hysterisch parametrisierten, instabilen Umkippmodellen eine Rolle spielt (zu den Umkippunkten siehe unten).
– CO2-Messungen: erstmal sind die meisten der weltweit gemessenen Werte seit ca. 1955 korrekt und wissenschaftlich. Man muss aber aufpassen, wo sie gemessen wurden, oder dass sie einen repräsentativen Durchschnittswert der täglich und jährlich schwankenden CO2-Werte ergeben. Zum Beispiel sind die indirekten Ergebnisse aus dem Antarktiseis problematisch. Ihre Korrelation mit dem Temperaturverlauf in manchen Darstellungen wird aus oben benannten Gründen (siehe Computersimulationen, Temperaturmessungen, Durchschnittstemperatur der Erde) schnell unwissenschaftlich. Schlimm ist, dass die bekannten und öffentlich vorliegenden Messungen von 1800 bis 1950 einfach ignoriert werden, weil sie ein ganz anderes Bild ergeben: der CO2-Gehalt der Atmosphäre der Erde war schon im 19. Jahrhundert und vor 1955 höher als heute (https://www.eike-klima-energie.eu/wp-content/uploads/2016/12/180CO2-D.pdf). Diese Messungen vor 1955 sind ebenso korrekt und wissenschaftlich und selbstverständlich fehlerbehaftet wie die Messungen nach 1955. Das Unterschlagen der alten Messwerte durch die heutige Klimapolitik ist nicht nur extrem unwissenschaftlich, es ist betrügerisch, weil es ja das Hauptargument des IPCC ("so hoch waren die CO2-Werte noch nie") und alle daraus folgenden gesellschaftlichen Supressionen restlos auflösen würden. Wer sich mit alten Messwerten beschäftigt, muss also gut aufpassen.
– Anthropogener CO2-Anteil: der anthropogene Anteil von CO2 kann mit der C14-Methode genau bestimmt werden und liegt bei ca. 4,5% des gesamten dem CO2-Kreislauf zugeführten CO2. Die restlichen Anteile von CO2 stammen aus der Natur (Ozeane, Vegetation, Böden und ihre Mikroorganismen, Vulkane, Wald-, Torf- und Kohlebrände) und diese Quellen sind noch weitgehend im Detail unerforscht, besonders ihre Schwankungen sind unerforscht. Doch eins ist klar: allein die Schwankungen der natürlichen CO2-Quellen könnten höher sein als der Gesamtbeitrag der Menschheit (der relativ stabil ist). Daher ist es unsinnig das menschliche CO2 alleine zu betrachten, die Schwankungen der natürlichen CO2-Beiträge sind mindestens ebenso zu betrachten. Da der Anteil des CO2-bedingten Treibhauseffekts an den Treibhausgasen bei ca. 15% liegt, hat der Mensch am Treibhauseffekt einen Anteil von 0,15 * 0,045 = 0,0075 oder 0,75% Der Anteil des Menschen am Treibhauseffekt der Erde ist anteilsmäßig vernachlässigbar, wenn man nicht an 'Umkippunkte' und 'Anreicherung' glaubt, s.u. Wer aber behauptet 0,75% wären relevant, der muss die natürlichen CO2-Schwankungen ebenfalls betrachten, sonst macht er sich wohl unglaubwürdig.
– Umkippunkte: Wer behauptet 0,75% (siehe Anthropogener CO2-Anteil) hätten einen merklichen Einfluss auf ein Klimasystem, der muss das Beweisen können. Er müsste sozusagen beweisen, dass das System instabil ist und diese 0,75% irgendwie den Umkippunkt anstoßen könnten. Wir warten schon seit 30 Jahren auf den Beweis. Es werden uns stattdessen immer wieder nur neue Umkippunkte präsentiert, um neue Sensationen und Ängste ins Volk zu streuen. Das Klimasystem war in den letzten 30 Jahren ganz offensichtlich und erlebbar genauso geregelt stabil und stark gedämpft, wie in den 3 Milliarden Jahren zuvor. Das Aufbauschen von lokalen Extremwettern und die unbeweisbare Behauptung, heute gäbe es mehr Extremwetter als früher, ändern auch nichts an der Stabilität eines globalen Klimasystems.
– Anreicherung, oder Zunahme des CO2 ist menschlichen Ursprungs: Die Theorie, dass der anthropogene Anteil des CO2 sich „anreichern“ würde und daher die Zunahme des CO2 seit ca. 1955 „menschlichen Ursprungs" sei, ist unwissenschaftlicher Unsinn und reine Poliitk. Das lässt sich in einem Satz widerlegen: „Wenn das so wäre, dann hätte sich der Anteil von anthropogenen Kohlendioxid (ohne C14) ja dementsprechend proportional mit erhöht. Genauer: Bei 300ppm auf 400ppm von 1950 bis 2020 müsste der Anteil des anthropogenen CO2 (das ohne C14) heute bei mindestens 25% liegen, wenn der Mensch es verursacht und angereichert hätte. Das ist aber nicht der Fall, der Anteil liegt laut Messungen bei lediglich 4,5%. Damit is die Zunahme des CO2 in der Athmosphäre größtenteils nicht menschlichen, sondern natürlichen Ursprungs. QED. Mit höflicher Bitte um einen Gegenbeweis.
– Vulkane: Der Einfluss der Vulkane, besonders der unterseeischen, auf das Klimageschehen wird bis heute in der öffentlichen Diskussion völlig unterschätzt. Die Auswirkungen des kürzlich exlplodierten unterseeischen Vulkans 'Hunga Tonga-Hunga Ha’apai' im Pazifik sind massiv. Er hat den Anteil von Wasserdampf in der Stratossphäre schlagartig global um ca. 10% erhöht. Gegen so eine gewaltige Veränderung der Treibhausgas-Zusammensetzung in der Hochathmosphäre des Planeten mit dem stärksten Treibhausgas Wasserdampf kann man wahrscheinlich alles CO2 auf der Welt (auch die 95% natürlichen Ursprungs) vernachlässigen, denn der Wasserdampf soll in der Stratosphäre noch viel stärker wirken als in der darunter liegenden Troposphäre. Daran wird gerade geforscht.
– Wolken: Der Einfluss der Wolken ist ebenfalls nicht gründlich erforscht, obwohl er für den Treibhauseffekt ebenso stark ist wie alles natürliche und menschengemachte CO2 zusammen. Je nach Wolkenart (Cumulus, Stratos, Cirrus, etc.) erwärmen sie die Erde oder kühlen sie ab. Der Effekt der Klimaerwärmung durch Wolken ist mindestens 20 mal stärker als der allen menschengemachten CO2. Daher müsste sich die Klimaforschung logischerweise darauf konzentrieren und nicht auf anthropogenes CO2.
– Lawineneffekt: Der „Lawineneffekt“ des CO2 ist eine Hypothese, der je nach Computermodell und seiner Parameterisierung mehr oder weniger stark auftaucht. Er sagt, umso wärmer es wird, umso mehr CO2 wird von den Ozeanen und Böden freigesetzt und umso wärmer wird es, usw. Aber: Seit etwa 100 Jahren ist auch bekannt, dass das CO2 in der Athmoshäre mit zunehmender Konzentration (in ppm) in eine Sättigung läuft und immer weniger Wärme speichern kann. Das ergibt sich aus der Gaskinetik des CO2. Dadurch wird jede Zunahme der Temperatur durch das Treibhausgas CO2 gedämpft, bis die Zunahme zum erliegen kommt. Dem Lawineneffekt entgegen läuft neben der Sättigung aber besonders die Photosynthese: die Erzeugung von Cellulose steigt linear mit dem Kohlendioxidgehalt. Dieser Proportionalregler bringt den CO2-Gehalt global immer wieder auf ein niedrigeres Niveau, wenn auch mit Verzögerungen und Schwankungen (Lebenszyklen der Pflanzen).
– Photosynthese: wichtiges Gegenmoment gegen einen hypothetischen Lawineneffekt, siehe Lawineneffekt. Die Photosynthese stellt im Klimasystem einen Linearregler dar, der das System kräftig stabilisiert. Es ist anzumerken, dass diese CO2-Senke durch die Landvegetation mindestens 22 Mal (Wert bei ca. 380ppm im Jahr 2008) stärker wirkt als das anthropogene CO2 (ermittelt über den Kohlendioxid-Kreislauf und seine Stoffmengen). Und die Photosynthese nimmt mit dem CO2-Gehalt in ppm linear zu, bei doppeltem CO2-Gehalt ist sie mehr als doppelt so stark. Dieser Linearregler ist also stark. Das hat nichts mit der Zunahme von Vegetation zu tun (mehr Grün), es gilt alleine schon für den vorhandenen Pflanzenbestand.
– Klima in Europa: wird vom Golfstrom getrieben. Alle anderen Einflüsse sind für Europa vernachlässigbar. Nur der Vulkanausbruch im Pazifik (siehe Vulkane) ist vielleicht relevant (weil Wasserdampf in der Stratosphäre global und massiv und lange wirkt), aber kann letztendlich nicht gegen den Golfstrom ankommen, weil dieser um mindestens eine Größenordnung mehr Wärme in Europa einbringt als der Treibhauseffekt der Athmosphäre. Alles CO2 in der Atmosphäre und besonders das anthropogene spielt für lokale Klimaveränderungen in Europa unmittelbar keine Rolle (zum möglichen Umkippen des Golfstroms siehe unten). Mit höflicher Bitte um einen möglichen Gegenbeweis dieser Aussagen.
– Golfstrom: der Golfstrom könnte bei einer weiteren Klimaerwärmung umkippen und dann würde Europa vereisen. Dies könnte durch den Ausbruch unterseeischer Vulkane passieren, die den Wasserdampfgehalt und die Wolken der Atmosphäre massiv beeinflussen (siehe Vulkane). Dies könnte durch starke Schwankungen des natürlichen CO2-Kreislaufs geschehen. Dies könnte nur durch den Anteil anthropogenen CO2 passieren, wenn das Klimasystem an sich äußerst instabil wäre, was es aber nicht ist, s.o.. Eine Vereisung Europas durch eine Erderwärmung ist aber auf jeden Fall wesentlich wahrscheinlicher als eine Versteppung, weil Europa an dem Golfstrom hängt, der durch Erderwärmung kippen kann. So paradox es klingen mag: eine globale Erwärmung wird letztendlich wohl immer in einer Vereisung Europas enden.
– Meeresspiegelanstieg: auf der einen Seite gibt es Satellitendaten, die einen Anstieg in den letzten Jahrzehnten belegen, auf der anderen Seite gibt es Fotos und Messungen von Küsten, die dies nicht tun. Mir ist noch nicht klar, wie das zusammenspielt. Aber man muss auch hier bedenken, dass es der Meeresspiegel keineswegs statisch ist und Gezeiten wirken und man sollte bei statistischen Daten immer vorsichtig sein. Handelt es sich bei den Messungen eher um eher verlässliche Daten, wie bei den CO2-Messungen der Luft oder eher um problematische Daten wie die Temperaturen? Die moderne Doppler-Radar-Technik ist auf Millimeter genau. Wie genau ist aber die Messung der Satellitenbahn? Kann ein Satellit auf Zentimeter genau messen, wenn er mit einem GPS-System aber nur auf Meter kalibriert werden kann? Zusätzlich wird mit Laserentfernungsmessung zum Satellit gearbeitet. Wie schnell driften solche Höhenwerte nach einer Laserentfernungsmessungen wieder ab? Was ist mit den Bahnstörungen? Wieviel Annahmen und Statistik fließen in den ermittelten globalen Meeressspiegelanstieg ein? Die Ozeane unterscheiden sich ja auch so schon bei ihren Pegeln um Meter. Wie kommt man zu einem zentimetergenauen Mittelwert? Wer weiß hier mehr?
– IPCC: Der Weltklimarat ist eine politische Organisation. Der Einfluss der Politik, mit all ihren Geld-, Macht- und Unterdrückungsambitionen ist einfach zu groß, als dass man sich von so einer Organisation eine objektive Einschätzungen des Weltklimas erwarten könnte. Er ist für seine Fehlprognosen und besonders für seine Zensur von 'falschen' Klimaforschungsergebnissen berühmt-berüchtigt.