POPULARITY
Der Klimaphysiker Thomas Frölicher über die Folgen der hohen Ozeantemperaturen und die Trägheit des Klimasystems. Ein Podcast vom Pragmaticus. Das ThemaDie im erdgeschichtlichen Vergleich sehr hohen Meerestemperaturen sind ein Grund zur Sorge: Sie bewirken unter anderem, dass der Meeresspiegel noch hunderte Jahre weiter steigen wird, auch wenn wir die globale Mitteltemperatur bei 1,5 Grad begrenzen können. Der Klimaphysiker Thomas Frölicher von der Universität Bern erklärt im Podcast diese Trägheit des Klimasystems und die fünf wesentlichen Folgen zu warmer Ozeane: Versauerung, Sauerstoff-Abnahme, Schichtung und Abschwächung der Zirkulation, Wetterextreme, Meeresspiegelanstieg. Für Thomas Frölicher sind diese Zusammenhänge der wichtigste Grund, warum die Emissionen sehr rasch drastisch sinken müssen: Je länger emittiert wird, desto länger bleiben auch die Folgen erhalten. Eine aktuelle Studie, an der Thomas Frölicher beteiligt ist, zeigt, wie riskant ein Überschreiten der 1,5 Grad-Grenze ist. Unser Gast in dieser Folge: Thomas Frölicher ist Professor für Klima- und Umweltphysik an der Universität Bern und stellvertretender Leiter des dortigen Oeschger-Zentrum für Klimaforschung (OCCR). Er ist einer der Leitautoren des Weltklimarats. Ein Fokus seiner wissenschaftlichen Arbeit ist die Modellierung der Klimaentwicklungen. Für den Pragmaticus hat er detailliert beschrieben, welche Kipppunkte der Ozean hat.Dies ist ein Podcast von Der Pragmaticus. Sie finden uns auch auf Instagram, Facebook, LinkedIn und X (Twitter).
Thomas Röthel ist einer der erfolgreichsten Stahlbildhauer in Deutschland. Manche seiner tonnenschweren Skulpturen scheinen regelrecht zu schweben. Immer bringt er Stahl in Bewegung. „Schichtung“, „Balance“, „Dialog“ oder „Vertikale Entwicklung“ heißen seine abstrakten Skulpturen. Poetisch wirken sie vor allem, wenn sie in einer Landschaft stehen und mit Naturformen kontrastieren. Zu seinem Erfolgsprogramm gehört auch, dass Thomas Röthel nachhaltig produziert – und oft Recyclingmaterial benutzt. Ab 2027 will der Bildhauer ausschließlich mit CO2-neutralem Stahl aus der Dillinger Hütte arbeiten.
Die Meeresbiologin Bettina Riedel spricht über den Arktischen Ozean. In dieser Folge geht es um die komplexe Schichtung unterschiedlicher Wassermassen. Gestaltung: Ilse Huber – Eine Eigenproduktion des ORF, gesendet in Ö1 am 08.01.2024.
In der geschichteten Gesellschaft hatten Adel und Volk nicht die gleichen Rechte. Infolge des Justizverweigerungsverbots entfallen solche gesamtgesellschaftlichen Vorgaben für die Rechtsentscheidung. Gerichte ersetzen sie durch Vorgaben, die sie autonom definieren können und die ausschließlich ihrer Funktion dienen: Profession und Organisation. Die „gottgebene“ Schichtung der Ständegesellschaft ist kein Entscheidungskriterium mehr. Das Gericht ersetzt derlei Vorgaben durch selbst bestimmbare Vorgaben: Organisation und Profession werden entscheidend dafür, wer wie unter welchen Bedingungen „Mitglied“ des Gerichtssystems werden kann und wie Entscheidungen herbeizuführen sind. Beide Vorgaben sind funktional orientiert. Sie dienen der Autopoiesis und damit der Autonomie. Das Gerichtssystem organisiert seine Kommunikation selbst – in Form von Behörden, Ausbildungsbedingungen, Kompetenznachweisen, Selbstaufsicht etc. Evolutionär war diese Entwicklung riskant. Immerhin wurde die Rechtsentscheidung von einer Vorgabe abgeschnitten, die jahrtausendelang das Weltbild geprägt hatte. Auch wenn es Kritik gibt, die bezweifelt, dass Gerichte unabhängig vom sozialen Ansehen entscheiden würden – es bleibt die soziologische Frage: Welche sozialen Einrichtungen waren nötig, um eine derartige Autonomie zu behaupten und abzusichern? Als Voraussetzungen kann man feststellen: Profession und Organisation. Aber was bedeutet das? Die Theorie sozialer Systeme bricht diese Begriffe auf die operationale Ebene herunter: Beides sind Operationen, die durch Kommunikation ausgeübt werden. Die Kommunikation ist funktional, sie dient der Grenzziehung zwischen Gerichtssystem und Umwelt. Indem das Gerichtssystem laufend eingrenzt, was professionell/unprofessionell ist, reproduziert es sich selbst. Der Begriff der Autopoiesis wird hierin erneut greifbar: Wie jedes soziale System, reproduziert auch das Gerichtssystem alle Kommunikationen, aus denen es besteht, ausschließlich selbst. Wie man RichterIn werden kann, was als professionell zu gelten hat, all das kann das Gericht selbst definieren und laufend internen Bedürfnissen anpassen. Die gesamtgesellschaftliche Vorgabe der Schichtung wird durch systeminterne Vorgaben ersetzt: Es braucht juristische Kompetenz, um Rechtsentscheidungen zu treffen. Durch Kompetenz wird dann auch die Frage entschieden, welche Organisationen ein Gerichtssystem braucht, welche Rollen es gibt und wie diese Organisationen zu arbeiten haben. Das System reguliert sich selbst und zwingt sich zur Selbstbeobachtung. Es gibt eine Dienstaufsicht. Es definiert, wie viel erledigt werden muss. Es koordiniert zeitliche Abläufe durch Termine. Die Interaktion im Gerichtssaal bedeutet Kommunikation unter Anwesenden und ist durch selbst entworfene Verfahrensregeln festgelegt. Der Umgang mit Fehlern ist systemintern reglementiert. Interne Streitigkeiten werden durch Argumentation gelöst, die wiederum professionell sein muss. Wer welche Positionen, Einkommen und Karrierewege einschlagen kann, wird ebenso durch Kommunikation definiert. Profession ist die Voraussetzung für Organisation. Karrierefragen werden durch Selbst- plus Fremdreferenz entschieden. Zwei Perspektiven müssen miteinander abgeglichen werden. Dies mag sich systemintern auf das Verhalten von RichterInnen auswirken. Die Umwelt könnte aber ihr Verhalten nicht „steuern“. Ein negatives Presse-Echo auf ein Urteil würde nichts am Gehalt, an der Position und an der Rechtsgültigkeit der Entscheidung ändern. RichterInnen können nicht für die Folgen ihrer Entscheidung verantwortlich gemacht werden! Durch Organisation wird dieses Risiko abgedeckt. Organisation ermöglicht Unverantwortlichkeit für die Folgen von Entscheidungen. Profession und Organisation sind also funktional äquivalent. Durch Profession kann das Gericht autonom entscheiden... Vollständiger Text auf luhmaniac.de
Fight your Schweinehund - der Laufmotivations-Podcast mit Annette
In dieser Podcast-Folge gehen wir zurück zu den Basics und diskutieren, was Läufer wirklich an Ausrüstung benötigen, um erfolgreich und sicher unterwegs zu sein. Es gibt unzählige Produkte und Gadgets auf dem Markt, aber welche sind wirklich unverzichtbar? Wir starten mit dem Fundament: Laufschuhe. Unsere Experten erklären, warum das Finden des richtigen Schuhwerks entscheidend ist, nicht nur für den Komfort, sondern auch zur Vermeidung von Verletzungen. Wir diskutieren die verschiedenen Arten von Laufschuhen und worauf du bei der Auswahl achten solltest. Dann widmen wir uns der Kleidung. Von Funktionskleidung bis zur richtigen Schichtung erklären wir, wie die Wahl der passenden Laufbekleidung dazu beitragen kann, dass du dich bei deinem Lauf wohl fühlst und gleichzeitig vor den Elementen geschützt bist. Schließlich sprechen wir über die Rolle des Handys für Läufer. Erfahre, wie dein Smartphone nicht nur für die Sicherheit, sondern auch für die Verfolgung deiner Laufleistung und die Kommunikation mit anderen Läufern nützlich sein kann. Unsere Gäste teilen ihre eigenen Erfahrungen und Empfehlungen für die Ausrüstung, die sie als unverzichtbar betrachten. Dabei gehen wir auf Budgetoptionen ebenso ein wie auf hochwertige Investitionen. Wenn du dich fragst, welche Ausrüstung für Läufer wirklich notwendig ist und wie du sicherstellst, dass du bestens vorbereitet bist, dann ist diese Podcast-Folge ein Muss. Entdecke, wie die richtigen Schuhe, die passende Kleidung und dein Handy deine Lauferfahrung auf das nächste Level heben können.
Gerichte bilden ein Teilsystem (Subsystem) im Rechtssystem. Wie es zu dieser internen Ausdifferenzierung kam, lässt sich anhand der Unterscheidung von Gesetzgebung und Rechtsprechung historisch nachvollziehen. Dabei ist es unerlässlich, die jeweils zugrundeliegende gesellschaftliche Differenzierungsform mit zu betrachten. Denn diese bildet die Bedingungen der Möglichkeit, unter denen politische Herrschaft und Rechtsprechung voneinander unterschieden und praktiziert werden können. In der segmentären (tribalen) Gesellschaft war die Gesellschaft nach Familien und Stämmen differenziert. Begünstigung von Freunden bzw. Benachteiligung von Feinden waren naheliegend gewesen. In der stratifizierten Gesellschaft, die über Schrift verfügte, war die Gesellschaft in Schichten wie Adel/Volk differenziert, legitimiert durch ein göttliches (ontologisches) Weltbild. Verwandtschaftliche und freundschaftliche Bindungen durften bei der Rechtsprechung gerade keine Rolle mehr spielen. Schon zu Aristoteles' Zeiten (rund 300 Jahre vor Christus) unterschied man zwar zwischen Rechtsprechung und Gesetzgebung. Richter wurden ans Gesetz gebunden. Fälle mussten „ohne Ansehen der Person“ beurteilt werden. (Freilich auf der Grundlage der Schichtung qua Geburt, die den Schichten unterschiedliche Rechte zumaß, etwa: Sklaven, Frauen, freien Männern.) Im Römischen Reich differenzierte sich die Gesetzgebung zur Volksgesetzgebung aus. Gesetze legten fest, wer unter welchen Voraussetzungen Gerichtsgewalt ausüben durfte. Der Amtsinhaber einer Gerichtsmagistratur war der Praetor (lateinisch von „vorangehen“: prae-ire). Der Adel musste Rechtskenntnisse erwerben, um das Amt auszuüben. (Ein Vorgeschmack auf die heutige funktionale Differenzierung, bei der Expertise die nun alleinige, schichtunabhängige Voraussetzung ist.) Formal waren politische Herrschaft und Rechtsprechung also getrennt. Bis ins 18. Jh. sahen die Machtverhältnisse in Alteuropa allerdings anders aus. Welcher Fürst im Territorialstaat herrschte, war entscheidend für die Frage, ob man sein Recht auch vor Gericht durchsetzen konnte. In der Folge herrschte die Auffassung vor, die Gesetze würden schon „sagen“, was rechtens ist (iurisdictio). Gesetzgebung und Rechtsprechung wurden als zwei Seiten einer einheitlichen Aufgabe des Fürsten angesehen. Machtmissbrauch war nie auszuschließen. Ein Beispiel dafür ist die Herrschaft des „Sonnenkönigs“ Ludwig XIV. († 1715, „Der Staat, das bin ich“) im Absolutismus. Die politische Macht, Gesetze zu erlassen (potestas legislatoria), wurde hierarchisch als über der Rechtsprechung stehend empfunden. Diese Auffassung änderte sich, wenn auch nur sehr allmählich, durch den Begriff der Souveränität. Dieser lässt sich sowohl auf Politik als auch auf Recht anwenden. Benötigt wurde der Begriff vermutlich zunächst, um den Territorialstaat politisch in Stellung zu bringen. Die formale Trennung von Gesetzgebung und Rechtsprechung machte es jedoch notwendig, sowohl „Staatssouveränität“ als auch „Rechtssouveränität“ als voneinander unabhängig zu definieren und Rechtsreformen einzuleiten, wie sie z.B. Jeremy Bentham forderte. So bringt der Souveränitätsbegriff mehr und mehr zum Ausdruck, dass beide Funktionssysteme autonom sind – und gerade darum ihre strukturelle Kopplung und ihre gegenseitigen Abhängigkeiten voneinander „geregelt“ werden müssen. vollständiger Text aus luhmaniac.de
Um die historische Entwicklung des Gerechtigkeitsbegriffs nachzuvollziehen, muss die jeweils zugrundeliegende gesellschaftliche Differenzierungsform mitbedacht werden. Ob die Gesellschaft tribal, ständisch oder funktional differenziert ist, bildet jeweils die Bedingung der Möglichkeit dafür, ein Verständnis von Recht und Gerechtigkeit zu entwickeln. In tribalen (segmentären) Gesellschaften war Reziprozität die praktizierte Norm. Die Gesellschaft war nach Familien, Stämmen und Verbänden in gleichwertige Gruppen differenziert. Diese unterstützten sich gegenseitig, vor allem durch Produktionsüberschüsse – gleichsam die Sozialversicherung jener Zeit. Gaben hatten eine wichtige Funktion: Geber und Empfänger wissen beide voneinander, dass beide voneinander wissen, dass der Empfänger einer Gabe sich bei Gelegenheit revanchieren sollte. Jede Gabe schafft eine unausgeglichene Situation, ein Schuldverhältnis. Das wird jedoch nicht mitkommuniziert. Es gibt keine Rechtsinstitution, die Ansprüche regeln könnte. Als Ersatz für die Klagemöglichkeit fungiert die offene Konditionierbarkeit der Revanche: Ob, wann und in welcher Form sich eine Gelegenheit bieten wird, ist offen. Reziprozität bedeutet doppelte Kontingenz. Erwartungen treffen aufeinander und können erfüllt oder enttäuscht werden. Die Erwartung eines als „gerecht“ empfundenen Ausgleichs wird ohne Termin in die Zukunft verschoben. Damit erfüllt Reziprozität die soziale Funktion des Rechts: normative Zukunftserwartungen kontrafaktisch zu stabilisieren. Eine Enttäuschung im Einzelfall ändert nichts an der Erwartung. Die soziale Funktion des Rechts ist von der gesellschaftlichen Differenzierungsform unabhängig! In der tribalen Gesellschaft bedeutete Gerechtigkeit vor allem Verteilung (distributiv) und Vertauschung (commutativ) sowie Vergeltung von Schuldverhältnissen. In stratifizierten (geschichteten) Gesellschaften, die allesamt über Schriftkultur verfügten, wurde die Maxime der Reziprozität an die Schichtung in Adel/Volk angepasst. Leistungen des Adels wurden höher bewertet. Die dem Recht zugrundeliegende soziale Differenzierungsform setzte sich fort, indem das Recht zwischen zwei Ständen differenzierte. In komplexeren, funktional differenzierten Gesellschaften ist Reziprozität nicht mehr praktikabel. Auch die Wirtschaft wandelt sich nun zum Funktionssystem und spuckt „Marktpreise“ aus. Der Wert einer Leistung ist im Verhältnis dazu kaum noch einzuschätzen. Die Norm verliert auch deshalb ihre praktische Bedeutung, weil Ausbildung und Profession in Recht und Politik wichtiger werden als Herkunft. Mit den entstehenden Richterrollen ist Reziprozität unvereinbar, weil dies schlicht Korruption bedeuten würde. Das Rechtssystem autonomisiert sich und entwickelt aus der Idee der Gleichheit die normative Regel, gleiche Fälle gleich zu behandeln und ungleiche Fälle ungleich. Erst durch die Zuhilfenahme des Begriffs der Gleichheit wird Gerechtigkeit definierbar: als konsistentes Entscheiden innerhalb des Rechtssystems. Darin liegt ein Abstraktionsschritt im Verhältnis zu den bisherigen Rechtsvorstellungen. Das Rechtssystem entfernt sich von der Einzelfallbetrachtung und reproduziert stattdessen seine eigenen Entscheidungen. Die Betrachtung verlagert sich weg von der Frage, was jemandem „mehr oder weniger“ zusteht (als Ausgleich oder Strafmaß) – hin zu der komplexen Frage, wie man den Fall anhand von rechtmäßigen Kriterien als gleich oder ungleich zuordnen kann. Die Kriterien legt das Rechtssystem autonom fest. Es macht sie in Textstellen identifzierbar, auf die es sich in seinem selbstreferentiellen Netzwerk bezieht. Bedeutung gewinnt nun die Frage, ob die Kriterien richtig/falsch zugeordnet werden. (Vollständiger Text auf Luhmaniac.de)
Eigentlich könnte Wetter so einfach sein: Wenn es draussen kälter als null Grad ist, schneit es. Wenn es wärmer als null Grad ist, regnet es. Die Realität ist aber wesentlich komplexer. Entscheidend, ob es regnet oder schneit, ist weniger die Temperatur der Luft am Boden, sondern die Schichtung der Luft. Für Schnee bis in tiefste Lagen muss die Luft durch und durch kalt sein. Sobald beispielsweise eine wärmere Luftschicht dazwischen ist, schmelzen die Schneeflocken in der warmen Luft und unten kommt Regen an.
Funktionssysteme wie Recht, Politik oder Wirtschaft operieren mit zweistelligen Codes, die kompromisslos sind und darum unversöhnlich wirken: Es gibt nur Recht oder Unrecht, Regierungsmacht oder Machtlosigkeit der Opposition, zahlen oder nicht zahlen – kein Dazwischen. Anders ist es auf der Programmebene. Erst durch Programme können Systeme ihr Verhältnis zur Gesellschaft gestalten und soziale Probleme ggf. abfedern. Programme interpretieren den Code. Durch Wenn-dann-Bedingungen (Konditionen) legen sie fest, wie in welchem Fall zu entscheiden ist. Die Binarität des Codes zwingt dazu, die Möglichkeit, sich für die andere Seite zu entscheiden, stets mit zu durchdenken. Kurz, durch Programme reintegrieren sich Systeme in die Gesellschaft. Der Code alleine ist leer. Erst durch Programme wird er mit Sinn gefüllt. In der vormodernen europäischen Gesellschaft erfüllte das Naturrecht eine solche Ausgleichsfunktion. (Vormoderne verstehen wir hier als den Zeitraum etwa vom 16. bis zum 19. Jh., in dem die stratifizierte, in Adel und Volk geschichtete Gesellschaft ihren Übergang zur funktional differenzierten Gesellschaft vollzog. Gekennzeichnet ist diese Epoche durch Säkularisierung und eine Aufklärung, die das religiöse Welterklärungsmodell in Frage stellt und eigenes Denken fordert. Beispielhaft hierfür: René Descartes, „Ich denke, also bin ich“.) Zunächst wurde die Natur als Gottes perfekte Schöpfung normativ vorausgesetzt. Rechtlich leitete man daraus ab, dass Schichtung die natürliche Form des Zusammenlebens von Menschen wäre. Der privilegierte Stand des Adels und das Eigentum wurden zwar als menschgemachtes (positives) Recht geführt – darüber stand jedoch hierarchisch das gottgewollte Naturrecht, auf das man sich berufen konnte. Vollständiger Text auf unserer Website https://luhmaniac.de
Dieses Mal geht's bei den Grünstadtmenschen hoch hinaus – es dreht sich nämlich alles um das Thema "Gärtnern im Hochbeet". Gemeinsam mit dem Gartenfriesen und MEIN SCHÖNER GARTEN-Redakteur Dieke van Dieken beantwortet Karina Nennstiel in dieser Folge die wichtigsten Fragen rund um Hochbeete – angefangen bei geeigneten Materialien über die richtige Füllung und Schichtung im Beet bis hin zur optimalen Bepflanzung. Den ein oder anderen Praxistipp, zum Beispiel wie man verhindert, dass sich Wühlmäuse über das Gemüse hermachen, haben die beiden ebenfalls parat.
Der Song, der 1970 auf dem Album „All things must pass” veröffentlicht wurde, steht stellvertretend für einen Sound, der als „Wall of Sound“ bezeichnet wird. Der Produzent Phil Spector hat dabei durch Schichtung von Klängen, Instrumenten und Gesang sowie der Zumischung von Hallräumen ein extrem großes Klangbild erzeugt. Damit hat der Musikproduzent, der im Januar im Alter von 81 Jahren gestorben ist, Musikgeschichte geschrieben.
Der Song, der 1970 auf dem Album „All things must pass” veröffentlicht wurde, steht stellvertretend für einen Sound, der als „Wall of Sound“ bezeichnet wird. Der Produzent Phil Spector hat dabei durch Schichtung von Klängen, Instrumenten und Gesang sowie der Zumischung von Hallräumen ein extrem großes Klangbild erzeugt. Damit hat der Musikproduzent, der im Januar im Alter von 81 Jahren gestorben ist, Musikgeschichte geschrieben.
as Gleichheitsprinzip im Recht besagt, dass gleiche Fälle gleich und ungleiche Fälle ungleich behandelt werden – nach systeminternen Normen. „Gleichheit“ ist maximal abstrakt: Wenn etwas gleich ist, ist dies evident. Es kann nicht tiefer hinterfragt werden. Diese Gleichbehandlung erstreckt sich auf alle Fälle, denn auch ungleiche Fälle werden gleichermaßen ungleich behandelt. Auf diese Weise vollzieht das Recht seine Autopoiesis und erzeugt Gerechtigkeit. Nach „Rechtsgeltung“ ist das Gleichheitsprinzip somit ein weiterer Ausdruck für die operative Geschlossenheit des Rechtssystems gegenüber seiner Umwelt. Gleichheit/Ungleichheit ist eine Zwei-Seiten-Form. Beide Werte bedingen sich gegenseitig. Eine Präferenz ist darin nicht enthalten, ebenso wenig wie eine Aussage darüber, was verglichen werden soll. Die Norm hingegen, dass Fälle gleichbehandelt werden, wird erst durch die Unterscheidung zwischen Gleichheit und Ungleichheit im kommunikativen Prozess hergestellt: Durch Vergleichen entdeckt man Ungleichheiten und gelangt zu der Frage, wie diese zu behandeln sind. Von diesem Punkt aus lassen sich dann Regeln, Regel-Ausnahme-Schemata und Kriterien entwickeln. Der Gleichheitsssatz ist somit ein Beobachtungsschema, das hohe praktische Bedeutung hat. Ist die Zwei-Seiten-Form Gleichheit/Ungleichheit noch symmetrisch, so wird sie nach der Unterscheidung der beiden Werte asymmetrisiert. Gleichheit verlangt Gleichbehandlung – wie diese zu erfolgen hat, liegt bereits fest. Ungleichheit verlangt dagegen in höherem Maße Anschlusskommunikation: Es müssen neue Regeln und Kriterien entwickelt werden, wie der Fall zu behandeln ist. Dass „Gleichheit“ selbst auch eine Norm zu sein scheint, weil das Gleichheitsprinzip ja immer angewendet wird, erscheint wie eine Paradoxie. Der Grund ist, dass die Form auch als Norm interpretiert wird. Tatsächlich ist die Unterscheidung gleich/ungleich nur die Form, mit die Norm, die Gleichbehandlung aller Fälle, erzeugt wird. Unterschieden werden muss zwischen politischem und rechtlichem Gebrauch: Die politische Gleichheit von Menschen muss rechtlich interpretiert werden als Gleichheit von Fällen. In beiden Funktionssystemen erzeugt dies Kriterienbedarf. So setzt das Common Law bereits seit dem 16. Jh. auf geschichtliche Kontinuität: Es beruft sich auf eine Tradition von Rechtsentscheidungen zur Orientierung. Erst diese Kontinuität erlaubt dann Innovation: Durch Rückbezug auf frühere Entscheidungen kann das Gericht die Behandlung eines Falles begründen. Als Schema, das alle Operationen anleitet, sorgt die Unterscheidung von Gleichheit und Ungleichheit für eine rasante Ausdifferenzierung des Systems. Jeder neue Fall muss verglichen werden. Ist er mit nichts vergleichbar, muss eine neue Regel gefunden werden, nach der man in Zukunft eine Serie gleichartiger Fälle bewerten kann. Mithilfe dieses Beobachtungsschemas baut das Rechtssystem eine historisch unumkehrbare Ordnung auf. Das Schema setzt die Systemgeschichte in Gang. Dieses Vorgehen bewertet das System selbst mit dem Begriff Gerechtigkeit. Kurz: Das Gleichheitsschema sorgt für operative Geschlossenheit, indem frühere Entscheidungen mit späteren rekursiv vernetzt werden. Damit ist das Gleichheitsprinzip unabhängig von der gesellschaftlichen Entwicklung. Der Bezugspunkt, was als gleich anzusehen ist, ändert sich nur. In der stratifizierten Gesellschaft war der Anknüpfungspunkt die gottgegebene Schichtung in „unten“ und „oben“. Was gleich war, wurde durch „wesensmäßige Unterschiede“ z.B. zwischen Adel und Bauern bestimmt. Das Gleichheitsprinzip stabilisierte damit die Ungleichheit. Mehr auf unserer Website unter: https://www.luhmaniac.de/podcast/gleichheit-ungleichheit-gerechtigkeit-menschenrechte-inklusion-exklusion
Wie war es möglich, dass sich in der Gesellschaft einige wenige Funktionssysteme ausdifferenzierten? Welche Hindernisse musste dabei das Rechtssystem überwinden? Dieser Abschnitt führt zu den zwei wichtigsten Voraussetzungen für die Bildung von Funktionssystemen: funktionale Spezifikation und binäre Codierung. Soziale Systeme sind operativ geschlossen: Sie entscheiden autonom, welche Operation (Kommunikation) zum System gehört und welche nicht. Dabei sind sie in der Lage, ihren eigenen Output wieder als Input in das System einzuführen. Durch jede Operation verändern sie ihren Zustand. Gleichzeitig sind sie in gesellschaftliche Strukturen eingebettet und werden durch diese mitbestimmt. Das wirft die Frage auf, wie überhaupt ein autonomes Funktionssystem wie das Recht entstehen konnte. Welche Voraussetzungen braucht es für diese Autonomie? In der historischen Entwicklung war vor allem die Stratifikation ein Emanzipationshindernis. Solange die Gesellschaft geschichtet war, mussten Richter die Ungleichheit durch Schichtung in ihren Urteilen reproduzieren. Zudem war man nicht allein zuständig für Rechtsprechung, sondern z.B. auch Könige und Oligarchen. Weitere Hindernisse waren persönliche Beziehungen von Richtern. „Klüngel“ verhinderte ein Vertrauen in unabhängige Urteile. Daran konnte auch die Trennung von Gesetzgebung und Rechtsprechung nichts ändern, die bereits auf Aristoteles zurückgeht. Gelöst wurde dieses Problem erst durch Rechtspflege: Auch der Richter wurde ans Gesetz gebunden. Dieser Schritt war nur mithilfe rechtserheblicher, also interner Unterscheidungen möglich. D.h. das Rechtssystem desolidarisierte sich von seinen Abhängigkeitsverhältnissen, und es löste seine Bindung von der Gesellschaft auch sprachlich, um dies zu tun. Damit nimmt die Autopoiesis des Rechtssystems Fahrt auf. Doch erst mit dem Ende der Stratifikation verlor die Herkunft qua Geburt endlich an Bedeutung. Das Recht konnte sich nun für alleinzuständig erklären und über alle Schichten hinweg Recht sprechen. Von nun an trifft es von sich aus Fürsorge, um seine einzigartige Funktion autonom zu erfüllen. Neben der funktionalen Spezifikation gibt es jedoch noch eine zweite, gleichermaßen wichtige Voraussetzung für die Bildung eines Funktionssystems: Es braucht eine binäre Codierung. Luhmann weist darauf hin, dass alle Funktionssysteme eine Leitdifferenz haben, d.h. eine leitende Unterscheidung, an der jede (!) Operation ausgerichtet ist: Wirtschaft: zahlen/nicht zahlen Politik: Macht/keine Macht Wissenschaft: wahr/unwahr Massenmedien: informieren/nicht informieren Recht: Recht/Unrecht Die Leitdifferenz von sozialen Systemen besteht aus einem negativen und einem positiven Wert. Beide Werte sind immer zugleich relevant. Nur ihre Unterscheidung gibt ihnen Sinn. Die Leitdifferenz bildet die oberste Steuerungsfunktion im System. Sie hilft, Komplexität zu reduzieren. Denn alle Operationen werden darauf gefiltert, ob sie den Code berühren und damit relevant sind. Sind sie es nicht, kann das System sie außer Acht lassen und sich insofern entlasten. Ist eine Kommunikation rechtlich relevant, wird sie in rechtsspezifischer Form rekonstruiert. Das Rechtserhebliche daran wird mit eigener Semantik, mit eigenen Begrifflichkeiten herausgearbeitet.
Auf dem Europäischen Polizeikongress (EPK) Anfang Februar diskutierten internationale Expertinnen und Experten aus Politik und Sicherheitsbehörden, wie sich der zunehmende Extremismus bekämpfen lässt. Bundesinnenminister Horst Seehofer forderte vor rund 2000 Teilnehmer, dass der Rechtsstaat konsequent handeln muss – schon an den Außengrenzen Europas und nicht erst im Binnenland. Der Podcast hat die Ergebnisse des Kongresses für Sie recherchiert. // Prof. Dr. Andreas Zick analysiert in seinen sozialpsychologischen Studien, inwiefern die politische Mitte durch den Rechtsruck beeinflusst wird. Wie definieren sich überhaupt diejenigen Bürger, die sich zu dieser sozialen Schichtung zugehörig fühlen? Sind fremdenfeindliche Stereotypen salonfähig geworden? Das Interview deckt auf. // Die Gewalt gegen Politiker und Beschäftigte des Öffentlichen Dienstes nimmt zu. Immer mehr Bürgermeisterinnen und Bürgermeister sind Drohungen oder Gewalt ausgesetzt. In Bayern hat schon jeder fünfte Bürgermeister eine Morddrohung erhalten. Dieser Wert ist auch im bundesweiten Vergleich repräsentativ. Der Public Sector Insider kommentiert, wie Politik, Sicherheitsbehörden und Öffentlichkeit auf diesen untragbaren Zustand reagieren sollten.
Nikki Vercauteren erforscht an der Freien Universität Berlin die mehrskalige Analyse von atmosphärischen Prozessen und traf sich mit Sebastian Ritterbusch in der Urania Berlin, um über ihre Forschung und ihre Experimente auf Gletschern zu sprechen. Zum Zeitpunkt der Aufnahme fand in der Urania das Banff Mountain Film Festival, des Banff Centre for Arts and Creativity aus Kanada, statt. Auf dem Campus des Banff Centre befindet sich auch die Banff International Research Station (BIRS), ein Forschungsinstitut und Tagungsort nach Vorbild des Mathematischen Forschungsinstituts Oberwolfach, das sich der mathematischen Forschung und internationalen Zusammenarbeit verschrieben hat, und welches Nikki Vercauteren Anfang des Jahres zu einem Workshop besuchen konnte. Das Forschungsgebiet der Meteorologie umfasst viele Phänomene, von denen einige durch Fluiddynamik beschrieben werden können. Dabei geht es um eine große Menge von Skalen, von der globalen Perspektive, über kontinentale Skalen zur Mesoskala im Wetterbericht und der Mikroskala zu lokalen Phänomenen. Die Skalen bilden sich auch in den Berechnungsmodellen für die Wettervorhersage wieder. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) betrachtet die globale Perspektive mit Hilfe von Ensemblevorhersagen. Von dort verfeinert das aus dem lokalen Modell des Deutschen Wetterdienstes (DWD) entstandene COSMO Modell die Vorhersage auf die europäische und schließlich nationale Ebenen. Hier geht es um die sehr lokale Analyse von Windgeschwindigkeiten, die bis zu 20mal pro Sekunde gemessen werden und damit die Analyse von lokalen Turbulenzen bis zum natürlichem Infraschall ermöglichen. Die Erfassung erfolgt mit Ultraschallanemometer bzw. ultrasonic anemometers, wo bei manchen Typen durch die Erfassung des Doppler-Effekts bewegter Staubteilchen die Bewegungsgeschwindigkeit der Luft durch mehrere Sensoren räumlich bestimmt wird. Teilweise werden auch Laser-Anemometer eingesetzt. Im Rahmen ihrer Promotion in Umweltwissenschaften an der École Polytechnique Fédérale de Lausanne (EPFL) bekam Sie die Gelegenheit selbst vor Ort eine Messanlage auf einem Gletscher mit aufzubauen und in Stand zu halten. Der See- und Landwind sind typische Phänomene in der mikroskaligen Meteorologie, die Nikki Vercauteren zu ihrer Promotion am Genfersee zur Analyse von turbulenten Strömungen von Wasserdampf untersucht hat. Mit mehreren Laser-Doppler-Anemometern in einer Gitter-Aufstellung konnte sie so die Parametrisierung einer Large Eddy Simulation dadurch testen, in dem sie die im Modell angesetzte Energie in den kleinen Skalen mit den tatsächlichen Messungen vergleichen konnte. Kernpunkt der Betrachtung ist dabei das Problem des Turbulenzmodells: Als Verwirbelung in allen Skalen mit teilweise chaotischem Verhalten ist sie nicht vorhersagbar und kaum vollständig mathematisch beschreibbar. Sie spielt aber wegen der wichtigen Eigenschaften der Vermischung und Energietransfers eine elementare Rolle im Gesamtsystem. Glücklicherweise haben Turbulenzen beobachtete statistische und gemittelte Eigenschaften, die modelliert und damit im gewissen Rahmen und diesem Sinne mit Hilfe verschiedener Modelle durch identifizierte Parameter simuliert werden können. Besonderes Augenmerk liegt dabei auf der Betrachtung der Grenzschicht über dem Erdboden, die zum einen durch die Sonneneinstrahlung besonders durch die Aufwärmung und Abkühlung der Erdoberfläche beinflusst wird und gleichzeitig den Bereich beschreibt, wo das bewegte Fluid Luft auf die stehenden Erde reagiert. Eine meteorologische Eigenschaft der unteren Grenzschicht ist das theoretische logarithmische Windprofil, das aber bei Sonneneinstrahlung oder Nachts durch Verformung der Turbulenzen Korrekturterme erforderlich macht. In einer Temperaturinversion wird die Grenzschicht stabiler und es bildet sich weniger Turbulenz aus, wodurch sich Schadstoffe auch weniger verteilen können. In diesen Wetterlagen kann sich durch den fehlenden Luftaustausch im Stadtgebiet leichter Smog bilden. Entgegen der Theorie kann es interessanterweise trotz stabiler Schichtung zu Turbulenzen kommen: Ein Grund dafür sind Erhebungen und Senken des Bodens, die Luftpakete beeinflussen und damit lokale Turbulenzen erzeugen können. Eine besondere Fragestellung ist hier die Frage nach der Intermittenz, wann ein stabiles dynamisches System chaotisch werden kann und umgekehrt. Ein anschauliches Beispiel von Intermittenz ist das Doppelpendel, das von einem sehr stabilen Verhalten plötzlich in chaotisches Verhalten umschwenken kann und umgekehrt: Trajektorie eines DoppelpendelsCC-BY-SA 100 Miezekatzen Leider ist bisher die Intermittenz in der Wettervorhersage nicht alleine aus der Theorie zu berechnen, jedoch kann man die Richardson-Zahl bestimmen, die den Temperaturgradienten in Verhältnis zur Windscherung stellt. Dieses Verhältnis kann man auch als Verhältnis der Energieverteilung zwischen kinetischer Bewegungsenergie und potentieller Wärmeenergie sehen und daraus Schlüsse auf die zu erwartende Turbulenz ziehen. Als ein dynamisches System sollten wir ähnlich wie beim Räuber-Beute Modell eine gegenseitige Beeinflussung der Parameter erkennen. Es sollte hier aus der Theorie auch eine kritische Zahl geben, ab der Intermittenz zu erwarten ist, doch die Messungen zeigen ein anderes Ergebnis: Gerade nachts bei wenig Turbulenz entstehen Zustände, die bisher nicht aus der Theorie zu erwarten sind. Das ist ein Problem für die nächtliche Wettervorhersage. In allgemeinen Strömungssimulationen sind es oft gerade die laminaren Strömungen, die besonders gut simulierbar und vorhersagbar sind. In der Wettervorhersage sind jedoch genau diese Strömungen ein Problem, da die Annahmen von Turbulenzmodellen nicht mehr stimmen, und beispielsweise die Theorie für das logarithmische Windprofil nicht mehr erfüllt ist. Diese Erkenntnisse führen auf einen neuen Ansatz, wie kleinskalige Phänomene in der Wettervorhersage berücksichtigt werden können: Die zentrale Frage, wie die in früheren Modellen fehlende Dissipation hinzugefügt werden kann, wird abhängig von der beobachteten Intermittenz mit einem statistischen Modell als stochastischen Prozess beantwortet. Dieser Ansatz erscheint besonders erfolgsversprechend, wenn man einen (nur) statistischen Zusammenhang zwischen der Intermittenz und der erforderlichen Dissipation aus den Beobachtungen nachweisen kann. Tatsächlich konnte durch statistisches Clustering und Wavelet-Analyse erstmalig nachgewiesen werden, dass im bisher gut verstanden geglaubten so genannten stark stabilen Regime es mehrere Zustände geben kann, die sich unterschiedlich verhalten. Für die Entwicklung der Wavelet-Transformation erhielt Yves Meyer den 2017 den Abelpreis. Im Gegensatz zur Fourier-Transformation berücksichtig die Wavelet-Transformation z.B. mit dem Haar-Wavelet die von der Frequenz abhängige zeitliche Auflösung von Ereignissen. So können Ereignisse mit hohen Frequenzen zeitlich viel genauer aufgelöst werden als Ereignisse mit tiefen Frequenzen. Das von Illia Horenko vorgeschlagene FEM-BV-VARX Verfahren kann nun mit den Erkenntnissen angewendet werden, in dem die verschiedenen Regimes als stochastische Modelle berücksichtigt und durch beobachtete bzw. simulierte externe Einflüsse gesteuert werden können. Darüber hinaus konnten weitere interessante Zusammenhänge durch die Analyse festgestellt werden: So scheinen im stabilen Regime langsame Wellenphänomene über mehrere Skalen hinweg getrennt zeitliche schnelle und lokale Turbulenzen auszulösen. Andere Phänomene verlaufen mit stärkeren Übergängen zwischen den Skalen. Aus der Mathematik ist Nikki Vercauteren über die Anwendungen in der Physik, Meteorologie und Geographie nun wieder zurück in ein mathematisches Institut zurückgekehrt, um die mathematischen Verfahren weiter zu entwickeln. Literatur und weiterführende Informationen N. Vercauteren, L. Mahrt, R. Klein: Investigation of interactions between scales of motion in the stable boundary layer, Quarterly Journal of the Royal Meteorological Society 142.699: 2424-2433, 2016. I. Horenko: On the identification of nonstationary factor models and their application to atmospheric data analysis, Journal of the Atmospheric Sciences 67.5: 1559-1574, 2010. L. Mahrt: Turbulence and Local Circulations Cesar Observatory, Cabauw site for meteorological research. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. I. Waltschläger: Windsimulationen im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruhe Institut für Technologie (KIT), 2014. L. Wege: Schwebestaub und Wassertröpfchen. Wie Wolken Wetter machen. Folge 5 im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, 2017. M. Wendisch: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. R. Heise, K. Ohlmann, J. Hacker: Das Mountain Wave Project, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 042, 2010. B. Marzeion: Gletscher, Podcast Zeit für Wissenschaft von Melanie Bartos, Universität Innsbruck, 2015. B. Weinzierl: Die Atmosphäre, Raumzeit Podcast von Tim Pritlove, Metaebene Personal Media, 2011.
Zur Einstimmung in unsere Sendereihe rund um die »Vertikale« haben wir den Berliner DJ Grivola in das Studio eingeladen. Seinen Künstlernamen hat Grivola von einem Berg in den italienischen Alpen – und auch sonst hat er einiges zu Schichtung, Aufstieg und Drop zu sagen, bevor er unsere Gäste mit seinem 50-minütigem Set auch musikalisch hoch– und sanft wieder herunter bringt.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Die biologische und medizinische Forschung stellt immer mehr Informationen über die Funktion des Lebens bereit. Dem voraus geht eine hochpräzise und spezifische Diagnostik. Allerdings gibt es noch keine überzeugenden Lösungen für die Lebend-Überwachung von Substanzen, die möglicherweise an Demenzkrankheiten oder Alterserscheinungen beteiligt sind. Die vorliegende Arbeit beschäftigt sich mit Grundlagenforschung zur Entwicklung eines Sensors, der in der Lage ist Änderungen des elektrischen Potentials, z.B. neuronale Aktivität, in biologisch relevanter Umgebung zu detektieren. In dem hier behandelten Ansatz wird eine Sensorfläche eingesetzt, welche vollständig aus organischen Materialien aufgebaut ist. Die effektive Schnittstelle zwischen dem Sensor und den Zellen ist eine künstliche Zellmembran, die mit einer Bindungseinheit ausgestattet ist, deren Aufbau dem Vorbild der Natur nachempfunden ist. Der Sensor selbst ist ein organischer Dünnschichttransistor, der seine Sensitivität aus den elektronischen Eigenschaften des organischen Halbleiters erhält. Zudem hat die aktive Schicht eine Dicke von nur 50nm. Entscheidend im Umgang mit organischen Molekülen ist die enge Beziehung zwischen Struktur und Funktion. Die starke Anisotropie der Struktur spiegelt sich in den elektronischen Eigenschaften wider. Die molekulare Anordnung wiederum hängt sensibel von den verwendeten Prozessparametern bei der Herstellung der Schichten ab. Wichtig sind z.B. die Rate, die Temperatur oder die physikalischen Eigenschaften der Oberfläche (polar, nicht-polar, rau etc.). Die so gewonnenen organischen Multischichtsysteme wurden mit Hilfe von Röntgen- und Neutronenstreuung an Großgeräten (Synchrotron, Reaktor) charakterisiert. Ein Schwerpunkt der vorliegenden Arbeit ist das Auffinden und Beeinflussen der Struktur der verwendeten Materialien auf molekularer Ebene. Zunächst werden Konzepte und Aggregationsmechanismen von Molekülen auf Oberflächen vorgestellt. Der experimentelle Teil widmet sich der Herstellung der organischen Halbleiterschicht aus Pentacen (C22H14) auf unterschiedlichen Oberflächen. Durch chemische Modifikation von Diamantoberflächen konnten Pentacen-Filme kontrolliert in stehender oder liegender Phase gewachsen werden. Ferner wurde die Verkapselung organischer Filme mit verschiedensten Techniken und Materialien untersucht. Die Verwendung der Vakuumsublimations-Technik ermöglichte die Konservierung der "Dünnfilmphase" von Pentacen durch Verkapseln mit dem Alkan Tetratetracontan (TTC, C44H90). Somit konnte der stabile Betrieb eines organischen Transistors in ionischer wässeriger Umgebung ermöglicht werden, was den entscheidenden Schritt in Richtung Sensorik darstellt. Des Weiteren gelang der Aufbau einer vielseitig funktionalen Beschichtung, welche von Zellen als ihre natürliche Umgebung akzeptiert wird. Basierend auf substratgestützten Lipid-Doppelschichten wurde mit Hilfe der Biotinbindung ein synthetischer Peptid-Komplex über eine Protein-Zwischenschicht an die Oberfläche gebunden. Dieser Komplex enthält mehrfach die RGD Sequenz, eine Aminosäure-Sequenz, die für die Bindung von Proteinen an ihre Zellrezeptoren verantwortlich ist. Die Struktur der Beschichtung wurde mit Röntgen- und Neutronenbeugung mit einer Auflösung von 5Å bestimmt. Es zeigt sich eine mehrlagige Schichtung beginnend mit einer 36Å Lipidmembran, darüber eine stark hydrierte Zwischenschicht (26Å), gefolgt von einer 38Å dicken Streptavidinschicht und abschließend eine 30Å Schicht aus dicht gepackten, seitlich liegenden Bindungskomplexen. Neuronale Stammzellen wurden auf dieser Beschichtung kultiviert und zeigten rasche Anlagerung sowie eine Ausbreitung auf der angebotenen Oberfläche. Die Kompatibilität der Beschichtung mit dem verkapselten Transistor wurde durch das Ausbilden einer Lipidschicht auf der Sensoroberfläche bestätigt. In Zukunft sollen die Möglichkeiten erforscht werden, mit dieser Anordnung Änderungen des elektrischen Potentials zu messen. Dazu detektiert man zunächst Referenzsignale, die im Elektrolyten über eine Platin- oder eine Ag/AgCl-Elektrode angelegt werden. Aufgrund der vielfältigen Oberflächen, die sich mit Lipidmembranen beschichten lassen, ist diese Methode auch für die Gewebeentwicklung oder als Implantatsbeschichtung interessant.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Der in den letzten Jahrzehnten zu beobachtende globale Temperaturanstieg wurde teilweise durch anthropogene Emissionen verursacht. Der Flugverkehr trägt durch den Eintrag von direkt oder indirekt strahlungswirksamen Gasen und der Änderung der hohen Bewölkung ebenfalls zum Klimawandel bei. Die größte Unsicherheit besteht momentan bei der Bewertung des Strahlungsantriebs durch gealterte Kondensstreifen, die auch als flugzeuginduzierte Zirren klassifiziert werden. In der vorliegenden Arbeit wurde der Übergang von Kondensstreifen in Zirren mittels numerischer Methoden untersucht und die Entwicklung der geometrischen, mikrophysikalischen und optischen Eigenschaften beleuchtet. Dazu wurde die Entwicklung der Kondensstreifen während der Wirbelphase und der Dispersionsphase separat betrachtet. Unter Verwendung eines vorhandenen LES-Modells mit Eismikrophysik wurde ein 2D-Modell zur Kondensstreifenmodellierung entworfen, das aufgrund seiner Konzipierung eine Vielzahl von Simulationen zuläßt. Somit kann der Einfluß von vielen Parametern wie z.B. der relativen Feuchte, Temperatur, Windscherung oder des Strahlungsszenarios systematisch untersucht werden. Insbesondere wurde ein Modul entwickelt, das im 2D-Modell einen realistischen Wirbelzerfall während der Wirbelphase sicherstellt. Während des Wirbelabsinkens tritt im primären Nachlauf Eiskristallverlust auf und abhängig von der Feuchte (Eisübersättigung) und Temperatur der Umgebungsluft verdampft ein Großteil der Eiskristalle. Bei bestimmten Feuchte- und Temperaturkombinationen hängt die Anzahl überlebender Eiskristalle sensitiv von der Schichtung der Atmosphäre und der Hintergrundturbulenz ab, da diese Größen den Wirbelzerfall beeinflußen. Im Maximalfall überleben 70% der Eiskristalle die Wirbelphase. Bei geringen Übersättigungen und hohen Temperaturen verdampfen alle Eiskristalle im primären Nachlauf und der Kondensstreifen besteht dann nur aus dem sekundärem Nachlauf. Während der Dispersionsphase verbreitern sich Kondensstreifen durch Scherung und in geringerem Maße durch turbulente Diffusion und es findet der Übergang in flugzeuginduzierte Zirren statt. Eine substanzielle Verbreiterung der Kondensstreifen ist nur bei Umgebungsfeuchten größer 120% sichtbar. Die Klimawirksamkeit der Kondensstreifen hängt hauptsächlich von der relativen Feuchte und in kleinerem Maße von der Temperatur und der Scherung ab. In den Standarduntersuchungen sind im Modell die Hintergrundbedingungen statisch angenommen und es tritt kein großräumiges Aufgleiten oder Absinken der Luftmassen auf. In diesem Fall ist die Lebenszeit der Kondensstreifen aufgrund der Sedimentation begrenzt und beträgt zwischen 4-6 Stunden. Der Strahlungseinfluß führt bei geeigneten Umgebungsbedingungen zu einem Aufgleiten der Kondensstreifen, wodurch deren Auflösung aufgrund des zusätzlichen Wasserdampfangebotes verlangsamt wird. Sofern die Kondensstreifen nicht durch synoptischskaliges Aufgleiten der gesamten Luftschicht gestärkt werden, nimmt die optische Dicke der Kondensstreifen mit der Zeit ab, weil die Eiskristallkonzentrationen sowie Eiswassergehalte verdünnt werden und das Höhenwachstum des Kondensstreifens gering ist.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Unter der Annahme, dass Anzeichen von Umweltveränderungen durch den Klimawandel besonders in sensiblen, wenig genutzten Hochgebirgsökosystemen gut erkennbar sind, ist im Einzugsgebiet des Königssees im Nationalpark Berchtesgaden ein landschaftsökologisches Projekt unter dem Titel „Landschaftsökologische Analysen im Königsseeeinzugsgebiet“ (LAKE) durchgeführt worden. Hauptziel war die Erfassung, Darstellung und das Ergründen von Ursachen dieser Umweltveränderungen im Energie- und Stoffhaushalt an Hand ausgewählter Parameter. Ebenso galt es, den Naturschutzaspekt zu beleuchten, der sich aus dem Anspruch von Nationalparks ergibt. Die Fragestellung in diesem Zusammenhang war, ob sich Nutzungs- und Naturschutzinteressen vereinbaren lassen. Als Untersuchungsgebiet wurde der Nationalpark Berchtesgaden ausgewählt, der für diese Fragestellung ideale Vorraussetzungen bietet. Es handelt sich um ein Gebiet welches unter gegenwärtigen Bedingungen eine geringe anthropogene Beeinflussung erfährt. Das Reaktionsverhalten der Landschaft bleibt erklärbar, da es durch wenige Faktoren bestimmt wird. Zur Realisierung dieses Anliegens wurde ein landschaftsökologischer Methodikansatz verwendet. Hauptaugenmerk der Untersuchungen war das Einzugsgebiet des als oligothroph eingestuften Referenzsees Königssee. Vor allem die Untersuchung und der Vergleich der abiotischen Parameter zu einer Studie aus den Jahren 1978-1980 war Teil der Zielstellung. Deshalb wurden im wesentlichen in einem wöchentlichen (im Winter 14-tägigen) Rhythmus Tiefenprofile zu Temperatur bzw. Sauerstoff an zwei verschiedenen Messstellen im Königssee ermittelt und darüber hinaus Wasserproben von den Zuflüssen und vom See selbst genommen. Die Wasserproben wurden dann ionenchromatographisch auf Nitrat, Phosphat, Sulfat und Chlorid untersucht. Festgestellte Umweltveränderungen wurden mit Nutzungserscheinungen in Beziehung gesetzt. Letztere konnten an Hand der Auswertung von vorhandenen Quellen und Befragungen der lokalen Interessenvertreter für Tourismus und Almwirtschaft dargestellt werden. Im Ergebnisteil sind die Zusammenhänge der Reaktion des limnischen Systems Königssee bezüglich seiner abiotischen Faktoren in Zusammenhang mit physischgeographischen Parametern und anthropogenen Einflüssen dargestellt und erläutert. Insbesondere Gründe für die Temperatur- und Sauerstoffverteilung im Seekörper in Zusammenhang mit Windeinwirkung, Strahlung bzw. Lufttemperatur werden aufgezeigt. In Kap. 5.1 erfolgte eine Analyse der Veränderung klimatischer Randparameter. Die Station Bad Reichenhall zeigt in den Tendenzen des Monatsmittelwertes der Lufttemperatur gute Übereinstimmung mit der Region Berchtesgaden. Für Bad Reichenhall konnte eine Erhöhung der Lufttemperatur in den letzten 28 Jahren um ca. 2K festgestellt werden. Die jährliche Gesamtsonnenscheindauer ist im Mittel um 100 Stunden gestiegen. Bezüglich der Veränderungen des Systems durch eine mögliche Klimaveränderung lässt sich zusammenfassend sagen, dass die theoretisch zu erwartenden Veränderungen und Beobachtungen von anderen Autoren in anderen Regionen in limnischen Systemen in Bezug auf die abiotische Komponente durchaus in ähnlicher Form am Königssee zu bestätigen sind, wenn man die Zeiträume von 1978 bis 1980 und 1999 bis Juni 2003 miteinander vergleicht. Der jährliche Wärmeinhalt des Königssees ist durchschnittlich um 10% gestiegen, und dies obgleich die extrem warmen Verhältnisse aus dem Hochsommer 2003 nicht mehr in allen Statistiken berücksichtigt werden konnten. Auch bei den Hypolimniontemperaturen sind zum gegenwärtigen Zeitpunkt durchschnittlich 0,2 bis 0,3K höhere Messwerte festzustellen. Vor allem die im Rahmen der Klimaveränderung zu erwartenden Verhältnisse zu Stabilität und Schichtung lassen sich am Königssee beobachten: Die Stagnationsphasen haben sich verlängert, und die Zirkulationsphasen sind kürzer geworden. Gleichermaßen ist der Beginn der Stagnation um ca. 11-12 Tage früher im Jahr zu erwarten, und die Auflösung der Schichtung tritt im Durchschnitt ca. 20 Tage später im Jahr ein. Auch eine Verlagerung der Thermokline um ca. 1m in die Tiefe ist erkennbar. Der Schichtungsindex nach SCHMIDT ist bei den monatlichen Werten (April-Dezember) im Durchschnitt um ca. 40% gestiegen. Bislang scheinen die Reaktionen des Umweltsystems durch die festgestellten Umweltveränderungen im Energie- und Stoffhaushalt im Einzugsgebiet weniger auf direkte, im Untersuchungsgebiet zu suchende Einflussfaktoren zurückführen zu sein, als auf überregionale oder gar globale Ursachen. So ist – zumindest unter Betrachtung der ausgewählten Parameter und über den untersuchten, relativ kurzen Zeitraum festzustellen, dass das Umweltsystem in sich trotz des anthropogenen Einflusses tragfähig erscheint. Es lässt sich somit die erfreuliche Aussage treffen, dass es sich bei dem Nationalpark Berchtesgaden um ein Schutzgebiet handelt, welches den an sich selbst gerichteten harten Kriterien seiner Bezeichnung derzeit zwar nicht im vollen Umfang gerecht wird, dennoch zum gegenwärtigen Zeitpunkt keine negative Beeinflussung durch regionale anthropogene Ursachen zu befürchten hat. Da in Zukunft möglicherweise die regionalen Auswirkungen von Global Change noch drastischer ablaufen können, muss diese Bewertung unablässig erneuert werden und beispielsweise u. a. an Hand der in dieser Studie ausgewiesenen Parameter beharrlich kontrolliert werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
The energy and mass budget of the atmosphere is mainly determined by the exchange at the earths surface. Here plant canopies play a major role. The 'Localized Near Field Theorie' (LNF) of Raupach (1989) describes the relation between concentration profiles and source/sink profiles inside the plant canopy. This work describes a general method based on the LNF to calculate source distributions from measured concentration profiles inside a plant canopy. The LNF is used for the first time to examine the effects of the so called roughness sublayer. To apply the LNF during arbitrary thermal stratification it is necessary to find parametrisations for the input parameters standard deviation of vertical velocity and Lagrangian integral time scale. These are derived from values measured inside a pine forest. Using these parametrisations the distribution of heat sources inside the forest canopy is calculated from measured temperature profiles.