POPULARITY
Claudia Kemfert, Energie-Ökonomin und bekannte Kritikerin der fossilen Energiewirtschaft, beleuchtet in dieser Folge von "eMobility Insights" die Rolle des Elektroautos im dezentralen Energiesystem der Zukunft. Die Schnittstelle dafür ist das bidirektionale Laden! Und davon könnten Diesel-Dieter oder Solar-Sonja in Zukunft mächtig profitieren, erläutert Kemfert in unserem Podcast. „Die Potenziale sind riesig!“ Diese Aussage rund um die Nutzung von Elektro-Fahrzeug-Batterien als mobile Speicher im smarten Stromnetz der Zukunft trifft Claudia Kemfert in dieser Ausgabe von „eMobility Insights“ gleich mehrfach. Weitere Schlagworte: Intelligenz, Digitalisierung, Effizienz. Das Energiesystem, da ist die Leiterin der Abteilung für Energie, Verkehr und Umwelt am Deutschen Institut für Wirtschaftsforschung überzeugt, könne durch E-Autos „sehr stark entlastet werden kann“. Selbst im Verteilnetz bringe die Elektromobilität eine ungeahnte Flexibilität ins System, von der am Ende viele profitieren könnten. „Die Elektromobilität“, das steht für Claudia Kemfert fest, „ist eine wesentliche Komponente der intelligenten Energiewende und reduziert fossile Energien.“ Und die Elektromobilität senke mittels V2G die volkswirtschaftlichen Kosten. Die elfte Folge unseres Podcasts ist zugleich die dritte unserer Sommer-Staffel rund um das bidirektionale Laden – präsentiert von The Mobility House Energy, dem Experten an der Schnittstelle zwischen Mobilität und Energiewelt. In der ersten Episode zu dem Thema hat sich Herbert Diess aus der Perspektive der Automobilwirtschaft geäußert, in der zweiten hat Xaver Pfab beschrieben, wie Nutzer mit bidirektionalen E-Fahrzeugen sogar Geld verdienen können. Nun ist die Perspektive der Energiewirtschaft bzw. des Energiesystems an der Reihe! Und in diesem Hörstück kommt nicht nur Claudia Kemfert zu Wort, sondern auch Christoph Pellinger, Geschäftsführer der Forschungsstelle für Energiewirtschaft. Er verrät uns, was das Reallabor für vernetzte E-Mobilität unIT-e² in Sachen V2G herausgefunden hat. Für Claudia Kemfert ist übrigens auch klar, dass Elektromobilität im Sinne der Verkehrswende anders gefördert werden muss: „Wir brauchen hier einerseits auf der Seite der fossilen Verbrennungsmotoren ein Runterfahren der Vorteile und ein Hochfahren der Vorteile für die Elektromobilität, die im Moment nicht mit gleichberechtigten Anfangsbedingungen startet.“ Auch sei der Strompreis noch immer zu hoch. Und insbesondere bei neuen Geschäftsmodellen rund um das bidirektionale Laden gibt es „zu hohe Abgaben, die eher ein Hindernis sind.“ Ein Problem verortet Kemfert in der deutschen Gesetzgebung, die teils noch aus den 1930er Jahren stammt: Mit der Elektromobilität, die als Querschnittsthema die Regulierung mehrerer bisher getrennter Sektoren berührt, „tut sich Deutschland wahnsinnig schwer“, sagt die Energieökonomin. Stromsteuer, Netzentgelte – vieles müsse auf die neuen Möglichkeiten und Geschäftsmodelle regulatorisch angepasst werden. Und einen weiteren Vorschlag bringt Claudia Kemfert ins Spiel: „Ich wäre sehr dafür, einen eigenen Stromtarif zu haben.“ Im Gespräch mit electrive-Chefredakteur Peter Schwierz macht Claudia Kemfert klar: „Aus meiner Sicht geht überhaupt kein Weg an der Elektromobilität vorbei.“
Das Thema der heutigen Episode ist »Modelle«. Was ist ein Modell in Bezug zur Realität, welche Art vom Modellen gibt es und wie sollten wir als Gesellschaft mit Modellen umgehen, im besonderen bei Fragen, die das Verhalten komplexer Systeme in die Zukunft projeziert, wie etwa Klimamodelle. Mein heutiger Gesprächspartner ist, und das freut mich besonders, ein wiederkehrender Experte, Dr. Andreas Windisch. Andreas ist ein theoretischer Physiker, der 2014 an der Universität Graz sub auspiciis praesidentis promoviert hat. Nach mehreren Jahren als PostDoc an der Washington University in St. Lous in den USA (Schrödinger Fellow des öst. Wissenschaftsfonds) kehrte er nach Österreich zurück, und übernahm die Rolle eines Forschungsteamleiters bei 'Know-Center', einem Forschungszentrum für KI. Andreas ist Mitbegründer und Leader der Reinforcement Learning Community, einer eigenständigen Arbeitsgruppe, die Teil des unabhängigen Think Tanks 'AI AUSTRIA' ist. Zudem ist Andreas Honorary Research Scientist der Washington University in St. Louis, er betreut Start-Ups bei dem European Space Agency Inkubator Science Park Graz und lehrt KI an der FH-Joanneum. Seit März 2022 hält er auch eine Stelle an der TU-Graz. Was ist ein Modell? Wie verhält sich ein Modell zur Realität, zur Natur? Welche Rolle spielen Variable und Freiheitsgrade? Andreas erklärt zunächst fundamentale Modelle — am Beispiel des Standardmodell der Teilchenphysik. »Der Natur ist unsere persönliche Sichtweise natürlich egal.« Damit ist die Suche nach der Abweichung vom Modell ein wesentlicher Aspekt der Modellierung. Was hat es mit der Filterung durch unsere Sinne und durch unsere Instrumente auf sich? Können wir überhaupt ohne Modell und Theorie Beobachtungen machen? Warum ist Platons Höhlengleichnis ein gutes Beispiel für Modell und Realität? Welche Arten der Modellierung gibt es? Vom bottom up / fundamentalen Modell zur Welt im Großen, zu effektiven Modellen? Damit stellt sich die Frage: kann ich die Welt im Großen aus dem fundamentalen Verständnis des Kleinstes modellieren? Also: kann ich mit dem Standardmodell der Teilchenphysik etwa das Klima modellieren? Sollte es nicht nur ein Modell der Welt geben? Andreas erklärt, warum dies nicht möglich ist. Damit stellt sich die Frage: was ist eine Skala? Was sind Hierarchien von Modellen nach Skala und Fragestellung? Wir diskutieren Beispiele von der Quantenmechanik über die klassische Mechanik bis zur Relativitätstheorie und wieder zurück. Wie verhält es sich im Übergang von einem Modell einer Skala oder Anwendungsbereich zu einem Modell einer andere Skala? Wo liegen die Grenzen und wie sieht es in den Übergangsbereichen aus? Wie weit kann Extrapolation gehen? Wenn ich Modelle außerhalb des Gültigkeitsbereiches »befrage«, bekomme ich Antworten, aber was ist von diesen zu halten? Gilt die heute häufig formulierte Annahme: je mehr Daten desto besser (für die Entscheidungsfindung)? Die richtige Information und Abstraktion zur richtigen Zeit ist essentiell! Wir sprechen weiters über mathematische Symmetrien, »Schönheit« und Qualität von Modellen, datengetriebenem (machine learning) vs. Modell-Zugang. Sind wir am Ende der Theorie angelangt, wie vor einiger Zeit behauptet wurde, oder war das ein Irrtum? Wie repräsentativ sind die Daten mit denen modelliert wird im Bezug auf die Daten, die in der Realität zu erwarten sind? Ändert sich das über die Zeit der Modell-Nutzung? Wir kehren dann wieder an den Anfang zurück und diskutieren ein fundamentales historisches Beispiel, das n-Körper-Problem, beziehungsweise eine vereinfachte Form davon, das Dreikörperproblem, das ja einfach physikalisch zu lösen sein sollte. Oder doch nicht? Warum nicht? Was sind die Erkenntnisse und Folgen dieses historischen Problems, getrieben von König Oskar II und Henri Poincaré? Es kann doch nicht so schwer sein, die Bahnen von Sonne, Erde und Mond zu berechnen! Aus diesem Beispiel folgend: Was sind (nicht-lineare) chaotische Systeme und was bedeutet das für Modellierung und Vorhersage, vor allem in Bezug auf die Anfangsbedingungen und die Möglichkeit diese genau zu bestimmen? Wie hängt dies mit den intrinsischen Zeitskalen des Systems zusammen? Liegen hier natürliche Grenzen der Vorhersagbarkeit, die wir auch mit stetig besseren Sensoren, Computern und Algorithmen nicht brechen können? Was sind Attraktoren komplexer dynamischer Systeme und Tipping Points (auch Kipppunkte,Phasenübergänge oder Regime Shifts genannt)? Kann man vorhersagen, wann sich ein System einem Kipppunkt nähert? Dann diskutieren wir die Konsequenzen für Risikomanagement, den Unterschied zwischen statistisch gut beschreibbaren und bekannten Systemen, versus komplexen chaotischen Systemen und dem Vorsorgeprinzip. Was können wir daraus für politische und gesellschaftliche Entscheidungsprozesse mitnehmen? Passend zur vorigen Episode disuktieren wir auch das Risiko des »Overselling« wissenschaftlicher Erkenntisse und vor allem von Modell-Ergebnissen als Wissenschafter. Zum Schluss stellen wir die Frage, wie weit wir als Gesellschaft kritischen Diskurs verlernt haben. »Alle Experten sagen...« ist keine relevante Aussage, sondern ein rhetorischer Trick um Diskurs zu beenden. Unterschiedliche Meinungen sind gerade bei komplexen (wicked) Problems von größter Bedeutung. Es gibt keine zentrale Anlaufstelle der Wahrheit, auch wenn das von manchen politischen Akteuren gerne so dargestellt wird. Was Information und Misinformation ist, stellt sich in der täglichen Praxis als sehr schwieriges Problem heraus. Auch die aktuelle Rolle der »alten« Medien ist stark zu hinterfragen. Referenzen Andere Episoden Episode 67: Wissenschaft, Hype und Realität — ein Gespräch mit Stephan Schleim Episode 55: Strukturen der Welt Episode 53: Data Science und Machine Learning, Hype und Realität Episode 47: Große Worte Episode 37: Probleme und Lösungen Episode 27: Wicked Problems Episode 25: Entscheiden unter Unsicherheit Episode 10: Komplizierte Komplexität Andreas Windisch Andreas Windisch auf LinkedIn Episode 18: Gespräch mit Andreas Windisch: Physik, Fortschritt oder Stagnation Fachliche Referenzen Chris Anderson, The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, Wired (2008) Daisyworld Model TED-Talk Bill Gates: The next outbreak, we are not ready (2015) Marten Scheffer, Catastrophic regime shifts in ecosystems: linking theory to observation (2003)
Statistisch gesehen gibt es auf dem Bundesplatz in Bern nur ein Mal in vier Jahren durchgehend weisse Weihnachtstage (25 %). Die Wahrscheinlichkeit auf wenigstens einen Weihnachtstag mit Schnee, also 24., 25. oder 26. Dezember, liegt in Bern bei 40 %. Sogenannte Ensemble-Vorhersagen geben uns die Bandbreite des möglichen Wetters an. Weil das aktuelle Wetter nie überall und perfekt gemessen werden kann, haben die Modelle eine leicht unsichere Ausgangslage für ihre Berechnungen. Wenn mehrmals mit leicht veränderten Anfangsbedingungen gerechnet wird, erhält man sogenannte Ensemble-Prognosen. Sowohl das europäische wie auch das amerikanische Wettermodell zeigen ab Sonntag eine längere trockene Phase mit milder Luft in den Bergen. Zum Teil ist just auf Weihnachten eine Schneefront modelliert. Die Chancen auf weisse Weihnachten sind also auch im Flachland intakt. Gemäss dem Lawineninstitut in Davos liegt aktuell fast im ganzen Alpenraum viel mehr Schnee als üblich. Vor allem am Alpennordhang sind durch die vielen Staulagen grosse Neuschneemengen gefallen. In Adelboden/BE auf rund 1300 m wurde sogar ein neuer Schneehöhen-Rekord für das erste Dezemberdrittel erreicht. Auch wenn ab Sonntag eine längere Hochdrucklage ohne Niederschlag folgt, es dürfte weiss bleiben.
Diese Folge entstand im Rahmen eines Projekts zur Modellbildungsvorlesung von Gudrun. Es ist eine Arbeit von Yannik Brenner, Bastian Hasenclever und Urs Malottke, die das Ziel haben, in einigen Jahren Mathematik und Physik am Gymnasium zu unterrichten. Außerdem macht Yannik selbst Musik und hat sich deshalb ganz praktisch mit Schwingungen an der Gitarre beschäftigt. Die drei hatten die Idee, dass man das Thema Schwingunge interessant für die Schule aufbereiten kann, wenn es dazu auch Hörbeispiele gibt. Deshalb haben Sie sich an einen Tisch gesetzt, das Gespräch und die Hörbeispiele aufgenommen und schließlich den Text dazu aufgeschrieben. Der harmonische Oszillator spielt eine wichtige Rolle zur Modellierung verschiedenster physikalischer Sachverhalte. Daher bietet es sich an, ihn schon in der Schule zu thematisieren, wo er auch in der Oberstufe im Bildungsplan zu finden ist. Während im Podcast der Versuch unternommen wurde, ein Grundverständnis für das Thema ohne formale Zusammenhänge zu entwickeln, sollen hier zusätzlich die mathematischen Hintergründe gemeinsam mit einigen Abbildungen ergänzt werden. Die didaktischen Aspekte, die in der Episode zur Sprache kommen, spielen im folgenden Text jedoch nur eine untergeordnete Rolle. Grundlegendes Ein Oszillator ist ein System, das um einen bestimmten Punkt, in der Regel Ruhepunkt oder auch die Ruhelage genannt, schwingen kann. Befindet sich das System in Ruhe in dieser Ruhelage, passiert ohne die Einwirkung äußerer Kräfte nichts; wird das System von diesem Punkt ausgelenkt, wird es durch eine rückstellende Kraft wieder Richtung Ruhepunkt beschleunigt. Der Zusatz "harmonisch" bedeutet, dass die Rückstellkraft linear von der Auslenkung zum Ruhepunkt abhängt, also proportional zur Auslenkung zunimmt. Der Graph der Bewegungsfunktion ist eine Sinus- oder Cosinus-Kurve. Die einfachsten und wohl auch bekanntesten Beispiele eines Oszillators im Bereich der Mechanik sind das Faden- und das Federpendel. Beim Fadenpendel ist der niedrigste Punkt die Ruhelage und die Rückstellkraft resultiert aus der Gravitationskraft. Beim Federpendel stellt die Federkraft die rückstellende Kraft dar. Eigenschaften eines harmonischen Oszillators Ein schwingfähiges System besitzt verschiedene Eigenschaften, mit deren Hilfe das gesamte System beschrieben werden kann. Um den harmonischen Oszillator zu verstehen, kann man sich zuerst die Bewegungsgleichung ansehen, also die Gleichung, die die aktuelle Lage des Systems beschreibt. Ausgangspunkt ist die Rückstellkraft, die im mechanischen Fall linear von der Auslenkung zur Ruhelage, also dem aktuellen Ort, abhängt (auf nicht-mechanische Einsatzgebiete wird später eingegangen). Die Rückstellkraft kann mit einer Variablen , die von verschiedenen Merkmalen des Systems abhängt, gemeinsam mit dem Ort also als dargestellt werden. Die Kraft kann auch als Beschleunigung , also der zweifachen Ableitung des Ortes, mal der Masse ausgedrückt werden, wodurch die Formel auch folgendermaßen aussehen kann: Diese Art von Formeln, in der eine Größe gemeinsam mit einer ihrer Ableitungen auftritt, wird Differentialgleichung genannt. Das Erarbeiten einer Lösung ist leichter, wenn durch die Gleichung vereinfacht wird. wird die Eigenfrequenz des Systems genannt und gibt außerdem an, wie viele Schwingungen das System in einer bestimmten Zeit, oftmals einer Sekunde, macht, wenn keine anderen Kräfte vorliegen. Somit ergibt sich Die Lösung der Funktion für den Ort muss eine Funktion sein, die nach zweimaligem Ableiten bis auf einen Vorfaktor und das Vorzeichen wieder die Ursprungsfunktion ist. Deshalb sind Sinus- und Cosinus-Funktionen, oder die äquivalente Darstellung durch die e-Funktion (siehe Eulersche Formel), Lösungen. Werden nun gewählt, wobei und die Amplituden, also maximalen Auslenkungen der Schwingungen darstellen, kann mit den Ableitungsregeln überprüft werden, dass dies Lösungen für die Bewegungsgleichung sind. Als Summe zweier Lösungen ist auch Eine Lösung, die die allgemeine Lösung genannt wird. Die beiden Amplituden der einzelnen Sinus-/Kosinus-Funktion müssen dabei aus Anfangsbedingungen bestimmt werden. Man sieht, dass die Amplitude der beobachtbaren Schwingung sein muss, also der maximalen Auslenkung, die beim Zeitpunkt vorliegt, da die Gesamtschwingung zum Zeitpunkt diese Auslenkung annehmen muss und zu diesem Zeitpunkt der Sinus verschwindet: Die Amplitude der Sinus-Funktion bestimmt sich nach und spielt daher dann eine Rolle, wenn zum Zeitpunkt bereits eine Geschwindigkeit vorliegt, das System also nicht aus der Ruhe losgelassen, sondern angestoßen wird. Zu besprechen ist allerdings noch, wie die Gleichung bei einem anderen Pendel als dem Federpendel aussieht. Das Prinzip des Oszillators bleibt gleich und somit natürlich auch die Mathematik, die ihn beschreibt. Allerdings setzt sich bei anderen Pendeln anders zusammen, da bei ihnen andere Rückstellkräfte und andere Systemeigenschaften eine Rolle spielen und nicht die Federkonstante und Masse wie beim Federpendel. So gilt beim Fadenpendel wobei die klassische Gravitationskonstante ist, die beim Fadenpendel eine große Rolle für die Rückstellkraft einnimmt, und die Fadenlänge darstellt. Werden Oszillatoren außerhalb der Mechanik betrachtet, beispielsweise der elektrische Schwingkreis, ergibt sich aus den Eigenschaften, die dieses System beschreiben. Beim elektrischen Schwingkreis z.B. aus der Induktivität der Spule und der Kapazität des Kondensators: Um die Sinus-förmige Schwingung eines Oszillators zu beschreiben, werden noch weitere Begriffe verwendet, die jedoch aus den bisher vorgestellten Eigenschaften bestimmt werden können. So wird unter der Schwingungs- oder Periodendauer die Zeit verstanden, die das System für eine vollständige Schwingung benötigt. Da sie als Informationen die Anzahl an Schwingungen und eine Zeit enthält, muss sie eng mit der Eigenfrequenz zusammenhängen: Überblick über die wichtigsten Begriffe zur Beschreibung einer Schwingung (Quelle: leifiphysik.de) Ungedämpfter harmonischer Oszillator Immer dann, wenn ein schwingfähiges System mit der obigen Gleichung beschrieben werden kann, handelt es sich um einen ungedämpften harmonischen Oszillator. Denn an der Gleichung wird klar, dass die Amplitude, also die maximale Auslenkung, auch bei der 20ten, 100ten, 10.000ten Schwingung wieder erreicht wird. Da sich die Systemeigenschaften ohne äußere Einflüsse ebenfalls nicht ändern, ändert sich das Verhalten dieses Oszillators nie und er schwingt stets gleich um die Ruhelage. Nach der mathematischen Herleitung ist schon fast alles zum ungedämpften harmonischen Oszillator gesagt, denn: Reale Beispiele und Anwendungen gibt es nicht! In der Realität gibt es immer einen Widerstand, der den Oszillator ausbremst und die Auslenkung langsam kleiner werden lässt. Aus diesem Grund ist der ungedämpfte Oszillator nur zum Kennenlernen und Verstehen des Verhaltens sowie als Näherungslösung geeignet. Gedämpfter harmonischer Oszillator Beim gedämpften harmonischen Oszillator existiert eine bremsende Kraft. Das ändert die mathematische Beschreibung in der Differentialgleichung. Die Bewegungsgleichung des Federpendels (und äquivalent die Gleichungen anderer Oszillatoren) wird um einen Term ergänzt, der im einfachen Fall der Reibung in der Luft, also einem Reibungskoeffizienten und proportional zur Geschwindigkeit ist: Oft wird zu zusammengefasst, um das rechnen zu vereinfachen. Die zu lösende Differentialgleichung wird auf die gleiche Art gelöst, wird aber natürlich komplizierter. Als Lösungsansätze empfehlen sich wieder Sinus-, Cosinus- oder e-Funktion. Mit dem Ansatz ergeben sich Lösungen, wenn die folgende Gleichung erfüllt: Je nachdem, wie das Verhältnis von Dämpfung und Eigenfrequenz sind, werden verschiedene Fälle unterschieden: Schwach gedämpfter Fall Der schwach gedämpfte Fall tritt auf, wenn gilt. Somit ist die Zahl unter der Wurzel bei der Berechnung von negativ und die Wurzel selbst imaginär. Mit der verkürzten Schreibweise ergibt sich die allgemeine Lösung zu was im Vergleich mit der ungedämpften Schwingung eine Schwingung mit kleinerer Frequenz (da ) und einer mit der Zeit exponentiell abnehmenden Amplitude darstellt. Eine andere Darstellungsweise ist folgende: Hier ist die exponentielle Abnahme der Amplitude besser ersichtlich, allerdings ist dazu das Verständnis des Zusammenfassens zweier auftretender periodischer Funktionen mittels Phasenverschiebung nötig. Die Schwingung schwingt in diesem Fall weiterhin um die Ruhelage, allerdings wird, wie bereits gesagt, die maximale Auslenkung mit jeder Schwingung geringer. Die Einhüllende zu einer gedämpften Schwingung (Quelle: Wikipedia/Harmonischer-Oszillator) Aperiodischer Grenzfall In Anwendungen ist es oft gewollt, eine Schwingung schnellstmöglich zu stoppen und zur Ruhelage zurückzukehren. Wenn eine Dämpfung keine komplette Fixierung in einem Zustand beinhaltet, ist eine überstarke Dämpfung dabei aber nicht zielführend, wie intuitiv oft angenommen wird. Um die Schwingung schnellstmöglich zu stoppen, ist die Bedingung nötig. Somit verschwindet in der Berechnung von die Wurzel und es bleibt nur eine Lösung übrig, was für die Schwingung zu führt, wobei und aus den Anfangsbedingungen, also Auslenkung und Startgeschwindigkeit, bestimmt werden. Beim aperiodischen Grenzfall, manchmal auch mit kritischer Dämpfung bezeichnet, findet keine Schwingung mehr statt. Je nach Anfangsbedingungen kann die Ruhelage einmal durchlaufen werden, spätestens dann wird sich dieser allerdings exponentiell angenährt. Darstellung des aperiodischen Grenzfalls mit unterschiedlichen Startgeschwindigkeiten (Quelle: https://de.wikipedia.org/wiki/Aperiodischer_Grenzfall) Starke Dämpfung Zwar führt eine starke Dämpfung auch dazu, dass keine Schwingung stattfindet, allerdings braucht das System lange, um wieder in die Ruhelage zurückzukehren. Deshalb wird dieser Fall auch als Kriechfall bezeichnet. Mathematisch wird er mit der Bedingung beschrieben, was zu zwei reellen, negativen Ergebnissen für führt. Die Bewegungsgleichung ergibt damit vereinfacht wobei und wieder aus den Anfangsbedingungen bestimmt werden. Vergleich des Kriechfalls mit dem aperiodischen Grenzfall Um zu zeigen, dass die vorgestellten Fälle alle von Nutzen sind, werden nun einige Anwendungsbeispiele vorgestellt. So ist der Fall der schwachen Dämpfung für Saiteninstrumente wichtig, da die einzelnen Saiten sich nicht sofort wieder in die Ruhelage begeben dürfen, sondern schwingen müssen, um überhaupt einen Ton erzeugen zu können. Der aperiodische Grenzfall ist beispielsweise für Autofahrer sehr wichtig, da die Stoßdämpfer nach diesem Prinzip funktionieren. Das hat den einfachen Grund, dass das Auto nach der Beanspruchung der Stoßdämpfer schnell wieder in die ideale Straßenlage kommen soll. Würde eine schwache Dämpfung verwendet werden, so würde das Auto noch für längere Zeit auf und ab wippen und die Fahrt eher einer Bootstour ähneln, was wenig komfortabel ist. Bei starker Dämpfung könnte es vorkommen, dass die nächste Beanspruchung nicht ausreichend abgefedert werden kann, da die Feder noch zu stark eingefedert ist. Aber auch die starke Dämpfung hat ihre Anwendungsgebiete. So sind beispielsweise viele Türen in öffentlichen Gebäuden stark gedämpft. Das sorgt für ein langsames und leises Schließen der Türen und verhindert, dass die Tür einer unaufmerksamen Person mit zu viel Geschwindigkeit entgegenfällt und diese eventuell verletzt. Getriebener Oszillator Bisher wurde der Oszillator ohne äußere Kräfte betrachtet. Liegt solch eine Kraft vor, muss diese in die Bewegungsgleichung integriert werden: Interessant ist dieser Fall besonders dann, wenn es sich bei der Kraft um eine periodische Kraft handelt, also . Dieser Fall ist sehr gut mit einem schaukelndem Kind zu vergleichen, welches immer zum gleichen Zeitpunkt mit der gleichen Kraft angeschubst wird. Durch diese von außen aufgebrachte Kraft wird aus der homogenen eine inhomogene Differentialgleichung. Um diese zu lösen muss die Lösung der homogenen Differentialgleichung, welche in dem Abschnitt zu dem gedämpften harmonische Oszillator zu finden ist, mit der sogenannten partikulären Lösung addiert werden. Die partikuläre Lösung lässt sich mit dem Ansatz des Typs der rechten Seite lösen und ergibt sich zu dabei handelt es sich bei um eine Phasenverschiebung zwischen der antreibenden Kraft und dem um den Ruhepunkt schwingenden Massepunkt. Von besonderem Interesse ist dabei das Verhalten des gesamten Systems für verschiedene Frequenzen der treibenden Kraft. Dabei werden drei verschiedene Fälle betrachtet. Niederfrequenter Bereich: Für den niederfrequenten Bereich gilt, dass die Frequenz der antreibenden Kraft sehr viel kleiner ist als die Eigenfrequenz des Oszillators. Aufgrund dessen ist die Amplitude der anregenden Kraft in etwa so groß wie die Amplitude des Massepunktes. Das Amplitudenverhältnis beträgt also ungefähr 1. Der Phasenunterschied zwischen den beiden Schwingungen ist in etwa 0. Resonanzfall: Von Resonanz wird gesprochen, wenn die Frequenz der antreibenden Kraft der Eigenfrequenz des Oszillators gleicht. Infolgedessen erhöht sich die Amplitude des Oszillators gegenüber der Amplitude des Erregers, sodass sich ein Amplitudenverhätnis ergibt, welches größer 1 ist. Die Phasendifferenz beträgt , wobei der Erreger dem Massepunkt vorauseilt. Hochfrequenter Bereich: Sollte die Frequenz der antreibenden Kraft viel größer sein als die Eigenfrequenz des Oszillators so fällt auch die Amplitude des Oszillators wesentlich kleiner aus. Es ergibt sich ein Amplitudenverhätnis, welches gegen 0 geht. Auch in diesem Fall gibt es eine Phasendifferenz , die Schwingungen laufen also fast gegenphasig ab. Auch diese Eigenschaften der Oszillatoren sind im Alltag von Bedeutung. So ist es für Autos wichtig, dass die Eigenfrequenz einzelner Teilsysteme oder des Gesamtsystems nicht im Bereich der Motorendrehzahl liegen um eine komfortable und sichere Fahrt zu gewährleisten. Insbesondere der Resonanzfall kann gefährliche Auswirkungen haben, da in diesem Fall das System immer weiter aufgeschaukelt wird und die Amplitude des Oszillators sich immer weiter erhöht. Falls das System nicht gedämpft ist, kann die Amplitude bis ins Unedliche steigen, was zur Zerstörung des Systems führt. Eine starke Dämpfung kann die maximale Amplitude zwar begrenzen, aber auch in diesem Fall komm es für den Resonanzfall zu einer starken Belastung des Systems, was in den meisten Fällen vermieden werden sollte. Ein gutes Beispiel für eine Resonanzkatastrophe ist die Tacoma Narrows Bridge, welche durch starke Winde in Schwingung versetzt wurde, welche sich dann selbsterregt immer weiter verstärkte, was den Einbruch der Brücke zur Folge hatte. Demgegenüber bleibt aber zu sagen, dass ohne Resonanz auch viele alltägliche Dinge nicht möglich wären, es also auch einen positiven Aspekt gibt. So würde Schaukeln nicht halb so viel Spaß machen, wenn es nicht möglich wäre seine eigene Schwingung zu verstärken und somit immer höher Schaukeln zu können. Ein weiteres typisches Beispiel für den getriebenen harmonischen Oszillator stellt der elektrische Schwingkreis da, der bei der drahtlosen Energieübertragung genutzt wird. Das System wird dabei ständig neu mit Energie aufgeladen, die es dann mittels sogenannter resonant induktiver Kopplung an einen Empfänger weitergeben kann, der so kabellos geladen wird. Weiterführendes Viele weiterführende Beispiele, die sich des Oszillators mit schwacher Dämpfung bedienen, sind in der Akustik respektive Musik zu finden, wie die Schwingung einer (Gitarren-)Seite, die nach einmaligem Anschlag möglichst lange klingen soll. Doch hier handelt es sich nicht um einen einfachen harmonischen Oszillator, sondern um ein komplexeres System. Literatur und weiterführende Informationen Viele Experimente und Material zum Fadenpendel für die Schule findet man z.B. auf leifiphysik.de Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976. Juan R. Sanmartin: O Botafumeiro: Parametric pumping in the Middle Ages Anwendung auf das Schwenken des berühmten Weihrauchfasses in der Kathedrale von Santiago de Compostela, 1984. Podcasts Helen: Schaukeln, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 114, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
In der zweiten Podcastfolge zum Thema der Quantenmechanik steigen wir tiefer in die Eigenarten dieser interessanten Theorie. Wir betrachten wie sich die Quantenmechanik mit Hilfe von Wellenfunktionen beschreiben lässt und wie diese zu interpretieren sind. Wir lernen auch was es mit der Heisenbergschen Unschärferelation auf sich hat und deuten die daraus folgende Existenz von Vakuumfluktuationen auf den Glauben. Die Wahrscheinlichkeitsnatur der Quantenmechanik hat zur Folge, dass die keine determinstischen Vorhersagen mehr gemacht werden können, d.h. man kann alleine aus den Anfangsbedingungen nicht mehr auf das Endergebnis schließen und nur Wahrscheinlichkeiten für das ein oder andere Ergebnis bestimmen. Dieser Indeterminismus ist das was die Quantenmechanik so faszinierend macht und erlaubt die Deutung, dass es einen wahrhaften freien Willen gibt. Wir betrachten wie dies zustande kommt und deuten dies weiterhin auf den christlichen Glauben, der ja auch auf der Annahme eines freien Willens basiert. Im weiteren schauen wir uns an was es mit der Eigenschaft des Spins, den viele Teilchen besitzen auf sich hat und betrachten den Stern-Gerlach Versuch. An diesem Spin kann man auch verschränkte Teilchen beobachten, die uns dann zum Einstein-Rosen-Podolsky Paradoxon führen. Wir betrachten dies im Detail und finden aufregende geistliche Deutungen für diese Effekte.
In dieser Folge spricht Gudrun mit Ayca Akboyraz und Alejandro Castillo. Beide sind im Masterstudiengang Chemieingenieurwesen bzw. Bioingenieurwesen am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Ayca stammt aus der Türkei und Alejandro ist in Mexico aufgewachsen. Beide haben in ihren Heimatländern deutsche Schulen besucht. Anschließend haben sie sich jeweils um ein Studium in Deutschland beworben. Ayca hatte sich zunächst für Wirtschaftsingenieurwesen entschieden, hat aber nach einiger Zeit gemerkt, dass ihr Chemieingenieurwesen viel mehr liegt. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. In der klassischen Theorie der Strömungsmechanik werden auf der Grundlage der Erhaltung von Masse, Impuls und Energie und unter berücksichtigung typischer Materialeigenschaften die Navier-Stokes-Gleichungen als Modell für das Strömungsverhalten von z.B. Wasser hergeleitet. Die beiden unbekannten Größen in diesem System partieller Differentialgleichungen sind das Geschwindigkeitsfeld und der Druckgradient. Wenn geeigneten Rand- und Anfangsbedingungen für die Geschwindigkeit vorgeschrieben werden, liegt im Prinzip die Lösung des Gleichungssystem fest. Sie kann aber in der Regel nur numerisch angenähert berechnet werden. Eine wichtige Ausnahme ist die Strömung durch einen Zylinder mit kreisförmigem Querschnitt. Wenn am Rand des Zylinders als Randbedingung vorgeschrieben wird, dass dort das Fluid anhaftet, also die Geschwindigkeit ganz am Rand Null ist, dann stellt sich eine zeitlich unveränderliche (stationäre) Strömung ein, die am Rand des Zylinders still steht und in der Mitte am schnellsten ist. Der Verlauf zwischen diesen beiden Extremen entspricht genau dem einer Parabel. Diese Lösung heißt Poiseuille-Strömung. Der Durchfluss ergibt sich dann aus dem Druckgradienten. Wenn der Querschnitt des Kanals nicht genau kreisförmig ist, lässt sich das Prinzip noch übertragen, aber in der Regel ist die Lösung dann nicht mehr analytisch berechenbar. Die Poiseuille-Strömung ist ein häufiges Test- oder Benchmark-Problem in der numerischen Strömungsmechanik, zumal diese Strömungskonfiguration einer der wenigen Fälle der Navier-Stokes-Gleichungen ist, die analytisch gelöst werden können. Der Sinn des Tests besteht darin, zunächst sicherzustellen, dass die Berechnung mit Hilfe von OpenLB, eine gewisse Genauigkeit aufweist. Zweitens wird die Genauigkeit der Methode überprüft, indem analysiert wird, wie der numerische Fehler mit der Gitterverfeinerung skaliert. Ayca und Alejandro haben in ihrem Projekt diesen Benchmark vollzogen und dafür Simulationen im 2D und 3D Fall mit verschiedenen Randbedingungen, die in der Lattice Boltzmann Methode vorkommen (und in OpenLB implementiert vorliegen), und Gitterverfeinerungen mit Auflösung von 25, 50, 75, 100 Unterteilungen durchgeführt. Obwohl die Randbedingungen in numerischen Verfahren die gleichen grundlegenden Ziele wie im analytischen Fall haben, entwickeln sie sich entlang konzeptionell degenerativer Linien. Während analytische Randbedingungen die zugehörige Lösung aus einer Schar von zulässigen Lösungen der Gleichungen auswählen, wirken die Randbedingungen im Lattice Boltzmann Modell dynamisch mit. Sie sind ein Teil des Lösungsprozesses, der für die Änderung des Systemzustands in Richtung der Lösung zuständig ist. Eine der häufigsten Ursachen für die Divergenz der numerischen Lösung ist die falsche Umsetzung von Randbedingungen. Daher ist es für die Genauigkeit und Konvergenz sehr wichtig, dass die geeigneten Randbedingungen für die untersuchte Geometrie und den Strömungsfall ausgewählt werden. Es gibt eine große Familie Randbedingungen, die für die Lattice Boltzmann Methode entwickelt wurden. Für das Praktikum liegt der Fokus für die Wand auf den Randbedingungen "bounce-back" (Haftbedingung), "local", "interpolated" und "bouzidi". Alle genannten Randbedingungen erzeugen ein parabolisches Strömungsprofil passend zur analytischer Lösung. Unterschiede zeigen sich darin, wie groß die numerische Fehler ist, und in welchem Maß sich der numerische Fehler durch Gitterverfeinerung reduzieren lässt. Der graphische Vergleich der Simultionsergebnisse mit der analytischen Lösung hat gezeigt, dass bouzidi Randbedingung den kleinsten numerischen Fehler und die höchste Konvergenzordnung für den 3D-Fall erzeugt, während local und interpolated Randbedingungen für den 2D-Fall bessere Ergebnisse liefern. Zu beachten ist aber, dass mit erhöhter Gitterverfeinerung die Unterschiede zwischen diesen Randbedingungen verschwinden. Bei der Auswahl der Randbedingung sollte dementsprechend ein Kompromiss zwischen Aufwand und Güte der Lösung gefunden werden. Literatur und weiterführende Informationen T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. M. Portinari: 2D and 3D Verification and Validation of the Lattice Boltzmann Method. Master Thesis, Montréal 2015. C.J. Amick: Steady solutions of the Navier-Stokes equations in unbounded channels and pipes. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 4, 473–513 (1977). A. Akboyraz und A. Castillo, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts L. Dietz, J. Jeppener, G. Thäter: Flache Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 213, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
Stephan Hemri hat an der ETH in Zürich einen Bachelorstudiengang Umweltwissenschaften absolviert und sein Studium mit einem Master in Statistik abgerundet. Seine Masterarbeit entstand an der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL). Hierbei hat er auch statistisches Postprocessing kennengelernt. Mit diesem Wissen und dem vorhandenen Interesse übernahm er ein Promotionsthema von Tilmann Gneitling am Lehrstuhl für Computational Statstics an der KIT-Fakultät für Mathematik und am Heidelberger Institut für Theoretische Studien. Zu den Höhepunkten dieser Zeit zählt er die vier Monate, die er am Europäischen Wetterzentrum (Zentrum für Mittelfristprognose) in Reading mitforschen konnte. Schon seit langem werden für die Wettervorhersage numerische Modelle eingesetzt. Dabei werden Größen wie zum Beispiel Temperatur und Niederschlag auf einem globalen 3-dimensionale Gitter durch das Lösen von großen gekoppelten und nichtlinearen Gleichungssystemen bestimmt, die aus physikalischen Modellen hergeleitet sind, nach denen sich Luftmassen und Wasser in der Atmosphäre in etwa bewegen und dabei unser Wetter erzeugen. Ebenso wichtig - wenn auch weniger bekannt - sind hydrologische Vorhersagen zu Pegelständen an Flüssen, die mit ähnlichen Methoden für einige Zeit im voraus berechnet werden. Zu Beginn waren die damit verbundenen Rechnungen rein deterministisch, was den großen Nachteil hatte, dass die Ergebnisse der Modellläufe nichts über Unsicherheiten der Vorhersage aussagen konnten. Eine Idee, um Ungenauigkeiten der Modellrechnungen zu bestimmen, ist zu Ensemblevorhersagen überzugehen. Das heißt, man berechnet nicht nur eine Vorhersage, sondern mehrere Modelläufe, jeweils zu abgeänderten (gestörten) Anfangsbedingungen oder mit verschiedenen Modellen, um zu sehen, wie stark sie sich in den Ergebnissen unterscheiden. Sind sich die verschiedenen Rechnungen weitestgehend einig, ist die Vorhersage recht sicher zutreffend. Weichen sie stark voneinander ab, sind sie entsprechend wenig sicher. Die Datenlage in der Wettervorhersage ist sehr gut. Insofern, kann man natürlich im Nachgang immer abgleichen, inwiefern Vorhersagen eingetroffen sind und dies zur Verbesserung der Modelle benutzen. Aber trotzdem bleiben konkrete Aussagen wie z.B. Hochwasservorhersagen oder Vorhersagen zu Pegeln anhand von Niederschlags-Daten sehr schwierig, weil die Modelle nicht ausgereift sind und die Verbesserung nicht auf der Hand liegt. Zum Beispiel am Europäischen Wetterzentrum in Reading ist derzeit ein Ensemble bestehend aus 51 Modellenvarianten verfügbar. Zusammen mit einem deterministischen Modell höherer Auflösung, führt dies zu einem recht großen Ensemble von Vorhersagen. In der statistischen Nachbearbeitung (dem Postprocessing) wird vor allem nach systematischen Fehlern Ausschau gehalten. Dabei werden bedingte Wahrscheinlichkeits-Vorhersagen auf das Ensemble bezogen und parametrische Dichtefunktionen erzeugt. Als Trainingsperiode werden dabei z.B. die letzten 30 Tage gewählt. Bei hydrologischen Abschätzungen sind jahreszeitliche Trainingsperioden (gleiche Jahreszeiten, aber andere Jahre) häufig sehr hilfreich. Dieses Vorgehen führt in der Regel zu einer besseren Schätzung des zukünftigen Wetters und Pegelständen. Für die Temperatur kann man sich das Vorgehen am einfachsten vorstellen: Es gibt einen Ensemble-Mittelwert, dessen Fehler in etwa normalverteilt ist. Bei der Nachbearbeitung wird z.B. der Mittelwert-Parameter an den Mittelwert des Ensembles in linearer Weise angepasst. Auch die Varianz ist in erster Näherung eine lineare Funktion der Varianz des Ensembles. Das ist ein sehr einfaches Modell, aber schon hilfreich. Zwei grundlegende Ideen gehen in der Parameterschätzung ein. Zum einen nichthomogene Regression, die gut verstanden aber nicht so flexibel ist - zum anderen Baysean Model averaging. Über allen statistischen Verfahren und Verbesserungen bleibt jedoch auch die Forderung, dass die Nutzbarkeit der Ergebnisse für den Endnutzer gegeben sein muss. Deshalb wird - gerade bei Wasserstandsvorhersagen - manchmal dann doch nur ein zu erwartender Pegelstand übermittelt ohne alle im Prozess gewonnenen Erkenntnisse über mögliche Abweichungen von diesem approximativen Wert mitzuteilen. Literatur und weiterführende Informationen Cloke, H. L. and F. Pappenberger (2009). Ensemble flood forecasting: a review. Journal of Hydrology 375, 613--626. Gneiting, T., A. E. Raftery, A. H. Westveld, and T. Goldman (2005). Calibrated probabilistic forecasting using ensemble model output statistics and minimum CRPS estimation. Monthly Weather Review 133, 1098--1118. Raftery, A. E., T. Gneiting, F. Balabdoui, and M. Polakowski (2005). Using Bayesian model averaging to calibrate forecast ensembles, Monthly Weather Review 133, 1155--1174. Thorarinsdottir, T. L. and T. Gneiting (2010). Probabilistic forecasts of wind speed: ensemble model output statistics by using heteroscedastic censored regression, Journal of the Royal Statistical Society (Series A) 173, 371--388.
Diesmal traf sich Gudrun zum Gespräch mit Anke Pohl, die zur Zeit am Max-Planck-Institut für Mathematik in Bonn arbeitet. Das Thema der Unterhaltung ist Mathematisches Quantenchaos. Anke Pohl untersucht nämlich, welchen Zusammenhang die geometrischen und spektralen Eigenschaften Riemannscher Mannigfaltigkeiten haben. Historisch ist das Interesse an diesen Eigenschaften und ihren Wechselwirkungen bei physikalischen Betrachtungen entstanden, wie z.B. bei den Studien der Schwingungen einer Membran. Im Jahre 1910 vermuteten Lorentz und Sommerfeld, dass der Flächeninhalt einer Membran (die ein Beispiel für eine Riemannsche Mannigfaltigkeit ist) durch die (Ober-)töne dieser Membran (die durch die Eigenwerte eines gewissen Operators bestimmt sind, der die Schwingungen der Membran beschreibt) bestimmt sind. Bereits kurze Zeit später gelang es Hermann Weyl, diese Vermutung mathematisch zu beweisen. Im Laufe der Zeit ist die Untersuchung solcher Zusammenhänge zu einem Teilgebiet der Mathematik und Mathematischen Physik angewachsen, welches sowohl hinsichtlich Motivation als auch in Bezug auf Methoden eng mit diversen anderen Teilgebieten der Mathematik, wie z.B. der Geometrie, der Zahlentheorie und der Analysis, zusammenhängt. Und auch heute noch liefern physikalische Erkenntnisse und Intuitionen gute Heuristiken bzw. sind wegweisend für mathematische Ansätze. Aktuelle große Vermutungen mit sowohl mathematischer als auch physikalischer Motivation sind beispielsweise die Rudnick-Sarnak Vermutung über eindeutige Quantenergodizität auf gewissen kompakten Riemannschen Mannigfaltigkeiten (Gleichverteilung von Eigenfunktionen im Mittel bei wachsendem Eigenwert; für den Beweis von eindeutiger arithmetischer Quantenergodizität wurde E. Lindenstrauss 2010 eine Fieldsmedaille verliehen), die Phillips-Sarnak Vermutung über die (Nicht-)Existenz von quadrat-integrierbaren Eigenfunktionen auf gewissen nicht-arithmetischen Mannigfaltigkeiten, die Sarnaksche Vermutung über das Größenwachstum von Eigenfunktionen bei wachsendem Eigenwert, oder die Sjöstrandsche Vermutung über die asymptotische Anzahl von Resonanzen in Streifen bei hyperbolischen Flächen unendlichen Inhalts. Details und weiterführende Informationen zu diesen und anderen Vermutungen sind beispielsweise in den Übersichtsartikel in den untenstehenden Referenzen enthalten. Anke Pohls befasst sich zur Zeit mit bestimmten Flüssen, den sogenannten geodätischen Flüssen, auf einer speziellen Klasse von Riemannschen Mannigfaltigkeiten. Als erste, recht elementare, Beispiele für Mannigfaltigkeiten kann man sich zunächst Oberflächen vorstellen. Wenn man auf ihnen Größen definiert hat, die zum Messen von Abständen und Winkel dienen, werden sie Riemannsche Mannigfaltigkeit genannt. Wie bei den oben genannten Membranen sind Geodäten. Mathematisch werden die Schwingungen als Lösungen des Laplaceoperators in der zugrundeliegenden Geometrie beschrieben bzw. mit Hilfe der Eigenwerte und Eigenfunktionen des Operators. Aus der Anschauung ist klar, dass die Schwingungen von den geometrischen Eigenschaften der Fläche abhängen. Wenn z.B. die Fläche oder Membran eingerissen ist oder ein Loch hat, klingt sie anders als wenn sie geschlossen ist bzw. gut eingespannt ist. Für kompakte Flächen ist bekannt, dass es unendlich viele solcher Eigenfunktionen gibt. Je nach Grad der Offenheit (also z.B. eine Fläche mit Riss oder Loch) ist es jedoch schwierig zu sagen, wie sich die Schar der Lösungen verändert. Ein interessantes Beispiel wäre z.B. zu betrachten, dass an einer Stelle die eingespannte Fläche im Unendlichen verankert ist, aber das darunterliegende Volumen endlich ist. Vorstellen kann man sich das etwa so, dass man an dieser Stelle die Fläche samt ihren Abständen unendlich weit zieht. Man fragt sich dann, ob eine Welle auf der Fläche auch diese Singularität überlebt. Ein methodischer Ansatz, solche und andere Fragen zu studieren, ist es, Beziehungen zu anderen Objekten, vor allem rein geometrischen, zu finden. Selbergs Beweis zur Unendlichkeit der Anzahl der Eigenfunktionen auf gewissen hyperbolischen Flächen zeigt zunächst, dass die Eigenwerte der Eigenfunktionen (spektrale Objekte) durch die Längen der geschlossenen Geodäten (geometrische Objekte) bestimmt sind. Genauer, sie sind unter den Nullstellen einer generierenden Zetafunktion für das Längenspektrum der Geodäten. Ausnutzung zusätzlicher Eigenschaften der Flächen, wie z.B. Kompaktheit oder zusätzliche Symmetrien, erlaubt dann (manchmal) zu bestimmen, ob Nullstellen existieren und ob sie von Eigenwerten stammen. Anke Pohl schaut sich die Geodäten auf bestimmten hyperbolischen Flächen an, diskretisiert sie und findet ein assoziiertes diskretes dynamisches System auf dem reellen Zahlenstrahl. Für dieses diskrete System sucht sie gewisse invariante Größen, z. B. invariante Maße oder Dichten. Genauer fragt sie nach Eigenfunktionen des assoziierten Transferoperators mit gewissen Parametern (inversen Temperaturen). An dieser Stelle sieht man wieder einen Einfluss aus der Physik: Transferoperatoren entstammen dem thermodynamischen Formalismus der statistischen Mechanik. Sie zeigt dann, dass die Eigenfunktionen dieser Transferoperatoren bijektiv zu den L_2 Eigenfunktionen des Laplaceoperators der hyperbolischen Flächen sind. Da die Eigenfunktionen der Transferoperatoren alleine durch die geschlossenen Geodäten bestimmt sind und somit also geometrische Objekte der Fläche sind, stellt auch sie eine Beziehung zwischen gewissen geometrischen und gewissen spektralen Objekten dieser Flächen her. Zum Abschluss noch eine kurze Erklärung zur Bezeichnung "Quantenchaos" für dieses Themengebiet: Der Laplaceoperator ist gerade, bis auf Skalierung, der Schrödingeroperator in der Physik. Quantenmechanisch werden seine L_2 Eigenfunktionen als gebundene Zustände verstanden. Das zugehörige Objekt in der klassischen Mechanik ist gerade das Hamiltonsche Vektorfeld des geodätischen Flusses, d. h. die Bildungsvorschrift für die Geodäten oder die Bewegungsvorschrift für Kugeln auf der Fläche. Das Korrespondenzprinzip der Physik besagt nun, dass im Grenzfall (hier: Eigenwerte der Eigenfunktionen gehen gegen unendlich) die Gesetze der Quantenmechanik in die der klassischen Mechanik übergehen sollten. Hier fragt man also gerade danach, wie die spektralen und die geometrischen Eigenschaften Riemannscher Mannigfaltigen wechselwirken. Daraus ergibt sich der Bestandteil "Quanten" in "Quantenchaos". Der Bestandteil "Chaos" ist wie folgt motiviert: Bei den in diesem Gebiet studierten Flüssen verhalten sich Bahnen, die sehr nah beieinander starten, typischerweise nach recht kurzer Zeit sehr unterschiedlich. Mit anderen Worten, kleine Änderungen in den Anfangsbedingungen wirken sich typischerweise sehr stark aus, d.h., das System ist in gewisser Weise chaotisch. Frau Pohl hat Mathematik an der TU Clausthal studiert, an der Universität Paderborn promoviert und habilitiert gerade an der Universität Göttingen. Literatur und Zusatzinformationen William P. Thurston: The Geometry and Topology of Three-Manifolds, Mathematical Sciences Research Institute, 2002. A. Pohl: Symbolic dynamics for the geodesic flow on locally symmetric good orbifolds of rank one, Dissertation Uni Paderborn, 2009. A.Pohl: A dynamical approach to Maass cusp forms, arXiv preprint arXiv:1208.6178, 2012. M. Möller und A. Pohl: Period functions for Hecke triangle groups, and the Selberg zeta function as a Fredholm determinant, Ergodic Theory and Dynamical Systems 33.01: 247-283, 2013. P. Sarnak: Recent progress on the quantum unique ergodicity conjecture, Bull. Amer. Math. Soc 48: 211-228, 2012. S. Zelditch: Recent developments in mathematical quantum chaos, Current developments in mathematics 2009: 115-204, 2010.
An der Bundesanstalt für Wasserbau (BAW) befasst sich Rebekka Kopmann in der Abteilung für Flusssysteme mit Analysen und Prognosen des Systemzustands von Bundeswasserstraßen. Strömungsmodelle liegen am BAW sowohl als nachgebaute Modelle von Flussstücken als auch als mathematisch beschriebene Computermodelle vor, die nur im Rechner simuliert werden. Im Gespräch mit Gudrun Thäter beschreibt sie die Herausforderung der Kalibration der Simulationsmodelle an die Wirklichkeit, damit sinnvolle Analysen und Prognosen möglich werden. Neben vielen weiteren Parametern ist die Rauheit im Fluss sehr wichtig und ist leider nur sehr zeitaufwendig zu bestimmen. Die Aufgabe führt sie auf ein Optimierungsproblem zurück, wo die unbekannten Parameter durch Annäherung vielfach ausgeführter Simulationen an die gemessene Wirklichkeit bestimmt werden. Da eine einzelne Flusssimulation teilweise tagelang rechnet, sucht sie nach sinnvollen Vereinfachungen oder Alternativen, die das Problem schneller lösen. Aktuell werden Methoden der Automatischen Differentiation eingesetzt, die helfen Gradientenverfahren zur Annährung an die Lösung zu beschleunigen. Dabei trifft man auch auf interdisziplinäre Herausforderungen, wenn es um die feinen mathematischen Unterschiede zum Beispiel zwischen Ableitung, Steigung und einem Gradienten geht. Literatur und Zusatzinformationen R. Kopmann, A. Goll (eds): 20th TELEMAC-MASCARET User Conference 2013, Proceedings, Karlsruhe, 2013. U. Merkel, J. Riehme, U. Naumann: Rückrechnung von Rand- und Anfangsbedingungen mit Telemac und Algorithmischer Differentiation, Wasserwirtschaft H.12, S.22-27, 2013. R. Kopmann, M. Schäfer: Automatic Calibration with Telemac-AD, Proceedings 21st Telemac-Mascaret User Conference 2014, Grenoble (abstract submitted), Okt. 2014. M. Schäfer: Erprobung von Optimierungsalgorithmen für die Kalibrierung eines Finite-Elemente Strömungsmodells auf Basis von Gradienten. Masterarbeit Karlsruher Institut für Technologie, Karlsruhe, 2014.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
In der vorliegenden Arbeit werden isolierte, einzeln ortsaufgelöste molekulare Ionen mit einer Femtosekundenspektroskopie auf der Basis von Einzelreaktionsereignissen untersucht. Für die zur simultanen Speicherung von atomaren und molekularen Ionen notwendige Radiofrequenzfalle wurde eine transportable Vakuumapparatur konzipiert und realisiert sowie die zugehörigen Lasersysteme aufgebaut und eingerichtet. Um die Ultrahochvakuumbedinungen bei 2e-10 mbar auch bei häufiger Molekülpräparation gewährleisten zu können, wurde ein modularer Aufbau gewählt, bei dem Präparations- und Expermentierbereich durch differentielle Pumpstrecken voneinander getrennt sind. Durch diese hindurch führt ein 48 cm langer Quadrupolionenleiter, in welchem Ionen zwischen den Kammern transferiert werden können. Entlang des Ionenleiters ermöglichen ringförmige Gleichspannungselektroden eine dreidimensionale Speicherung der Ionen. Im Rahmen dieser Arbeit wurde mit atomaren 24Mg+ und molekularen 24MgH+ Ionen gearbeitet. Erstere werden durch Photoionisation von Magnesiumatomen aus einem thermischen Strahl erzeugt und ihre Bewegungsenergie durch Laserkühlung soweit reduziert, dass sie in etwa 20 μm Abstand voneinander in einer kristallinen Struktur erstarren. Magnesiumhydridionen werden nach Einleiten von Wasserstoffgas in einer photochemischen Reaktion mit 24Mg+ generiert und – von verbleibenden atomaren Ionen sympathetisch gekühlt – auf Gitterplätze des Kristalls integriert. Bei der Laserkühlung von 24Mg+ ausgesendete Fluoreszenzphotonen ermöglichen die optische Detektion der Ionen mit derzeit bis zu 1 μm Ortsauflösung. Die nicht fluoreszierenden molekularen Ionen werden indirekt als vermeintlich unbesetzte Stellen der Kristallstruktur sichtbar. Neben der Demonstration des Erfolges unseres Fallenkonzepts sowie dessen Charakterisierung bildet der verlustfreie, kontrollierte Transport von atomaren und molekularen Ionen aus dem Präparations- in den Experimentierbereich, eine wichtige Errungenschaft, welche zu einem kontinuierlichen Nachladen von Ionen mit einer Rate von über 100 Hz ausgebaut werden kann. Diese Arbeit präsentiert eine Machbarkeitsstudie zur Kombination von Präzisionsmethoden zweier Forschungsgebiete. Dazu wurde die Fallenapparatur mit einem weiteren Vakuumsystem, in dem ultraviolette Femtosekundenpulse erzeugt werden können, über ein System von differenziellen Pumpstrecken verbunden. Als Resultat werden 5 fs zeitaufgelöste Pump-Probe Experimente vorgestellt, die die Oszillation eines Vibrationswellenpaketes von individuellen 24MgH+ Molekülionen zeigen. Dabei wird die Bewegung des Wellenpaketes auf die Dissoziationswahrscheinlichkeit in einem bestimmten Zerfallskanal abgebildet. Einzelne Reaktionsereignisse konnten eindeutig nachgewiesen und daraus das zeitabhängige Verhalten extrahiert werden. Diese Resultate untermauern das Potenzial der von uns angestrebten Kombination der exzellenten Kontrolle über externe und interne Freiheitsgrade gespeicherter Ionen mit der extremen Zeitauflösung von modernen Kurzpulslasern. Weitere Arbeiten können die Vorteile beider Gebiete nutzen um bisher unzugängliche Experimente zu realisieren. Die besonderen Eigenschaften der präsentierten Apparatur sollten es beispielsweise erlauben, einzelne isolierte molekulare Ionen mit hoher räumlicher Präzision und wohl kontrollierten Anfangsbedingungen für zukünftige Strukturuntersuchungen mittels derzeit entstehender, intensiver Kurzpuls-Röntgenquellen an freien Elektronenlasern bereitzustellen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Das Massenspektrum neu entstandener Sterne (IMF) ist von universeller Gueltigkeit. So jedenfalls scheint es in verschiedenen Sternentstehungsregionen in der Milchstrasse, die alle derselben Verteilung aufweisen. Hierbei ist die relative Haeufigkeit von Sternen mit einer Masse von 1M⊙ oder weniger, welche als massearm bezeichnet werden, besonders hoch. Die IMF ist von grundlegender Bedeutung fuer viele Bereiche der Astronomie. Unter Anderem bildet sie die Grundlage fuer die optische Erforschung ferner Galaxien und die Statistik entstehender chemischer Elemente. Dennoch ist ihre Universalitaet bezueglich fremder Galaxien oder bei hohen Rotverschiebungen bislang nicht eindeutig wissenschaftlich belegt, da eine vollstaendige Theorie der Sternentstehung immer noch aussteht. Sternentstehung basiert auf einem aeusserst komplexen, nichtlinearen Wechelspiel von Eigengravitation, Hydrodynamik und Druck, sowie von Turbulenz, Strahlung, Magnetfeldern und der Chemie von Staub und Gas. Erschwerend kommt hinzu, dass junge Sterne in die Molekuelwolke, aus welcher sie entstehen, eingebettet sind. Daher sind sie nur mittels Molekuelspektren im Radio-Wellenlaengenbereich zu beobachten. Eine vielversprechende Moeglichkeit umden Sternentstehungsprozess letztendlich zu durchschauen ergibt sich mittels Computersimulationen. Abgesehen von den vielen physikalischen Prozessen liegt die numerische Herausforderung in der grossen Aenderung der Laengenskala (um mehr als sieben Groessenordnungen), sowie der Dichte (um mehr als 20 Groessenordnungen) waehrend des Kollapses eines dunklen Wolkenkerns. Aus diesem Grund wurden im Rahmen dieser Doktorarbeit nur Eigengravitation, Hydrodynamik, und Turbulenz in Betracht gezogen. Eine geeignete Methode zur Berechnung des Kollapses prestellarer Kerne ist die sogenannte Smoothed Particle Hydrodynamics Methode, ein Teilchen-basiertes Schema, welches die hydrodynamischen Gleichungen in ihrer Lagrangeschen Form loest. Die Simulationen sind vollstaendig dreidimensional. Da eine direkte Berechnung des Strahlungstransports derzeit immer noch zu zeitintensiv, jedoch die Beschreibung des Gases durch eine einfache Zustandsgleichung relativ unrealistisch ist, wurde im Rahmen dieser Doktorarbeit eine vereinfachte Beschreibung der Gaskuehlung mittels tabellierter, optisch duenner Molekuellinien integriert. Eine vollstaendige Theorie der Sternentstehung sollte die Entwicklung einzelner Molekuelwolkenkerne (MWK) eindeutig vorhersagen koennen. Dies beinhaltet den Einfluss der Verteilung des Gesamtdrehimpulses des MWKs auf die Multiplizitaet und die akkretierte Masse der entstehenden Sterne. Das Ziel dieser Doktorarbeit ist daher, die dynamische Entwicklung des kollabierenden Kerns sowie die Entstehung protostellarer Scheiben unter verschiedenen Voraussetzungen zu untersuchen, um gegebenenfalls vorhandene Abhaengigkeiten von Scheibenstruktur und physikalischen Anfangsbedingungen in der Gaswolke zu identifizieren. Im Fall starr rotierender MWKs ist dies moeglich. Die durchgefuehrten Simulationen ergeben, dass sich als Funktion des Anfangsdrehimpulses eindeutig bestimmen laesst, wie groß, konzentriert und warm eine protostellare Scheibe sein wird. Je groesser der Drehimpuls j, desto groesser und kuehler auch die Scheibe. Ab einem bestimmten j bilden sich ausgepraegte Spiralarme und die Scheibe fragmentiert. Bei kleinerem j ist die Scheibe sehr konzentriert und heizt sich daher auf. Der zusaetzliche thermischen Druck wirkt stabilisierend, weswegen die Fragmentation unterdrueckt wird. In Abhaengigkeit von Radius, j und Masse des MWKs ist es moeglich mittels einer einfachen analytischen Abschaetzung eine mittlere Scheibendichte zu berechnen und diese durch eine detaillierte Analyse mehrerer Simulationen grundsaetzlicher gleicher Kerne mit unterschiedlichem j zu ’eichen’. Untersucht wurde die mittlere Scheibendichte fuer die Fragmentation eintritt bzw. unterdrueckt wird. Im Vergleich mit Beobachtungen von dunklen MWKs fuehrt die berechnete kritische mittlere Scheibendichte zu einem sehr geringen Anteil an Kernen fuer welche eine spaetere Scheibenfragmentation vorhergesagt wird: nur 13%. Verglichen mit der beobachteten Multiplizitaetsrate junger, massearmer Sterne (30% - 50% in Abstaenden von 14AU-1400AU) ist dieser Wert viel zu klein. Unter der Annahme effizienterer Gaskuehlung waere die kritische mittlere Scheibendichte fast um drei Groeßenordnungen hoeher, was die Fragmentation maßgeblich beguenstigen wuerde. Das Fragmentationsverhalten protostellarer Scheiben scheint also von den lokalen thermodynamischen Eigenschaften des Gases bestimmt zu sein. Mit turbulenten Anfangsbedingungen gestaltet sich die Scheibenentstehung und Entwicklung vollkommen anders. In diesem Fall ergibt sich keine Korrelation von Groeße, Konzentration oder Durchschnittstemperatur der Scheibe mit dem Anfangs-Drehimpuls der Gaswolke. Unter dem Einfluss von Turbulenz wird das aufgesetzte hydrostatische Gleichgewicht der Wolke von Anfang an maßgeblich gestoert. Im Wechselspiel mit der Eigengravitation des Gases bildet sich in jeder Simulation ein langgezogenes Filament, welches lokal sehr dicht wird. In dichten Filamentgebieten kann die lokale Jeans Masse waehrend des weiteren Kollapses ueberschritten werden und dort entstehen protostellare Objekte. Vergleichbar mit dem Kollaps duenner, sehr flacher Ellipsoide findet sich der Protostern oftmals in einer Ecke des Filaments. Im Vergleich zur umgebenden Scheibe wachsen die Protosterne im Mittel viel schneller als im starr rotierenden Fall. Die entstehenden protostellaren Scheiben sind viel kleiner, obgleich kuehl. Trotzdem sind sie nicht gravitativ instabil. Durch den turbulenten, aber kontinuierlichen Gaseinfall wird die Scheibe in vertikaler Richtung gestoert und erscheint daher dicker als im Fall des starr rotierenden Kollapses. Interessanterweise fragmentieren auch in diesem Fall nur 16% aller MWKs. Obwohl Turbulenz den Kollaps maßgeblich beeinflußt aehnelt dieser Wert dem vorhergesagten Wert fuer Kerne im starr rotierenden Fall. Diese Uebereinstimmung kann wiederum als Hinweis darauf gewertet werden, dass die lokalen thermodynamischen Eigenschaften des Gases die tatsaechliche Fragmentation ermoeglichen. Die im Rahmen dieser Doktorarbeit gewonnene Erkenntnisse geben tiefe Einblicke in die Dynamik der Entstehung und fruehen Entwicklung von protostellaren Scheiben. Sie zeigen numerische Schwaechen, ebenso wie physikalische Kritikpunkte in modernsten Simulationen des Sternentstehungsprozesses auf. Daher bilden sie die Basis fuer kompliziertere Rechnungen und sind ein weiterer Schritt in Richtung einer vollstaendigen Theorie der Sternentstehung.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Im Gebiet des Carpentaria Golfes im Norden Australiens entstehen regelmäßig mesoskalige Konvergenzlinien in der unteren Troposphäre. Diese produzieren gegen Ende der Trockenzeit oft spektakulären Wolkenlinien, die auf Satellitenbildern zu sehen sind und je nach ihren Eigenschaften ''Morning Glory'' oder ''North Australian Cloud Line'' (NACL) genannt werden. Morning Glories sind glatte Wellenwolken während NACLs konvektive Wolkenlinien sind. Sie stehen unter dem Verdacht, später im Jahr, während der Australische Sommermonsun ruht, eine Reihe von Unwettern auszulösen, die ein bedeutendes Vorhersageproblem für diese Region darstellen. Des Weiteren stellt die einhergehende bodennahe Windscherung eine große Gefahr für tieffliegende Flugzeuge dar. Um die Entstehung dieser Konvergenzlinien mit bis dahin einmaliger Genauigkeit zu dokumentieren, wurde im Herbst 2002 die internationale Meßkampagne GLEX (Gulf Lines Experiment) durchgeführt. Das mesoskalige Modell der Pennsylvania State University und des National Center for Atmospheric Research, MM5, wird in dieser Arbeit für eine Untersuchung dieser Linien benutzt. Da die Linien intrinsisch nicht hydrostatisch sind, sollte das MM5 bei der geforderten hohen horizontalen Auflösung als nichthydrostisches Modell in Vorhersage und Modellierung den für frühere Studien verwendeten hydrostatisch balancierten Modellen überlegen sein. Den zunächst vorgestellten Fallstudien gingen Sensitivitätsstudien bezüglich der Grenzschichtparameterisierung und der Bodenfeuchte voraus, die aber aus Gründen der Lesbarkeit erst später beschrieben werden. Im Rahmen der Fallstudien werden Modellergebnisse mit Ergebnissen aus der Meßkampagne und verfügbaren Satellitenbildern verglichen, sowie weitere Charakteristika der sich bildenden Linien untersucht. Das Modell kann in der gewählten Konfiguration die Konvergenzlinien in noch nie da gewesener Detailliertheit reproduzieren und die Ergebnisse stimmen gut mit den Beobachtungen überein. Weitere Ergebnisse dieser Studie bestätigen früher aufgestellte Theorien, nach denen das nordöstliche Morning Glory und die NACL in Folge eines Zusammenstoßes zweier Seebriesen über der Kap York Halbinsel entstehen. Zum ersten Mal hat ein Modell zwei getrennte Konvergenzlinien produziert, die dem nordöstlichen Morning Glory und der NACL entsprechen. Als Trennungsmechanismus beider sich aus der Ostküstenseebriese entwickelnden Konvergenzlinien wird hier zunächst die Geometrie der Ostküste vorgeschlagen, die auf dem Breitengrad, auf dem die Trennung im allgemeinen erfolgt, einen ausgeprägten Knick aufweist. Für die Entstehung des südlichen Morning Glorys wird eine erst kürzlich aufgestellte Theorie bestätigt, in der die Kollision der südlichen Seebriese mit einer sich von Süden her nähernden Front als Mechanismus angenommen wird. Diese Front formiert sich am Abend entlang einer Troglinie, die ein klimatisches Merkmal Queenslands ist. In einigen der Fälle wurden Trockenlinien beobachtet, die auf das südliche Morning Glory folgten. Auch diese stimmen im Modell gut mit den Beobachtungen überein. Eines der seltener beobachteten südöstlichen Morning Glories kann leider nicht vom Modell reproduziert werden. Als Ursache wird vermutet, daß eine Troglinie im datenarmen Gebiet südlich des Golfs von Carpentaria nicht korrekt in den Anfangsbedingungen positioniert ist. Eine Untersuchung der Strömung hinter den Konvergenzlinien zeigt, daß Morning Glories Wellenphänomene sind. NACLs hingegen behalten den Dichteströmungscharakter der Seebriese bei. Eine Sensitivitätstudie bezüglich der Grenzschichtparameterisierung wird durchgeführt, weil sich die hier untersuchten Phänomene in der planetaren Grenzschicht abspielen. Eine Gruppe von Parametrisierungen stellt sich anderen als überlegen heraus und als Grund für diese guten Ergebnisse wird die Berücksichtigung der großräumigen Gradienten identifiziert, die in den schlechter abschneidenden Parametrisierungen fehlt. Als beste Parametrisierung wird das MRF Schema für alle weiteren Simulationen ausgewählt. Eine Untersuchung der Sensitivität der Ergebnisse bezüglich der Bodenfeuchte zeigt, daß die Seebriesen um so schneller landeinwärts strömen, je trockener die Bodenverhältnisse sind. Die Erklärung hierfür ist, daß ein größerer Teil der eingehenden solaren Strahlung als fühlbare Wärme an die Atmosphäre abgegeben wird und so die Seebriesenzirkulation antreibt. Daraus resultiert, daß Morning-Glory Konvergenzlinien sowohl intensiver sind, als auch die Fortpflanzungsgeschwindigkeit größer ist wenn die Bodenfeuchte abnimmt. Ein solcher Zusammenhang konnte für die NACLs nicht bestimmt werden. Eine optimale Bodenfeuchte, mit der die Modellergebnisse am besten mit den Beobachtungen übereinstimmen, kann leider nicht ermittelt werden, da geeignete Methoden hierfür nicht zur Verfügung stehen. Die Güte der Ergebnisse bezogen auf die Bodendruck an den einzelnen Stationen des Experiments nimmt jedoch mit abnehmender Bodenfeuchte zu. Da aber die geringst möglichen Werte unrealistisch sind beziehungsweise keinen physikalischen Sinn haben und keine Meßdaten vorhanden sind, wird für alle weiteren Simulationen ein Wert für die Bodenfeuchte gewählt, wie er vom Australischen Wetterdienst benutzt wird. Um einige der aufgezeigten Zusammenhänge noch gründlicher zu untersuchen, wurden noch einige Modellexperimente mit modifizierter Orographie durchgeführt. Diese zeigen, daß weder Morning Glories noch NACLs entstehen, wenn keine Seebriese vom Golf von Carpentaria landeinwärts strömt und mit der Ostküstenseebriese beziehungsweise der sich von Süden her nähernden Kaltfront kollidiert. Ein systematischer Zusammenhang zwischen Höhe der Orographie und der Intensität oder der Geschwindigkeit der sich bildenden Konvergenzlinien kann nicht festgestellt werden. Die im Rahmen der Fallstudie aufgestellte Hypothese für die Trennungsursache von NACL und nordöstlichem Morning Glory kann nicht bestätigt werden und die horizontale Windscherung über der Kap York Halbinsel wird stattdessen als Ursache vorgeschlagen. Diese Hypothese wird durch die Ergebnisse eines Experiments mit uniformer Strömung in westlicher Richtung bestätigt. In diesem Experiment bildet sich nur eine Konvergenzlinie, die dem nordöstlichen Morning Glory entspricht und weit in das Gebiet hineinragt, in dem sich die NACL normalerweise befindet. Am zweiten Tag dieser Simulation entwickelt sich eine horizontale Windscherung, in der sich zwei unabhängige Konvergenzlinien bilden, die dem nordöstlichen Morning Glory und der NACL entsprechen.