Podcasts about nichtlinearit

  • 7PODCASTS
  • 10EPISODES
  • 36mAVG DURATION
  • ?INFREQUENT EPISODES
  • Dec 10, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about nichtlinearit

Latest podcast episodes about nichtlinearit

UnterBlog
Nichtlinearitäten und hyperbolisches Wachstum

UnterBlog

Play Episode Listen Later Dec 10, 2024 27:55


✘ Werbung: Mein Buch Katastrophenzyklen ► https://amazon.de/dp/B0C2SG8JGH/ Kunden werben Tesla-Kunden ► http://ts.la/theresia5687 Mein Buch Allgemeinbildung ► https://amazon.de/dp/B09RFZH4W1/ - #Nichtlinearitäten sind für den Homo sapiens schwer zu erkennen. Dabei lauert nicht nur exponentielles Wachstum in der modernen Zeit. Es gibt auch #hyperbolisches #Wachstum. Ein absoluter Killer. - Reupload 2013

Prof. Dr. Christian Rieck
272. Biden gegen Trump: Haben die USA wirklich keine besseren Kandidaten? (Hintermänner-Spiel) - Prof Rieck

Prof. Dr. Christian Rieck

Play Episode Listen Later Jun 30, 2024 24:51


Wieso treten in den USA zwei "verrückte" Kandidaten gegeneinander an? Haben die Demokraten und die Republikaner wirklich keine besseren Kandidaten zur Wahl? Ich entwickele hier ein spieltheoretisches Modell, das die Rationaliät dahinter zeigt. Die "Hintermänner" (die Profiteure schwacher Präsidenten aus der zweiten Reihe) spielen hier ein verstecktes Win-Win-Spiel. ►WEITERE INFORMATIONEN VON TEAM RIECK: Ein Spieltheoretisches Modell zur Auswahl von Präsidentschaftskandidaten in den USA In diesem Video möchten wir Ihnen ein spieltheoretisches Modell vorstellen, das erklärt, warum in den USA oft Präsidentschaftskandidaten ausgewählt werden, die nicht die besten Fähigkeiten oder Eigenschaften aufweisen. Es geht darum, die Entscheidungen der sogenannten "Hintermänner" zu analysieren, die diese Kandidaten auswählen. Diese Hintermänner haben ihre eigenen Interessen und Ziele, die beeinflussen, welche Kandidaten sie unterstützen. ○○Ausgangslage und Annahmen -Hintermänner und ihre Ziele: Die Hintermänner haben ein Interesse daran, dass ihr Kandidat gewählt wird, da sie dadurch mehr Einfluss erhalten. Dieser Einfluss ist ihre "Auszahlung". -Wahrscheinlichkeit und Auszahlung: Die Auszahlung der Hintermänner hängt von der Wahrscheinlichkeit ab, dass ihr Kandidat gewählt wird (P), und der Höhe des Einflusses, den sie erhalten, wenn der Kandidat gewinnt (A). Ihr Nutzen ist also P * A. -Stärke der Kandidaten: Normalerweise gilt, dass ein stärkerer Kandidat eine höhere Wahrscheinlichkeit hat, gewählt zu werden. Die Auszahlung steigt aber nicht proportional zur Stärke des Kandidaten. -Nichtlinearität der Auszahlungen: Es gibt einen Punkt, ab dem der Einfluss der Hintermänner überproportional ansteigt, wenn der Kandidat besonders schwach ist. Bei einem sehr schwachen (oder dementen) Kandidaten, der dennoch gewählt wird, haben die Hintermänner viel mehr Einfluss, da sie diesen Kandidaten kontrollieren können. ○○Strategien der Hintermänner -Starke Kandidaten: Wenn beide Seiten starke Kandidaten aufstellen, ist die Wahrscheinlichkeit fair und die Auszahlungen sind moderat. -Schwache Kandidaten: Wenn beide Seiten schwache Kandidaten aufstellen, kann es für die Hintermänner attraktiv sein, da ihr Einfluss im Falle eines Sieges höher ist. Reaktionen auf die andere Seite: Wenn die eine Seite einen starken Kandidaten aufstellt und die andere einen schwachen, ist die Wahrscheinlichkeit, dass der starke Kandidat gewinnt, höher. Dies führt zu unterschiedlichen strategischen Überlegungen. Spieltheoretische Analyse -Normalfall: Im Normalfall, wo beide Kandidaten stark sind, ist es für beide Seiten am besten, ebenfalls einen starken Kandidaten aufzustellen. Das führt zu stabilen und erwartbaren Ergebnissen. -Nichtlinearer Bereich: Wenn Kandidaten im nichtlinearen, schwachen Bereich aufgestellt werden, ändern sich die Anreize. Ein sehr schwacher Kandidat auf einer Seite kann die andere Seite dazu verleiten, ebenfalls einen schwachen Kandidaten aufzustellen, um den Einfluss im Falle eines Sieges zu maximieren. -Koordinationsspiel: Das Modell zeigt, dass es zwei Gleichgewichte gibt: Beide Seiten stellen starke Kandidaten auf, oder beide stellen schwache Kandidaten auf. Interessanterweise kann das Gleichgewicht mit den schwachen Kandidaten für die Hintermänner attraktiver sein, da sie im Falle eines Sieges viel mehr Einfluss haben. Fazit Die Analyse zeigt, dass die Auswahl von Präsidentschaftskandidaten oft nicht nur von den Fähigkeiten der Kandidaten abhängt, sondern stark von den strategischen Überlegungen der Hintermänner beeinflusst wird. In einem System, in dem der Einfluss der Hintermänner bei schwachen Kandidaten besonders hoch ist, können selbst schlechte Kandidaten für diese Akteure attraktiv sein. Dies erklärt, warum manchmal Kandidaten mit offensichtlichen Schwächen aufgestellt und unterstützt werden. ►WEITERES VON CHRISTIAN RIECK: *Die 36 Strategeme der Krise: ○Print: https://www.amazon.de/exec/obidos/ASI... ○Kindle: https://www.amazon.de/exec/obidos/ASI... *Schummeln mit ChatGPT: ○https://www.amazon.de/exec/obidos/ASI... ○https://www.amazon.de/exec/obidos/ASI... *Digni-Geld - Einkommen in den Zeiten der Roboter: ○Print: http://www.amazon.de/exec/obidos/ASIN... ○Ebook: http://www.amazon.de/exec/obidos/ASIN... ○YouTube: https://www.youtube.com/c/ProfRieck?s... ○Instagram: / profrieck ○Twitter: / profrieck ○LinkedIn: / profrieck #profrieck #trump #biden

Prof. Dr. Christian Rieck
272. Biden gegen Trump: Haben die USA wirklich keine besseren Kandidaten? (Hintermänner-Spiel) - Prof Rieck

Prof. Dr. Christian Rieck

Play Episode Listen Later Jun 30, 2024 24:51


Wieso treten in den USA zwei "verrückte" Kandidaten gegeneinander an? Haben die Demokraten und die Republikaner wirklich keine besseren Kandidaten zur Wahl? Ich entwickele hier ein spieltheoretisches Modell, das die Rationaliät dahinter zeigt. Die "Hintermänner" (die Profiteure schwacher Präsidenten aus der zweiten Reihe) spielen hier ein verstecktes Win-Win-Spiel. ►WEITERE INFORMATIONEN VON TEAM RIECK: Ein Spieltheoretisches Modell zur Auswahl von Präsidentschaftskandidaten in den USA In diesem Video möchten wir Ihnen ein spieltheoretisches Modell vorstellen, das erklärt, warum in den USA oft Präsidentschaftskandidaten ausgewählt werden, die nicht die besten Fähigkeiten oder Eigenschaften aufweisen. Es geht darum, die Entscheidungen der sogenannten "Hintermänner" zu analysieren, die diese Kandidaten auswählen. Diese Hintermänner haben ihre eigenen Interessen und Ziele, die beeinflussen, welche Kandidaten sie unterstützen. ○○Ausgangslage und Annahmen -Hintermänner und ihre Ziele: Die Hintermänner haben ein Interesse daran, dass ihr Kandidat gewählt wird, da sie dadurch mehr Einfluss erhalten. Dieser Einfluss ist ihre "Auszahlung". -Wahrscheinlichkeit und Auszahlung: Die Auszahlung der Hintermänner hängt von der Wahrscheinlichkeit ab, dass ihr Kandidat gewählt wird (P), und der Höhe des Einflusses, den sie erhalten, wenn der Kandidat gewinnt (A). Ihr Nutzen ist also P * A. -Stärke der Kandidaten: Normalerweise gilt, dass ein stärkerer Kandidat eine höhere Wahrscheinlichkeit hat, gewählt zu werden. Die Auszahlung steigt aber nicht proportional zur Stärke des Kandidaten. -Nichtlinearität der Auszahlungen: Es gibt einen Punkt, ab dem der Einfluss der Hintermänner überproportional ansteigt, wenn der Kandidat besonders schwach ist. Bei einem sehr schwachen (oder dementen) Kandidaten, der dennoch gewählt wird, haben die Hintermänner viel mehr Einfluss, da sie diesen Kandidaten kontrollieren können. ○○Strategien der Hintermänner -Starke Kandidaten: Wenn beide Seiten starke Kandidaten aufstellen, ist die Wahrscheinlichkeit fair und die Auszahlungen sind moderat. -Schwache Kandidaten: Wenn beide Seiten schwache Kandidaten aufstellen, kann es für die Hintermänner attraktiv sein, da ihr Einfluss im Falle eines Sieges höher ist. Reaktionen auf die andere Seite: Wenn die eine Seite einen starken Kandidaten aufstellt und die andere einen schwachen, ist die Wahrscheinlichkeit, dass der starke Kandidat gewinnt, höher. Dies führt zu unterschiedlichen strategischen Überlegungen. Spieltheoretische Analyse -Normalfall: Im Normalfall, wo beide Kandidaten stark sind, ist es für beide Seiten am besten, ebenfalls einen starken Kandidaten aufzustellen. Das führt zu stabilen und erwartbaren Ergebnissen. -Nichtlinearer Bereich: Wenn Kandidaten im nichtlinearen, schwachen Bereich aufgestellt werden, ändern sich die Anreize. Ein sehr schwacher Kandidat auf einer Seite kann die andere Seite dazu verleiten, ebenfalls einen schwachen Kandidaten aufzustellen, um den Einfluss im Falle eines Sieges zu maximieren. -Koordinationsspiel: Das Modell zeigt, dass es zwei Gleichgewichte gibt: Beide Seiten stellen starke Kandidaten auf, oder beide stellen schwache Kandidaten auf. Interessanterweise kann das Gleichgewicht mit den schwachen Kandidaten für die Hintermänner attraktiver sein, da sie im Falle eines Sieges viel mehr Einfluss haben. Fazit Die Analyse zeigt, dass die Auswahl von Präsidentschaftskandidaten oft nicht nur von den Fähigkeiten der Kandidaten abhängt, sondern stark von den strategischen Überlegungen der Hintermänner beeinflusst wird. In einem System, in dem der Einfluss der Hintermänner bei schwachen Kandidaten besonders hoch ist, können selbst schlechte Kandidaten für diese Akteure attraktiv sein. Dies erklärt, warum manchmal Kandidaten mit offensichtlichen Schwächen aufgestellt und unterstützt werden. ►WEITERES VON CHRISTIAN RIECK: *Die 36 Strategeme der Krise: ○Print: https://www.amazon.de/exec/obidos/ASI... ○Kindle: https://www.amazon.de/exec/obidos/ASI... *Schummeln mit ChatGPT: ○https://www.amazon.de/exec/obidos/ASI... ○https://www.amazon.de/exec/obidos/ASI... *Digni-Geld - Einkommen in den Zeiten der Roboter: ○Print: http://www.amazon.de/exec/obidos/ASIN... ○Ebook: http://www.amazon.de/exec/obidos/ASIN... ○YouTube: https://www.youtube.com/c/ProfRieck?s... ○Instagram: / profrieck ○Twitter: / profrieck ○LinkedIn: / profrieck #profrieck #trump #biden

Absolut Analog
044 Herr Schwarzschild und die Nichtlinearität

Absolut Analog

Play Episode Listen Later May 1, 2019 15:38


Chris und Moni reden über die analogen Dinge. Von schönen Kameras über Prozesse bei der Arbeit mit Film bis zu analogen Kuriositäten. Die Reise wird spannend und vielfältig.

Modellansatz
Reguläre Strömungen

Modellansatz

Play Episode Listen Later Nov 10, 2016 46:18


Strömungen beobachten wir fast jeden Tag. Die Meeresbrandung fasziniert uns und eine gut funktionierende Klimaanlage ist ein wunderbarer Luxus, egal ob sie wärmt oder kühlt. Strömungen zu beherrschen ist aber auch in vielen verfahrenstechnischen Zusammenhängen wichtig. Insofern haben Gleichungen, die Strömungen beschreiben, eine große praktische Relevanz und gleichzeitig eine fast emotionale Anziehungskraft. Das einfachste mathematische Modell, das auch für viele Computersimulationen genutzt wird, sind die inkompressiblen Navier-Stokes Gleichungen (INS). Hier ist die strömende Substanz dem Wasser ähnlich genug, dass nur in der Materialkonstante Viskosität verschiedene Fließfähigkeiten unterschieden werden. Als Lösungen des Systems von partiellen Differentialgleichungen suchen wir das Geschwindigkeitsfeld und den Druck als Funktionen von Raum und Zeit . Im 3d-Fall ist das ein System von vier Gleichungen. Drei davon sind eine Vektorgleichung, die aus der Impulserhaltung abgeleitet wird und die vierte ist die Erhaltung der Masse. Im inkompressiblen Fall vereinfacht sich diese aus die Forderung, dass die Divergenz des Geschwindigkeitsfeldes verschwindet. Die komplexer aussehende Gleichung ist die Vektorgleichung, weil hier die zweiten räumlichen Ableitungen des Geschwindigkeitsfeldes, der Druckgradient, die zeitliche Ableitung der Geschwindigkeit und ein nichtlinearer Term vorkommen. Die Gleichungen müssen im Strömungsgebiet gelten. Die Lösungen müssen sich aus dem Anfangszustand entwickeln (Anfangsbedingung) und am räumlichen Rand vorgeschriebenen Werten, den Randwerten (meist fordert man, dass die Geschwindigkeit Null ist) genügen. Dieses Modell ist in einem längeren Prozess entwickelt worden. Ein großer Durchbruch bei der mathematischen Analyse gelang dem französischen Mathematiker Leray im Jahr 1934. Er hatte die geniale Idee, sich von dem Wunsch zu verabschieden, für diese komplizierte Gleichung eine punktweise zutreffende Lösung zu konstruieren. Statt dessen verallgemeinerte er den Lösungsbegriff und führte den Begriff der schwachen Lösung ein. Diese erfüllt die Gleichung nur im Sinne eines ausgeklügelten Systems von unendlich vielen Integralgleichungen. Er zeigte mit Hilfe von abstrakten Argumenten, dass die INS immer solche schwachen Lösungen haben. Heute ist bekannt, dass falls eine punktweise Lösung existiert (sogenannte starke Lösung), diese eindeutig ist (also insbesondere mit der schwachen übereinstimmt), es in 2d immer eine punktweise Lösung gibt, die für alle Zeiten existiert (unter geringfügigen Bedingungen an den Rand), und es unter Kleinheitsbedingungen an die Daten und bei glattem geometrischen Rand des Gebietes auch in 3d punktweise Lösungen gibt.Wir wissen jedoch in 3d nicht, ob die gefundenen schwache Lösung regulär bzw. stark ist (d.h. eine punktweise Lösung ist.) In Vorbereitung auf den Jahrtausendwechsel gab es in der Mathematik die Bestrebung, so wie dies 100 Jahre zuvor von Hilbert geschehen war, die wichtigsten mathematischen Problemstellungen in den Fokus zu nehmen. Das Ergebnis waren sieben sogenannte Milleniumsprobleme der Clay Foundation, für deren Lösung jeweils ein Preisgeld von einer Millionen Dollar ausgelobt wurde. Eines dieser für so wichtig angesehenen Probleme ist die offene Frage der Regularität der schwachen Lösungen der INS. Woran liegt das? Eine Eigenschaft der INS, die sie schwierig macht, ist ihre Nichtlinearität. Sie ist nur quadratisch und hat eine besondere Struktur. Diese Struktur verdanken wir es z.B., dass die schwache Theorie erfolgreich ist. Es besteht Hoffnung, dass wir auch die Lücke zur starken Theorie unter Ausnutzung der Struktur schließen können. Der Standardweg im linearen Fall (z.B. beim Laplace-Problem) ist es, für die schwachen Lösungen mit einem Münchhausen-Prinzip (Elliptic Bootstrapping) Stück für Stück mehr Regularität zu zeigen. Man kann so zeigen, dass die Lösung immer so gut ist, wie die es Daten erlauben. Man nennt das maximale Regularität. Leider ist für die INS das Wachstum in der Nichtlinearität zu schnell, um im 3d-Fall mit diesen Standardmethoden zu argumentieren (im 2d Fall geht es aber). Im 3d-Fall geht es aber unter bestimmten Zusatzbedingungen, z.B. einer höheren Integrierbarkeit des Geschwindigkeitsfeldes als die schwachen Lösungen von vornherein haben. Man fand dies über Skalierungs-Eigenschaften der Gleichung heraus. Grob gesagt, muss man fordern dass die Lösung zu einem Raum gehört, der Skalierungsinvariant ist. Eine weitere zusätzliche Forderung ist die Gültigkeit der Energiegleichung (Erhaltung der kinetischen Energie), denn leider weiß man bisher von schwachen Lösungen nur, dass sie eine Energieungleichung erfüllen. Eine zweite Schwierigkeit der INS ist der Zusammenhang zwischen Druck und Divergenzgleichung. Ein Trick der schwachen Theorie ist, dass wir uns von Anfang an auf Funktionen beschränken, die schwach divergenzfrei sind (also die Gleichung in Integralmittel erfüllen. Was in der Theorie sehr gut funktioniert, ist blöd für die Numerik, weil man Divergenzfreiheit immer wieder herstellen muss wegen der Rechenfehler im Prozess. Unter den Forschern gibt es zwei Richtungen: Entweder man sucht nach Blow-up Lösungen, also schwachen Lösungen, die keine punktweisen Lösungen sein können, oder man versucht die Zusatzforderungen aufzuweichen (um sie am Ende ganz weglassen zu können). Dabei gibt es ständig kleine Fortschritte. Es gibt auch zwei Wege, für allgemeinere Modelle Theorien zu entwickeln, die dann im Spezialfall auch etwas über INS sagen. Ein durch O.A. Ladyzenskaya vorgeschlagener Zugang geht über den p-Laplace-Operator. Hier findet man starke Lösungen für alle p>2,5, die INS ist jedoch der Fall p=2. Als Materialgesetz interessant für Ingenieure ist aber der noch schwierigere Fall 1

Modellansatz
Newton-Verfahren

Modellansatz

Play Episode Listen Later Mar 10, 2016 31:11


Mathematik mit Kunst und Design erklären - das war ein Ziel des Cooking Math-Projekts. Robert Winkler forscht an der Fakultät für Mathematik zu numerischen Verfahren für schlecht gestellte Probleme. Das hilft z.B. Elektrische Impedanztomographie genauer und schneller zu machen. Seine Teilnahme am Cooking Math Projektes hat uns zum jetzigen Zeitpunkt zusammengeführt. Die Aufgabenstellung der Elektrischen Impedanztomographie ist es, aus Messungen auf der Oberfläche eines Körpers Rückschlüsse auf die Zusammensetzung im Inneren zu ziehen. Dazu dient bei der Elektrische Impedanztomographie die elektrische Leitfähigkeit im Innern, die Auswirkungen auf gemessene elektrische Potentiale an der Körperoberfläche hat. Aus physikalischen Zusammenhängen (hier Ohmsches Gesetz und Kirchhoffsche Regeln) lassen sich partielle Differentialgleichungen herleiten, die aus der Leitung im Innern die Oberflächenpotentiale berechenbar machen. Das nennt man Vorwärtsproblem. In der Praxis braucht man aber genau die andere Richtung - das sogenannte inverse Problem - denn man hat die Werte auf dem Rand gemessen und will unter den gleichen physikalischen Annahmen auf den Ablauf im Inneren schließen. Der Zusammenhang, der so modellhaft zwischen Leitfähigkeit und Potential am Rand entsteht, ist hochgradig nichtlinear. Außerdem ist er instabil, das heißt kleine Messfehler können dramatische Auswirkungen auf die Bestimmung der Leitfähigkeit haben. Daher müssen bei der numerischen Bearbeitung Verfahren gefunden werden, die die partielle Differentialgleichung numerisch lösen und dabei diese Nichtlinearität stabil behandeln können. Etabliert und sehr effektiv ist dabei das Newtonverfahren. Es ist weithin bekannt zur Nullstellensuche bei Funktionen von einer Variablen. Die grundlegende Idee ist, dass man ausgehend von einem Punkt in der Nähe der Nullstelle den Tangenten an der Funktion folgt um sich schrittweise der Nullstelle zu nähern. Durch die Information, die in der Tangentenrichtung verschlüsselt ist, entsteht so ein Verfahren zweiter Ordnung, was in der Praxis heißt, dass sich nach kurzer Zeit in jedem Schritt die Zahl der gültigen Stellen verdoppelt. Großer Nachteil ist, dass das nur dann funktioniert, wenn man nahe genug an der Nullstelle startet (dh. in der Regel braucht man zuerst ein Verfahren, das schon eine gute erste Schätzung für die Nullstelle liefert). Außerdem gibt es Probleme, wenn die Nullstelle nicht einfach ist. Wenn man das Newtonverfahren zum finden von Optimalstellen nutzt (dort wo die Ableitung eine Nullstelle hat), kann es natürlich nur lokale Minima/Maxima finden und auch nur dasjenige, das am nächsten vom Startwert liegt. Im Kontext der inversen Probleme wird das Newtonverfahren auch eingesetzt. Hier muss natürlich vorher eine geeignete Verallgemeinerung gefunden werden, die so wie die Ableitungen im eindimensionalen Fall eine Linearisierung der Funktion in einer (kleinen) Umgebung des Punktes sind. Der Kontext, in dem das recht gut möglich ist, ist die schwache Formulierung der partiellen Differentialgleichung. Der passende Begriff ist dann die Fréchet-Ableitung. Betrachtet man das Problem mathematisch in einem Raum mit Skalarprodukt (Hilbertraum), kann die Linearisierung mit dem Verfahren der konjugierten Gradienten behandelt werden. Dieses Verfahren findet besonders schnell eine gute Näherung an die gesuchte Lösung, indem es sich Eigenschaften des Skalarprodukts zunutze macht und die aktuelle Näherung schrittweise in besonders "effektive" Richtungen verbessert. Um das lineare Problem stabiler zu machen, nutzt man Regularisierungen und geht von vornherein davon aus, dass man durch Fehler in den Daten und im Modell ohnehin in der Genauigkeit eingeschränkt ist und in der numerischen Lösung nicht versuchen sollte, mehr Genauigkeit vorzutäuschen. Eine typische Regularisierung bei der Elektrische Impedanztomographie ist die Erwartung, dass die Leitfähigkeit stückweise konstant ist, weil jedes Material eine zugehörige Konstante besitzt. Im zugehörigen Cooking Math-Projekt soll der Modellerierungs- und Lösungsfindungsprozess visualisiert werden. Eine Idee hierfür ist das Spiel "Topfschlagen". Literatur und weiterführende Informationen R. Winkler, A. Rieder: Model-Aware Newton-Type Inversion Scheme for Electrical Impedance Tomography, Preprint 14/04 am Institut für Wissenschaftliches Rechnen und Mathematische Modellbildung, KIT, 2014. (Eingereicht zur Veröffentlichung in Inverse Problems 31, (2015) 045009). O. Scherzer: Handbook of Mathematical Methods in Imaging, Springer Verlag, ISBN 978-0-387-92919-4, 2011. Podcasts S. Hollborn: Impedanztomographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/impedanztomographie J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration D. Hipp: Dynamische Randbedingungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 83, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/dynamische-randbedingungen

Modellansatz
Sprache PDGL

Modellansatz

Play Episode Listen Later Aug 6, 2015 31:59


Catherine Bandle war bis 2003 Professorin am Mathematischen Institut der Universität in Basel. Aber auch über die Emeritierung hinaus ist sie sehr rege in der Forschung zu elliptischen und parabolischen partiellen Differentialgleichungen. Das zeigt sich an einer beeindruckenden Zahl von Publikationen, der Teilnahme an Tagungen und im Einbringen ihrer Erfahrung in die Tätigkeit von Gremien wie dem Landeshochschulrat Brandenburg und dem Steering Committee of the European Science Foundation program: Global and Geometric Aspects of Nonlinear Partial Differential Equations. Ihre Faszination für die Vielseitigkeit dieses Themas in den Anwendungen und die Zusammenhänge zur Geometrie haben sich über viele Jahrzehnte erhalten. Für den Workshop Nonlinear Days 2015 wurde sie für einen Hauptvortrag nach Karlsruhe eingeladen. Wir haben diese Gelegenheit genutzt, das Thema der Modellbildung mit Hilfe von partiellen Differentialgleichungen mit ihr etwas allgemeiner zu beleuchten. Traditionell stehen elliptische wie parabolische Gleichungen am Beginn der modernen Modellbildung von Prozessen in der Physik, der Biologie und Chemie. Hier sind es Diffusions-, Reaktions-, Transport- und Wachstumsprozesse, die zunächst durch gewöhnliche Differentialgleichungen beschrieben wurden. Allerdings waren vor etwa 150 Jahren die Anwendungen in Teilen schon zu komplex für dieses zu einfache Modell. Abhängigkeiten von Veränderungen in allen Raum- und der Zeitrichtung sollten interagierend erfasst werden. Das führte zwingend auf die partiellen Differentialgleichungen. Mit dem Aufstellen der Gleichungen verband sich die Hoffnung, durch die zugehörigen Lösungen Vorhersagen treffen zu können. Um diese Lösungen zu finden, brauchte es aber ganz neue Konzepte. Am Anfang der Entwicklung standen beispielsweise die Fourierreihen, die (unter den richtigen Voraussetzungen) eine Darstellung solcher Lösungen sein können. Werkzeuge wie Fourier- und Lapalacetransformation konnten zumindest für bestimmte Geometrien hilfreiche Antworten geben. Später wurder der Begriff der schwachen Lösung bzw. schwachen Formulierung geprägt und die damit verbundenen Sobolevräume auf verschiedenen Wegen entwickelt und untersucht. Die Suche nach den Lösungen der Gleichungen hat damit die theoretische Entwicklung in der Mathematik stark vorangetrieben. Heute sind wir froh, dass wir in der linearen Theorie (siehe auch Lemma von Lax-Milgram) vieles verstanden haben und versuchen uns Stück für Stück nichtlineare Modellen anzueignen. Ein erster Schritt ist häufig eine lokale Linearisierung oder das Zulassen von Nichtlinearitäten in untergeordneten Termen (semilineare Probleme). Ein integraler Bestandteil ist hier jedoch auch die Möglichkeit, mehr als eine Lösung der Gleichung zu haben und wir brauchen deshalb Konzepte, die physikalisch relevante unter ihnen zu finden. Hier sind Konzepte der Stabilität wichtig. Nur stabile Lösungen sind solche, die zu beobachtbaren Phänomenen führen. Wichtige Werkzeuge in der Lösungstheorie sind auch die Normen, in denen wir unsere Lösungen messen. Am überzeugendsten ist es, wenn sich Normen in Energien des Systems übersetzen lassen. Dann kann man auch die Stabilität im Rahmen von Energieerhaltung und Energieminimierung diskutieren. Literatur und Zusatzinformationen Catherine Bandle: Die Mathematik als moderne Weltsprache - Am Beispiel der Differenzialgleichungen, UniNova Wissenschaftsmagazin der Universität Basel, Band 87, 2000. R.Farwig: Skript zu Elementaren Differentialgleichungen, Technische Universität Darmstadt, 2008. Videos zu PDEs (in Englisch) Video zur Fourierreihenidee auf Deutsch

Einführung in die Optik (LMU)
Nichtlineare Optik

Einführung in die Optik (LMU)

Play Episode Listen Later Jan 29, 2012 91:31


In dieser Vorlesung wird die nichtlineare Optik behandelt: Aus der nichtlinearen Polarisation wird die Wellengleichung mit Nichtlinearität hergeleitet und die daraus resultierenden Phänomene besprochen.

optik vorlesung polarisation nichtlinearit wellengleichung
Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 02/06
2-Pyridone als Katalysatoren in der Spaltungsreaktion von Ester- und Amidbindungen

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 02/06

Play Episode Listen Later Dec 15, 2004


Im Rahmen dieser Arbeit wurde eine Serie von unterschiedlichen, bifunktionalen 3-Cyano-2-pyridonderivaten synthetisiert. Die Substanzen wurden in einem unpolaren Reaktionsmedium auf ihre katalytische Aktivität überprüft. Als Modellreaktion diente dabei die n-Butylaminolyse von p-Nitrophenylacetat, die mit Hilfe von 1H-NMR-Messungen in CDCl3 spektroskopisch verfolgt wurde. Wegen der begrenzten Löslichkeit der 3-Cyano-2-pyridone in unpolaren Medien war es notwendig, den Grundkörper durch Ringstrukturen und Alkylketten zu erweitern. Durch sukzessive und unabhängige Bestimmung der in der Reaktionskinetik vorhandenen Variablen wurde deren Anzahl im formulierten Geschwindigkeitsgesetz vermindert und eine exaktere Ermittlung der katalysatorabhängigen Geschwindigkeitskonstanten kkat ermöglicht. In diesem Zusammenhang wurde eine detaillierte Untersuchung des Assoziationsverhaltens der 2-Pyridone sowohl im angewandten Reaktionsmedium, als auch in den Festkörperstrukturen durchgeführt. Bei den kinetischen Untersuchungen der Aminolysereaktion wurde ein nichtlineares Verhalten der katalytischen Aktivität bei der konzentrationsabhängigen Zugabe von 2-Pyridonderivaten festgestellt. Ein kinetisches Modell, bei dem die Bildung von katalytisch abgeschwächten Pyridondimeren für die eingeschränkte Aktivität verantwortlich ist, wurde durch Kombination von temperatur- und konzentrationsabhängigen 1H-NMR-Messungen näher untersucht. Ein Vergleich der Ergebnisse zeigte eindeutig, dass eine Dimerenbildung nicht für die auftretende Nichtlinearität verantwortlich sein kann. Als wesentlich besser geeignet stellte sich ein kinetische Modell heraus, welches über ein vorgelagertes Gleichgewicht beschrieben wird. Die Bildung eines Katalysator-Substrat-Komplexes führt hierbei zur Erklärung der Nichtlinearität. Eine veränderte Einwirkung der unterschiedlichen Substitutionmuster der getesteten 3-Cyano-2-pyridone auf die Katalysatorkonstante kkat konnte kaum festgestellt werden. Eine weitere Motivation dieser Arbeit stellte die Entwicklung einer Modellreaktion für die Ester- und Amidspaltung unter physiologischen Bedingungen dar. Die Analytik wurde dabei auf eine HPLC-Analysenmethode übertragen. Dies ermöglichte die Detektion kleinster Veränderungen in den Konzentrationsverhältnissen und das Auffinden geringer Spuren von Nebenprodukten. Als Esterkomponente kam hier das in Gram-positiv Bakterien vorhandene Depsipeptidmotiv D-Ala-D-Lac zum Einsatz. Zur Visualisierung der Leitstruktur und der möglichen Reaktionsprodukte mit UV/Vis-Technik wurden die entsprechenden p-Nitrobenzoylderivate synthetisiert. Mit diesen Referenzsubstanzen wurde eine kinetische Analysenmethode entwickelt, welche eine einwandfreie Verfolgung der Reaktion des Substrats mit Nucleophilen wie Wasser, n-Butylamin und ausgewählten 2-Pyridonderivaten in einem wässrigen, gepufferten Medium bei 37 °C gewährleistet. Sie eignet sich außerdem zur routinemäßigen Überprüfung von Katalysatorsubstanzen und ermöglicht eine Quantifizierung der entsprechenden Reaktanten und Reaktionsprodukte.Über pH-Wert-abhängige Messungen der Hydrolysereaktionen konnte eine allgemeine Basenkatalyse für das vorliegende System festgestellt werden. Neben der starken Hydrolyse des D-Ala-D-Lac-Motivs in der mit n-Butylamin basenkatalysierten Reaktion konnte eine Bildung eines entsprechenden Aminolyseprodukts nicht nachgewiesen werden. Eine Beschleunigung der Aminolyse beim Einsatz der Pyridonderivate in der basenkatalysierten Reaktion mit n-Butylamin konnte ebenfalls nicht festgestellt werden. Eine verstärkt auftretende Spaltung der Amidbindung zwischen der chromophoren Einheit und dem D-Ala-D-Lac-Motiv dagegen konnte zweifelsfrei nachgewiesen und quantifiziert werden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Torsionelle Augenbewegungen bei galvanischen, natürlichen und pathologischen Reizzuständen des menschlichen Gleichgewichtssystems

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19

Play Episode Listen Later Jul 22, 2004


Der Ausgangspunkt dieser Arbeit war die Frage, ob sich die galvanische vestibuläre Stimulation (GVS) und die Messung der dadurch ausgelösten torsionellen Augenbewegungen zur Diagnostik vestibulärer Störungen eignen. Hierzu ist eine genaue Kenntnis der Wirkmechanismen der GVS notwendig. Bei der GVS wird ein Strom von einigen mA über die Felsenbeine geleitet, unter denen sich die Gleichgewichtsorgane befinden. Der Strom reizt diese Strukturen und verursacht so Bewegungsempfindungen, Körperschwankungen und -- durch den vestibulo-okulären Reflex (VOR) -- Augenbewegungen, die neben horizontalem Nystagmus auch aus phasischen und tonischen Torsionskomponenten bestehen. Letztere haben in der Literatur zu der Vermutung eines starken Otolithenbeitrags geführt. Bei näherer Betrachtung der bekannten VOR-Verstärkungen fiel jedoch auf, dass die tonische Komponente eine zu hohe Amplitude aufweist, um allein aus der elektrischen Erregung von Otolithen zu stammen. Deshalb wurde für die GVS die Hypothese eines dominanten Bogengangsanteils experimentell überprüft. Die Augenbewegungen wurden mittels Video-Okulographie (VOG) gemessen. Bei den eingesetzten Stimulationsintensitäten traten aber oft nur kleine Nystagmusschläge auf, die vom Rauschen des ursprünglich verwendeten VOG-Systems verdeckt wurden. Deshalb wurde mit handelsüblicher digitaler Videotechnik ein neues, rauschärmeres VOG-System entwickelt, das die Messung auch kleiner torsioneller Nystagmusschläge ermöglichte. Zusätzlich wurde zur Analyse der in phasischen und tonischen Komponenten interindividuell unterschiedlichen Augentorsionen ein neues Verfahren zur künstlichen Elimination von torsionellem Nystagmus eingeführt. Dies ermöglichte einerseits, alle Probandendaten trotz interindividueller Unterschiede auf einer gemeinsamen Basis miteinander zu vergleichen, und andererseits, die Eigenschaften der beobachteten Augenbewegungen im Kontext der Ergebnisse anderer VOR-Studien zu diskutieren. Bei den Experimenten mit gesunden Probanden wurden Augentorsionen während transmastoidaler Wechselstromstimulationen aufgezeichnet. Im Bereich von 0,005-1,67 Hz entsprach die gemessene Frequenzcharakteristik jener des torsionellen VOR-Integrators. In einem weiteren Versuch wurden Gleichstromstimulationen mit natürlichen Kopfdrehungen verglichen, deren Verlauf so angepasst wurde, dass die Afferenzen im Bogengangsmodell in ähnlicher Weise wie bei der galvanischen Reizung aktiviert wurden. Dabei waren die Augenbewegungen beider Bedingungen statistisch nicht unterscheidbar, was die eingangs formulierte Hypothese weiter stützte. Zusätzlich konnten Idiosynkrasien in den tonischen und phasischen Komponenten der Augentorsion auf eine individuell variierende Nystagmusverarbeitung zurückgeführt werden, die auch vorhandene Nichtlinearitäten im torsionellen VOR erklären konnte. Bei allen eingesetzten Reizen wurde beobachtet, dass jeder Lidschlag eine torsionelle Sakkade auslöste, deren Amplitude im Vergleich zu den sonstigen Nystagmusschlägen signifikant erhöht war. Da bei Patienten mit einer einseitigen vestibulären Störung eine zumindest qualitativ ähnliche Tonus-Imbalance vorliegt wie bei der galvanischen Reizung, stellte sich die Frage nach der Übertragbarkeit dieses Effektes auf den pathologischen Fall. In der Tat konnten Messungen an Patienten belegen, dass auch hier jeder Lidschlag eine schnelle torsionelle Nystagmusphase auslöst. Damit konnte gezeigt werden, dass sich torsionelle Augenbewegungen während wiederholtem Blinzeln als einfacher Standardtest für die klinische Untersuchung einseitiger vestibulärer Erkrankungen eignen.