POPULARITY
Die Tage werden kuerzer und allen wird klar, wie wichtig es ist, das Licht! Und auch im Meer spielt das Licht eine grosse Role. Deshalb sprechen wir heute ueber Licht als Zeitgeber fuer Muescheln, aber auch als Gradienten im Meer in mesophotischen Riffen.
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudruns Arbeitsgruppe begrüßte im Januar 2020 Andrea Walther als Gast. Sie ist Expertin für das algorithmische Differenzieren (AD) und ihre Arbeitsgruppe ist verantwortlich für das ADOL-C Programmpaket zum algorithmischen Differenzieren. Zusammen mit Andreas Griewank hat sie 2008 das Standardbuch zu AD veröffentlicht. Im Abitur und im mathematischen Grundstudium lernt jede und jeder Anwendungen kennen, wo Ableitungen von Funktionen gebraucht werden. Insbesondere beim Auffinden von Minima und Maxima von Funktionen ist es sehr praktisch, dies als Nullstellen der Ableitung zu finden. Bei der Modellierung komplexer Zusammenhänge mit Hilfe von partiellen Differentialgleichungen ist es möglich, diese Idee in ein abstrakteres Setting zu Übertragen. Eine sogenannte Kostenfunktion misst, wie gut Lösungen von partiellen Differentialgleichungen einer vorgegebenen Bedingung genügen. Man kann sich beispielsweise einen Backofen vorstellen, der aufgeheizt wird, indem am oberen und unteren Rand eine Heizspirale Wärme in den Ofen überträgt. Für den Braten wünscht man sich eine bestimmte Endtemperaturverteilung. Die Wärmeverteilung lässt sich mit Hilfe der Wärmeleitungsgleichung berechnen. In der Kostenfunktion wird dann neben der gewünschten Temperatur auch noch Energieeffizienz gemessen und die Abweichung von der Endtemperatur wird zusammen mit der benötigten Energie minimiert. Auch hierzu werden Ableitungen berechnet, deren Nullstellen helfen, diese Kosten zu minimeren. Man spricht hier von optimaler Steuerung. Eine Möglichkeit, die abstrakte Ableitung auszudrücken, ist das Lösen eines sogenannten adjungierten partiellen Differenzialgleichungsproblems. Aber hier wird es sehr schwierig, immer schnell und fehlerfrei Ableitungen von sehr komplexen und verschachtelten Funktionen zu berechnen, zumal sie für jedes Problem immer wieder neu und anders aussehen. Außerdem braucht man in der numerischen Auswertung des Algorithmus oft nur Werte dieser Ableitung an bestimmten Stellen. Deshalb ist die effiziente Berechnung von Funktionswerten der Ableitung ein unverzichtbarer Baustein in zahlreichen Anwendungen, die von Methoden zur Lösung nichtlinearer Gleichungen bis hin zu ausgefeilten Simulationen in der Optimierung und optimalen Kontrolle reichen. Am liebsten sollte dies der Computer fehlerfrei oder doch mit sehr kleinen Fehlern übernehmen können. Auch für das Newtonverfahren braucht man die Ableitung der Funktion. Es ist das Standardverfahren zur Lösung nichtlinearer Gleichungen und Gleichungssysteme. Das algorithmische Differenzieren (AD) liefert genaue Werte für jede Funktion, die in einer höheren Programmiersprache gegeben ist, und zwar mit einer zeitlichen und räumlichen Komplexität, die durch die Komplexität der Auswertung der Funktion beschränkt ist. Der Kerngedanke der AD ist die systematische Anwendung der Kettenregel der Analysis. Zu diesem Zweck wird die Berechnung der Funktion in eine (typischerweise lange) Folge einfacher Auswertungen zerlegt, z.B. Additionen, Multiplikationen und Aufrufe von elementaren Funktionen wie zum Beispiel Exponentialfunktion oder Potenzen. Die Ableitungen bezüglich der Argumente dieser einfachen Operationen können leicht berechnet werden. Eine systematische Anwendung der Kettenregel ergibt dann die Ableitungen der gesamten Sequenz in Bezug auf die Eingangsvariablen Man unterscheidet zwei Verfahren: den Vorwärts- und den Rückwärtsmodus. Im Vorwärtsmodus berechnet man das Matrizenprodukt der Jacobi-Matrix mit einer beliebigen Matrix (sogenannte Seedmatrix), ohne vorher die Komponenten der Jacobi-Matrix zu bestimmen. Der Rückwärtsmodus besteht aus zwei Phasen. Die Originalfunktion wird zunächst ausgeführt und gewisse Daten abgespeichert. Anschließend rechnet man rückwärts. Dabei werden Richtungsableitungen übergeben und es werden die im ersten Schritt gespeicherten Daten verwendet. Mit dem Rückwärtsmodus von AD ist es möglich, den Gradienten einer skalarwertigen Funktion mit Laufzeitkosten von weniger als vier Funktionsauswertungen zu berechnen. Diese Grenze ist auch noch völlig unabhängig von der Anzahl der Eingangsvariablen. Das ist phänomenal effektiv, aber er ist mit einem erhöhten Speicherbedarf verbunden. Im Laufe der Jahre wurden Checkpointing-Strategien entwickelt, um einen goldenen Mittelweg zu finden. Die Methoden sind für viele und sehr unterschiedliche Anwendungen interessant. In DFG-Projekten an denen Andrea beteiligt war und ist, wurde das unter anderem für die Modellierung von Piezokeramiken und für die Maxwellsche Wellengleichung umgesetzt. Außerdem sprechen Gudrun und Andrea über die Optimierung der Form einer Turbinenschaufel. Andrea begann ihre berufliche Laufbahn mit einer Ausbildung zur Bankkauffrau in Bremerhaven. Sie entschied sich anschließend für ein Studium der Wirtschaftsmathematik, um Mathematik und ihren erlernten Beruf zusammen zu halten. Unter den wenigen verfügbaren Standorten für so ein Studium in Deutschland entschied sie sich für die Universität Bayreuth. Nach Abschluss des Diploms gab es die Chance, an der TU Dresden im Optimierungsfeld zu arbeiten. Dort promovierte sie, wurde es später Leiterin der selbständigen Nachwuchsgruppe "Analyse und Optimierung von Computermodellen", Juniorprofessorin für "Analyse und Optimierung von Computermodellen" und habilitierte sich. 2009-2019 war sie als Professorin für "Mathematik und ihre Anwendungen" an der Universität Paderborn tätig. Seit Oktober 2019 ist sie Professorin für "Mathematische Optimierung", Humboldt-Universität zu Berlin. Literatur und weiterführende Informationen A. Griewank und A. Walther: Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Second Edition. SIAM (2008). A. Gebremedhin und A. Walther: An Introduction to Algorithmic Differentiation. in WIREs Data Mining and Knowledge Discovery. S. Fiege, A. Walther und A. Griewank: An algorithm for nonsmooth optimization by successive piecewise linearization. Mathematical Programming 177(1-2):343-370 (2019). A. Walther und A. Griewank: Characterizing and testing subdifferential regularity for piecewise smooth objective functions. SIAM Journal on Optimization 29(2):1473-1501 (2019). Podcasts G. Thäter, A. Zarth: Automatic Differentiation, Gespräch im Modellansatz Podcast, Folge 167, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, P. Allinger und N. Stockelkamp: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
Man soll den Tag nicht vor dem Abend verfluchen - mit etwas eigener Arbeit geht auch in sphärischen Koordinaten die Minimierung. Was man mit Gradienten machen muss, damit sie konjugierte Gradienten sind, und warum das hilfreich ist, darum geht es in dieser Folge.
Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung. Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck. Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung. Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist. Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig. Literatur und weiterführende Informationen D. Gallistl. Rayleigh-Ritz approximation of the inf-sup constant for the divergence. Math. Comp. (2018) Published online, https://doi.org/10.1090/mcom/3327 Ch. Bernardi, M. Costabel, M. Dauge, and V. Girault, Continuity properties of the inf-sup constant for the divergence, SIAM J. Math. Anal. 48 (2016), no. 2, 1250–1271. https://doi.org/10.1137/15M1044989 M. Costabel and M. Dauge, On the inequalities of Babuška-Aziz, Friedrichs and Horgan-Payne, Arch. Ration. Mech. Anal. 217 (2015), no. 3, 873–898. https://doi.org/10.1007/s00205-015-0845-2 D. Boffi, F. Brezzi, and M. Fortin, Mixed finite element methods and applications, Springer Series in Computational Mathematics, vol. 44, Springer, Heidelberg, 2013. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) http://www.kit.edu/ erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik entwickelt. Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik. Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert. Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt. Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parataxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen. Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS) ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden. Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten. Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600x1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen. Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen. Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten. Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann. Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen. Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss. Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.Literatur und weiterführende Informationen D.Koester: A Guidance and Obstacle Evasion Software Framework for Visually Impaired People, Diplomarbeit an der Fakultät für Informatik, Karlsruher Institut für Technologie (KIT), 2013.D. Koester, B. Schauerte, R. Stiefelhagen: Accessible Section Detection for Visual Guidance, IEEE International Conference on Multimedia and Expo Workshops (ICMEW), 2013.
Viel Spaß mit diesen vier Themen! ~Wenn Wellen miteinander wechselwirken nennt man das /*/Interferenz/*/. Wenn im Meer 2 Wellenberge aufeinandertreffen wird die Welle höher. Trifft ein Wellenberg auf ein Wellental gleichen sie sich aus. Was im Meer (oder der Badewanne) funktioniert, lässt sich natürlich auch auf Licht- oder Elektronenwellen übertragen. Max erklärt den von allen Schülern geliebten Doppelspaltversuch und beweist damit, dass Schrödingers Katze tot und lebendig gleichzeitig ist. ~Ionen sind geladene Teilchen. Davon haben wir nahezu unendlich davon in unserem Körper und sie erfüllen fast ebenso viele Aufgaben. Um Ionen jedoch über die isolierende Zellwand zu transportieren benötigt man Ionenkanäle. Eine aktive Version dieser Kanäle ist die /*/Ionenpumpe/*/. Hier werden Ionen unter Energieaufwand gegen ihren chemischen oder elektrischen Gradienten über die Zellmembran transportiert. Außerdem lässt sich das System - das einem Elektromotor gleicht - auch zur Energiespeicherung benutzen. ~Nachdem Max in der letzten Folge über Hinduismus geredet hat wendet er sich einer weiteren Weltreligion zu. Der /*/Islam/*/ gleicht von seiner Geschichte und Lehre eher dem Christentum als den Asiatischen Religionen und teilt sich sogar Propheten mit ihm. Auf was der Islam basiert und wie er noch heute das Leben der am schnellsten wachsenden religiösen Gruppe beeinflusst erfahrt ihr hier. ~Nur noch ungebildete Menschen pflanzen sich fort, weil die Akademiker stets Ausreden finden. Diese dystopische Aussicht gibt der Film /*/Idiocracy/*/, den Adrian sich in Vorbereitung auf diesen Podcast angeschaut hat. Wie das Leben laut den Drehbuchautoren in 500 Jahren aussieht und für wie wahrscheinlich wir das halten erfahrt ihr in unserem vierten Thema. Darauf erstmal einen guten Schluck Brawndos (das enthält Elektrolyte!).
Jens Babutzka hat Anfang 2016 seine Promotion an der KIT-Fakultät für Mathematik verteidigt. Das Gespräch dreht sich um einen Teil seiner Forschungsarbeit - dem Nachweis der Gültigkeit der sogenannten Helmholtz Zerlegung im Kontext von Gebieten mit einer sich periodisch wiederholenden Geometrie. Das lässt sich für die Untersuchung von photonischen Kristallen ausnutzen unter der Wirkung einer Zeit-harmonischen Wellengleichung. Für die Untersuchung von partiellen Differentialgleichungen auf Lösbarkeit, Eindeutigkeit der Lösungen und deren Regularität gibt es verschiedene Grundwerkzeuge. Eines ist die Helmholtz Zerlegung. Falls sie in einem Raum möglich ist, kann man jedes Vektorfeld des Raumes eindeutig aufteilen in zwei Anteile: einen Gradienten und einen zweiten Teil, der unter der Anwendung der Divergenz das Ergebnis Null hat (man nennt das auch divergenzfrei). Wann immer Objekte miteinander skalar multipliziert werden, von denen eines ein Gradient ist und das andere divergenzfrei, ist das Ergebnis Null. Anders ausgedrückt: sie stehen senkrecht aufeinander. Die Untersuchung der partiellen Differentialgleichung lässt sich dann vereinfachen, indem eine Projektion auf den Teilraum der divergenzfreien Funktionen erfolgt und erst im Anschluss die Gradienten wieder "dazu" genommen, also gesondert behandelt werden. Da die Eigenschaft divergenzfrei auch physikalisch als Quellenfreiheit eine Bedeutung hat und alle Gradienten wirbelfrei sind, ist für verschiedene Anwendungsfälle sowohl mathematisch als auch physikalisch motivierbar, dass die Aufteilung im Rahmen der Helmholtz Zerlegung hilfreich ist. Im Kontext der Strömungsmechanik ist die Bedingung der Divergenzfreiheit gleichbedeutend mit Inkompressibilität des fließenden Materials (dh. Volumina ändern sich nicht beim Einwirken mechanischer Kräfte). Für das Maxwell-System kann es sowohl für das magnetische als auch für das elektrische Feld Divergenzfreiheitsbedingungen geben. Ob die Helmholtz Zerlegung existiert, ist im Prinzip für viele Räume interessant. Grundbausteine für die Behandlung der partiellen Differentialgleichungen im Kontext der Funktionalanalysis sind die Lebesgue-Räume . Eine (verallgemeinerte) Funktion ist in , wenn das Integral (des Betrags) der q-ten Potenz der Funktion über Omega existiert. Eine Sonderrolle spielt hier der Fall , weil dieser Raum ein Skalarprodukt hat. Das gibt ihm eine sehr klare Struktur. Darüber hinaus ist er zu sich selbst dual. Unter anderem führt das dazu, dass die Helmholtz Zerlegung in für beliebige Gebiete mit genügend glattem Rand immer existiert. Wenn nicht ist, sind Gebiete bekannt, in denen die Helmholtz Zerlegung existiert, aber auch Gegenbeispiele. Insbesondere bei der Behandlung von nichtlinearen Problemen reicht es aber häufig nicht, sich auf den Fall zu beschränken, sondern die Helmholtz Zerlegung für möglichst viele wird eine wesentliche Voraussetzung für die weitere Theorie. Das liegt u.a. an der dann verfügbaren Einbettung in Räume mit punktweisen Eigenschaften. Jens Babutzka hat in seiner Promotion unter anderem bewiesen, dass die Helmholtz Zerlegung für -Räume für die Gebiete mit einer sich periodisch wiederholenden Struktur gilt. Mathematisch muss er hierfür nachweisen, dass das schwache Neumannproblem immer eine (bis auf Konstanten) eindeutige Lösung hat in . Dabei hilft ihm die periodische Struktur der Geometrie. Mithilfe eines erst kürzlich bewiesenen Theorems von Bernhard Barth über Blochoperatoren kann er das Problem auf eine Familie von Phasenoperatoren auf der (beschränkten) periodischen Zelle reduzieren. Falls diese Operatoren regulär genug sind, lassen sie sich fortsetzen von auf . Anschließend überprüft er, ob die so erzeugte Abbildung auch wirklich die Helmhotz Zerlegung ist. Hier ist ein wesentliches Hilfsmittel, dass unendlich glatte Funktionen mit kompaktem Träger dicht in den Teilräumen liegen. Außerdem ist die Fouriertheorie in der besonderen Form der Blochoperatoren hilfreich. Sie hilft später auch beim Auffinden des Spektrums des betrachteten Wellenoperators. Für beschränkte Gebiete hängt es im Wesentlichen von der Glattheit des Randes ab, ob die Helmholtz Zerlegung in gilt. Das liegt u.a. daran, dass man in der Lage sein muss, eine eindeutige Normalenrichtung für jeden Punkt des Randes zu finden. Für Knicke im Rand kann es hier Probleme geben, die dazu führen, dass das schwache Neumann Problem nur noch für in einem kleineren Intervallbereich lösbar ist, und nicht mehr für alle zwischen und wie das bei glattem Rand der Fall ist. Literatur und weiterführende Informationen A. Figotin and P. Kuchment: Band-Gap Structure of Spectra of Periodic Dielectric and Acoustic Media. II. Two-Dimensional Photonic Crystals, SIAM J. Appl. Math., 56, 1561–1620, 1995. P. Galdi: An Introduction to the Mathematical Theory of the Navier-Stokes Equations - Steady-State Problems, Springer, 2011. B. Barth: The Bloch Transform on Lp-Spaces, KIT-Dissertation, 2013. W. Dörlfer e.a: Photonic Crystals: Mathematical Analysis and Numerical Approximation, Birkhäuser, 2011. M. Geissert e.a.: Weak Neumann implies Stokes, Journal für die reine und angewandte Mathematik 669, 75–100, 2012. Quellen für physikalische Grundlagen A. Birner e.a.: Photonische Kristalle, Physikalische Blätter 55 (1999), 27-33, 1999. Photonische Kristalle
Mathematik mit Kunst und Design erklären - das war ein Ziel des Cooking Math-Projekts. Robert Winkler forscht an der Fakultät für Mathematik zu numerischen Verfahren für schlecht gestellte Probleme. Das hilft z.B. Elektrische Impedanztomographie genauer und schneller zu machen. Seine Teilnahme am Cooking Math Projektes hat uns zum jetzigen Zeitpunkt zusammengeführt. Die Aufgabenstellung der Elektrischen Impedanztomographie ist es, aus Messungen auf der Oberfläche eines Körpers Rückschlüsse auf die Zusammensetzung im Inneren zu ziehen. Dazu dient bei der Elektrische Impedanztomographie die elektrische Leitfähigkeit im Innern, die Auswirkungen auf gemessene elektrische Potentiale an der Körperoberfläche hat. Aus physikalischen Zusammenhängen (hier Ohmsches Gesetz und Kirchhoffsche Regeln) lassen sich partielle Differentialgleichungen herleiten, die aus der Leitung im Innern die Oberflächenpotentiale berechenbar machen. Das nennt man Vorwärtsproblem. In der Praxis braucht man aber genau die andere Richtung - das sogenannte inverse Problem - denn man hat die Werte auf dem Rand gemessen und will unter den gleichen physikalischen Annahmen auf den Ablauf im Inneren schließen. Der Zusammenhang, der so modellhaft zwischen Leitfähigkeit und Potential am Rand entsteht, ist hochgradig nichtlinear. Außerdem ist er instabil, das heißt kleine Messfehler können dramatische Auswirkungen auf die Bestimmung der Leitfähigkeit haben. Daher müssen bei der numerischen Bearbeitung Verfahren gefunden werden, die die partielle Differentialgleichung numerisch lösen und dabei diese Nichtlinearität stabil behandeln können. Etabliert und sehr effektiv ist dabei das Newtonverfahren. Es ist weithin bekannt zur Nullstellensuche bei Funktionen von einer Variablen. Die grundlegende Idee ist, dass man ausgehend von einem Punkt in der Nähe der Nullstelle den Tangenten an der Funktion folgt um sich schrittweise der Nullstelle zu nähern. Durch die Information, die in der Tangentenrichtung verschlüsselt ist, entsteht so ein Verfahren zweiter Ordnung, was in der Praxis heißt, dass sich nach kurzer Zeit in jedem Schritt die Zahl der gültigen Stellen verdoppelt. Großer Nachteil ist, dass das nur dann funktioniert, wenn man nahe genug an der Nullstelle startet (dh. in der Regel braucht man zuerst ein Verfahren, das schon eine gute erste Schätzung für die Nullstelle liefert). Außerdem gibt es Probleme, wenn die Nullstelle nicht einfach ist. Wenn man das Newtonverfahren zum finden von Optimalstellen nutzt (dort wo die Ableitung eine Nullstelle hat), kann es natürlich nur lokale Minima/Maxima finden und auch nur dasjenige, das am nächsten vom Startwert liegt. Im Kontext der inversen Probleme wird das Newtonverfahren auch eingesetzt. Hier muss natürlich vorher eine geeignete Verallgemeinerung gefunden werden, die so wie die Ableitungen im eindimensionalen Fall eine Linearisierung der Funktion in einer (kleinen) Umgebung des Punktes sind. Der Kontext, in dem das recht gut möglich ist, ist die schwache Formulierung der partiellen Differentialgleichung. Der passende Begriff ist dann die Fréchet-Ableitung. Betrachtet man das Problem mathematisch in einem Raum mit Skalarprodukt (Hilbertraum), kann die Linearisierung mit dem Verfahren der konjugierten Gradienten behandelt werden. Dieses Verfahren findet besonders schnell eine gute Näherung an die gesuchte Lösung, indem es sich Eigenschaften des Skalarprodukts zunutze macht und die aktuelle Näherung schrittweise in besonders "effektive" Richtungen verbessert. Um das lineare Problem stabiler zu machen, nutzt man Regularisierungen und geht von vornherein davon aus, dass man durch Fehler in den Daten und im Modell ohnehin in der Genauigkeit eingeschränkt ist und in der numerischen Lösung nicht versuchen sollte, mehr Genauigkeit vorzutäuschen. Eine typische Regularisierung bei der Elektrische Impedanztomographie ist die Erwartung, dass die Leitfähigkeit stückweise konstant ist, weil jedes Material eine zugehörige Konstante besitzt. Im zugehörigen Cooking Math-Projekt soll der Modellerierungs- und Lösungsfindungsprozess visualisiert werden. Eine Idee hierfür ist das Spiel "Topfschlagen". Literatur und weiterführende Informationen R. Winkler, A. Rieder: Model-Aware Newton-Type Inversion Scheme for Electrical Impedance Tomography, Preprint 14/04 am Institut für Wissenschaftliches Rechnen und Mathematische Modellbildung, KIT, 2014. (Eingereicht zur Veröffentlichung in Inverse Problems 31, (2015) 045009). O. Scherzer: Handbook of Mathematical Methods in Imaging, Springer Verlag, ISBN 978-0-387-92919-4, 2011. Podcasts S. Hollborn: Impedanztomographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/impedanztomographie J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration D. Hipp: Dynamische Randbedingungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 83, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/dynamische-randbedingungen
Wie bringt man einem Roboter das Gehen bei? Cornelius Kuhs hat sich dieser Frage am Humanoiden Fünf-Segment-Läufer am Institut für Technische Mechanik gestellt, und hat die Bewegungen am Modell von Differentialgleichungen auf die Energieeffizienz des Bewegungsablaufs studiert. Die Energieeffizienz bezieht sich hier auf die spezifischen Transportkosten, das ist hier die aufgebrachte Energie geteilt durch das Produkt von Gewicht und zurückgelegter Distanz. Die Bewegungsabläufe sind jedoch nicht durch analytisches Lösen der Differentialgleichungen des Modells zu bestimmen, hier wurden verschiedene Ansätze ausgetestet, die dann mittels mathematischer Optimierung auf einen möglichst geringen Energieverbrauch verbessert werden. Dabei sind viele physikalische Randbedingungen, wie der Position des Bodens, und technische Bedingungen, die beispielsweise das Umknicken des Kniegelenks verhindern, schon im Modell eingebaut. Darüber hinaus gibt es aber auch weitere Eigenschaften und Einschränkungen, die verschiedene Lösungen mehr oder weniger nützlich erscheinen lassen. Aus mathematischer Sicht sind die Eigenschaften der Zielfunktion, die in der Optimierung betrachtet wird, sehr interessant: Diese sind oft nur stückweise differenzierbar, was aber bei der Differenzenquotienten keine Probleme macht- außer es tritt ein Pol auf. Mit der Berechenbarkeit von Ableitungen stehen sehr effiziente Gradienten-basierte Optimierungsverfahren zur Verfügung, jedoch ist die Zielfunktion nicht ableitbar, so werden die erwünschten Konvergenzeigenschaften eventuell nicht erreicht. Ebenso interessant ist der Bereich der numerischen Integration, da auch hier Schwierigkeiten bei geringer Ableitbarkeit der Integranden auftreten können: Effiziente Verfahren höherer Ordnung werden nur dann schneller zum Ergebnis führen, wenn es stückweise höhere Ableitungen der Funktionen gibt, die auch beschränkt bleiben. Ebenso gibt es die Frage der Schrittweite oder der Diskretisierung in der numerischen Differenziation. Diese Fragestellungen führen auf das Gebiet der numerischen Stabilität: Hier stellt man sich nicht die Frage, ob der Roboter steht, sondern ob überhaupt ein Ergebnis berechenbar oder das Berechnete glaubhaft oder mit mehr Rechenkapazität überhaupt genauer berechnet werden kann. Literatur und Zusatzinformationen E. Westervelt, J. Grizzle, C. Chevallereau, J. Choi, B. Morris: Feedback control of dynamic bipedal robot locomotion, CRC press, 2007. F. Bauer: Optimierung der Energieeffizienz zweibeiniger Roboter durch elastische Kopplungen, KIT Scientific Publishing, 2014.
Im Herbst beginnen die neuen Studiengänge der Mathematik am KIT und neben den Vorlesungen zur Linearen Algebra, Stochastik oder Numerik gehört die Analysis zu den mathematischen Vorlesungen, mit dem das Studium der Mathematik in den ersten Semestern beginnt. Dazu spricht Sebastian Ritterbusch mit Johannes Eilinghoff, der im letzten Jahr den Übungsbetrieb der Analysis-Vorlesungen mit großem Anklang organisiert hat.Die Analysis befasst sich besonders mit der Mathematik um Funktionen auf reellen Zahlen, welche Eigenschaften sie haben, und wie man diese differenzieren oder integrieren kann. Vieles zur Geschichte der Analysis findet man besonders in den Büchern von Prof. Dr. Michael von Renteln, der unter anderem über die Geschichte der Analysis im 18. Jahrhundert von Euler bis Laplace, die Geschichte der Analysis im 19. Jahrhundert von Cauchy bis Cantor, über Aspekte zur Geschichte der Analysis im 20. Jahrhundert von Hilbert bis J. v. Neumann und über die Die Mathematiker an der Technischen Hochschule Karlsruhe 1825-1945 geschrieben hat.Grundlage für die Mathematik in der Analysis sind die Zahlenmengen, wie die abzählbaren natürlichen Zahlen , ganzen Zahlen , rationale Zahlen und schließlich die überabzählbaren reellen Zahlen . Während die natürlichen Zahlen direkt mit dem Beweisprinzip der vollständigen Induktion in Verbindung stehen und für sich schon ein Thema der Zahlentheorie sind, benötigt man für die Analysis mindestens die reellen Zahlen. Diese kann man über konvergente Folgen bzw. Cauchy-Folgen rationaler Zahlen einführen. Für den Beweis der Äquivalenz dieser beiden Konvergenzbegriffe kann man die Dreiecksungleichung sehr gut gebrauchen. Ein Beispiel für eine Folge rationaler Zahlen, die gegen eine irrationale Zahl konvergieren ist , die gegen die Eulersche Zahl konvergiert, d.h. . Aus jeder Folge kann man eine Reihe bilden, indem man die Folgenglieder aufsummiert. Wichtige Reihen sind die geometrische Reihe mit Summenwert , wenn , und die divergente Harmonische Reihe, mit der man sogar Brücken bauen kann.Über den Begriff der Folge kann man auch offene Mengen und abgeschlossene Mengen definieren, so wie dies auch mit Epsilon-Umgebungen definiert werden kann. Diese Eigenschaften werden im Bereich der mathematischen Topologie noch viel umfassender eingeführt, aber schon diese Darstellungen helfen, den wichtigen Begriff der Funktion in der Analysis und deren Eigenschaften einzuführen. Zur Definition einer Funktion gehört neben der eigentlichen Abbildungsvorschrift die Angabe der Definitionsmenge und der Wertebereich. Ohne diese Informationen ist es nicht möglich Surjektivität und Injektivität nachzuweisen.Eine wichtige Eigenschaft von Funktionen ist der Begriff der Stetigkeit, die man für den Zwischenwertsatz benötigt. Damit kann man zum Beispiel wackelnde Tische reparieren oder mit Anastasia im Science Slam Orte gleicher Temperaturen auf der Erde suchen. Der Zwischenwertsatz gilt zunächst nur für reelle Funktionen, es gibt den Zwischenwertsatz aber auch in allgemeinerer Form.Eine weitere wichtige Eigenschaft von Funktionen ist die Differenzierbarkeit und das Berechnen von Ableitungen mit ihren Ableitungsregeln. Sehr wichtig ist dabei die Exponentialfunktion, die mit ihrer eigenen Ableitung übereinstimmt. Diese Funktion findet man im Alltag in jeder Kettenlinie in der Form des Cosinus Hyperbolicus wieder. Eine wichtige Anwendung für differenzierbare Funktionen ist der Mittelwertsatz, ohne den die Abschnittskontrolle auf Autobahnen zur Geschwindigkeitsüberprüfung nicht denkbar wäre. Aber auch in höheren Dimensionen kann man Differentialrechnung betreiben, und man führt dazu den Gradienten, Richtungsableitungen und z.B. die Divergenz eines Vektorfelds ein.Als Umkehrung der Differentiation erhält man die Integralrechnung. Jedoch ist das Bilden einer Stammfunktion nur bis auf eine Konstante eindeutig. Daher kann man zum Beispiel mit Beschleunigungssensoren im Handy nicht wirklich eine Positions- und Geschwindigkeitsmessung durchführen, sondern muss für die Trägheitsnavigation viele weitere Sensoren mit einbeziehen. Eine andere Einführung des Integrals ist das Lebesgue-Integral oder das Riemannsche Integral, wo man bei letzterem in einem Intervall die Fläche unter einer Kurve durch Treppenfunktionen annähert. Den Zusammenhang dieser beiden Begriff liefert der Fundamentalsatz der Analysis. Leider kann man nicht zu allen Funktionen analytische Stammfunktionen bestimmen. Hier kann dann die numerische Integration zum Einsatz kommen. Die Integration ist aber keine rein abstrakte Idee, sondern wir finden mathematische Zusammenhänge wie den Gaußsche Integralsatz direkt in der Natur wieder.Für den Start im Studium erhält man in Karlsruhe viel Unterstützung: Es gibt Vorkurse und die von der Fachschaft für Mathematik und Informatik organisierte Orientierungsphase, oder kurz O-Phase, in der man die zukünftigen Mitstudierenden kennenlernen kann. Mit diesen sollte man sich gemeinsam den Stoff von Vorlesungen, Übungen und Tutorien erarbeiten, um sich mit gelösten Übungsblättern zur Klausteilnahme zu qualifizieren, und letztlich auch die Prüfungen gemeinsam vorzubereiten.Literatur und Zusatzinformationen W. Reichel: Kurzskript Analysis 1, Vorlesung am KIT, 2012/2013. W. Reichel: Kurzskript Analysis 2, Vorlesung am KIT, 2013. H. Amann, J. Escher: Analysis 1, 3. Auflage, Birkhäuser-Verlag, 2008. O. Forster: Analysis 1, 7. Auflage, Vieweg-Verlag, 2004. H. Heuser: Lehrbuch der Analysis, Teil 1, 15. Auflage, Teubner-Verlag, 2006. K. Königsberger, Analysis 1, 5. Auflage, Springer-Verlag, 2001. W. Rudin, Analysis, 4. Auflage, Oldenbourg-Verlag, 2008. R. Strichartz, The Way of Analysis, Jones and Bartlett-Verlag, 1995. W. Walter, Analysis 1, 7. Auflage, Springer-Verlag, 2007. Konscience Podcast KNS026: Effizienz der photovoltaischen Wasserspaltung erhöht
An der Bundesanstalt für Wasserbau (BAW) befasst sich Rebekka Kopmann in der Abteilung für Flusssysteme mit Analysen und Prognosen des Systemzustands von Bundeswasserstraßen. Strömungsmodelle liegen am BAW sowohl als nachgebaute Modelle von Flussstücken als auch als mathematisch beschriebene Computermodelle vor, die nur im Rechner simuliert werden. Im Gespräch mit Gudrun Thäter beschreibt sie die Herausforderung der Kalibration der Simulationsmodelle an die Wirklichkeit, damit sinnvolle Analysen und Prognosen möglich werden. Neben vielen weiteren Parametern ist die Rauheit im Fluss sehr wichtig und ist leider nur sehr zeitaufwendig zu bestimmen. Die Aufgabe führt sie auf ein Optimierungsproblem zurück, wo die unbekannten Parameter durch Annäherung vielfach ausgeführter Simulationen an die gemessene Wirklichkeit bestimmt werden. Da eine einzelne Flusssimulation teilweise tagelang rechnet, sucht sie nach sinnvollen Vereinfachungen oder Alternativen, die das Problem schneller lösen. Aktuell werden Methoden der Automatischen Differentiation eingesetzt, die helfen Gradientenverfahren zur Annährung an die Lösung zu beschleunigen. Dabei trifft man auch auf interdisziplinäre Herausforderungen, wenn es um die feinen mathematischen Unterschiede zum Beispiel zwischen Ableitung, Steigung und einem Gradienten geht. Literatur und Zusatzinformationen R. Kopmann, A. Goll (eds): 20th TELEMAC-MASCARET User Conference 2013, Proceedings, Karlsruhe, 2013. U. Merkel, J. Riehme, U. Naumann: Rückrechnung von Rand- und Anfangsbedingungen mit Telemac und Algorithmischer Differentiation, Wasserwirtschaft H.12, S.22-27, 2013. R. Kopmann, M. Schäfer: Automatic Calibration with Telemac-AD, Proceedings 21st Telemac-Mascaret User Conference 2014, Grenoble (abstract submitted), Okt. 2014. M. Schäfer: Erprobung von Optimierungsalgorithmen für die Kalibrierung eines Finite-Elemente Strömungsmodells auf Basis von Gradienten. Masterarbeit Karlsruher Institut für Technologie, Karlsruhe, 2014.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
In dieser Arbeit berichten wir über die Beobachtung der dielektrischen Laserbeschleunigung nichtrelativistischer Elektronen mithilfe des inversen Smith-Purcell Effekts bei optischen Wellenlängen. Wenn die Phasengeschwindigkeit von evaneszenten Wellen nahe periodischer Gitterstrukturen mit der Elektronengeschwindigkeit übereinstimmt, kann eine vorwärtsgerichtete elektrische Feldkomponente das Elektron kontinuierlich beschleunigen. Dieser Effekt tritt jedoch nur im Nahfeld passender photonischer Strukturen auf, d.h., dass der Elektronenstrahl die Struktur in Abständen, die kleiner als die Wellenlänge sind, passieren muss. Für die Beschleunigung nichtrelativistischer 28keV Elektronen verwenden wir die dritte Raumharmonische eines Quarzgitters, die mittels Lichtpulsen eines Titan-Saphir-Oszillators angeregt wird. Wir messen einen maximalen Energiegewinn von 280eV, was einem Beschleunigungsgradienten von 25MeV/m entspricht. Dieser Wert ist vergleichbar mit dem Gradienten heutiger Radiofrequenz-Linearbeschleuniger. Um diese Beschleunigung zu erfahren, passieren die Elektronen die Gitteroberfläche in einem Abstand von weniger als 100nm. Im Rahmen dieser Arbeit beschreiben wir die Theorie der Elektronenbeschleunigung im Nahfeld von Gitterstrukturen und diskutieren Simulationsergebnisse zu dieser dielektrischen Laserbeschleunigung. Unsere Messergebnisse stimmen sehr gut mit den Simulationen überein und bestätigen deshalb die direkte Beschleunigung im Lichtfeld. Zusätzlich diskutieren wir die Elektronenbeschleunigung in Doppelgitterstrukturen, das Dephasieren nichtrelativistischer Elektronen, sowie den Raumladungseffekt, der den Spitzenstrahlstrom in diesen neuartigen, auf Mikrostrukturen basierenden Beschleunigern begrenzt. Die hier verwendeten photonischen Gitterstrukturen können direkt aneinandergereiht werden und erfüllen damit die Voraussetzung für skalierbare Linearbeschleuniger. Außerdem sind unsere Strukturen kompatibel mit den Mikrostrukturen, an denen die dielektrische Laserbeschleunigung relativistischer Elektronen zeitgleich durch unsere Kollegen in Stanford demonstriert wurde. Das Potenzial dielektrischer Laserbeschleuniger liegt in dem bis zu zwei Größenordnungen höheren Beschleunigungsgradienten verglichen mit konventionellen Beschleunigereinrichtungen, was sich letztendlich auf die größere Zerstörschwelle dielektrischer Materialien bei optischen Wellenlängen im Vergleich zu Metallen im Radio- und Mikrowellenbereich zurückführen lässt, die eine erhöhte Oberflächenspannungsfestigkeit zur Folge hat. Dieser erhöhte Beschleunigungsgradient könnte den Bau von deutlich kompakteren und kostengünstigeren Beschleunigern erlauben. Wir geben einen Ausblick auf den möglichen Aufbau solcher zukünftiger optischen Beschleuniger und auf deren potentiellen Anwendungen in kompakten Freie-Elektronen-Lasern.
Backen Sie gerne? Wenn ja, dann besitzen Sie bereits das Handwerkzeug um einen komplexen Teil der MRT-Theorie zu verstehen, den K-Raum. Hier das entsprechende Rezept mit folgenden Zutaten: Patient (Wasserstoffprotonen), Magnetfeld und Untersuchungsspule, Gradienten, Hochfrequenzimpuls, MRT-Bildrechner. Legen Sie Ihren Patienten mit passender Untersuchungsspule in das MRT. Schalten Sie den ersten Gradienten ein. Vorsicht, es wird laut! Im Anschluss senden Sie einen Hochfrequenzimpuls ein. Vorsicht, es wird warm! Nehmen Sie die Signale auf. Schon ist der Teig (Rohdaten) fertig. In einem Kuchenteig sind zwar alle Zutaten enthalten, trotzdem fehlt noch ein wichtiger Schritt, bevor Sie den fertigen Kuchen servieren können. Die Rohdaten enthalten zwar alle Informationen der MRT-Aufnahme, aber auch hier fehlt der entscheidende Schritt, um dem Radiologen ein fertiges Bild servieren zu können. Was für den Kuchen der Backofen ist, ist für die Rohdaten der K-Raum. Das Backergebnis wird von Einstellungen wie Temperatur, Umluft, Ober- und Unterhitze, usw. beeinflusst. Die Bildqualität wird z. B. durch die Füllung und Größe des K-Raums bestimmt. Die 3-teilige Artikelserie ”Magnetresonanztomografie Teil I–III“ soll dazu beitragen, Grundkenntnisse aufzufrischen und bereits vorhandenes Wissen zu vertiefen. In dieser Ausgabe erläutern die Autoren die Begriffe Ortskodierung, Gradientenspulen, K-Raum und Spin-Echo. In der nächsten Ausgabe wird ”Teil III: Sequenzen und Bildqualität“ das bereits Erlernte vertiefen und die Begriffe FLAIR, STIR, Gradientenecho, TSE, TOF, Signal-zu-Rausch-Verhältnis erklären.
Backen Sie gerne? Wenn ja, dann besitzen Sie bereits das Handwerkzeug um einen komplexen Teil der MRT-Theorie zu verstehen, den K-Raum. Hier das entsprechende Rezept mit folgenden Zutaten: Patient (Wasserstoffprotonen), Magnetfeld und Untersuchungsspule, Gradienten, Hochfrequenzimpuls, MRT-Bildrechner. Legen Sie Ihren Patienten mit passender Untersuchungsspule in das MRT. Schalten Sie den ersten Gradienten ein. Vorsicht, es wird laut! Im Anschluss senden Sie einen Hochfrequenzimpuls ein. Vorsicht, es wird warm! Nehmen Sie die Signale auf. Schon ist der Teig (Rohdaten) fertig. In einem Kuchenteig sind zwar alle Zutaten enthalten, trotzdem fehlt noch ein wichtiger Schritt, bevor Sie den fertigen Kuchen servieren können. Die Rohdaten enthalten zwar alle Informationen der MRT-Aufnahme, aber auch hier fehlt der entscheidende Schritt, um dem Radiologen ein fertiges Bild servieren zu können. Was für den Kuchen der Backofen ist, ist für die Rohdaten der K-Raum. Das Backergebnis wird von Einstellungen wie Temperatur, Umluft, Ober- und Unterhitze, usw. beeinflusst. Die Bildqualität wird z. B. durch die Füllung und Größe des K-Raums bestimmt. Die 3-teilige Artikelserie ”Magnetresonanztomografie Teil I–III“ soll dazu beitragen, Grundkenntnisse aufzufrischen und bereits vorhandenes Wissen zu vertiefen. In dieser Ausgabe erläutern die Autoren die Begriffe Ortskodierung, Gradientenspulen, K-Raum und Spin-Echo. In der nächsten Ausgabe wird ”Teil III: Sequenzen und Bildqualität“ das bereits Erlernte vertiefen und die Begriffe FLAIR, STIR, Gradientenecho, TSE, TOF, Signal-zu-Rausch-Verhältnis erklären.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 04/07
Der rechte Mesonephros, sein Ductus mesonephricus sowie drei Tubuli eines bovinen Embryo mit 35 mm SSL wurden aus 902 histologischen Einzelbildern am Computer rekonstruiert. Zur Verwendung kam die kommerzielle Software „Amira“. Die Arbeit wurde über einen Remote-Zugang auf den Rechensystemen des Leibniz-Rechenzentrums in Garching bei München durchgeführt. Die Schwierigkeiten und Grenzen der computergestützten Visualisierung aus kon¬ventionellen Schnittbildserien konnten gezeigt werden. Das Vorgehen mit physi¬kalischen Schnitten brachte vor allem Probleme beim Ausrichten der Schnitte sowie beim Zuordnen von Bildpunkten zu Strukturen mit sich. Bei der bearbeite¬ten histologischen Serie handelte es sich um archivierte Bilder. Diese waren zum Zeitpunkt ihrer Herstellung nicht zum Zwecke der Bearbeitung an einem PC be¬stimmt und daher nicht mit Markersystemen zur besseren Reorientierung aus¬gestattet. Konventionelle Schnittbildserien komplizierter Strukturen können also als Ausgangsdaten zur digitalen Weiterverarbeitung als nicht optimal bezeichnet werden. Im Ergebnis konnten jedoch mit größtenteils zeitaufwendigen, händi¬schen Verfahren dank der sehr guten Hardware-Performance befriedigende Er¬gebnisse erzielt werden. Diese bestätigten größtenteils die bisherigen Beschreibungen des Mesonephros. Hinweise auf einen kraniokaudalen Gradienten in der Entwicklung und Degene¬ration konnte ebenso gezeigt werden wie grundsätzliche morphologische Bezie¬hungen. Ein Nephron besteht aus dem medial gelegenen Glomerulum, dem ge¬streckten proximalen Tubulus und einem stark gewundenen, distalen Tubulus mit attachment-Zone in direkter Nachbarschaft zum Glomerulum. Ein unmittelbar unter der Organkapsel verlaufender, kollektiver Abschnitt mündet schließlich in den Wolffschen Gang. Die Stellung der Nephrone ist segmentübergreifend und nahezu senkrecht zum Verlauf des Wolffschen Gangs. Der mit der Visualisierung der Schnittbildserie verbundene hohe Zeitaufwand sowie die Notwendigkeit ständiger manueller Kontrolle zeigt deutlich, dass bis zum routinemäßigen Einsatz dreidimensionaler Techniken im lichtmikroskopi¬schen Forschungsbereich noch großer Handlungsbedarf besteht. 3D-Modelle sind in der Lage, Wissenschaftlern neue Einblicke und Zugänge zu gewähren sowie Studierenden den Lernstoff auf anschauliche Art und Weise zu vermitteln. Der Aufwand zu ihrer Herstellung muss jedoch in einem sinnvollen Verhältnis zu ihrem Nutzen stehen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
Das kleine Hitzeschockprotein αB-Crystallin ist in vielen verschiedenen Gewebetypen u.a. in der Niere nachweisbar. Es wird sowohl unter physiologischen als auch unter pathophysiologischen Bedingungen exprimiert. Viele verschiedene Stressfaktoren induzieren in den betroffenen Zellen die Expression von αB-Crystallin, das – wie viele andere Hsps - als molekulares Chaperone die Zellen vor sonst letalen Umgebungseinflüssen schützt. Dies wird bewerkstelligt, indem es partiell oder komplett entfaltete, fehlgefaltete oder aggregierte Polypeptide bindet und deren native Konformation wiederherstellt, oder bei irreversibler Schädigung dem lysosomalen Abbau zuführt. Im Nierenmark stellen hohe extrazelluläre Konzentrationen an NaCl und Harnstoff, die im Rahmen der Harnkonzentrierung das interstitielle Milieu prägen, die größte Bedrohung für die Zellen der medullären Nephronanteile dar. Wie vorliegende Untersuchungen zeigen, exprimieren die Zellen der medullären Sammelrohre und der dünnen Schenkel der Henle-Schleife αB-Crystallin konstitutiv sehr stark und es macht im Innenmark etwa 2% des gesamten Zellproteins aus. Im Nierenkortex ist αB-Crystallin hingegen kaum nachweisbar. Da die αB-Crystallin Expression parallel zum osmotischen Gradienten vom Nierenkortex zum Innenmark ansteigt und in Diurese im Nierenmark signifikant abfällt, kann man davon ausgehen, dass die αB-Crystallin Expression wesentlich durch die interstitielle Osmolalität reguliert wird. Diese Annahme wird durch die vorliegenden in-vitro-Versuche mit MDCK-Zellen unterstützt, die zeigen, dass αB-Crystallin durch hypertonen Stress induzierbar ist. Interessanterweise führt auch eine erhöhte extrazelluläre Harnstoffkonzentration zur αB-Crystallin Induktion. αB-Crystallin wird daher vermutlich über andere Regulationsmechanismen induziert als beispielsweise Hsp72, ein gut untersuchtes Hsp in der Niere und TonEBP-Zielgen, welches durch erhöhte Harnstoffkonzentrationen nicht induzierbar ist. Dafür spricht auch, dass bei der Induktion von αB-Crystallin die JNK MAP-Kinase eine Rolle spielt und nicht die p38 MAP-Kinase, die an der Expression vieler anderer durch Hypertonizität induzierbarer Gene, u.a. Hsp72, beteiligt ist. Interaktionen zwischen αB-Crystallin und Stukturen des Zytoskeletts konnten im Rahmen dieser Arbeit nicht nachgewiesen werden. Die Ergebnisse lassen vermuten, dass αB-Crystallin im Rahmen der Harnkonzentrierung eine bedeutende Funktion für die Zellen im Innenmark der Niere zukommt und dass dessen Expression nicht nur durch hypertonen Stress, sondern auch durch hohe Harnstoffkonzentrationen und vermutlich mehrere andere Stressfaktoren im Nierenmark reguliert wird.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Ultraschalltechnisch können die myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain auf verschiedene Arten berechnet werden. Es besteht die Möglichkeit, die Parameter mittels Gewebedoppler zu analysieren. Neue Techniken sind die Methode des Speckle Tracking und Kombinationen beider Methoden. Der Gewebedoppler ist in der Human- und beginnend auch in der Tiermedizin bereits untersucht und etabliert. Limitiert ist diese Technologie vor allem durch den Winkelfehler und aufwendiges manuelles Tissue Tracking. Das Speckle Tracking ist dopplerunabhängig und berechnet die Funktions¬parameter durch die Bewegung von Graubildpixeln von Bild zu Bild. In der Theorie ist das Speckle Tracking unabhängig vom Anschallwinkel und das Tracking erfolgt automatisch. Auch diese neue Untersuchungstechnik beginnt in der Humanmedizin Fuß zu fassen und wird in klinischen Studien bereits eingesetzt. Für die Tiermedizin existieren zu dieser Technologie noch keine Veröffentlichungen. Ziel der Arbeit „Zweidimensionales Speckle Tracking im Vergleich zu dopplerbasierten Ultraschallmethoden zur Bestimmung der myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain beim Hund“ war es, an einer Population von 116 herzgesunden Hunden verschiedener Rassen (Alter 1 bis 15 Jahre, Gewicht 2 bis 72 kg) Referenzwerte zu erstellen. Gewebegeschwindigkeit, Strain Rate und Strain wurden mit (1) Speckle Tracking, (2) einer kombinierte Methode aus Speckle Tracking und Gewebedoppler, (3) einer Methode, die automatisches Tracking verwendet, jedoch zur Analyse der Parameter auf Dopplerdaten zurückgreift sowie (4) der konventionellen Gewebedoppler-Echokardiographie mit manuellem Tracking evaluiert. Die Datenakquirierung erfolgte mit einem Vivid 7® System, die offline-Analyse mit den Programmen EchoPac Q-Analyse® und EchoPac 2D Strain® (Versionen BT 04 und BT 05) der Firma GE (Horten, Norwegen). Bei der Untersuchung der neuen Methoden – auch im Vergleich mit der konven¬tionellen Gewebedopplertechnologie – und bei der Erstellung von Referenz¬werten, wurde auf Mittelwerte innerhalb von Myokardsegmenten zurückgegriffen. Die verglichenen Analysemethoden korrelierten gut miteinander, wobei die neuen Techniken teilweise niedrigere Messwerte als die konventionelle Gewebe¬dopplertechnologie lieferten. Im Vergleich von Myokardsegmenten innerhalb einzelner Herzwände zeigte die Tissue Velocity einen Gradienten von basal nach apikal. Strain Rate und Strain dagegen waren homogen verteilt. Mit der konventionellen Gewebedoppler¬technologie konnte diese homogene Verteilung von Strain Rate und Strain in der Tiermedizin bisher nicht gezeigt werden. Eine Ursache für die durch den Gewebedoppler ermittelte inhomogene Verteilung von Strain Rate und Strain kann die Winkelabhängigkeit der Messungen sein. Das Fehlen eines Gradienten in Strain Rate und Strain weist darauf hin, dass eine Winkelabhängigkeit der neuen Methoden nicht vorhanden ist. Im Vergleich der Herzwände zeigte die rechte Wand mit den neuen Methoden bei der Messung der meisten Parameter die höchsten Werte. Die Messung der Parameter in der Einzelwanddarstellung lieferte aufgrund höherer Bildraten größere Messwerte als im Vierkammerblick. Einige der Parameter zeigten eine Abhängigkeit von physiologischen Einfluss¬faktoren wie Alter, Gewicht, Geschlecht, Rasse und Herzfrequenz. Klinisch relevant war vor allem der Einfluss des Gewichts. Dies macht die Erstellung von Referenzwerten für einzelne Gewichtsgruppen notwendig. Die Reproduzierbarkeit des Speckle Tracking und der Dopplerdatenanalyse mit automatischem Tracking war für die meisten Parameter gut und teilweise war sie besser, als mit der konventionellen Gewebedoppleranalyse. Die kombinierte Analysemethode zeigte eine schlechtere Reproduzierbarkeit als die anderen Methoden. Diese relativ schlechte Reproduzierbarkeit der kombinierten Analyse¬methode und die Tatsache, dass diese Methode teilweise nicht erklärbare, von den anderen Methoden abweichende Untersuchungsergebnisse lieferte, lässt sie für den Hund als wenig geeignet erscheinen. Die vorliegenden Untersuchungsergebnisse können als Grundlage für weiter¬führende Untersuchungen dienen. Hier sind das Verhalten der myokardialen Funktionsparameter bei Herzerkrankungen oder der Einfluss von Medikamenten mögliche Fragestellungen für zukünftige Studien. Zudem können die erzielten Ergebnisse teilweise in die Humanmedizin übernommen werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Im Gebiet des Carpentaria Golfes im Norden Australiens entstehen regelmäßig mesoskalige Konvergenzlinien in der unteren Troposphäre. Diese produzieren gegen Ende der Trockenzeit oft spektakulären Wolkenlinien, die auf Satellitenbildern zu sehen sind und je nach ihren Eigenschaften ''Morning Glory'' oder ''North Australian Cloud Line'' (NACL) genannt werden. Morning Glories sind glatte Wellenwolken während NACLs konvektive Wolkenlinien sind. Sie stehen unter dem Verdacht, später im Jahr, während der Australische Sommermonsun ruht, eine Reihe von Unwettern auszulösen, die ein bedeutendes Vorhersageproblem für diese Region darstellen. Des Weiteren stellt die einhergehende bodennahe Windscherung eine große Gefahr für tieffliegende Flugzeuge dar. Um die Entstehung dieser Konvergenzlinien mit bis dahin einmaliger Genauigkeit zu dokumentieren, wurde im Herbst 2002 die internationale Meßkampagne GLEX (Gulf Lines Experiment) durchgeführt. Das mesoskalige Modell der Pennsylvania State University und des National Center for Atmospheric Research, MM5, wird in dieser Arbeit für eine Untersuchung dieser Linien benutzt. Da die Linien intrinsisch nicht hydrostatisch sind, sollte das MM5 bei der geforderten hohen horizontalen Auflösung als nichthydrostisches Modell in Vorhersage und Modellierung den für frühere Studien verwendeten hydrostatisch balancierten Modellen überlegen sein. Den zunächst vorgestellten Fallstudien gingen Sensitivitätsstudien bezüglich der Grenzschichtparameterisierung und der Bodenfeuchte voraus, die aber aus Gründen der Lesbarkeit erst später beschrieben werden. Im Rahmen der Fallstudien werden Modellergebnisse mit Ergebnissen aus der Meßkampagne und verfügbaren Satellitenbildern verglichen, sowie weitere Charakteristika der sich bildenden Linien untersucht. Das Modell kann in der gewählten Konfiguration die Konvergenzlinien in noch nie da gewesener Detailliertheit reproduzieren und die Ergebnisse stimmen gut mit den Beobachtungen überein. Weitere Ergebnisse dieser Studie bestätigen früher aufgestellte Theorien, nach denen das nordöstliche Morning Glory und die NACL in Folge eines Zusammenstoßes zweier Seebriesen über der Kap York Halbinsel entstehen. Zum ersten Mal hat ein Modell zwei getrennte Konvergenzlinien produziert, die dem nordöstlichen Morning Glory und der NACL entsprechen. Als Trennungsmechanismus beider sich aus der Ostküstenseebriese entwickelnden Konvergenzlinien wird hier zunächst die Geometrie der Ostküste vorgeschlagen, die auf dem Breitengrad, auf dem die Trennung im allgemeinen erfolgt, einen ausgeprägten Knick aufweist. Für die Entstehung des südlichen Morning Glorys wird eine erst kürzlich aufgestellte Theorie bestätigt, in der die Kollision der südlichen Seebriese mit einer sich von Süden her nähernden Front als Mechanismus angenommen wird. Diese Front formiert sich am Abend entlang einer Troglinie, die ein klimatisches Merkmal Queenslands ist. In einigen der Fälle wurden Trockenlinien beobachtet, die auf das südliche Morning Glory folgten. Auch diese stimmen im Modell gut mit den Beobachtungen überein. Eines der seltener beobachteten südöstlichen Morning Glories kann leider nicht vom Modell reproduziert werden. Als Ursache wird vermutet, daß eine Troglinie im datenarmen Gebiet südlich des Golfs von Carpentaria nicht korrekt in den Anfangsbedingungen positioniert ist. Eine Untersuchung der Strömung hinter den Konvergenzlinien zeigt, daß Morning Glories Wellenphänomene sind. NACLs hingegen behalten den Dichteströmungscharakter der Seebriese bei. Eine Sensitivitätstudie bezüglich der Grenzschichtparameterisierung wird durchgeführt, weil sich die hier untersuchten Phänomene in der planetaren Grenzschicht abspielen. Eine Gruppe von Parametrisierungen stellt sich anderen als überlegen heraus und als Grund für diese guten Ergebnisse wird die Berücksichtigung der großräumigen Gradienten identifiziert, die in den schlechter abschneidenden Parametrisierungen fehlt. Als beste Parametrisierung wird das MRF Schema für alle weiteren Simulationen ausgewählt. Eine Untersuchung der Sensitivität der Ergebnisse bezüglich der Bodenfeuchte zeigt, daß die Seebriesen um so schneller landeinwärts strömen, je trockener die Bodenverhältnisse sind. Die Erklärung hierfür ist, daß ein größerer Teil der eingehenden solaren Strahlung als fühlbare Wärme an die Atmosphäre abgegeben wird und so die Seebriesenzirkulation antreibt. Daraus resultiert, daß Morning-Glory Konvergenzlinien sowohl intensiver sind, als auch die Fortpflanzungsgeschwindigkeit größer ist wenn die Bodenfeuchte abnimmt. Ein solcher Zusammenhang konnte für die NACLs nicht bestimmt werden. Eine optimale Bodenfeuchte, mit der die Modellergebnisse am besten mit den Beobachtungen übereinstimmen, kann leider nicht ermittelt werden, da geeignete Methoden hierfür nicht zur Verfügung stehen. Die Güte der Ergebnisse bezogen auf die Bodendruck an den einzelnen Stationen des Experiments nimmt jedoch mit abnehmender Bodenfeuchte zu. Da aber die geringst möglichen Werte unrealistisch sind beziehungsweise keinen physikalischen Sinn haben und keine Meßdaten vorhanden sind, wird für alle weiteren Simulationen ein Wert für die Bodenfeuchte gewählt, wie er vom Australischen Wetterdienst benutzt wird. Um einige der aufgezeigten Zusammenhänge noch gründlicher zu untersuchen, wurden noch einige Modellexperimente mit modifizierter Orographie durchgeführt. Diese zeigen, daß weder Morning Glories noch NACLs entstehen, wenn keine Seebriese vom Golf von Carpentaria landeinwärts strömt und mit der Ostküstenseebriese beziehungsweise der sich von Süden her nähernden Kaltfront kollidiert. Ein systematischer Zusammenhang zwischen Höhe der Orographie und der Intensität oder der Geschwindigkeit der sich bildenden Konvergenzlinien kann nicht festgestellt werden. Die im Rahmen der Fallstudie aufgestellte Hypothese für die Trennungsursache von NACL und nordöstlichem Morning Glory kann nicht bestätigt werden und die horizontale Windscherung über der Kap York Halbinsel wird stattdessen als Ursache vorgeschlagen. Diese Hypothese wird durch die Ergebnisse eines Experiments mit uniformer Strömung in westlicher Richtung bestätigt. In diesem Experiment bildet sich nur eine Konvergenzlinie, die dem nordöstlichen Morning Glory entspricht und weit in das Gebiet hineinragt, in dem sich die NACL normalerweise befindet. Am zweiten Tag dieser Simulation entwickelt sich eine horizontale Windscherung, in der sich zwei unabhängige Konvergenzlinien bilden, die dem nordöstlichen Morning Glory und der NACL entsprechen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Ventrikuläre Tachyarrhythmien sind die Hauptursachen für den plötzlichen Herztod, der eine bedeutende Todesursache in der westlichen Welt darstellt. Dabei sind, neben strukturellen Veränderungen im Myokard wie Narben, Hypertrophie oder Ventrikeldilatation, elektrophysiologische Veränderungen der Repolarisationsphase ursächlich. Für die Repolarisation essentielle Kanäle sind die delayed rectifier Kaliumkanäle IKr und IKs; Mutationen in diesen Kanälen sind ursächlich für das angeborene Long QT-Syndrom, das mit lebensbedrohlichen Herzrhythmusstörungen assoziiert ist. Pharmakologische Wirkungen und Nebenwirkungen auf die repolarisierenden Kaliumkanäle können ebenfalls Herzrhythmusstörungen auslösen; man spricht dabei vom erworbenen oder Medikamenten-induzierten Long QT-Syndrom. Auch bei Herzinsuffizienz zum Beispiel aufgrund einer dilatativen Kardiomyopathie wird oft eine QT-Zeit Verlängerung und Rhythmusstörungen beobachtet. Dabei ist die Herunterregulation von Kaliumkanälen wie Ito ein oft beobachtetes Phänomen; in tierexperimentellen Untersuchungen wird teilweise auch eine Reduktion von IKr und IKs beschrieben. Für viele Ionenkanäle sind Unterschiede in der transmuralen Verteilung bekannt, so dass die Messung der delayed rectifier Kaliumkanäle in vorliegender Untersuchung getrennt nach subepikardialen, mittleren und subendokardialen Arealen des linksventrikulären Myokards durchgeführt wurde. Ein weiterer Aspekt der Arbeit ist der Vergleich der Repolarisation in verschiedenen Spezies, was bei der Interpretation von tierexperimentell gewonnenen Ergebnissen von großer Bedeutung ist. Dazu wurden IKr und IKs in verschiedenen Tiermodellen (Meerschweinchen, Schwein und Hund) unter Berücksichtigung der transmuralen Verteilung gemessen und mit den aus humanem Myokard gewonnenen Ergebnissen verglichen. Die porenbildenden alpha-Untereinheiten von IKr und IKs, KCNH2 und KCNQ1, wurden im heterologen Zellsystem exprimiert und deren Sensitivität auf IKr bzw. IKs spezifische Kanalblocker überprüft. Methodisch wurde für oben genannte Fragestellungen die patch clamp Technik in Ganzzellkonfiguration verwendet; zur Aufzeichnung von Aktionspotentialen und zum Nachweis von IKs in humanem Myokard wurde die perforated patch Methode verwendet, um eine Veränderung des intrazellulären Milieus mit Dialyse von Botenstoffen zu vermeiden. Auf molekularbiologischer Ebene wurde die mRNA-Menge der IKr und IKs alpha-Untereinheiten KCNH2 und KCNQ1, sowie deren (potentielle) beta-Untereinheiten KCNE1 und KCNE2 mit Hilfe der quantitativen real-time PCR bestimmt. Dabei konnten folgende Ergebnisse erzielt werden: IKr ließ sich im Menschen in allen Zellen in relevanter Größe nachweisen; der Strom ließ sich sowohl durch den spezifischen IKr-Blocker Dofetilide, aber auch durch Pharmaka aus nicht-kardiologischen Anwendungsgebieten wie das Neuroleptikum Haloperidol inhibieren. Dabei wies der Kanal eine Abhängigkeit von der extrazellulären Kaliumkonzentration auf, die sich umgekehrt zum elektrochemischen Gradienten verhielt: höhere extrazelluläre Kaliumkonzentrationen bewirkten eine Steigerung von IKr. IKs (definiert als HMR 1556 sensitiver Strom) ließ sich in humanem Myokard nur unter speziell optimierten Bedingungen (perforated patch Technik, adrenerge Stimulation mit Isoproterenol) nachweisen. Er hatte dann eine sehr kleine Stromdichte, die eine weitere elektrophysiologische und pharmakologische Charakterisierung nicht erlaubte. In Meerschwein, Schwein und Hund war IKr und IKs nachweisbar; dabei hatte das Meerschweinchen die höchsten Stromdichten von delayed rectifier Kaliumkanälen, das Schwein kleinere, aber robuste IKr und IKs-Ströme. Beim Hund fanden sich deutlich geringere Stromdichten für IKr und IKs; IKs war nicht in allen Zellen nachweisbar. IKr wies in allen Spezies epikardial eine kleinere Stromdichte auf als in mittleren und endokardialen Arealen. Dieser transmurale Gradient mit geringerer Stromdichte in epikardialen Arealen war nur in nicht-insuffizienten humanen Herzen nachweisbar; bei Herzinsuffizienz kam es zur Angleichung der Stromdichten in allen drei untersuchten Schichten. KCNH2 und KCNQ1 generierten im heterologen Zellsystem IKr bzw. IKs ähnliche Ströme, die jeweils typische Sensitivität für IKr bzw. IKs Blocker aufwiesen. Für KCNH2 und KCNQ1 mRNA waren keine transmuralen Gradienten und keine Regulation bei Herzinsuffizienz nachweisbar; KCNE1 und KCNE2 zeigten bei Herzinsuffizienz höhere Expressionslevel. Somit ließ sich das Vorhandensein und die Bedeutung von IKr und IKs in humanem Myokard belegen, wobei IKs nur in sehr geringer – in Ruhe gerade noch nachweisbarer – Stromdichte vorkommt. Dennoch lässt sich seine Bedeutung am Vorhandensein von Mutationen in KCNQ1, die lebensbedrohliche Rhythmusstörungen verursachen können, ablesen. Auch für KCNH2, das für die alpha-Untereinheit von IKr kodiert, sowie für die (potentiellen) beta-Untereinheiten KCNE1 und KCNE2 sind Mutationen beschrieben, die ursächlich für das angeborene Long QT-Syndrom sind. Damit scheinen IKr und IKs für die Repolarisation des humanen Aktionspotentials essentiell zu sein, wobei IKr aufgrund der relativ großen Stromdichte die wesentliche Rolle bei der Repolarisation des Aktionspotenials in humanem Myokard zukommt. IKs hat große Bedeutung als „Repolarisationsreserve“ zur Stabilisierung der Repolarisation unter Bedingungen erhöhter Katecholaminspiegel, bei tachykarden Herzfrequenzen und bei verzögerter Repolarisation wie durch Hypokaliämie, IKr-Blocker oder IKr-Mutationen und Polymorphismen. Mutationen in Proteinuntereinheiten von IKs können zur Störung dieser Repolarisationsreserve führen und somit Rhythmusstörungen auslösen, die charakteristischerweise in Situationen erhöhter sympathischer Aktivierung auftreten. Die Ausstattung der unterschiedlichen Spezies mit repolarisierenden Kaliumströmen wies erhebliche Unterscheide auf, was bei der Interpretation tierexperimentell gewonnener Daten zu berücksichtigen ist. Insbesondere korreliert eine Abnahme der Ruheherzfrequenz der Spezies mit einer deutlichen Reduktion der repolarisierenden Ströme entsprechend dem Konzept der speziesabhängigen Variabilität der repolarisierenden bei Konstanz der depolarisierenden Ströme (INa und ICa). Transmurale Unterschiede in der Expression von Ionenkanälen scheinen notwendig für den Ablauf der Erregungsbildung und Erregungsrückbildung zu sein. Die epikardial geringeren Stromdichten für IKr waren in allen untersuchten Spezies nachweisbar. Die Beobachtung einer geringeren Stromdichte der repolarisierenden Kaliumströme epikardial bedeutet, dass andere Ionenkanäle als IKr und IKs für die dort kürzere Aktionspotentialdauer verantwortlich sein müsssen. Eine Reduktion der Stromdichte bei Herzinsuffizienz, wie sie beispielsweise für Ito beschrieben ist, konnte für IKr nicht nachgewiesen werden. Jedoch fand sich eine Nivellierung des physiologischerweise Vorhandenen transmuralen Gradienten, was grundsätzlich zu einer Störung des physiologischen Erregungsablaufes mit Begünstigung von Rhythmusstörungen in insuffizienten Herzen beitragen könnte. Aus dem dualen Repolarisationsmechanismus im menschlichen Ventikelmyokard werden klinische Konstellationen mit Rhythmusstörungen verständlich, insbesondere in Hinblick auf die Variabilität der Empfindlichkeit gegenüber Medikamenten mit blockierender Wirkung auf IKr. Dabei stellt IKs in unterschiedlichem Maße eine Kompensation im Sinne einer Repolarisationsreserve bereit.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Nach Einführung der ultraschnellen Magnetresonanz (MR)-Bildgebung in die klinische Praxis in den 90er Jahren kam es zu Berichten über Stimulationen peripherer Nerven. Die Regulierungsbehörden mehrerer Länder reagierten auf diese Umstände und empfahlen Grenzwerte für geschaltete magnetische Gradientenfelder in der Magnetresonanztomographie (MRT). Ziel der vorliegenden Dissertation ist die Untersuchung von Einflussgrößen der magnetischen Gradientenfelder in der Stimulation peripherer Nerven. Dabei konzentriert sich diese Arbeit auf fünf Parameter: Frequenz, Form (sinusförmig vs. linear), Amplitude und Orientierung des oszillierenden Magnetfeldgradienten sowie Positionierung des Probanden im Isozentrum des Tomographen. Die Erregung peripherer Nerven mit elektrischen Strömen wurde in zahlreichen Studien untersucht und es existieren Gleichungen, die dieses Phänomen beschreiben: das Weiss- und Lapicque-Gesetz, das SENN-Modell und das Grundgesetz der Magnetostimulation (FLM). Es konnte gezeigt werden, dass sich alle vier Modelle auf die Beschreibung der Stimulation peripherer Nerven durch magnetische Gradientenfelder anwenden lassen. Es wurde weiterhin gezeigt, dass sich der das Integral über B(t) zur Berechnung der Stimulationswahrscheinlichkeit verschiedener Anstiegsformen des magnetischen Feldgradienten eignet. Stimulationsschwellen sind für Gradienten mit sinusförmigem Anstieg kleiner als für Gradienten mit linearem Anstieg. In den durchgeführten Experimenten wurde ein Einfluss der Positionierung des Probanden im Isozentrum des Tomographen und der Orientierung des Magnetfeldgradienten, sowohl auf die Stimulationsschwelle, als auch auf den Stimulationsort festgestellt. Die höchste Stimulationswahrscheinlichkeit trat bei Positionierung mit dem Hals im Isozentrum auf, die niedrigste bei Positionierung mit dem oberen Abdomen im Isozentrum. Der Ort der häufigsten Stimulation fand sich in ca. 40 cm Entfernung vom Isozentrum. Stimulationsereignisse waren mit dem anteroposterioren Gradienten (y-Gradient) am wahrscheinlichsten, am unwahrscheinlichsten mit doppelt obliquen Gradienten (z.B. xyz-Gradient). Die Beobachtungen ließen sich durch Form und Achsensymmetrie des menschlichen Körpers, räumliche Ausdehnung des magnetischen Gradientenfeldes sowie Größe der Leiterschleife des induzierten elektrischen Feldes erklären. Der Einfluss der Gradientenorientierung auf den Stimulationsort konnte durch den Verlauf der stimulierten Nerven in Relation zur induzierten elektrischen Leiterschleife erklärt werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Die Segmentierung in der Fliege Drosophila melanogaster ist weitgehend verstanden. Als sogenannter "Langkeimer" entwickelt sich die Fliege jedoch anders als die meisten anderen Insekten: Bei der Fliege entstehen alle Segmente auf einmal im Blastoderm. Im Mehlkäfer Tribolium castaneum und den meisten anderen Insekten entstehen in diesem Stadium aber nur die vorderen Segmente, während die abdominales Segmente nacheinander von einer posterioren Wachstumszone gebildet werden. Um die Unterschiede in der abdominalen Segmentierung zu untersuchen, wurde das Homolog des abdominalen Gapgens "giant" aus dem Mehlkäfer "Tribolium castaneum" isoliert und seine Funktion beschrieben. Mehrere fundamentale Unterschiede zu "Drosophila giant" wurden deutlich: 1) die Expression von Tribolium giant ist 5 Segmente weiter anterior 2) die Funktion des Gens kann nicht auf dem Aufbau eines kurzreichweitigen Gradienten beruhen (dem aus Drosophila beschriebenen "klassischen" Gapgen-Mechanismus). Zusammen zeigen die Ergebnisse, dass dass die Segmentierung im Abdomen des Käfers anders funktioniert als in der Fliege.