POPULARITY
Gudrun wollte sich mit unserem neuen Kollegen über sein hauptsächliches Forschungsthema, die kinetische Theorie unterhalten. Diese Denkweise wurde zur Modellierung von Gasen entwickelt und ist inspiriert von physikalischen Vorstellungen, die kinetische Energie als inhärente Eigenschaft von Materie ansieht. Die kinetische Gastheorie schaut auf die mikroskopische Ebene, um schließlich makroskopische Größen wie Wärme und Temperatur besser zu erklären. Im sogenannten idealen Gas bewegen sich unfassbar viele kleine Massepunkte entsprechend der Newtonschen Mechanik frei, ungeordnet und zufällig im Raum, stoßen dabei ab und zu zusammen und wir empfinden und messen den Grad der Bewegungsaktivität der Teilchen als Wärme. Die Einheit, die man dieser Größe zunächst zuwies war Kalorie von lat. Calor=Wärme. Heute ist die richtige SI-Einheit für Energie (und damit auch Wärme) das Joule. Die messbare Größe Temperatur ist damit vereinfacht ausgedrückt die mechanische Engergie im Gassystem und das Modell liefert eine kinetische Theorie der Wärme. Man kann es aber auch als Vielteilchensystem von mikroskopischen Teilchen ansehen aus denen sich in klar definierten (unterschiedlichen) Grenzwertprozessen makroskopische Größen und deren Verhalten ableiten lassen. Die Untersuchung dieser Grenzwerte ist eine mathematisch sehr anspruchsvolle Aufgabe und bis heute ein offenes Forschungsfeld, in dem nur Stück für Stück spezielle Fragen beantwortet werden. Eine Schwierigkeit ist dabei nämlich, dass automatisch immer sehr unterschiedliche Skalen nebeneinander existieren und in ihrer Interaktion richtig gefaßt und verstanden werden müssen. Außerdem ist in der Regel jeder Grenzwert, für den sich interessante Forschungsergebnisse ergeben, innerhalb der Theorie eine Singularität. Schon Hilbert hatte 1900 die axiomatische Fassung der Physik zwischen Mechanik und Wahrscheinlichkeitsrechnung als eines der wichtigen mathematischen Probleme für das 20. Jahrhundert dargestellt. Wir sind seitdem vorangekommen, aber es bleibt noch sehr viel zu tun. Zum Beispiel ist die mögliche Korreliertheit zwischen den Teilchenbewegungen für Gase eine offene Frage (außer für kurze Zeiten). Ein Vorteil gegenüber der Zeit Hilberts ist heute, dass wir inzwischen auch den Computer benutzen können, um Modelle zu entwickeln und zu analysieren. Dafür muss man natürlich geeignete numerische Methoden entwickeln. In der Arbeit von Martin Frank sind es in der Regel Integro-Differentialgleichungen mit hyperbolischer partieller Differentialgleichung für die Modellierung von Bewegungen ohne Dämpfung. Diese haben schon durch die Formulierung viele Dimensionen, nämlich jeweils 3 Orts- und 3 Geschwindigkeitskomponenten an jedem Ort des Rechengebietes. Deshalb sind diese Simulationen nur auf großen Parallelrechnern umsetzbar und nutzen High Performance Computing (HPC). Hieraus erklärt sich auch die Doppelrolle von Martin Frank in der Verantwortung für die Weiterentwicklung der HPC-Gruppe am Rechenzentrum des KIT und der Anwendung von Mathematik auf Probleme, die sich nur mit Hilfe von HPC behandeln lassen. Sehr interessant ist in dieser Theorie die gegenseitige Beeinflussung von Numerik und Analysis in der Behandlung kleiner Parameter. Außerdem gibt es Anknüpfungspunkte zur Lattice Boltzmann Research Group die am KIT das Software-Paket OpenLB entwickeln und anwenden. Auch wenn sich geschichtlich gesehen die kinetische Theorie vor allem als Gastheorie etabliert hat, ist die Modellierung nicht nur in Anwendung auf Gase sinnvoll. Beispielsweise lassen sich Finanzmärkte aus sehr vielen unabhängig handelnden Agenten zusammensetzen. Das Ergebnis der Handlungen der Agenten ist der Aktienpreis - sozusagen die Temperatur des Aktienmarktes. Es lassen sich dann aufgrund dieses Modells Eigenschaften untersuchen wie: Warum gibt es so viele Reiche? Außerdem geht es auch darum, die richtigen Modellannahmen für neue Anwendungen zu finden. Zum Beispiel ist ein Resultat der klassischen Gastheorie das Beer-Lambertsche Gesetz. Es besagt, dass Photonen durch Wolken exponentiell abgeschwächen werden. Messungen zeigen aber, dass dies bei unseren Wolken gar nicht gilt. Wieso? Dafür muss man schon sehr genau hinschauen. Zunächst heißt das wohl: Die zugrunde liegende Boltzmann-Gleichung ist für Wolken eine zu starke Vereinfachung. Konkret ist es die Annahme, dass man sich die Wolken als homogenes Medium vorstellt wahrscheinlich nicht zutreffend, d.h. die Streuzentren (das sind die Wassertropfen) sind nicht homogen verteilt. Um ein besseres Modell als die Boltzmann-Gleichung herzuleiten müsste man nun natürlich wissen: Welche Art der Inhomogenität liegt vor? Martin Frank hat Mathematik und Physik an der TU Darmstadt studiert, weil er schon in der Schulzeit großes Interesse an theoretischer Physik hatte. Im Studium hat er sich schließlich auf Angewandte Analysis spezialisiert und darin auch nach dem Diplom in Mathematik an der TU Darmstadt weiter gearbeitet. In dieser Zeit hat er auch das Diplom in Physik abgeschlossen. In der Promotion an der TU Kaiserslautern wurde es aber die numerische Mathematik, der er sich hauptsächlich zuwandte. In der eigenen universitären Lehre - aber auch in speziellen Angeboten für Schülerinnen und Schüler - pendelt er zwischen Projekt- und Theorie-zentriertem Lehren und Lernen. Literatur und weiterführende Informationen M. Frank, C. Roeckerath: Gemeinsam mit Profis reale Probleme lösen, Mathematik Lehren 174, 2012. M. Frank, M. Hattebuhr, C. Roeckerath: Augmenting Mathematics Courses by Project-Based Learning, Proceedings of 2015 International Conference on Interactive Collaborative Learning, 2015. Simulating Heavy Ion Beams Numerically using Minimum Entropy Reconstructions - SHINE M. Frank, W. Sun:Fractional Diffusion Limits of Non-Classical Transport Equations P. Otte, M. Frank: Derivation and analysis of Lattice Boltzmann schemes for the linearized Euler equations, Comput. Math. Appl. Volume 72, 311–327, 2016. M. Frank e.a.: The Non-Classical Boltzmann Equation, and Diffusion-Based approximations to the Boltzmann Equation, SIAM J. Appl. Math. 75, 1329–1345, 2015. M. Frank, T. Goudon: On a generalized Boltzmann equation for non-classical particle transport, Kinet. Relat. Models 3, 395-407, 2010. M. Frank: Approximate models for radiative transfer, Bull. Inst. Math. Acad. Sinica (New Series) 2, 409-432, 2007.
[podcast src="https://html5-player.libsyn.com/embed/episode/id/5654821/height/90/width/960/theme/custom/autonext/no/thumbnail/yes/autoplay/no/preload/no/no_addthis/no/direction/forward/render-playlist/no/custom-color/00d3ff/" height="90" width="960"] Um es gleich vorwegzunehmen: Mit „gut“ meinen wir immer qualitativ hochwertig, nachhaltig und wirtschaftlich zielführend. Innovation als solches bildet nämlich noch kein Potential, vielmehr ist Innovation das Werkzeug, das uns hilft, Potential zu erzeugen. Und das will gelernt – und vor allem: richtig umgesetzt sein. Doch nun zur Sache: Seit Jahren gehört Innovation zu den wichtigsten Debattenthemen in der politischen und akademischen Sphäre. Man ist sich darüber einig, dass der Hauptfaktor wirtschaftlicher (und gesellschaftlicher) Gesundheit gute Bildungssysteme und vitale, freie Forschungslandschaften sind, weil allein sie zu nachhaltiger Innovation führen können. EU-Sozialismus Mit Beginn des 21. Jahrhunderts startete die Europäische Union eine vollmundig angekündigte Innovationsinitiative, die sämtliche in der EU organisierten Länder erfassen sollte. Damit machten die Eurokraten Innovation zu einem, wenn nicht dem Hauptanliegen ihrer Wirtschaftspolitik. Die EU hat deshalb ihre Mitglieder dazu verpflichtet, in den ersten beiden Jahrzehnten des neuen Jahrtausends jeweils mindestens 3% ihres BIP für Forschung und Entwicklung auszugeben. Dieses Ziel wurde allerdings aus den verschiedensten Gründen von kaum einem Mitgliedsland erreicht. Eigentlich lag es in der Absicht der EU Kommission, das Staatenbündnis bis zum Jahr 2020 in den dynamischsten wissensbasierten Wirtschaftsraum der Welt zu verwandeln. Über Innovation sowie Forschung und Entwicklung kann man viel zu lesen kriegen. Tausende für teures Geld durchgeführte, hochakademische Studien sehen in der Innovation den Treiber für nachhaltiges Wachstum, das im Gefolge zu mehr allgemeinem Wohlstand führt. Gemeint wäre damit eigentlich kein subventionsfinanziertes Strohfeuer, sondern die Errichtung eines höheren Wachstumssockels, aus dem heraus auch und vor allem qualitatives Wachstum generiert werden kann. Obwohl die gesetzten Ziele regelmäßig weit verfehlt werden, wird das Innovationsprojekt der europäischen Wirtschaft mit absoluter Priorität verfolgt, und zwar, weil nur technischer Fortschritt Volkswirtschaften dazu befähigt, die in ihr vorhandenen Potentiale in Performanz zu übersetzen. Bei vielen wirtschaftspolitischen Entscheidungen geht es deshalb um das Verhältnis von Innovation und deren ökonomischen, möglichst multiplikativen Effekten. Diese machen aber nur dann wirklich Sinn, wenn sie das Merkmal der Nachhaltigkeit aufweisen. Alles andere wäre verbranntes Geld, verschwendete Zeit, sinnlos vergeudetes Potential. Was ist echter Fortschritt? Der Bestand an Bildung und kreativer Intelligenz, der innerhalb einer Volkswirtschaft als Potential existiert, bildet die Basis für die Realisierung von echtem Fortschritt im Sinne nachhaltiger Effekte. Wie aber will man diesen Bestand an Bildung und kreativer Intelligenz messen? Eigentlich müsste sich ja die Vorgabe „3 %!“ an einer wie auch immer möglichen Quantifizierung dieser Faktoren orientieren. So einfach geht es aber nicht. Bestimmt war die 3%-Klausel gut gemeint. Abgesehen vom Problem der Mess- und Umsetzbarkeit gilt aber auch hier: Das Gegenteil von gut ist gut gemeint. Das Großartige – und auch das besonders problematische und komplexe – ist nämlich die kulturelle und ethnische Inhomogenität der vielen europäischen Länder, die beim in alter Sozialistenmanier durchgeführten Gießkannengießen wieder und wieder vernachlässigt wird. Kultur findet im Kleinen statt, dort, wo Menschen miteinander kommunizieren, VeSupport the show (https://www.paypal.com/cgi-bin/webscr?cmd=_s-xclick&hosted_button_id=2PU5W9H752VZJ&source=url)
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
In der vorliegenden Dissertation werden elektrische Eigenschaften stark gekoppelter Systeme in Anwesenheit von Störungen untersucht. Dies erfolgt anhand der Dualität zwischen Eich- und Gravitationstheorien, die eine Beschreibung solcher Systeme mittels einer schwach gekoppelten Gravitationstheorie ermöglicht. Besondere Aufmerksamkeit wird hierbei der Berechnung von Ladungsdichten und Leitfähigkeiten gewidmet, sowie der Untersuchung der von den Störungen hervorgerufenen Auswirkungen auf diese. Unseren Rechnungen liegt die AdS/CFT-Korrespondenz zugrunde. Diese besagt, dass konforme Quantenfeldtheorien im flachen Minkowskiraum höherdimensionalen Stringtheorien im Anti-de-Sitter Raum gleichzusetzen sind. Einen besonders interessanten Grenzfall stellt der Limes dar, in dem die Quantenfeldtheorie einer sehr stark gekoppelten mit vielen internen Freiheitsgraden ausgestatteten Eichsymmetrie unterliegt. Die duale Stringtheorie kann in diesem Falle zu einer klassischen Gravitationstheorie im Anti-de-Sitter Raum vereinfacht werden. Ein relevantes Merkmal, aus dem der große praktische Wert der Dualität entspringt, liegt hierbei in der Tatsache, dass aus schwach gekoppelten Gravitationstheorien stammende Ergebnisse im Rahmen stark gekoppelter Quantenfeldtheorien interpretierbar sind. Angesichts des hohen technischen Schwierigkeitsgrades, den stark gekoppelte Theorien aufweisen, macht diese Eigenschaft die Dualität zu einem mächtigen mathematischen Werkzeug hinsichtlich eines besseren Verständnisses der Physik letzterer. Trotz fehlendem formellem Beweis ihrer allgemeinen Gültigkeit hat die AdS/CFT-Korrespondenz im Laufe der letzten Jahre wichtige Fortschritte in diesem Zusammenhang zuwege gebracht. Hervorzuheben sind Berechnungen von Transportkoeffizienten stark gekoppelter Theorien wie Viskositäten, Leitfähigkeiten und Diffusionskonstanten. Störungen treten in realen physikalischen Systemen immer auf. Jedoch ist wenig über deren Auswirkungen auf stark gekoppelte Materie bekannt. Die AdS/CFT-Korrespondenz ebnet den Weg zu einem besseren Verständnis hiervon. Um den Einfluss von Unreinheiten auf die oben genannten Transporteigenschaften stark gekoppelter Systeme mithilfe der AdS/CFT-Korrespondenz zu untersuchen muss die Abhängigkeit der Felder von mindestens zwei Koordinaten vorausgesetzt werden. Die zugehörigen Bewegungsgleichungen sind partielle Differentialgleichungen, deren analytische Handhabung technisch nicht durchführbar ist. Rechnergestützte numerische Methoden stellen die einzige Möglichkeit dar, diesem Problem beizukommen. Besonders geeignet hierfür erweisen sich die sogenannten Spektralmethoden, deren Anwendung auf Rechnungen im Rahmen der AdS/CFT-Korrespondenz in Detail erläutert wird. In der vorliegenden Arbeit bedienen wir uns der oben erwähnten Methoden, um numerische Lösungen von Gravitationstheorien zu ermitteln, die aufgrund der Dualität inhomogenen stark gekoppelten Systemen fundamentaler Teilchen entsprechen. Die Störungen, deren Auswirkungen auf die Transporteigenschaften des dualen Systems zu untersuchen sind, werden durch eine nichttriviale räumliche Struktur von physikalischen Größen der Gravitationstheorie eingeführt. Diese wird in einer ersten Ausführung von einem stufigen raumabhängigen Massenprofil dargestellt, das eine lokalisierte Störung in Form einer Grenzoberfläche bildet. Der Analyse der resultierenden Ladungsdichten und Leitfähigkeiten kann entnommen werden, dass die Präsenz der Grenzoberfläche eine Lokalisierung der Ladungsdichte in derer unmittelbaren Umgebung bewirkt. Des Weiteren wird eine lokale Erhöhung der Leitfähigkeit bei niedrigen Frequenzen in der zur Grenzoberfläche parallelen Richtung festgestellt. In der senkrechten Richtung nimmt die Leitfähigkeit bei niedrigen Frequenzen einen konstanten Wert an und wird in Vergleich zur parallelen Richtung abgeschwächt. Das Hochfrequenzverhalten der Leitfähigkeiten in beiden Richtungen wird nicht von der Inhomogenität gestört und weist keine Unterschiede auf. In einem zweiten Fall wird die nichttriviale räumliche Struktur in Form einer zufälligen Raumabhängigkeit des chemischen Potenzials entlang einer Richtung eingeführt, die die Störungen in der lokalen Energie der Ladungsträger nachbildet. Dabei wird festgestellt, dass diese Art von delokalisierten Störungen ein globales Anwachsen der Ladungsdichte des Systems herbeiführt. Die Leitfähigkeit wird von den Störungen abgeschwächt und ihr Verhalten weist qualitative Übereinstimmung mit Modellen der Transporteigenschaften von Graphen in der Physik der kondensierten Materie.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Die Forschungsergebnisse der letzten Jahre haben gezeigt, dass das Universum bei weitem nicht nur aus baryonischer Materie besteht. Tatsächlich scheinen 72% aus sogenannter Dunkler Energie zu bestehen, während selbst vom verbleibenden Teil nur etwa ein Fünftel baryonischer Materie zugeordnet werden kann. Der Rest besteht aus Dunkler Materie, deren Beschaffenheit bis heute nicht mit Sicherheit geklärt ist. Ursprünglich in den Rotationskurven von Spiralgalaxien beobachtet, wurde die Notwendigkeit ihrer Existenz inzwischen auch in elliptischen Galaxien und Galaxienhaufen nachgewiesen. Tatsächlich scheint Dunkle Materie eine entscheidende Rolle in der Strukturbildung im Universum gespielt zu haben. In der Frühzeit des Universums, als die Materieverteilung im Weltraum noch äußerst gleichmäßig war und nur sehr geringe Inhomogenitäten aufwies, bildeten sie die Kondensationskeime für den gravitativen Kollaps der Materie. Numerische Simulationen haben gezeigt, dass der heute beobachtbare Entwicklungszustand des Universums erst durch die zusätzliche Masse Dunkler Materie ermöglicht wurde, die den strukturellen Kollaps erheblich beschleunigte und nur dadurch zur heute beobachtbaren Komplexität der Strukturen führen konnte. Da Dunkle Materie nicht elektromagnetisch wechselwirkt, sondern sich nur durch ihre Schwerkraft bemerkbar macht, stellt der Gravitationslinseneffekt eine ausgezeichnete Methode dar, die Existenz und Menge an Dunkler Materie nachzuweisen. Der schwache Gravitationslinseneffekt macht sich zu Nutzen, dass die intrinsischen Orientierungen der Galaxien im Weltraum keine Vorzugsrichtung haben, gleichbedeutend mit ihrer statistischen Gleichverteilung. Die gravitationsbedingte kohärente Verzerrung der Hintergrundobjekte führt zu einer Abweichung von dieser Gleichverteilung, die von den Eigenschaften der Gravitationslinsen abhängt und daher zu deren Analyse genutzt werden kann. Diese Dissertation beschreibt die Galaxy-Galaxy-Lensing-Analyse von insgesamt 89 deg^2 optischer Daten, die im Rahmen des CFHTLS-WIDE-Surveys beobachtet wurden und aus denen im Rahmen dieser Arbeit photometrische Rotverschiebungs- und Elliptizitätskataloge erzeugt wurden. Das Galaxiensample besteht aus insgesamt 5×10^6 Linsen mit Rotverschiebungen von 0.05 < z_phot ≤ 1 und einem zugehörigen Hintergrund von insgesamt 1.7×10^6 Quellen mit erfolgreich gemessenen Elliptizitäten in einem Rotverschiebungsintervall von 0.05 < z_phot ≤ 2. Unter Annahme analytischer Galaxienhaloprofile wurden für die Galaxien die Masse, das Masse-zu-Leuchtkraft-Verhältnis und die entsprechenden Halomodellprofilparameter sowie ihre Skalenrelationen bezüglich der absoluten Leuchtkraft untersucht. Dies geschah sowohl für das gesamte Linsensample als auch für Linsensamples in Abhängigkeit des SED-Typs und der Umgebungsdichte. Die ermittelten Skalenrelationen wurden genutzt, um die durchschnittlichen Werte für die Galaxienhaloparameter und eine mittlere Masse für die Galaxien in Abhängigkeit ihres SED-Typs zu bestimmen. Es ergibt sich eine Gesamtmasse von M_total = 23.2+2.8−2.5×10^11 h^{−1} M_⊙ für eine durchschnittliche Galaxie mit einer Referenzleuchtkraft von L∗ = 1.6×10^10 h^{−2} L_⊙. Die Gesamtmasse roter Galaxien bei gleicher Leuchtkraft überschreitet diejenige des entsprechenden gemischten Samples um ca. 130%, während die mittlere Masse einer blauen Galaxie ca. 65% unterhalb des Durchschnitts liegt. Die Gesamtmasse der Galaxien steigt stark mit der Umgebungsdichte an, betrachtet man die Geschwindigkeitsdispersion ist dies jedoch nicht der Fall. Dies bedeutet, dass die zentrale Galaxienmateriedichte kaum von der Umgebung sondern fast nur von der Leuchtkraft abhängt. Die Belastbarkeit der Ergebnisse wurde von zu diesem Zweck erzeugten Simulationen bestätigt. Es hat sich dabei gezeigt, dass der Effekt mehrfacher gravitativer Ablenkung an verschiedenen Galaxien angemessen berücksichtigt werden muss, um systematische Abweichungen zu vermeiden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Scanning Acoustic Microscopy (SAM) stellt ein nicht invasives Bildgenerierungs- und Bildanalysesystem dar mit einer Auflösung ähnlich der des Lichtmikroskops, die eine Darstellung von mikroskopischen Strukturen ohne Anwendung von Färbetechniken erlaubt. Aufgrund dieser Eigenschaften wird SAM ein großes Potential zur histomorphometrischen und biomechanischen Charakterisierung von Knochengewebe zugesprochen. In dieser Untersuchung sollten die Anwendungsmöglichkeiten von SAM zur Darstellung und Beurteilung von neu gebildetem Knochen bei osteologischen Fragestellungen erarbeitet werden. Des Weiteren wurde SAM bezüglich Bildgenerierung und Histomorphometrie mit der Mikroradiographie - einer Standardmethode zur histomorphometrischen Untersuchung von kalzifiziertem Knochengewebe - qualitativ und quantitativ verglichen, um die Validität von SAM zu prüfen. Der Forschungsschwerpunkt liegt derzeit auf der Möglichkeit zur Charakterisierung der elastomechanischen Eigenschaften von Knochengewebe. Deshalb wurde zudem ein Versuchansatz entwickelt, um durch eine Grauwertanalyse anhand bereits erstellter Bilder die elastomechanischen Eigenschaften des Knochengewebes zu untersuchen. Die 42 transversalen, unentkalkten Knochenschnitte stammten aus einem Segmentdefektmodell der Schafstibia, aufgefüllt mit Bone Morphogenetic Protein-7 und autogenem Knochenmark. Nach Einbettung in Methylmetacrylat wurden die Präparate mittels konventioneller Mikroradiographie und SAM dargestellt. Anschließend erfolgten die Beurteilung von 40 SAM-Bildern bezüglich der qualitativen Abbildung des neu gebildeten und kortikalen Knochens sowie der qualitative und quantitative Ver-gleich der durch SAM und MR gewonnenen Bilder. Dabei wurden die beiden Methoden durch Messung der neu gebildeten Knochenfläche histomorphometrisch analysiert. Zuletzt wurde die Möglichkeit zur Charakterisierung der elastomechanischen Eigenschaften von Knochengewebe durch eine Grauwertanalyse zweier Abbildungen eines identischen Knochenschnittes bei unterschiedlichen Scan-Parametern betrachtet. 83 SAM überzeugte als Bildgenerierungsverfahren, um Knochengewebe auf mikroskopischer Ebene darzustellen. Dabei konnte durch Anwendung geeigneter Scan-Parameter eine deutliche Abgrenzbarkeit von neu gebildetem zu kortikalem Knochen erreicht werden. Im qualitativen Vergleich von SAM und MR erlaubte die Ultraschallmikroskopie Bilder höherer Auflösung sowie eine differenzierte Grauwertdarstellung gemäß der akustischen Eigenschaften. Die durch SAM und MR erhobenen Werte korrelierten sehr gut miteinander, es konnte kein signifikanter Unterschied zwischen den beiden Methoden erhoben werden. Die Beurteilung der elastomechanischen Eigenschaften über eine Grauwertanalyse erbrachte uneinheitliche Ergebnisse, da identische Knochenstrukturen je nach verwendeten Scan-Parametern in unterschiedlichem Helligkeitsverhältnis abgebildet wurden. SAM stellt eine viel versprechende Methode dar, um Knochengewebe nicht invasiv zu visualisieren und zu charakterisieren. SAM ermöglicht eine neue Qualität der Bildgebung basierend auf den akustischen bzw. elastomechanischen Eigenschaften des untersuchten Gewebes. Dies qualifiziert SAM zu einer einzigartigen Methode, die eine hoch aufgelöste Abbildung von Knochen- und Weichteilgewebe erlaubt. Die vielfältige Darstellung eines identischen Präparates durch SAM erweitert das Beurteilungsspektrum deutlich. Im Vergleich zur Mikroradiographie stellt SAM eine äquivalente Methode für histomorphometrische Messungen dar und kann diese durchaus ersetzen, insbesondere auch aufgrund der qualitativen Vorteile der Abbildung. Allerdings ist SAM derzeit wegen der noch zeitintensiven Bilderzeugung nicht in dem Umfang anwendbar wie die MR. Eine zukünftige Anwendung von SAM zur Beurteilung elastomechanischer Eigenschaften von Knochengewebe scheint möglich, ist derzeit aber limitiert durch zahlreiche Faktoren wie fehlende Standardisierung der Messungen, der Größe des erfassbaren Knochengewebes sowie dessen Inhomogenität, aber auch uneinheitlicher Ergebnisse zur Validität der Messung und deren Aussagekraft sowie Relevanz. Diese Studie liefert bedeutsame Erkenntnisse für die Grundlagenforschung, um die Anwendbarkeit des SAM bei osteologischen Fragestellungen zu erweitern und zu optimieren.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Die Behandlung der atrophen Pseudarthrose stellt in der Orthopädie und Unfallchirurgie eine große Herausforderung dar. Die Pseudarthrose sowie deren gegenwärtig angewandte Therapiestrategien haben weitreichende interdisziplinäre Auswirkungen. In diesem Zusammenhang seien lange Immobilisation, Krankenhausaufenthalte und hohe Kosten für das Gesundheitswesen genannt. Deshalb ist es dringend geboten effiziente Behandlungskonzepte zu finden. Die extrakorporale Stosswellentherapie (ESWT) könnte als Therapiealternative geeignet sein, wobei jedoch trotz intensiver orthopädisch-interdisziplinärer Forschung bisher wenig über deren Wirkmechanismen bekannt ist. Hinzu kommt, dass die Inhomogenität der bisher durchgeführten Untersuchungen zur ESWT die fachgerechte Wertigkeitseinschätzung dieser Behandlungsmethode erschwert. In der vorliegenden Studie wurde die Wirkweise extrakorporaler Stosswellen am pathologisch veränderten Knochen, speziell am etablierten Kaninchenmodell nach In-duktion einer atrophen Pseudarthrose, geprüft. Zu diesem Zweck wurden 14 New Zealand White Rabbits (Behandlungsgruppe n = 6, Kontrollgruppe n = 8) an der Tibia mit einem Fixateur externe versehen sowie osteotomiert und devastiert. Acht Wochen postoperativ wurden die Tiere der Behandlungsgruppe mit fokussierter ESWT behandelt. Die Energieflussdichte betrug 0,5 mJ/mm² bei 1500 Impulsen (zweimal 750 Impulse, die jeweils distal und proximal zum Knochenspalt fokussiert wurden) und einer Frequenz von 1 Hz. Die Kaninchen der Kontrollgruppe wurden einer Scheinbehandlung unterzogen. Die Ergebnisse resultierten aus klinischen und radiologischen Betrachtungen sowie histomorphologischen und histomorphometrischen Analysen. Die histopathologischen Untersuchungen unterteilten sich in mikroradiografische Bilder der Knochenpräparate und in paragongefärbte Dünnschnittpräparate. Die Resultate zeigten in den Variablen „Klinische Evaluation“, „Bindegewebsbildung“, „Reaktionstyp der Kallusbildung“, „Mittleres relatives Ausmaß der Kallusbildung – periostal“, „Bruchspalt-durchbauung“ und „Quantitative Erfassung der Knochenneubildung“ signifikante bis zum Teil hochsignifikante Unterschiede zwischen den behandelten und unbehandelten Tiergruppen. Zusammenfassend ergibt sich, dass beim pathologisch veränderten Knochen eine beschleunigte knöcherne Ausheilung durch extrakorporale Stosswellen zu erzielen ist.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
In der Zellbiologie leisten Elastizitätsmessungen auf der Submikrometerskala an lebenden Zellen wichtige Beiträge zur Aufklärung von Fragen der Zellmechanik. Vor diesem Hintergrund wurde in dieser Arbeit die Methode der Elastizitätsmessung mit dem Rasterkraftmikroskop (AFM) erweitert, um quantitative Elastizitätsuntersuchungen auch an äußerst weichen dünnen Proben durchführen zu können. Die diskutierten Proben sind dabei mit einem Elastizitätsmodul von einigen Kilopascal extrem weich und haben gleichzeitig eine Dicke von lediglich einigen 100 Nanometern. Bisherige Analysemethoden der Elastizitätsmessungen basierten meist auf dem sogenannten Hertzmodell: einem theoretischen Modell, das zum einen nur die Eindrückung in äußerst dicke Proben beschreibt und zum anderen lediglich von der AFM-Spitze abweichende Stempelgeometrien beinhaltet. Mit dem Hertzmodell berechnete Elastizitätswerte mußten daher stets als Näherung verstanden werden. Für die Analyse elastischer Eigenschaften mit dem AFM ist die genaue Kenntnis der mechanischen Wechselwirkung zwischen AFM-Spitze und Probe von zentraler Bedeutung. Diese wurde mit der Finite-Elemente-Methode (FEM) untersucht, indem die vollkommen elastische Eindrückung der AFM-Spitze in gummielastische Proben simuliert wurde. Hierbei wurde insbesondere der Einfluß der Probendicke und der Geometrie des eindrückenden Stempels auf das Kraft-Eindrückungsverhalten charakterisiert. Mit Hilfe der FEM konnte gezeigt werden, daß im Falle dünner Proben zwei unterschiedliche Ursachen bei der Analyse der Elastizitätsmessungen durch das Hertzmodell, zu einem systematischen Überschätzen des berechneten Elastizitätsmoduls führen: Einerseits die vom Hertzmodell abweichende Geometrie der AFM-Spitze und andererseits die geringe Probendicke. Letzteres führt zur Detektion des harten Substrates im Kraft-Eindrückungsprozeß. Erst bei einer Probendicke von über 1,5 µm führt das Hertzmodell bei den untersuchten weichen Proben und Auflagekräften von unter 1 nN nur noch zu geringen Abweichungen in der Elastizitätsanalyse. Dagegen ist mit dem Hertzmodell eine exakte Bestimmung der Topographie selbst extrem weicher Proben mit geringer Dicke möglich. Dazu wird der Kontaktpunkt im Kraft- Eindrückungsprozeß mittels Hertzmodell berechnet. Die Höhe der Probe wird dabei geringfügig unterschätzt, die Abweichung bewegt sich in der Größenordnung des Radius der AFM-Spitze. Zur Verbesserung der Elastizitätsanalyse wurde mit Hilfe simulierter Kraft-Eindrückungskurven eine parametrische Erweiterung des Hertzmodells entwickelt, welche sowohl die Geometrie der AFM-Spitze als auch die Dicke der Proben berücksichtigt. Das Parametrische Modell wurde für Probendicken unter 1 µm optimiert. Es ermöglicht nun die Bestimmung des Elastizitätsmoduls unabhängig von der Dicke der Probe, wodurch die Methode der Elastizitätsmessung mittels AFM deutlich verbessert werden konnte. Im Falle von homogenen Materialien ermöglicht das Parametrische Modell eine exakte Bestimmung der Dicke und des Elastizitätsmoduls der Probe. Außerdem sind mit Hilfe des Parametrischen Modells feinste Inhomogenitäten der Probe detektierbar. So ist es gelungen in Gelatinekeilen von lediglich einigen 100 nm Dicke noch tiefenabhängige Elastizitätsveränderungen aufzuspüren. Die parallele Anwendung des Hertzmodells und des Parametrischen Modells erlaubt nun auch bei inhomogenen Materialien sowohl eine exakte Bestimmung von Topographie als auch der Elastizität weicher Oberflächenschichten. Als Anwendungsbeispiel von Zellelastizitätsmessungen wurde das Adhäsionsverhaltens von Osteoblasten auf verschiedenen Substratmaterialien charakterisiert. Das Adhäsionsverhalten einzelner Zellen auf den verschiedenen Substraten wurde dabei aus den resultierenden Unterschieden in Elastizität und Morphologie der Zellen beurteilt. Diese Methode ermöglicht einen neuen Zugang zur Untersuchung der Biokompatibilität der Substratmaterialien auf zellulärer Ebene in vitro. An aktiven Herzmuskelzellen wurde das AFM zur Detektion der mechanischen Kontraktion der Zellen verwendet. In einem konfluenten Rasen synchronisiert pulsierender Zellen konnte die Veränderung der Pulsamplitude mit der lateralen Verschiebung von Kontraktionszentren korreliert werden. In den Kontraktionszentren erfolgt dabei ein Anheben (positive Amplitude) in den passiven Zwischenbereichen dagegen ein Absenken der Zelloberfläche (negative Amplitude). An aktiven Einzelzellen ist es erstmalig gelungen die Kontraktion als Funktion des Ortes zu messen. Als Parameter mit der geringsten Schwankung und damit möglicherweise als charakteristisch für die individuelle Zelle haben sich die Halbwertsbreite und Anstiegszeit der Pulse erwiesen. Durch Variationen der Auflagekraft konnten Einzelzellen gezielt belastet und deren Leistungsvermögen abgeschätzt werden. Die Zellen konnten dabei Kräfte bis zu 300 nN anheben und erreichten eine Mindestleistung von bis zu 0,5 pW.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
In der heutigen Kosmologie werden Inhomogenitäten und Unregelmäßigkeiten in den relevanten Datensätzen wie etwa die Substruktur in Galaxienhaufen und die Tatsache, daß verschiedene Galaxientypen unterschiedlich im Raum verteilt sind, nicht mehr nur als zufällige Fluktuationen interpretiert, sondern für ein Verständnis der kosmischen Materieverteilung positiv nutzbar gemacht. Die vorliegende Arbeit entwickelt in diesem Sinne Maße, welche eine quantitative Beschreibung von solchen Inhomogenitäten liefern, wendet sie sowohl auf Realdaten als auch auf numerische Simulationen an und stellt den Zusammenhang zu physikalischen Modellen her. Die Integralgeometrie stellt Maße zur Verfügung, die sich unter geometrischen Transformationen und Mengenoperationen in einfacher Weise verhalten. Während bislang in der Kosmologie vor allem die skalaren Minkowski–Funktionale angewandt wurden, um die kosmische Materieverteilung zu charakterisieren, stehen im ersten Teil dieser Arbeit höherrangige Minkowski–Valuationen wie die Quermaßvektoren und –tensoren im Vordergrund. Diese spiegeln die Lage, Symmetrie, Gestalt und Konnektivität von Mustern wider. Zunächst werden diese Maße für physikalische Anwendungsbereiche erschlossen. Die Anwendungen gelten dann Galaxienhaufen (“Clustern”), deren innere Eigenschaften auch dazu geeignet sind, die Werte der kosmologischen Parameter einzuschränken. Mit Hilfe der Minkowski–Valuationen definieren wir eine Reihe von Strukturfunktionen, die sich speziell dazu eignen, Galaxienhaufen morphologisch zu charakterisieren. Eine Analyse von Clustern, die kosmologischen Dunkle–Materie–Simulationen entstammen (dem sogenannten GIF–Projekt der “German–Israelic Foundation”), zeigt, daß der morphologische Zustand von Galaxienhaufen zwischen verschiedenen kosmologischen Hintergrundmodellen unterscheiden kann. Eine weitere Analyse gilt komplexeren Simulationen, die auch das heiße Cluster–Röntgengas berücksichtigen. Dabei vergleichen wir nicht nur die Gas– und die Dunkle–Materie–Morphologie, sondern untersuchen auch den Zusammenhang mit der inneren Dynamik. In geeigneten Räumen von globalen Clusterparametern entstehen fundamentale Abhängigkeiten wie etwa die Fundamentalebenenrelation. Dabei können wir zeigen, daß der Abstand von der Fundamentalebene, der die Entfernung von einem Gleichgewichtszustand angibt, mit der Substruktur der Galaxienhaufen positiv korreliert ist; mithin spiegelt die Substruktur den inneren dynamischen Zustand eines Clusters. Weiterhin wird gezeigt, daß die Morphologie von Galaxienhaufen auch im Optischen (d.h. in der Verteilung der Clustergalaxien) die Hintergrundkosmologie widerspiegelt. Dazu analysieren wir die Verteilung von Cluster–Galaxien, welche semianalytischen Modelle für die GIF–Simulationen vorhersagen, und Realdaten. Eine Grundfrage der modernen Kosmologie gilt der Art und Weise, wie die Dunkle Materie hinter dem Vordergrund der sichtbaren Galaxien im Universum verteilt ist (“Bias”–Problem). Wegen der Schwierigkeiten, die Dunkle Materie zu lokalisieren, sind dabei schon Unterschiede von Interesse, die sich etwa in der räumlichen Verteilung unterschiedlicher Galaxientypen finden. Der zweite Teil der Arbeit beschäftigt sich mit einem neuen Ansatz, solche Unterschiede zu quantifizieren. Dabei versteht man die Galaxienverteilung als Realisation eines markierten Punktprozesses, der neben den Positionen im Raum auch innere Eigenschaften der Galaxien wie Leuchtkräfte oder morphologische Typen erzeugt. Diese Beschreibung ermöglicht es, eine Reihe von Größen einzuführen, mit denen man testen kann, ob eine Markensegregation vorliegt, das heißt, ob das räumliche Clustern der Galaxien von deren inneren Eigenschaften abhängt. Solche Testgrößen – wir beziehen uns dabei hauptsächlich auf Statistik zweiter Ordnung – zeigen, angewandt auf den Southern Sky Redshift Survey II, signifikante Leuchtkraft– und Morphologie–Segregation an. Ein Vergleich mit Modellen zeigt die komplexe Natur dieser Leuchtkraft–Segregation, die insbesondere nicht auf die Morphologie–Dichte–Relation zurückzuführen ist.