POPULARITY
Am vergangenen Samstag riefen die Sans-Papiers-Kollektive Basel zur Demo gegen Rassismus auf und mehrere hundert Menschen schlossen sich den Gesängen und Forderungen an. Sie wünschen sich mehr Aufmerksamkeit und fordern einen strukturellen Wandel - auch in der Politk. von Mirco Kaempf
Eine seltsame Angelegenheit wird das heute. Aber warum eigentlich? Macht das alles überhaupt Sinn? Und was hat die sogenannte Regularisierung damit zu tun? Awkward Adrian und Max Madness klären auf, was es mit den Phänomenen von Seltsamkeit und Fremdheit auf sich hat. Dabei kommen auf der philosophischen Seite unter anderem die alten Sonderlinge J. P. Sartre und Platon zu Wort. Auf Seiten der Neurowissenschaft geht es um die Art und Weise, wie sich das menschliche Gehirn und Computer möglicherweise in ihrer Informationsverarbeitung ähneln… und zu guter Letzt kommt unheimlicherweise sogar Sigmund Freud zu Wort. Komisch, oder?
Mathematik mit Kunst und Design erklären - das war ein Ziel des Cooking Math-Projekts. Robert Winkler forscht an der Fakultät für Mathematik zu numerischen Verfahren für schlecht gestellte Probleme. Das hilft z.B. Elektrische Impedanztomographie genauer und schneller zu machen. Seine Teilnahme am Cooking Math Projektes hat uns zum jetzigen Zeitpunkt zusammengeführt. Die Aufgabenstellung der Elektrischen Impedanztomographie ist es, aus Messungen auf der Oberfläche eines Körpers Rückschlüsse auf die Zusammensetzung im Inneren zu ziehen. Dazu dient bei der Elektrische Impedanztomographie die elektrische Leitfähigkeit im Innern, die Auswirkungen auf gemessene elektrische Potentiale an der Körperoberfläche hat. Aus physikalischen Zusammenhängen (hier Ohmsches Gesetz und Kirchhoffsche Regeln) lassen sich partielle Differentialgleichungen herleiten, die aus der Leitung im Innern die Oberflächenpotentiale berechenbar machen. Das nennt man Vorwärtsproblem. In der Praxis braucht man aber genau die andere Richtung - das sogenannte inverse Problem - denn man hat die Werte auf dem Rand gemessen und will unter den gleichen physikalischen Annahmen auf den Ablauf im Inneren schließen. Der Zusammenhang, der so modellhaft zwischen Leitfähigkeit und Potential am Rand entsteht, ist hochgradig nichtlinear. Außerdem ist er instabil, das heißt kleine Messfehler können dramatische Auswirkungen auf die Bestimmung der Leitfähigkeit haben. Daher müssen bei der numerischen Bearbeitung Verfahren gefunden werden, die die partielle Differentialgleichung numerisch lösen und dabei diese Nichtlinearität stabil behandeln können. Etabliert und sehr effektiv ist dabei das Newtonverfahren. Es ist weithin bekannt zur Nullstellensuche bei Funktionen von einer Variablen. Die grundlegende Idee ist, dass man ausgehend von einem Punkt in der Nähe der Nullstelle den Tangenten an der Funktion folgt um sich schrittweise der Nullstelle zu nähern. Durch die Information, die in der Tangentenrichtung verschlüsselt ist, entsteht so ein Verfahren zweiter Ordnung, was in der Praxis heißt, dass sich nach kurzer Zeit in jedem Schritt die Zahl der gültigen Stellen verdoppelt. Großer Nachteil ist, dass das nur dann funktioniert, wenn man nahe genug an der Nullstelle startet (dh. in der Regel braucht man zuerst ein Verfahren, das schon eine gute erste Schätzung für die Nullstelle liefert). Außerdem gibt es Probleme, wenn die Nullstelle nicht einfach ist. Wenn man das Newtonverfahren zum finden von Optimalstellen nutzt (dort wo die Ableitung eine Nullstelle hat), kann es natürlich nur lokale Minima/Maxima finden und auch nur dasjenige, das am nächsten vom Startwert liegt. Im Kontext der inversen Probleme wird das Newtonverfahren auch eingesetzt. Hier muss natürlich vorher eine geeignete Verallgemeinerung gefunden werden, die so wie die Ableitungen im eindimensionalen Fall eine Linearisierung der Funktion in einer (kleinen) Umgebung des Punktes sind. Der Kontext, in dem das recht gut möglich ist, ist die schwache Formulierung der partiellen Differentialgleichung. Der passende Begriff ist dann die Fréchet-Ableitung. Betrachtet man das Problem mathematisch in einem Raum mit Skalarprodukt (Hilbertraum), kann die Linearisierung mit dem Verfahren der konjugierten Gradienten behandelt werden. Dieses Verfahren findet besonders schnell eine gute Näherung an die gesuchte Lösung, indem es sich Eigenschaften des Skalarprodukts zunutze macht und die aktuelle Näherung schrittweise in besonders "effektive" Richtungen verbessert. Um das lineare Problem stabiler zu machen, nutzt man Regularisierungen und geht von vornherein davon aus, dass man durch Fehler in den Daten und im Modell ohnehin in der Genauigkeit eingeschränkt ist und in der numerischen Lösung nicht versuchen sollte, mehr Genauigkeit vorzutäuschen. Eine typische Regularisierung bei der Elektrische Impedanztomographie ist die Erwartung, dass die Leitfähigkeit stückweise konstant ist, weil jedes Material eine zugehörige Konstante besitzt. Im zugehörigen Cooking Math-Projekt soll der Modellerierungs- und Lösungsfindungsprozess visualisiert werden. Eine Idee hierfür ist das Spiel "Topfschlagen". Literatur und weiterführende Informationen R. Winkler, A. Rieder: Model-Aware Newton-Type Inversion Scheme for Electrical Impedance Tomography, Preprint 14/04 am Institut für Wissenschaftliches Rechnen und Mathematische Modellbildung, KIT, 2014. (Eingereicht zur Veröffentlichung in Inverse Problems 31, (2015) 045009). O. Scherzer: Handbook of Mathematical Methods in Imaging, Springer Verlag, ISBN 978-0-387-92919-4, 2011. Podcasts S. Hollborn: Impedanztomographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/impedanztomographie J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration D. Hipp: Dynamische Randbedingungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 83, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/dynamische-randbedingungen
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Dynamische Modelle sind wichtige Hilfsmittel, um aus projizierten Beobachtungsdaten auf die Massenverteilung und die Phasenraumstruktur von Galaxien zu schließen, und dabei ihre Entstehungs- und Entwicklungsprozesse zu verstehen. Eine relativ neue und vielversprechende Technik, dynamische Modelle zu konstruieren, ist die “made-to-measure” Methode, bei der ein System von Teilchen sukzessive einer beobachteten Lichtverteilung und gemessenen projizierten stellaren Kinematik angeglichen wird. Da die intrinsische, dreidimensionale Struktur der Modelle dann bekannt ist, können sie verwendet werden, um die Massenverteilung und Bahnstruktur der Galaxie zu verstehen. In dieser Arbeit verwenden wir den “made-to-measure particle” Code NMAGIC, um die spezielle Klasse der schwach im Röntgenbereich strahlenden elliptischen Galaxien von mittlerer Leuchtkraft zu erforschen, deren Geschwindigkeitsdispersionsprofile stark mit dem Radius abfallen, was auf sehr diffuse dunkle Materie Halos hindeutet, die möglicherweise in Konflikt zu Vorhersagen von Galaxienentstehungsmodellen stehen. Im ersten Teil der Arbeit führen wir eine “moving prior” Regularisierungsmethode in NMAGIC ein, welche eine korrekte und von systematischen Fehlern freie Rekonstruktion der dynamischen Struktur der beobachteten Galaxie ermöglicht. Im sphärischen Fall, in welchem theoretisch eine eindeutige Invertierung der Daten möglich ist, zeigen wir, dass NMAGIC mit der neuen Regularisierungsmethode die Verteilungsfunktion und intrinsische Kinematik einer Zielgalaxie (mit idealen Daten) mit hoher Genauigkeit reproduziert, unabhängig von der ursprünglich als Startmodell gewählten Teilchenverteilung. Weiterhin untersuchen wir, wie sich unvollständige und verrauschte kinematische Daten auswirken, und kommen zu dem Schluss, dass die Zuverläßigkeit der Modelle auf Gebiete mit guten Beobachtungsdaten beschränkt ist. Schließlich werden mit einer Version der moving-prior Regularisierung für axialsymmetrische Systeme die am besten passenden NMAGIC Modelle der zwei elliptischen, mittelstark leuchtenden Galaxien NGC 4697 und NGC 3379 aus früheren Arbeiten rekonstruiert, um einen glatteren Fit an die Beobachtungsdaten zu erhalten. Im zweiten Teil der Arbeit untersuchen wir die rätselhafte elliptische Galaxie NGC 4494 mittlerer Leuchtkraft. Wir konstruieren axialsymmetrische NMAGIC Modelle mit unterschiedlichen dunkle Materie Halos und Inklinationen, um etwas über ihre Massenverteilung und Bahnstruktur zu erfahren. Die Modelle werden eingegrenzt durch Radialgeschwindigkeiten von planetarischen Nebeln und kinematischen Absorptionsliniendaten in “slitlets”, was uns ermöglicht, zu erforschen, bei welchen Radien die dunkle Materie anfängt zu dominieren bzw. Spuren des Entstehungsmechanismus sichtbar werden. Mit geeigneten Monte-Carlo-Simulationen bestimmen wir mit NMAGIC die ��Werte verschiedener Konfidenzniveaus für die Schätzung der Parameter der dunklen Halos und finden andere Werte, als in der Literatur über dynamische Modellierung normalerweise verwendet. Unsere best-fit NMAGIC Modelle für NGC 4494 innerhalb dieser Konfidenzniveaus schließen einen diffusen dunklen Halo aus; sie haben einen Anteil dunkler Materie von ungefähr 0, 6±0, 1 bei 5 Effektivradien und eine näherungsweise flache (konstante) totale Kreisgeschwindigkeit von � 220 km/s außerhalb des Effektivradius. Die Anisotropie der Sternbahnen ist mässig radial. Diese Ergebnisse sind unabhängig von der angenommenen Inklination der Galaxie, aber edge-on Modelle werden bevorzugt. Schließlich vergleichen wir die dunklen und stellaren Halos von den bisher modellierten elliptischen Galaxien mittlerer Leuchtkraft und folgern, dass ihre Kreisgeschwindigkeiten ähnlich sind. Die genaue Wechselwirkung zwischen dunkler und leuchtender Materie war während der Entstehung jeder Galaxie wahrscheinlich unterschiedlich – und NGC 4494 zeigt einen besonders hohen Anteil an dunkler Materie, speziell im Zentrum, was vielleicht das Ergebniss vergangener Verschmelzungsereignisse sein könnte.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Die nichtkommutative Geometrie stellt den ältesten Zugang zur Regularisierung von Ultraviolettdivergenzen der Punktwechselwirkungen in der Stöhrungstheorie dar. Dieser Zugang ist eine Verallgemeinerung der Quantenmechanik. Die Regularisierung erfolgt durch nichtverschwindende Unschärferelationen, die sich aus der neu eingeführten Nichtkommutativität der Ortsoperatoren ergibt. Zusätzlich ist das Ortseigenwertspektrum quantisiert - der messbare Raum erhält eine diskrete Struktur. Diese wird physikalisch als gravitativer Hochenergieeffekt auf der Planck-Skala verstanden. Der Bruch der Poincaré-Symmetrie durch nichkommutative Ortsoperatoren stellt die zentrale technische Problematik der nichtkommutativen Geometrie dar. Die mathematische Handhabung dieser Problemstellung ist aufwendig und wird im mathematischen Fachgebiet der Quantengruppen behandelt. Die mathematische Entwicklung hat sich dabei teilweise von den Bedürfnissen der Physik entfernt. Diese Doktorarbeit leistet einen Betrag dazu, Quantengruppen für die Anforderungen der Quantenfeldtheorie besser zugänglich zu machen. Zu diesem Zweck wird im Rahmen dieser Arbeit die Quantisierung der Poincaré-Algebra für nichtkommutative Räume mit kanonischen Kommutatorrelationen berechnet. Diese Räume sind äusserst populär unter Feldtheoretikern und verfügten bisher nur über Translationsinvarianz. Die Deformationen werden über einen notwendigen Satz von Bedingungen und einem allgemeinen Ansatz für die Lorentz-Generatoren bestimmt. Es wird eine zweiparametrige Schar von äquivalenten aber nichttrivialen Deformationen der Poincaré-Algebra erhalten. Die vollständige Hopf-Struktur wird berechnet und bewiesen. Casimir-Operatoren und Raumzeitinvarianten werden bestimmt. Desweiteren wird ein allgemeines Quantisierungsverfahren entwickelt, in dem die universelle Einhüllende von Matrix-Darstellungen von Lie-Algebren in eine eigens konstruierte Hopf-Algebra von Vektorfeldern als Unteralgebra eingebettet wird. Die unter Physikern populären Sternprodukte können damit generell zur Twist-Quantisierung von Lie-Algebren verwendet werden. Da die Hopf-Algebra der Vektorfelder grösser ist als die universelle Einhüllende der Lie-Algebra, sind allgemeinere Deformationen möglich als bisher. Dieses Verfahren wird weiterhin auf die Heisenbergalgebra mit Minkowski-Signatur angewendet. Dadurch erhält man eine fundamentale Verallgemeinerung der Quantenmechanik, motiviert als gravitativer Hochenergieeffekt. Nichtkommutativität wird dadurch in Abhängigkeit von Energie und Impuls gesetzt. Technisch wird dazu das Quantisierungsverfahren von Weyl und Moyal formalisiert. Die Mehrfachanwendung von Twists wird eingeführt.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Elliptische Galaxien sind homogene, von alten Sternen dominierte dynamische Systeme, die sich heute in einem Zustand annähernden Gleichgewichts befinden. Ihre Entstehung liegt zeitlich weit zurück und ihr jetziger Zustand lässt nur noch indirekte Rückschlüsse auf den genauen Zeitpunkt und die Art ihrer Entstehung zu. Moderne Theorien zur Strukturbildung im Universum sagen vorher, dass alle massereicheren Galaxien von Halos aus dunkler Materie umgeben sind. Die zentrale Dichte der dunklen Materie stellt sich dabei als ein indirektes Mass für die Entstehungsepoche der Galaxien heraus. Hinweise auf den Enstehungsprozess - die Literatur kennt im wesentlichen den Kollaps einer protogalaktischen Gaswolke oder die Verschmelzung mehrerer Vorläufergalaxien - ergeben sich aus der Verteilung der Sternbahnen in elliptischen Galaxien. Sowohl die Verteilung der Masse als auch die der Sternbahnen sind schwierig aus Beobachtungen zu bestimmen, weil elliptische Galaxien dreidimensionale Objekte sind und man nicht von vornherein weiß unter welchem Blickwinkel man sie beobachtet. Außerdem bilden ihre Sterne ein stossfreies dynamisches System, das beliebige Grade von Anisotropie annehmen kann. Seit etwa Anfang der 90er Jahre stehen mit den Messungen von projizierten Geschwindigkeitsprofilen Beobachtungsdaten zur Verfügung, die eine Rekonstruktion des genauen dynamischen Aufbaus einzelner Objekte zulassen. Erst seit etwa fünf Jahren hat die Entwicklung dynamischer Modelle ein vergleichbares Niveau erreicht, so dass es jetzt möglich ist, zumindest die volle Bandbreite achsensymmetrischer Modelle mit Beobachtungen einzelner Galaxien zu vergleichen. Die vorliegende Arbeit ist die erste Studie einer Stichprobe von mehreren Objekten mit achsensymmetrischen Modellen. Ähnlich umfangreiche Arbeiten waren bisher auf die Anwendung sphärisch-symmetrischer Modelle beschränkt, in denen weder Rotation noch Inklinationseffekte berücksichtigt werden können. Die Datenanalyse der vorliegenden Arbeit basiert auf der sog. Schwarzschild-Methode. Dabei wird zunächst aus Galaxienbildern das Gravitationspotential der sichtbaren Materie berechnet. Anschließend wird eine Bibliothek mit tausenden Sternbahnen angelegt, aus deren Überlagerung dann ein Modell konstruiert wird. Falls nötig, wird dunkle Materie hinzugefügt bis Modell und Daten im Rahmen der Messfehler übereinstimmen. Diese Methode wird im Rahmen der Arbeit weiterentwickelt: Eine gleichmässige Verteilung von invarianten Kurven einzelner Orbits in geeignet gewählten Poincaré-Schnitten wird als Kriterium für eine zuverlässige Berücksichtigung aller Bahntypen eingeführt. Ein Verfahren wird implementiert, dass ebenfalls Poincaré-Schnitte verwendet, um die Phasenvolumina einzelner Orbits und damit die Phasenraumverteilungsfunktion von Galaxien zu berechnen. Monte-Carlo Simulationen zeigen, dass mit optimierter Regularisierung sowohl interne Geschwindigkeiten als auch die Massenstruktur mit einer Genauigkeit von etwa 15 Prozent aus den vorliegenden Daten rekonstruiert werden können. Die untersuchten elliptischen Galaxien haben näherungsweise konstante Kreisgeschwindigkeiten außerhalb ihrer Zentren, ähnlich wie Spiralgalaxien. Die Halo Skalenradien einiger Ellipsen sind allerdings um einen Faktor zehn kleiner als die in gleichhellen Spiralen. Mit den flachen Rotationskurven sind 10 bis 50 Prozent dunkler Materie innerhalb des Effektivradius verknüpft. Die zentrale Dichte der dunklen Materie ist in Ellipsen um einen Faktor 25 höher als in Spiralgalaxien, was eine Enstehungsrotverschiebung von z = 4 impliziert. Soweit bestätigen die Modelle aus dieser Arbeit Resultate früherer Arbeiten mit sphärisch symmetrischen Modellen. In den Coma Galaxien mit den ältesten stellaren Populationen sind entweder - im Vergleich zu jüngeren Galaxien - mehr Sterne geringer Masse gebildet worden oder aber die dunkle Materie in diesen Galaxien folgt einer ähnlichen radialen Verteilung, wie die leuchtende Materie. Die Ergebnisse der Arbeit bestätigen kürzlich erschienene Arbeiten, nach denen elliptische Galaxien im grossen und ganzen eine homologe dynamische Familie bilden. Die verbleibende Streuung um entsprechende, aus dem Virialsatz ableitbare, globale Skalenrelationen sind auf eine systematische Verknüpfung des Drehimpulses mit der Leuchtkraftverteilung zurückzuführen. Der Ursprung dieser Relation ist noch unklar, aber ihr Vorhandensein erlaubt die Streuung in den Skalenrelationen um ein Drittel zu reduzieren. Dadurch könnte es in Zukunft möglich sein, die Entfernung einzelner Ellipsen mit grosser Genauigkeit aus ihrer Kinematik abzuleiten. Die Abflachung der untersuchten Galaxien kommt durch eine relative Unterhäufigkeit von Sternen auf Bahnen, die den Äquator mit hoher vertikaler Geschwindigkeit durchkreuzen, zustande. Eine solche Verteilung von Sternen maximiert ihre Entropie im Phasenraum, wodurch elliptische Galaxien zu einem hohen Grade dynamisch relaxiert scheinen. Allerdings offenbart eine genaue Untersuchung der Sternverteilung im Phasenraum eine reichhaltige Feinstruktur. Ein Objekt besteht aus der Überlagerung einer dünnen, rotierenden Scheibe und eines strukturlosen Sphäroids. In anderen Galaxien zeigt sich eine starke Asymmetrie zwischen rotierenden und gegenrotierenden Sternen in ihren Außenbezirken, gekoppelt mit relativ niedrigen stellaren Altern. Beides deutet daraufhin, dass die Sterne in diesen Regionen erst vor relativ kurzer Zeit zur Galaxie hinzugekommen sind. Über den beobachteten radialen Bereich zeigt keine Galaxie die typische Struktur nach einem Kollaps. Die Vielfalt der dynamischen Eigenschaften spricht eher für das Verschmelzungsszenario mit seiner natürlichen Variation an Ausgangskonfigurationen und -objekten.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Die vorliegende Arbeit beschäftigt sich mit der statistischen Modellierung und Inferenz genetischer Netzwerke. Assoziationsstrukturen und wechselseitige Einflüsse sind ein wichtiges Thema in der Systembiologie. Genexpressionsdaten weisen eine hohe Dimensionalität auf, die geringen Stichprobenumfängen gegenübersteht ("small n, large p"). Die Analyse von Interaktionsstrukturen mit Hilfe graphischer Modelle ist demnach ein schlecht gestelltes (inverses) Problem, dessen Lösung Methoden zur Regularisierung erfordert. Ich schlage neuartige Schätzfunktionen für Kovarianzstrukturen und (partielle) Korrelationen vor. Diese basieren entweder auf Resampling-Verfahren oder auf Shrinkage zur Varianzreduktion. In der letzteren Methode wird die optimale Shrinkage Intensität analytisch berechnet. Im Vergleich zur klassischen Stichprobenkovarianzmatrix besitzt speziell diese Schätzfunktion wünschenswerte Eigenschaften im Sinne von gesteigerter Effizienz und von kleinerem mittleren quadratischen Fehler. Außerdem ergeben sich stets positiv definite und gut konditionierte Parameterschätzungen. Zur Bestimmung der Netzwerktopologie wird auf das Konzept graphischer Gaußscher Modelle zurückgegriffen, mit deren Hilfe sich sowohl marginale als auch bedingte Unabhängigkeiten darstellen lassen. Es wird eine Methode zur Modellselektion vorgestellt, die auf einer multiplen Testprozedur mit Kontrolle der False Discovery Rate beruht. Dabei wird die zugrunde liegende Nullverteilung adaptiv geschätzt. Das vorgeschlagene Framework ist rechentechnisch effizient und schneidet im Vergleich mit konkurrierenden Verfahren sowohl in Simulationen als auch in der Anwendung auf molekulare Daten sehr gut ab.