POPULARITY
Marius Lindauer ist Professor an der Universität Hannover und einer der Köpfe hinter AutoML.org, einer der renommiertesten Forschungsgruppen auf dem Gebiet, die unter anderem Auto-sklearn, Auto-PyTorch und SMAC entwickelt hat. Er erläutert uns, wie AutoML unterfahrenen Nutzern das Training von state-of-the-art Machine Learning Modellen ermöglicht und Data Scientist als mächtiges Werkzeug dienen kann. Zunächst besprechen wir am Beispiel des Hyperparameter Tunings welche Verfahren existieren, um automatisch die richtigen Modellkonfiguration aus dem hochdimensionalen Parameterraum auszuwählen. Die statischen Grid- und Random Search Verfahren sind zwar gut parallelisierbar, jedoch sind evolutionäre und bayesian Verfahren durch die Nutzung eines intelligenten Meta-Learners wesentlich effizienter. AutoML bedeutet jedoch nicht nur die Optimierung von Hyperparametern, sondern die integrierte Optimierung der gesamten Machine-Learning Pipeline, vom Feature-Preprocessing, über das Modelltraining bis hin zum effizienten Tuning und Stacking. Wir besprechen, wie AutoML von den ersten Ansätzen im Bereich Neuroevolution sich weiterentwickelt hat und mit Google AutoML seinen "ImageNet Moment" erlebt hat. Wir besprechen zudem die aktuell gängigsten Frameworks: Auto-sklearn, Auto-PyTorch, AutoKeras, AutoGluon, TeaPot und AutoWeka. Links: AutoML Buch von AutoML.orgAutoML in der Cloud Blog Artikel von NicoAutoML BenchmarkKI-Campus Online-Kurs zu AutoML
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Moderne Rotverschiebungs-Galaxiendurchmusterungen können mittels Mehrfach-Faser-Spektroskopie große Bereiche des Himmels abdecken. Dank der immer größer werdenden Datensätze hat sich die Analyse der großskaligen Galaxienverteilung im Universum zu einer unschätzbaren Wissensquelle für die Kosmologie entwickelt. Zusammen mit den Beobachtungen des kosmischen Mikrowellenhintergrunds (MWH) und Entfernungsbestimmungen anhand von großen Typ-Ia-Supernova-Datensätzen (SN) bilden die Galaxiendurchmusterungen ausschlaggebende Indikatoren für die Korrektheit der Paradigmen des kosmologischen Weltbilds, des ΛCDM-Modells. Die Auswertung der Galaxienverteilung erlaubt mit Hilfe des Standardlineals, das durch die Baryonisch-akustischen Oszillationen gegeben ist, Entfernungsmessungen von ungesehener Präzision. Dies gewährt Einblick in die zugrundeliegende physikalische Natur der Dunklen Energie (DE), welche für die Beschleunigung der Ausdehung unseres Universums verantwortlich gemacht wird, indem die zeitliche Entwicklung der DE-Zustandsgleichung einge- schränkt werden kann. Zudem kann aus dem Signal der Verzerrungen im Rotverschiebungsraum die Wachstumsrate von kosmologischer Struktur bestimmt werden. Dies stellt einen Test der Relativitätstheorie dar, weil mögliche erweiterte Gravitationstheorien abweichende Wachstumsraten vorhersagen können. Die abgeschlossenen Rotverschiebungsmessungen des ‘Baryon Acoustic Oscillation Survey’-Programms (kurz BOSS) brachten einen Galaxienkatalog hervor, der ein bisher unerreichtes Volumen abdeckt. In dieser Dissertation wird die kosmologische Information, die im räumlichen Leistungsdichtespektrum (LDS) der Rotverschiebungsraum-Galaxienverteilung des BOSS-Katalogs enthalten ist, genutzt, um den Parameterraum des ΛCDM-Modells und der wichtigsten möglichen Erweiterungen einzuschränken. Vorherige Analysen des anisotropen Galaxien-LDS waren auf die Messung der Multipolzerlegung beschränkt. Für die hier präsentierte Analyse wurde das Konzept der sogenannten ‘Clustering Wedges’ auf den Fourierraum übertragen, um einen komplementären Ansatz zur Vermessung des anisotropen LDS zu verfolgen. Dazu wird der varianzoptimierte Schätzer für LDS-Wedges definiert und an die Galaxiengewichtung, die unvermeidbare Beobachtungsfehler im BOSS-Katalog behebt, angepasst. Zudem wird auch der Formalismus zur Beschreibung der Fensterfunktion auf die Wedges erweitert. Das verwendete Modell für das anistrope Galaxien-LDS ist auf neuartigen Ansätzen zur Modellierung der nichtlinearen Gravitationsdynamik und der Verzerrungen im Rotverschiebungsraum aufgebaut, welche die Genauigkeit der Modellvorhersagen speziell im Übergang in den nichtlinearen Bereich signifikant verbessern. Daher kann das LDS bis zu kleineren Skalen als in vorherigen Analysen ausgewertet werden, wodurch engere Einschränkungen des kosmologischen Parameterraums erreicht werden. Die Modellierung wurde mit Hilfe von synthetischen Katalogen, die auf großvolumigen Mehrkörpersimulationen basieren, verifiziert. Dazu ist eine theoretische Vorhersage der Kovarianzmatrix der anisotropischen Vermessung der Galaxienverteilung nötig, wofür ein Gaußsches Vorhersagemodell entwickelt wurde. Dieses ist neben den Wedges auch für die komplementäre Multipolzerlegung sowohl des LDS als auch dessen Fouriertransformierten, der Zwei-Punkt-Korrelationsfunktion, anwendbar. Die LDS-Analyse anhand von Clustering Wedges, wie in dieser Arbeit präsentiert, ist Teil der kombinierten Analyse des finalen Galaxienkatalogs im Rahmen der BOSS-Kollaboration. Unter Verwendung von zwei sich nicht überschneidenden Rotverschiebungsbereichen wird die Winkeldurchmesserentfernung zu D_M(z_eff = 0.38) (rfid_d / r_d) = 1525 +-24 h^-1 Mpc und D_M(z_eff = 0.61) (rfid_d / r_d) = 2281 +42 -43 h^-1 Mpc bestimmt. Weiterhin wird der Hubbleparameter zu H(z_eff = 0.38) (r_d / rfid_d) = 81.2 +2.2 −2.3 km s^-1 Mpc^-1 und H(z_eff = 0.61) (r_d / rfid_d) = 94.9 +-2.5 km s^-1 Mpc^-1 vermessen (alle hier angegebenen Bereiche entsprechen einem Konfidenzintervall von 68%). Die Wachstumsrate wird eingeschränkt auf fσ_8 (z_eff = 0.38) = 0.498 +0.044 -0.045 und fσ_8 (z_eff = 0.61) = 0.409 +-0.040. Zusammen mit den Ergebnissen der komplementären Methoden, die innerhalb der BOSS-Kollaboration zur Clustering-Analyse des finalen Galaxienkatalogs eingesetzt werden, werden diese Resultate zu einem abschließenden Konsensergebnis zusammengefasst. Nur mit den Clustering-Weges-Messungen im Fourierraum, kombiniert mit MWH- und SN-Daten, kann der Materiedichteparameter auf Ω_M = 0.311 +0.009 -0.010 und die Hubble-Konstante auf H_0 = 67.6 +0.7 -0.6 km s^-1 Mpc^−1 unter Annahme des ΛCDM-Modells eingeschränken werden. Wird ein Nichtstandard-Modell für DE angenommen, so ergibt sich ein DE-Zustandsgleichungsparameter von w_DE = 1.019 +0.048 -0.039. Modifikationen der Wachstumsrate, parametrisiert durch f(z) = [Ω_M(z)]^γ, werden auf γ = 0.52 +- 0.10 eingeschränkt. Diese beiden Messungen sind in perfekter Übereinstimmung mit den Vorhersagen des ΛCDM-Modells, ebenso wie weitere Ergebnisse, die sich unter der Annahme eines noch großzügigeren DE-Modells (welches eine zeitliche Entwicklung von w_DE erlaubt) ergeben. Daher wird das ΛCDM-Modell durch die hier beschriebene Analyse weiter gefestigt. Die Summe der Neutrinomassen wird zu sum(m_ν) < 0.143 eV bestimmt. Dieses obere Limit befindet sich nicht weit entfernt von der unteren Schranke, die sich aus Teilchenphysik-Experimenten ergibt. Somit ist zu erwarten, dass die kosmologische Signatur, die massebehaftete Neutrinos in der großskaligen Struktur des Universums hinterlassen, in naher Zukunft detektiert werden kann.
Jonathan Zachhuber war zum 12. Weihnachtsworkshop zur Geometrie und Zahlentheorie zurück an seine Alma Mater nach Karlsruhe gekommen und sprach mit Gudrun Thäter über Teichmüllerkurven. Kurven sind zunächst sehr elementare ein-dimensionale mathematische Gebilde, die über den komplexen Zahlen gleich viel reichhaltiger erscheinen, da sie im Sinne der Funktionentheorie als Riemannsche Fläche verstanden werden können und manchmal faszinierende topologische Eigenschaften besitzen. Ein wichtiges Konzept ist dabei das Verkleben von Flächen. Aus einem Rechteck kann man durch Verkleben der gegenüberliegenden Seiten zu einem Torus gelangen (Animation von Kieff zum Verkleben, veröffentlicht als Public Domain): Polynome in mehreren Variablen bieten eine interessante Art Kurven als Nullstellenmengen zu beschreiben: Die Nullstellen-Menge des Polynoms ergibt über den reellen Zahlen den Einheitskreis. Durch Ändern von Koeffizienten kann man die Kurve verformen, und so ist die Nullstellenmenge von eine Ellipse. Über den komplexen Zahlen können diese einfachen Kurven dann aber auch als Mannigfaltigkeiten interpretiert werden, die über Karten und Atlanten beschrieben werden können. Das ist so wie bei einer Straßenkarte, mit der wir uns lokal gut orientieren können. Im Umland oder anderen Städten braucht man weitere Karten, und alle Karten zusammen ergeben bei vollständiger Abdeckung den Straßenatlas. Auch wenn die entstehenden abstrakten Beschreibungen nicht immer anschaulich sind, so erleichtern die komplexen Zahlen den Umgang mit Polynomen in einem ganz wichtigen Punkt: Der Fundamentalsatz der Algebra besagt, dass der Grad des Polynoms gleich der Anzahl der Nullstellen in ihrer Vielfachheit ist. Also hat nun jedes nichtkonstante Polynom mindestens eine Nullstelle, und über den Grad des Polynoms wissen wir, wie viele Punkte sich in der Nullstellenmenge bewegen können, wenn wir an den Koeffizienten Veränderungen vornehmen. Eine gute Methode die entstehenden Flächen zu charakterisieren ist die Bestimmung möglicher geschlossener Kurven, und so gibt es beim Torus beispielsweise zwei unterschiedliche geschlossene Kurven. Die so enstehende Fundamentalgruppe bleibt unter einfachen Deformationen der Flächen erhalten, und ist daher eine Invariante, die hilft die Fläche topologisch zu beschreiben. Eine weitere wichtige topologische Invariante ist das Geschlecht der Fläche. Die Teichmüllerkurven entstehen nun z.B. durch das Verändern von einem Koeffizienten in den Polynomen, die uns durch Nullstellenmengen Kurven beschreiben- sie sind sozusagen Kurven von Kurven. Die entstehenden Strukturen kann man als Modulraum beschreiben, und so diesen Konstruktionen einen Parameterraum mit geometrischer Struktur zuordnen. Speziell entstehen Punkte auf Teichmüllerkurven gerade beim Verkleben von gegenüberliegenden parallelen Kanten eines Polygons; durch Scherung erhält man eine Familie von Kurven, die in seltenen Fällen selbst eine Kurve ist. Ein Beispiel ist das Rechteck, das durch Verkleben zu einem Torus wird, aber durch Scherung um ganz spezielle Faktoren zu einem ganz anderen Ergebnis führen kann. Die durch Verklebung entstandenen Flächen kann man als Translationsflächen in den Griff bekommen. Hier liefert die Translationssymmetrie die Methode um äquivalente Punkte zu identifizieren. Für die weitere Analyse werden dann auch Differentialformen eingesetzt. Translationen sind aber nur ein Beispiel für mögliche Symmetrien, denn auch Rotationen können Symmetrien erzeugen. Da die Multiplikation in den komplexen Zahlen auch als Drehstreckung verstanden werden kann, sind hier Rotationen als komplexe Isomorphismen ganz natürlich, und das findet man auch in den Einheitswurzeln wieder. Literatur und Zusatzinformationen A. Zorich: Flat Surfaces, Frontiers in Number Theory, Physics and Geometry, On Random Matrices, Zeta Functions, and Dynamical Systems, Ed. by P. Cartier, B. Julia, P. Moussa, and P. Vanhove. Vol. 1. Berlin: pp. 439–586, Springer-Verlag, 2006. M. Möller: Teichmüller Curves, Mainly from the Viewpoint of Algebraic Geometry, IAS/Park City Mathematics Series, 2011. J. Zachhuber: Avoidance of by Teichmüller Curves in a Stratum of , Diplomarbeit an der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT), 2013. C. McMullen: Billiards and Teichmüller curves on Hilbert modular surfaces, Journal of the AMS 16.4, pp. 857–885, 2003. C. McMullen: Prym varieties and Teichmüller curves, Duke Math. J. 133.3, pp. 569–590, 2006. C. McMullen: Dynamics of SL(2,R) over moduli space in genus two, Ann. of Math. (2) 165, no. 2, 397–456, 2007. Weitere Paper von C. McMullen, u.a. The mathematical work of Maryam Mirzakhani Podcast: Modellansatz 040: Topologie mit Prof. Dr. Wolfgang Lück
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
In den zellulären Stoffwechsel- und Signalnetzwerken existiert eine Vielzahl von logischen Abhängigkeiten, die auf Prozesse auf molekularer Ebene zurückzuführen sind. So lässt sich beispielsweise die Effizienz einer biochemischen Reaktion über Enzyme regulieren, deren Aktivitätsgrad von äußeren Parametern abhängt. Kraft stellt eine dieser Einflussgrößen dar. Diese Arbeit befasst sich damit, das Verhalten mehrerer, logisch verknüpfter, molekularer Domänen unter Krafteinwirkung zu studieren und sich deren Eigenschaften für nanotechnologische Verfahren zu Nutze zu machen. Neben der Untersuchung von in der Natur vorkommenden Proteinen mit multiplen Domänen wurden artifizielle DNA- und proteinbasierte Systeme mit verschiedener Bindungsstärke konstruiert. Dies ermöglicht den gerichteten Transport einzelner, molekularer Bausteine mit der Präzision eines Rasterkraftmikroskopes im Nanometer-Bereich. Mithilfe dieser Single-Molecule Cut-and-Paste (SMCP) Technik können auf der Basis gerichteter, molekularer Erkennung räumliche Arrangements funktioneller Bausteine geschaffen werden. Diese lassen sich mittels Fluoreszenzmikroskopie als isoliertes System betrachten. Die Zielsetzung bei der Untersuchung der natürlichen Systeme war es, deren Abhängigkeiten zu verstehen und herauszufinden, wie sich diese mit ihrer Funktion und den an das Protein gestellten Umgebungsbedingungen in Einklang bringen lassen. Die dabei gewonnene Erkenntnis liefert nicht nur wichtige Beiträge zur biologischen und medizinischen Grundlagenforschung, sondern kann, wie am Beispiel der SMCP-Technik ersichtlich, auch hilfreich bei der Entwicklung neuartiger Messmethoden der molekularen Bio- und Nanotechnologie sein. Mittels Einzelmolekülkraftspektroskopie im „Konstante-Kraft“ (engl. Force-Clamp) Modus wurde die Kooperativität der fünf Proteindomänen des Enzyms Titinkinase untersucht. Dieses Muskelprotein wandelt in der Skelett- und Herzmuskulatur mechanische in biochemische Signale um und regelt dadurch den Umsatz weiterer Proteine und die Expression von Genen. Es wird gezeigt, dass sich die einzelnen mechanisch induzierten Entfaltungsschritte gegenseitig bedingen und dass dies inhärent durch die molekulare Faltung des Proteins vorgegeben wird. Da Kraft zum natürlichen Parameterraum dieses Moleküls gehört, muss seine Struktur an kraftinduzierte konformationelle Änderungen angepasst sein. Durch die Abhängigkeit der Energiebarrieren während der Entfaltung wird gewährleistet, dass stabilisierende und enzymatisch wirksame Domänen nicht vor regulatorischen Domänen entfalten. Myosin-Light-Chain Kinase (MLCK) ist ein weiteres Muskelenzym, bei dem es Hinweise auf eine mechanische Aktivierbarkeit gibt. Einzelmolekülexperimente dieser Dissertation zeigen, dass die Entfaltung der Kinase ebenfalls in mehreren Schritten vonstatten geht und dass einer der Zwischenzustände durch ATP-Bindung stabilisiert wird. Die absoluten Entfaltungskräfte liegen dabei unter denen der Titinkinase, was der Hypothese der mechanischen Aktivierbarkeit entgegenkommt. Als weiteres System wurde das Cellulosom des thermophilen Bakteriums Clostridium Thermocellum auf seine mechanische Stabilität überprüft. Cellulosome sind an der Außenseite von Bakterien und Pilzen verankerte Proteinkomplexe, die in der Lage sind Lignozellulose zu zersetzen. Bei der Prozessierung der Cellulose können im Cellulosom hohe Scherkräfte auftreten, da dieses das gesamte Bakterium mit dem makromolekularen Substrat verknüpft. Mittels AFM-basierter Kraftspektroskopie wurde die Wirkung von Kraft auf einen Verbund verschiedener Konstituenten eines Cellulosoms untersucht. Es wird gezeigt, dass sich der Komplex im Vergleich zu anderen Biomolekülen durch eine extrem hohe mechanische Stabilität auszeichnet. Innerhalb der hohen Entfaltungskräfte besteht eine Hierarchie für die verschiedenen Komponenten. Bei vergleichsweise niedrigen Kräften entfalten die enzymatischen Domänen gefolgt von mittleren Kräften für das Entkoppeln der Enzyme mit dem Bindungspartner Cohesin. Sehr hohen Kräften halten die intramolekularen Wechselwirkungen der Cohesine und der Cellulose bindenden Domänen stand. Die Abstufung hoher Stabilitäten stellt eine sehr gute Anpassung an die natürlichen Anforderungen des Proteinkomplexes dar. Für die durchgeführten Messungen wurde ein modulares Kraftmikroskop (AFM) entwickelt, das sich mit einem einzelmolekülsensitiven Fluoreszenzmikroskop kombinieren lässt. Die spezielle Konstruktion weist eine extrem hohe mechanische Stabilität auf. Mittels einer photothermischen Regelung kann das AFM darüber hinaus für sensitive Bildgebung weicher molekularer Oberflächen oder in einen extrem schnellen kraftspektroskopischen Messmodus mit konstanter Zugkraft verwendet werden. Die akkurate Arbeitsweise des Systems wurde in einem internationalen Vergleichsversuch bestätigt.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Innerhalb des sogenannten Standardmodells (SM) der Teilchenphysik ist der Prozess der Flavour-ändernden neutralen Ströme (FCNC) auf Born-Niveau verboten, und nur über Prozesse höherer Ordnung möglich. FCNC-Prozesse sind daher extrem unterdrückt und sehr selten. Experimentell konnte dies für die ersten beiden Generationen von Quarks bestätigt werden. Für die dritte Generation, speziell für das Top-Quark, existieren bisher nur wenige experimentelle Erkenntnisse über FCNC-Prozesse. Durch theoretische Erweiterungen des SM können, aufgrund der extrem großen Masse des Top-Quarks und der damit verbundenen Sonderstellung, FCNC-Prozesse für Top-Quarks vorhergesagt werden, die um mehrere Größenordnungen gegenüber dem SM erhöht sind. In dieser Arbeit wird nach der Produktion einzelner Top-Quarks über Flavour-ändernde neutrale Ströme mit den Daten des OPAL-Detektors am e+e- -Speicherring LEP gesucht. Hierzu wird im hadronischen Zerfallskanal des W-Bosons nach dem Prozess e+e- -> tc(u) -> bWc(u) gesucht. Die Selektion der Ereignisse beruht auf der kinematischen Rekonstruktion und dem Auffinden von b-Hadronen. Mehrere sensitive Variablen werden mit einer Likelihood-Methode kombiniert. Die Daten, bei Schwerpunktsenergien zwischen 189 und 209 GeV, entsprechen einer integrierten Luminosität von ca. 600 pb^-1. Bei keiner der untersuchten Schwerpunktsenergien ergeben sich Hinweise für solche FCNC-Prozesse. Es lassen sich obere Grenzen auf den Wirkungsquerschnitt in Abhängigkeit der Schwerpunktsenergie mit 95% Konfidenzniveau berechnen. Im Rahmen verschiedener Erweiterungen des SM kann mit diesen Grenzen der Parameterraum von Kopplungen jenseits des SM eingeschränkt werden. Zudem ist es möglich, mit Hilfe dieser Kopplungsparameter Grenzen auf das FCNC-Verzweigungsverhältnis Br( -> Z^0 q) und Br(t -> gamma q) zu berechnen. Durch die zusätzliche Kombination mit dem leptonischen Zerfallskanal des W-Bosons und den Analysen der anderen drei LEP-Experimente (ALEPH, DELPHI, L3) können die zur Zeit stärksten experimentellen Grenzen auf FCNC-Prozesse im Bereich des Top-Quarks bestimmt werden.