POPULARITY
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Diese Dissertation berichtet über ein neuartiges Quantengasmikroskop, mit dem Vielteilchensysteme von fermionischen Atomen in optischen Gittern untersucht werden. Die einzelplatzaufgelöste Abbildung ultrakalter Gase im Gitter hat mächtige Experimente an bosonischen Vielteilchensystemen ermöglicht. Die Erweiterung dieser Fähigkeit auf Fermigase bietet neue Aussichten, komplexe Phänomene stark korrelierter Systeme zu erforschen, für die numerische Simulationen oft nicht möglich sind. Mit Standardtechniken der Laserkühlung, optischen Fallen und Verdampfungskühlung werden ultrakalte Fermigase von 6Li präpariert und in ein 2D optisches Gitter mit flexibler Geometrie geladen. Die Atomverteilung wird mithilfe eines zweiten, kurzskaligen Gitters eingefroren. Durch Raman-Seitenbandkühlung wird an jedem Atom Fluoreszenz induziert, während seine Position festgehalten wird. Zusammen mit hochauflösender Abbildung erlaubt die Fluoreszenz die Rekonstruktion der ursprünglichen Verteilung mit Einzelplatzauflösung und hoher Genauigkeit. Mithilfe von magnetisch angetriebener Verdampfungskühlung produzieren wir entartete Fermigase mit fast einheitlicher Füllung im ersten Gitter. Dies ermöglicht die ersten mikroskopischen Untersuchungen an einem ultrakalten Gas mit klaren Anzeichen von Fermi-Statistik. Durch die Präparation eines Ensembles spinpolarisierter Fermigase detektieren wir eine Abflachung im Dichteprofil im Zentrum der Wolke, ein Charakteristikum bandisolierender Zustände. In einem Satz von Experimenten weisen wir nach, dass Verluste von Atompaaren an einem Gitterplatz, bedingt durch lichtinduzierte Stöße, umgangen werden. Die Überabtastung des zweiten Gitters erlaubt eine deterministische Trennung der Atompaare in unterschiedliche Gitterplätze. Die Kompression einer dichten Wolke in der Falle vor dem Laden ins Gitter führt zu vielen Doppelbesetzungen von Atomen in unterschiedlichen Bändern, die wir ohne Anzeichen von paarweisen Verlusten abbilden können. Somit erhalten wir die wahre Besetzungsstatistik an jedem Gitterplatz. Mithilfe dieser Besonderheit werten wir die lokale Besetzungsstatistik an einem Ensemble bandisolierenderWolken aus. Im Zentrum bei hoher Füllung sind die Atomzahlfluktuationen um eine Größenordnung unterdrückt, verglichen mit klassischen Gasen, eine Manifestation des Pauliverbots. Die Besetzungswahrscheinlichkeiten werden verwendet, um die lokale Entropie an jedem Gitterplatz zu messen. Eine niedrige Entropie pro Atom bis 0.34kB wird im Zentrum des Bandisolators gefunden. Die Erweiterung der Quantengasmikroskopie auf entartete Fermigase eröffnet neue Möglichkeiten der Quantensimulation stark korrelierter Vielteilchensysteme und kann einzigartige Erkenntnisse über fermionische Systeme im und außerhalb vom Gleichgewicht, Quantenmagnetismus und verschiedene Phasen des Fermi-Hubbard-Modells ergeben.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Die moderne Anrege-Abfrage-Spektroskopie (Pump-Probe-Spektroskopie) ermöglicht es, die Mehrheit der relevanten physikalischen und chemischen Prozesse zeitaufgelöst zu messen. Die Pump-Probe-Spektroskopie wird in der fundamentalen, industriellen, biomedizinischen und Umweltforschung angewendet, um ein breites Spektrum von komplizierten Substanzen zu untersuchen. Diese Dissertation demonstriert das große Potenzial der transienten Spektroskopie für die Untersuchung von ultraschnellen chemischen Reaktionen komplizierter organischer Moleküler (Allylverbindungen). Auch einige praktische Vorschläge zur Verbesserung der spektroskopischen Messroutine werden gegeben. Die Bestimmung des Zeit-Nullpunkts (zeitlicher Überlapp) der Anrege- und Abfragepulse ist sehr wichtige und keine triviale Aufgabe in einem Anrege-Abfrage-Experiment. Im Kapitel 3 werden die Ergebnisse der Untersuchung von bekannten Laserfarbstoffen und anderen Substanzen, die erfolgreich zur Zeit-Nullpunkt Kalibrierung benutzt werden können, beschrieben. In den Kapiteln 4 und 5 werden die Ergebnisse der spektroskopischen Untersuchung von einigen interessanten Allylsystemen präsentiert. Es ist uns gelungen zu zeigen, dass die spezifische molekulare Einheit (die Styrolgruppe) als Chromophor dient, was während der UV-Anregung von Allylen mit Kurzpuls-Lasern zur Lokalisierung der Anregung auf der Styrolgruppe führt. Durch die Benutzung dieser Eigenschaft und den Wechsel von Abgangsgruppen und Substituenten haben wir detailiert den Bindungsbruch und die geminate Ionenpaar-Rekombination von unsubstituierten, symmetrisch und unsymmetrisch substituierten Allylsystemen untersucht.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Die Untersuchung der Moduli Räumen von N = (2,2) Superkonformen Feldtheorien und der allgemeineren N = (2,2) Supersymmetrischen Quanten Feldtheorien ist ein langjähriges und vielseitiges Forschungsgebiet. Diese Dissertation konzentriert sich auf gewisse allgemeine Aspekte des erwähnten Studiums, und stellt Entwicklungen von allgemeinen Methoden im Rahmen der Topologischen String Theorie dar. Die vorliegende Arbeit besteht aus zwei Teilen. Der erste Teil befasst sich mit Aspekten der geschlossenen Topologischen String Theorie und kulminiert in den Inhalt von [52], wo die geometrische Struktur der Topologischen anti-Topologischen Moduli Räumen von N = (2, 2) Superkonformen Feldtheorien mit Zentral Ladung c = 9, angesichts eines allgemeinen Quantisieung-Rahmens [31, 32] wiederentdeckt wird. Aus dieser Sichtweise erhält man, als Spezialfall, eine klare Einsicht der “holomorphic anomaly equation” von [6]. Diese Arbeit könnte als eine natürliche Erweiterung von früheren Untersuchungen in ähnlicher Richtung betrachtet werden, insbesondere vom grundlegenden Artikel [104]. Der zweite Teil befasst sich mit Aspekten der Untersuchung der Offenen und Geschlossenen Moduli Räumen von Topologischen Konformen Feldtheorien auf Genus Null. Insbesondere, ist hier eine Exposition von [13] enthalten, wo allgemeine Resultate über die Klassifizierung und Berechnung von “bulk-induced” Deformationen von Offenen Topologischen Konformen Feldtheorien erhalten wurden. Letzteres wurde durch eine kohärente algebraische Methode erreicht was sich auf den definierenden L∞ und A∞ beteiligten Strukturen bezieht. Teilweise ist die letztere Untersuchung auf beliebige Affine B-twisted Landau Ginzburg Modelle beschränkt. Nachfolgend wird weitere originelle Arbeit dargestellt was die Topologische String-Feld-Theoretische Struktur von B-twisted Landau Ginzburg Modellen vollendet. Insbesondere wird eine “off-shell” Erweiterung der Kapustin-Li Formel von [41, 49] gegeben. Diese “off-shell” Formel bezeichnet einen konsolidierenden Baustein der algebraischen Herangehensweise zur Berechnung des Effektiven Superpotentials von B-twisted Affine Landau Ginzburg Modellen, und kann damit als eine natürliche Entwicklung von der grundlegenden Arbeit [12] betrachtet werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 05/06
Diese Arbeit beschäftigt sich mit der Erforschung von Yersinia (Y.) pestis in historischem Skelettmaterial. Die Disziplin Paläomikrobiologie verspricht, Beweise zu liefern, die durch die Erforschung moderner Pathogene nicht möglich wären und dadurch möglicherweise das Verständnis zu historischen Infektionen zu verändern (Tsangaras & Greenwood 2012). Yersinia pestis als der Erreger der Pest wird für drei Pandemien der Menschheitsgeschichte verantwortlich gemacht: die Pest der Moderne, den Schwarzen Tod im 14. und den nachfolgenden Jahrhunderten sowie die Pest des Justinian. Diese Dissertation beschäftigte sich mit dem Nachweis und der Typisierung des Pest-Erregers in historischen Individuen verschiedener Fundorte aus den beiden letztgenannten Pandemien. Dazu wurden methodisch zwei Wege beschritten: Der Nachweis des Erregers auf molekulargenetischer Ebene durch die Detektion verschiedener Loci und ein davon unabhängiger alternativer Weg zur Detektion des Pathogens über den Nachweis seines Kapselproteins. Letzten Weg zu beschreiten, ist in dieser Arbeit nicht geglückt. Dafür waren die auf Polymerase-Ketten-Reaktion (PCR) beruhenden Ansätze umso erfolgreicher. Für die Analysen standen Individuen von vier Fundorten in Deutschland und der Schweiz aus unterschiedlichen Zeitstellungen zur Verfügung. Die Skelette des Gräberfelds Aschheim-Bajuwarenring datieren ins 6. Jahrhundert, die Individuen aus Manching-Pichl und Basel ins 14. bis 17. Jahrhundert und die skelettalen Überreste von drei Menschen aus Brandenburg in die Zeit des Dreißigjährigen Kriegs. Nach der Erprobung eines für das zur Verfügung stehende Material optimal geeigneten Extraktions-Protokolls und der Etablierung neuer PCR-Protokolle wurden die Verfahren auf Extrakte alter DNA (aDNA) angewandt. Dabei wurde zur Generierung authentischer Ergebnisse im neu etablierten aDNA-Labor des ArchaeoBioCenters der LMU gearbeitet, das die maximalen Möglichkeiten der Verhinderung von Kontaminationen bereitstellt. Es ist in dieser Arbeit gelungen, bereits publizierte Pest-Nachweise in Skeletten aus Aschheim und Manching-Pichl zu reproduzieren und damit zu validieren. Darüber hinaus konnte in Individuen eines weiteren, bisher molekulargenetisch nicht untersuchten Fundorts in Brandenburg die Anwesenheit der Pest gezeigt werden. Durch tiefer gehende molekulargenetische Untersuchungen anderer Loci sowie Single Nucleotide Polymorphismen (SNP) wurden die jeweiligen Erreger in einen bereits existierenden phylogenetischen Stammbaum eingeordnet. Durch den Beweis der Anwesenheit der Pest in Aschheim im 6. Jahrhundert wurde das Bakterium Yersinia pestis eindeutig als Verursacher der ersten Pandemie identifiziert – eine Assoziation, die nach anfänglichem Konsens zuletzt in Frage gestellt worden war. Spekulationen um das ätiologische Agens können jetzt definitiv eingestellt werden. Die Ergebnisse dieser Arbeit beenden auch weitere Diskussionen bezüglich des Biovars des Erregers während der ersten Pandemie. Durch Typisierungen wurde gezeigt, dass es sich bei diesem Erreger um einen anderen handelt als den, der für die zweite oder dritte Pandemie verantwortlich ist. Der Nachweis und die Typisierung des Erregers im Zuge des Schwarzen Todes in Manching-Pichl und Brandenburg schließt die bis dato existierende genauer charakterisierte Detektionslücke in Deutschland. Bisher waren nur in England, Frankreich und den Niederlanden der bzw. die Erreger durch zwei Arbeitsgruppen aus Mainz und Tübingen/Kanada glaubhaft detektiert worden. Der in Deutschland identifizierte Erreger passt dabei zu den Ergebnissen der anderen Fundorte in Europa. Zudem scheint es in Deutschland über einen längeren Zeitraum nur einen Erregertyp gegeben zu haben, da die Ergebnisse der Individuen aus Brandenburg und Manching-Pichl in allen untersuchten Loci genau übereinstimmten. Obwohl aufgrund ungenügenden Quellenmaterials nicht exakt belegbar scheint der Weg der Pest zu diesen beiden letztgenannten Fundorten in Deutschland ein anderer gewesen zu sein als der zu den anderen europäischen Fundorten.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 06/07
Diese Dissertation beschreibt Versuchsanordnung, Ergebnisse und Interpretation einer vergleichenden Beobachtungsstudie an Legehennen der Linien Lohmann Selected Leghorn in Kleingruppenhaltungen drei verschiedener Hersteller und in vier Anlagen (A, B, C und D) sowie in einer Bodenhaltung (Anlage E). Die Anlagen A bis D unterschieden sich in der Gruppengröße (von 33 bis 50 Tiere pro Abteil) sowie in der Anordnung und Einteilung der Funktionsbereiche Staubbad, Sitzstangen und Nest. In der Bodenhaltung befanden sich 100 Tiere pro Abteil. In allen Stallungen wurde ausschließlich Kunstbeleuchtung verwendet. Die Förderung des Vorhabens erfolgte aus Mitteln des Bundesministeriums für Ernährung, Landwirtschaft und Verbraucherschutz (BMELV) über die Bundesanstalt für Landwirtschaft und Ernährung (BLE) im Rahmen des Programms zur Innovationsförderung. Im Laufe der Legeperiode wurde während drei Untersuchungszeiträumen (1. UZR 24./25. Lebenswoche, 2. UZR 47./48. Lebenswoche, 3. UZR 63./64. Lebenswoche) für jeweils 48 Stunden Verhaltensbeobachtungen per Videoaufzeichnung durchgeführt. Die Kameras wurden so ausgerichtet, dass die Sitzstangen, der Staubbadebereich und der Gitterbereich der Abteile gut einsehbar waren. Die Auswertung der Aufzeichnungen erfolgte für die Hellphase und Dunkelphase getrennt. Während der Hellphase wurde anhand des „Focal Animal Sampling“ zu drei festgelegten Tageszeiträumen (TZ) das Staubbadeverhalten genau beobachtet. Die Zeiträume für das „Focal Animal Sampling“ waren 30 Minuten während (TZ I) und 60 Minuten nach der Dämmerungsphase in der Früh (TZ II) sowie 60 Minuten im Anschluss an das erste Einstreuintervall des Tages (TZ III). Dabei wurde die Dauer, die Häufigkeit und Ursache von Unterbrechungen sowie das Beenden des Staubbadens notiert. Der Anteil staubbadender Hennen auf der Staubbadematte und auf dem Gitter wurde anhand des „Behaviour Sampling“ jeweils stündlich, 30 Minuten nach Beginn der Hellphase, sowie im 20 Minuten Intervall während der Hauptstaubbadezeit (9:30 bis 14:30) dokumentiert. Der genaue Aufenthaltsort der Hennen in den verschiedenen Funktionsbereichen wurde per „Scan Sampling“ 30 Minuten nach Beginn der Hellphase stündlich durchgeführt und während der Dunkelphase zu zwei Beobachtungszeitpunkten aufgezeichnet. Die Beleuchtungsstärke wurde in der 31./34., 51. und 64./65. Lebenswoche nach dem Prinzip der 6-Seiten-Messung in Lux gemessen, wobei der Mittelwert aus sechs Einzelwerten für jeden Untersuchungspunkt (Staubbad, Futtertrog, Legenest, Sektionsmitte) gebildet wurde. Eine Untersuchung auf Verletzungen der Haut wurde im Laufe der Legeperiode drei Mal durchgeführt. In den Kleingruppenhaltungen (Anlagen A bis D) befanden sich während aller Untersuchungszeiträume signifikant weniger Tiere (12,8 % bis 10,9 %) im Bereich der Einstreumatte als in der Bodenhaltung (Anlage E, 27,6 % bis 35,7 %). Auf den Sitzstangen der Kleingruppenhaltung (22,1 % bis 26,8 %) wurden dagegen während der Hellphase mehr Tiere beobachtet als auf den Sitzgelegenheiten (Sitzstangen und Anflugbalkon) der Bodenhaltung (Anlage E, 15,1 % bis 11,3 %), teilweise waren diese Unterschiede signifikant. Während der Dunkelphase befanden sich in den Anlagen A bis D zwischen 59,5 % und 65,5 % der Hennen auf den Sitzstangen, in der Anlage E 64,3 % bis 68,4 % auf den Sitzgelegenheiten. In einigen Anlagen gab es deutlich erkennbare Präferenzen für unterschiedliche Sitzstangen. Während der Hellphase wurden z. B. in zwei der vier Kleingruppenanlagen, in denen Sitzstangen unter einer Tränkelinie installiert waren, diese signifikant mehr genutzt als andere Sitzstangen. Niedrige Sitzstangen, die nicht unter einer Tränkelinie verliefen, wurden dagegen weniger genutzt als die hohen Sitzstangen. Das Staubbadeverhalten zeigte sowohl zwischen den Haltungssystemen Kleingruppenhaltung und Bodenhaltung, als auch zwischen den verschiedenen Kleingruppenanlagen Unterschiede. In der Anlage C mit der größten und zusammenhängenden Staubbadefläche wurden (teilweise signifikant) mehr Staubbadesequenzen im TZ III beobachtet als in den anderen Anlagen. Der Gesamtanteil staubbadender Hennen im Tagesverlauf war in allen UZR in der Anlage B signifikant niedriger, als in den Anlagen A, C und D sowie im 2. und 3. UZR signifikant weniger, als in allen anderen Anlagen (A, C, D und E). In den Anlagen A und B wurde der größere Anteil der Tiere in allen UZR beim Staubbaden auf dem Gitter und nicht auf der dafür vorgesehenen Staubbadematte beobachtet, in der Anlage B war dieser Unterschied zu allen UZR, und in der Anlage A im 1. und 3. UZR signifikant. Staubbaden auf dem Gitter wurde insbesondere in den Anlagen A und B zu allen UZR und in der Anlage D während des 2. und 3. UZR signifikant häufiger im Bereich vor dem Futtertrog, als auf dem Gitter zwischen den Sitzstangen beobachtet. In den Anlagen C, D und E wurden während aller UZR signifikant mehr Tiere beim Staubbaden auf der Staubbadematte als auf dem Gitter beobachtet. In der Anlage E wurde zu keinem UZR Staubbadeverhalten auf dem Gitter beobachtet. Die durchschnittliche Dauer einer Staubbadesequenz variierte, in allen Anlagen wurden sehr kurze und sehr lange Staubbäder beobachtet. Das kürzeste beobachtete Staubbad betrug 0,07 Minuten (Anlage C), das längste 44,03 Minuten (Anlage D). In der Anlage B wurden in allen UZR durchschnittlich die kürzesten Staubbadedauern beobachtet. Die Beendigung der Staubbadesequenzen zeigten Unterschiede zwischen dem Haltungssystem Kleingruppenhaltung und der Bodenhaltung, wobei ausschließlich in der Bodenhaltung in allen UZR signifikant mehr Staubbadesequenzen ohne als mit störendem Einfluss beendet wurden. Die Unterbrechung von Staubbädern wurde in allen UZR (im 2. und 3. UZR signifikant) in den Anlagen A, C und D häufiger beobachtet als in der Anlage E, zumeist ließ sich keine offensichtliche Erklärung für die Unterbrechung finden. In der Anlage E wurden im Laufe der Legeperiode Beleuchtungsstärken von durchschnittlich 24,2 Lux, in den Kleingruppenanlagen höchstens durchschnittliche 7,5 Lux gemessen. Ein direkter Zusammenhang zwischen einer hohen Lichtintensität und starken Verletzungen bzw. höheren Mortalitäten konnte nicht beobachtet werden, jedoch wurden aufgrund des Kannibalismus der vorherigen Legeperioden die Anlagen A, B und D von Beginn der Legeperiode mit niedrigen Beleuchtungsstärken eingestellt. In der Anlage A, in Abteilen mit horizontal installierten LED Lichtrohren über dem Staubbadebereich, wurde eine deutliche Steigerung der Beleuchtungsstärke (in Lux) erreicht. Dies war in der Anlage D nicht der Fall, möglicherweise weil die Beleuchtungsstärke vor allem von der Lage des Abteils im Stall und der daraus resultierenden Ausleuchtung durch die Leuchtstoffröhren abhing. In der Anlage D wurden im Tagesverlauf aller UZR in Abteilen ohne LED mehr staubbadende Hennen beobachtet als in Abteilen mit LED, in der Anlage A war dies nicht konstant, sondern variierte. Jedoch wurden in der Anlage A, in allen UZR im Tagesverlauf, mehr Hennen beim Staubbaden auf der Staubbadematte in Abteilen mit LED über diesem Bereich beobachtet. Diese Ergebnisse sprechen dafür, dass in weiterführenden Untersuchungen eher die Beleuchtungsstärke als das Vorhandensein von LED Lichtrohren als vergleichender Faktor verwendet werden sollte. In der Anlage E wurden in allen UZR weniger bzw. weniger schwere Verletzungen notiert als in den Anlagen A, B, C und D. In der Anlage B wurden in allen UZR mehr bzw. schwerere Verletzungen aufgezeichnet als in den anderen Anlagen. In den Anlagen B und D wurden im Laufe der Legeperiode hohe Mortalitätsraten von 15,7 % (Anlage B) und 29,9 % (Anlage D) beobachtet. Die Hauptabgangsursache war in diesen Anlagen Kannibalismus. In dieser Studie wurden die Verhaltensstörungen Pseudostaubbadeverhalten und Kannibalismus bei mehreren der untersuchten Kleingruppenanlagen beobachtet. Optimierungsmaßnahmen dieser Haltungsform zur Verbesserung der Möglichkeit der Ausübung arteigener Verhaltensweisen erscheinen daher notwendig und sollten vor allem die Anordnung des Funktionsbereiches „Staubbad“ betreffen. Dafür sollte eine entsprechend große, zusammenhängende Fläche vorhanden sein, die 25 % bis 35 % der Tiere gleichzeitig Platz bietet. Andere Funktionsbereiche, z.B. Tränke, Futtertrog oder Sitzstangen sollten diesen Bereich nicht überlappen oder direkt anliegen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19
Der humane Mas-related gene X1 (hMrgX1)-Rezeptor ist ein G-Protein-gekoppelter Rezeptor, der selektiv in nozizeptiven Spinalganglienneuronen exprimiert wird. Eine spezifische Aktivierung des Rezeptors durch das Proenkephalin-Spaltprodukt BAM8-22 (bovine adrenal medulla 8-22) wird als schmerzhaft wahrgenommen. Damit stellt der hMrgX1-Rezeptor eine neue molekulare Zielstruktur für eine potentiell nebenwirkungsarme, analgetische Therapie dar. Trotz dieses Potentials sind die pro-algetischen Signalwege des hMrgX1-Rezeptors bislang nicht verstanden. Der MrgX1-Rezeptor entwickelte sich unter hohem positivem Selektionsdruck und kommt nur in Primaten vor. Trotzdem wurden die nicht-homologen MrgC-Rezeptoren der Nagetiere zur Analyse des hMrgX1-Rezeptors verwendet. Im Rahmen dieser Arbeit wurden daher zunächst vergleichende Ligandenprofile des hMrgX1- und der MrgC-Rezeptoren aus Maus und Ratte erstellt. Dabei wurden deutliche Unterschiede offensichtlich, da der hMrgX1-Rezeptor exklusiv von BAM8-22 aktiviert wurde, während die MrgC-Rezeptoren durch weitere Liganden, u. a. Spaltprodukte des Proopiomelanocortins, z. T. sogar effizienter aktiviert wurden. Zudem konnte gezeigt werden, dass die MrgC-vermittelte Ca2+-Mobilisation auf Grund einer β-Arrestin-abhängigen Rezeptorendozytose deutlich desensitisierte, während der hMrgX1-Rezeptor resistent gegenüber dieser Liganden-induzierten Regulation war. Daher können die MrgC-Rezeptoren der Nagetiere nicht als Modellsytem für den hMrgX1-Rezeptor verwendet werden, so dass in dieser Arbeit weiterführend Signalwege des hMrgX1-Rezeptors in Spinalganglienneuronen-ähnlichen F11-Zellen und primären Spinalganglienneuronen untersucht wurden. Dabei zeigte sich eine duale funktionelle Regulation des etablierten pro-algetischen TRPV1 (transient receptor potential cation channel vanilloid 1)-Ionenkanals. Zum einen sensitisierte der hMrgX1-Rezeptor den TRPV1 über einen etablierten, Proteinkinase C-abhängigen Signalweg. Zum anderen zeigte sich eine direkte hMrgX1-mediierte Aktivierung des TRPV1. Dieser Regulationsmechanismus wurde durch eine Phospholipase C (PLC)-β-induzierte Produktion des endogenen TRPV1-Liganden Diacylglycerol und durch die Degradation des tonisch TRPV1-inhibierenden PLC-β-Substrates Phosphatidylinositol-4,5-bisphosphat vermittelt. Neben der TRPV1-Modulation induzierte der hMrgX1-Rezeptor die Expression verschiedener Gene, deren zentrale Bedeutung bei der inflammatorischen und neuropathischen Schmerzchronifizierung etabliert ist. Einerseits wurde eine hMrgX1-induzierte Phosphorylierung der extracellular signal-regulated kinases 1/2 beobachtet, die in einer Aktivierung von serum response factor-abhängigen Reportergenkonstrukten und in der Induktion von c-Fos auf mRNA- und von early growth response protein 1 auf mRNA- und Proteinebene resultierte. Andererseits zeigte sich die transkriptionelle Ca2+/Calcineurin-abhängige Aktivierung des nuclear factor of activated t cells, die in der Induktion des CCR2 (chemokine receptor 2) auf mRNA- und Proteinebene resultierte. Somit konnte erstmalig ein physiologischer Induktor des CCR2 in Spinalganglienneuronen beschrieben werden. Weiterhin wurde nach der Etablierung der endogenen Proteinexpression des hMrgX1-Rezeptors in LAD2-Mastzellen eine BAM8-22-induzierte Freisetzung des CCR2-Agonisten chemokine ligand 2 ermittelt, so dass der hMrgX1-Rezeptor die parakrine Stimulation von nozizeptiven Spinalganglienneuronen durch Mastzellen fördern könnte. Diese Dissertation trägt somit zum besseren molekularen Verständnis akuter und chronischer pro-algetischer Funktionen des hMrgX1-Rezeptors bei und könnte damit die Entwicklung neuer analgetischer Wirkstoffe ermöglichen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Die Forschungsergebnisse der letzten Jahre haben gezeigt, dass das Universum bei weitem nicht nur aus baryonischer Materie besteht. Tatsächlich scheinen 72% aus sogenannter Dunkler Energie zu bestehen, während selbst vom verbleibenden Teil nur etwa ein Fünftel baryonischer Materie zugeordnet werden kann. Der Rest besteht aus Dunkler Materie, deren Beschaffenheit bis heute nicht mit Sicherheit geklärt ist. Ursprünglich in den Rotationskurven von Spiralgalaxien beobachtet, wurde die Notwendigkeit ihrer Existenz inzwischen auch in elliptischen Galaxien und Galaxienhaufen nachgewiesen. Tatsächlich scheint Dunkle Materie eine entscheidende Rolle in der Strukturbildung im Universum gespielt zu haben. In der Frühzeit des Universums, als die Materieverteilung im Weltraum noch äußerst gleichmäßig war und nur sehr geringe Inhomogenitäten aufwies, bildeten sie die Kondensationskeime für den gravitativen Kollaps der Materie. Numerische Simulationen haben gezeigt, dass der heute beobachtbare Entwicklungszustand des Universums erst durch die zusätzliche Masse Dunkler Materie ermöglicht wurde, die den strukturellen Kollaps erheblich beschleunigte und nur dadurch zur heute beobachtbaren Komplexität der Strukturen führen konnte. Da Dunkle Materie nicht elektromagnetisch wechselwirkt, sondern sich nur durch ihre Schwerkraft bemerkbar macht, stellt der Gravitationslinseneffekt eine ausgezeichnete Methode dar, die Existenz und Menge an Dunkler Materie nachzuweisen. Der schwache Gravitationslinseneffekt macht sich zu Nutzen, dass die intrinsischen Orientierungen der Galaxien im Weltraum keine Vorzugsrichtung haben, gleichbedeutend mit ihrer statistischen Gleichverteilung. Die gravitationsbedingte kohärente Verzerrung der Hintergrundobjekte führt zu einer Abweichung von dieser Gleichverteilung, die von den Eigenschaften der Gravitationslinsen abhängt und daher zu deren Analyse genutzt werden kann. Diese Dissertation beschreibt die Galaxy-Galaxy-Lensing-Analyse von insgesamt 89 deg^2 optischer Daten, die im Rahmen des CFHTLS-WIDE-Surveys beobachtet wurden und aus denen im Rahmen dieser Arbeit photometrische Rotverschiebungs- und Elliptizitätskataloge erzeugt wurden. Das Galaxiensample besteht aus insgesamt 5×10^6 Linsen mit Rotverschiebungen von 0.05 < z_phot ≤ 1 und einem zugehörigen Hintergrund von insgesamt 1.7×10^6 Quellen mit erfolgreich gemessenen Elliptizitäten in einem Rotverschiebungsintervall von 0.05 < z_phot ≤ 2. Unter Annahme analytischer Galaxienhaloprofile wurden für die Galaxien die Masse, das Masse-zu-Leuchtkraft-Verhältnis und die entsprechenden Halomodellprofilparameter sowie ihre Skalenrelationen bezüglich der absoluten Leuchtkraft untersucht. Dies geschah sowohl für das gesamte Linsensample als auch für Linsensamples in Abhängigkeit des SED-Typs und der Umgebungsdichte. Die ermittelten Skalenrelationen wurden genutzt, um die durchschnittlichen Werte für die Galaxienhaloparameter und eine mittlere Masse für die Galaxien in Abhängigkeit ihres SED-Typs zu bestimmen. Es ergibt sich eine Gesamtmasse von M_total = 23.2+2.8−2.5×10^11 h^{−1} M_⊙ für eine durchschnittliche Galaxie mit einer Referenzleuchtkraft von L∗ = 1.6×10^10 h^{−2} L_⊙. Die Gesamtmasse roter Galaxien bei gleicher Leuchtkraft überschreitet diejenige des entsprechenden gemischten Samples um ca. 130%, während die mittlere Masse einer blauen Galaxie ca. 65% unterhalb des Durchschnitts liegt. Die Gesamtmasse der Galaxien steigt stark mit der Umgebungsdichte an, betrachtet man die Geschwindigkeitsdispersion ist dies jedoch nicht der Fall. Dies bedeutet, dass die zentrale Galaxienmateriedichte kaum von der Umgebung sondern fast nur von der Leuchtkraft abhängt. Die Belastbarkeit der Ergebnisse wurde von zu diesem Zweck erzeugten Simulationen bestätigt. Es hat sich dabei gezeigt, dass der Effekt mehrfacher gravitativer Ablenkung an verschiedenen Galaxien angemessen berücksichtigt werden muss, um systematische Abweichungen zu vermeiden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
In der deutschen Bevölkerung leidet, bezogen auf den BMI (Body-Mass-Index), etwa jeder zweite an Übergewicht. Innerhalb dieser Gruppe müssen dabei über 25 % als krankhaft adipös eingestuft werden. Trotz der weiten Verbreitung, ist zurzeit weder eine erfolgreiche medikamentöse Therapie der Adipositas verfügbar, noch sind die grundlegenden Mechanismen der Gewichtsregulation vollständig verstanden. Der MC4R (Melanocortin-4-Rezeptor) und sein Ligand α-MSH (melanocyte-stimulating hormone) stellen einen entscheidenden Punkt bei der Energieregulation des Körpers dar und sind damit eine vielversprechende pharmakologische Zielstruktur zur Behandlung von Adipositas. Trotz der enormen Bedeutung dieses Rezeptors ist bemerkenswert wenig über die MC4R-induzierten Signalwege bekannt. Ziel dieser Arbeit war es, α MSH-induzierte anorexigene Signal¬wege in murinen hypothalamischen Zellen (GT1 7), die den MC4R endogen exprimieren, zu identifizieren und zu charakterisieren. In dieser Arbeit konnte mit hochspezifischen Antikörpern gezeigt werden, dass nach 20 h Serumentzug die Stimulation von GT1-7 Zellen mit α MSH die cAMP-abhängige PKA (Proteinkinase A) aktiviert und somit zu einer ERK-1/2 (extracellular signal-regulated kinase-1/2) Phosphorylierung führt. Die aktivierte ERK-1/2 inhibiert anschließend die konstitutiv aktive AMPK-Kinase LKB1 (liver kinase B1), was in einer verminderten Phosphorylierung der nach¬geschalteten AMPK (AMP-activated protein kinase) an Threonin 172 resultiert. Damit ergibt sich eine lineare α-MSH-induzierte Signalkaskade, bei der die AMPK Dephosphorylierung von PKA, ERK-1/2 und LKB1 abhängig ist. Die Durchführung von Versuchen nach mehrstündigem Serumentzug ist zwar etabliert, führt aber zu Veränderungen in der Zelle, die sich unter anderem auf Proliferation und Morphologie auswirken. Da unklar ist, welche Versuchs¬bedingungen dem physiologischen Zustand eines Neurons entsprechen, wurde die α MSH-induzierte Signalkaskade zusätzlich unter serumhaltigen Bedingungen untersucht. Dabei führt die Stimulation mit α-MSH immer noch zu einer Aktivierung der ERK-1/2 und auch zu einer Dephosphorylierung der AMPK, letzteres allerdings unabhängig von PKA und ERK-1/2. Des Weiteren wird die AMPK nicht mehr exklusiv durch LKB1 reguliert, sondern die AMPK-Kinase TAK1 (TGF-β-activated kinase-1) spielt ebenfalls eine Rolle. Erste Hinweise aus einem Kinase-Aktivitäts-Array deuten daraufhin, dass diese Unterschiede in einer distinkten ERK-1/2 Aktivierung, über Rap-1 unter serumfreien oder über K-Ras unter serumhaltigen Bedingungen, begründet sein könnten. Diese Dissertation soll zu einem besseren Verständnis von anorexigenen Signal-wegen im Hypothalamus beitragen und könnte bei der Generierung neuer Anti Adipositas Medikamente hilfreich sein.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Diese Dissertation untersucht den Urspung der kosmischen Strahlung mit Beobachtungen der MAGIC Teleskope im Bereich der hoch energeticher Gammastrahlenastronomie. Gammastrahlung wird bei der Wechselwirkung relativistischer Teilchen erzeugt. Im Gegensatz zur geladenen kosmichen Strahlung, werden Gammastrahlen nicht von interstellaren Magnetfeldern beinflusst. Daher erlaubt die Ankunftsrichtung von Gammastrahlen die Bestimmung ihres Ursprungs. Ein Teil dieser Arbeit widmet sich der Verbesserung der Analyse von MAGIC-daten. Im besonderen wurde ein neuer Algorithmus zur Hintergrundbestimmung entwickelt, wodurch die systematischen Unsicherheiten deutlich verbessert werden konnten. Zudem wurde die Reflekivitaet und Fokusierung beider MAGIC Teleskope anhand des Vergleichs zwischen echten und simulierten Muonereignissen bestimmt. Die heutige Meinung ist, dass die Ueberreste von Supernovae, die expandierende Schockwellen der Sternimplosionen, der Ursprung der galaktischen kosmischen Strahlung sind. Obwohl hoch energetische Gammastrahlung von vielen dieser Objekte beobachtet wurde, erlaubt die schwierige Unterscheidung von leptonisch und hadronsich produzierter Gammastrahlung in den meisten Faellen keine klaren Schlussfolgerungen ueber die Anwesenheit relativistischer Hadronen und damit kosmischer Strahlung. Da Gammastrahlung aus hadronischen Wechselwirkungen, nahezu ausschliesslich in inelastischen Proton-Proton Kollisionen erzeugt wird, ist ihre Produktion umso effektiver, desto hoeher die Dichte des mediums ist. Die Region W51 beherbergt den 30000 Jahre alten Supernovaueberrest W51C, welcher teilweise mit der grossen Molekuelwolke W51B kollidiert. MAGIC hat ausgedehnte Gammastrahlung von dieser Region mit hoher statistischer Signifikanz (11 sigma) gemessen. Es konnte gezeigt werden, dass das Zentrum der Emission in dem Bereich hoher Dichte liegt, wo der Supernovaueberrest mit der Molekuelwolke kollidiert. Das Energiespektrum wurde im Bereich von 75 GeV bis 5.5 TeV gemessen und folgt einem Potenzgesetz. Die moegliche Kontamination dieser Emission durch einen nahegelegenen potentiellen Pulsarwindnebel zeigt keine Energieabhaengigkeit und wurde als ~20% der Gesamtemission bestimmt. Die Modellierung der nicht thermischen Mutliwellenlaengenemission deutet stark auf einen hadronischen Ursprung der Gammastrahlung hin. Diese Beschreibung impliziert, dass in etwa 16% der kinetsiche Energie der Schockwelle von W51C zur Produktion kosmischer Strahlung genutzt wurden. Damit is W51C eine der wenigen bekannten Supernovaueberreste wo eine Beschleunigung von Protonen der komsischer Strahlung, zumindestens bis 50 TeV, direkt beobachtet wird. HESS J1857+026 ist eine nicht identifizierte TeV-Quelle, die moeglicherweise den Pulsarwindnebel des, von der Gammastrahlung umschlossenen, hochenergetischen Pulsares PSR J1856+0245 darstellt. Eine augedehnte Emission wurde von MAGIC mit einer statistischen Signifikanz von mehr als 12 sigma gemessen. Das berechnete Spektrum verbindet die vorherigen Daten von Fermi/LAT und HESS, wobei es mit beiden Messungen ueberlappt. Anhand der MAGIC und Fermi/LAT Daten wurde ein Abweichung von einem einfachen Potenzgesetz bei ca. 100~GeV festgestellt. Bei hoeheren Energien werden zwei Emissionsregionen aufgeloest. Ueberhalb von einem TeV koennen zwei voneinander getrennte, einzeln signifikante Regionen festgestellt werden. Diese Dissertation zeigt die ersten morphologischen Untersuchungen, die mit den MAGIC Teleskopen durchgefuehrt wurden. Es wurde gezeigt, dass die Faehigkeit Strukturen in galaktischen Quellen aufloesen zu koennen, wichtige Informationen ueber die Physik der Teilchenbeschleunigung in astrophysikalischen Objekten liefert.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Diese Dissertation widmet sich der Analyse der Eigenschaften der Systeme π−η und π−η′. Wir untersuchen dazu Daten, welche das COMPASS-Experiment am CERN im Jahr 2008 bei den Reaktionen π−p → π−π−π+π0p bzw. π−p → π−π−π+η mit niedrigem Impulsu ̈bertrag auf das Targetproton (0.1 GeV^2 < −t < 1 GeV^2) aufgezeichnet hat. Die isoskalaren Mesonen η und η′ erscheinen dann als Peaks in den invariante-Masse-Spektren der Dreikörpersysteme π−π+π0 bzw. π−π+η, die jeweils im Endzustand π−π+γγ selektiert wurden. Wir zerlegen die so gewonnenen Zweikörpersysteme nach Partialwellen. Wir finden eine einfache Vorschrift, welche es erlaubt allein anhand von Phasenraumfaktoren mit guter Übereinstimmung die Amplituden der geraden Partialwellen D+ (JP = 2+) und G+ (JP = 4+) zwischen den beiden Endzuständen zu übersetzen. Desweiteren gehen wir der Frage nach, ob eine beobachtete Intensität der P+-Welle mit einer Resonanz identifiziert werden kann. Ihr neutraler Isospinpartner hätte Quantenzahlen JPC = 1−+, welche nicht mit einem Fermion-Antifermion-Zustand identifiziert werden können, welche also nicht einem Quarkmodellzustand zugeordnet werden können. Zudem identifizieren wir die bekannten Mesonen a2(1320) und a4(2040), deren Verzweigungsverhältnisse wir bestimmen. Bevor wir zu diesen Ergebnissen kommen, beschreiben wir die bekannten Eigenschaften der starken Wechselwirkung im Hinblick auf die Systematisierung mesonischer Systeme. Wir diskutieren die im von uns betrachteten Bereich hoher Energien und niedriger Impulsüberträge übliche Behandlung von Streuprozessen als t-Kanalaustausch sogenannter Regge-Trajektorien und erörtern Symmetrieeigenschaften, welche die Datenanlyse erheblich vereinfachen. Anschließend diskutieren wir das COMPASS-Experiment, wobei wir besonderes Gewicht auf die Teile legen, welche bei der Gewinnung der in dieser Arbeit analysierten Daten wesentlich waren. Insbesondere beschreiben wir den als Teil dieser Arbeit entwickelten Sandwich-Veto-Detektor, ein elektromagneitsches Kalorimeter, welches als wesentlicher Teil des Triggersystems die verwertbaren Daten um einen Faktor > 3 anreicherte, indem es Ereignisse ausschloss, in welchen Reaktionsprodukte das Spektrometer verfehlten. Um die Datenselektion mit bestmöglicher Qualität durchführen zu können, wurde im Rahmen dieser Arbeit ein datenbasiertes Eichverfahren für die elektromagnetischen Kalorimeter des COMPASS-Experiments entwickelt. Eine Software zum kinematischen Fit wurde ebenso entwickelt und benutzt, um eine möglichst hohe Auflösung zu erzielen. Wir zeigen kinematische Größen, die die vorliegenden Produktionsmechanismen verdeut- lichen. Wir erläutern das Analyseverfahren der sogenannten Partialwellenanalyse in seiner Anwendung auf die betrachteten periphär produzierten Systeme aus zwei Pseudoskalaren Teilchen und die benutzten Softwarelösungen, welche teilweise eigens für diese Arbeit entwickelt wurden. Diese Techniken wenden wir auf die Daten an und kommen so zu den bereits oben erwähnten Ergebnissen. Wir vergleichen auch die Ergebnisse, die wir mit zwei verschiedenen Ansätzen erhalten. Beim einen wird das π−η(′)-System als Zweikörpersystem behandelt, beim anderen werden die Dreikörperzerfälle η → π−π+π0 bzw. η′ → π−π+η zur Untergrundseparation benutzt und somit ein Vierkörpersystem behandelt. Wir heben an dieser Stelle besonders hervor, dass wir eine einfache Transformation finden, welche es erlaubt die beobachteten Partialwellen D+ und G+ mit Quantenzahlen JP = 2+ bzw. 4+ zwischen den beiden Systemen ηπ− und η′π− als qualitativ gleichartig zu erkennen. Wir stellen aber auch fest, dass diese Gleichartigkeit für die spin-exotische P+-Welle nicht gegeben ist. Zuletzt führen wir in Analogie zu früheren Analysen Modellfits durch, in welchen wir Parametrisierungen der Daten anhand von Breit-Wigner-Resonanzamplituden finden, und nutzen diese, um Verzweigungsverhältnisse der bekannten a2(1320) und a4(2040) Mesonen zu gewinnen. Wir vergleichen diese mit den Vorhersagen aus der Theorie der η-η′-Mischung, und im Falle des a2(1320), mit früheren Messungen. In Anhängen sammeln wir einige nützliche Formeln und außerdem Ergebnisse, welche nicht zum Hauptteil dieser Arbeit passen.
Fakultät für Sprach- und Literaturwissenschaften - Digitale Hochschulschriften der LMU
Diese Dissertation geht von einem Zusammenhang zwischen der Grundfrequenz und der Perzeption von Vokalen, speziell der Höhe von Vokalen, aus - wie viele Vorgängerstudien auch - und diskutiert Konsequenzen, die sich aus diesem Umstand ergeben; außerdem führt sie neue Evidenzen an, dass unter bestimmten Bedingungen die Grundfrequenz auch zur Produktion von Vokalhöhendistinktionen aktiv variiert werden kann. In einer longitudinalen Studie wurden Aufnahmen aus mehreren Jahrzehnten, die von den selben britischen Sprechern stammten und auf Gleichwertigkeit der Kommunikationssituation kontrolliert worden waren, daraufhin untersucht, wie sich Alterungsprozesse in erwachsenen Sprechern auf die mittlere Grundfrequenz und die Formanten F1, F2 und F3 im Neutrallaut Schwa, bzw. auf die als äquivalent hierzu festgestellten gemittelten Formantwerte in allen stimmhaften Signalanteilen auswirken. Die Grundfrequenzen von Frauen werden als mit dem Alter fallend beschrieben, während Männer eine zunächst absinkende, später ansteigende Grundfrequenz aufweisen. Der zweite Formant ändert sich nur marginal, und auch F3 weist keine über alle Sprecher konsistenten, signifikanten Änderungen auf. Im Gegensatz hierzu ändert sich F1 mit zunehmendem Alter deutlich, und zwar bei den meisten Sprechern in die selbe Richtung wie die Grundfrequenz. In Daten eines Sprechers und einer Sprecherin, die in kurzen Abständen regelmäßig über ein halbes Jahrhundert hinweg aufgenommen worden waren, wird eine deutliche Kovariation des ersten Formanten mit der Grundfrequenz deutlich, wobei der Abstand zwischen F1 und Grundfrequenz auf einer logarithmischen Skala auch über Jahrzehnte hinweg relativ invariant bleibt. Die Hypothese hierzu ist, dass altersbedingte Formantänderungen weniger auf physiologisch bedingte Änderungen in den Abmessungen des Ansatzrohrs zurückzuführen seien, sondern auf eine kompensatorische Anpassung des ersten Formanten als Reaktion auf eine Perturbation des Vokalhöhenperzepts, welche hervorgerufen wird durch die (physiologisch bedingten) Grundfrequenzänderungen. Diese Hypothese schließt mit ein, dass das Vokalhöhenperzept der Sprecher/Hörer durch den in Relation zu f0 zu beurteilenden ersten Formanten bestimmt ist. Um diese letzte Schlussfolgerung weiter zu testen, wurden deutsche Sprecher in zwei Experimenten in Quasi-Echtzeit einem akustisch verändertem auditorischen Feedback ausgesetzt, und ihre akustischen Daten untersucht. Beide Perturbationen hatten das Ziel, das Vokalhöhenperzept (direkt oder indirekt) zu beeinflussen: Für eine Perturbation des ersten Formanten kompensierten die Sprecher mit einer F1-Produktion in Gegenrichtung zur Perturbation. Gleichzeitige Änderungen der produzierten Grundfrequenz sind teilweise als automatisch eintretende Kopplungseffekte zu deuten; unter bestimmten Bedingungen scheinen manche Sprecher jedoch f0 unabhängig von F1 aktiv zu variieren, um die intendierte Vokalhöhe zu erreichen. Bei einer Perturbation der Grundfrequenz variieren einige Sprecher den ersten Formanten dergestalt, dass zu vermuten ist, dass der aufgrund nur partiell durchgeführter f0-Kompensation weiterhin gegenüber den unperturbierten Werten veränderte F1-f0-Abstand das Vokalhöhenperzept beeinflusste, was zu einer kompensatorischen Gegenbewegung in Form einer Vokalhöhenvariierung führte. Ein Perzeptionsexperiment mit ausschließlich durch Grundfrequenzvariierung beeinflussten Kontinua zwischen vorderen halb-geschlossenen und geschlossenen Vokalen in Wörtern gleichen Kontexts, welche in Trägersätze eingebettet präsentiert wurden, ergab, dass die Grundfrequenzvariation nur etwa bei der Hälfte der deutschen Hörer das Vokalperzept beeinflusste. Das vokalintrinsische Merkmal wird aber trotz des störenden Einflusses extrinsischer Faktoren genutzt, und auch trotz der intonatorischen Funktion der Grundfrequenz. Die durch Ergebnisse von Untersuchungen zur Intrinsischen Grundfrequenz im Deutschen motivierte Hypothese, dass deutsche Hörer den F1-f0-Abstand als Vokalhöhenmerkmal in stärkerem Ausmaß in einem Kontinuum zwischen ungespannten Vokalen nutzen, als in einem Kontinuum zwischen gespannten Vokalen, konnte nicht bestätigt werden. Generell liefern alle drei experimentellen Teile dieser Dissertation weitere Evidenz dafür, dass - zumindest in den vergleichsweise vokalhöhenreichen Sprachen Englisch und Deutsch - viele, aber eben nicht alle Sprecher/Hörer zur Vokalhöhenperzeption und -produktion neben F1 auch die Grundfrequenz nutzen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 13/19
Die automatische Fokussierung ist ein grundlegender Arbeitsschritt für die Bildaufnahme und Auswertung mit motorgetriebenen Mikroskopen. Auch wenn die Forschungs- und Entwicklungsarbeit auf dem Gebiet des kontrastbasierten Autofokus nunmehr auf eine viele Dekaden lange Geschichte zurückblicken kann, fehlt es selbst aktuellen Methoden an Robustheit gegenüber Bildstörungen und der Handhabung komplexerer Präparatstrukturen. Diese Dissertation stellt einen neuen Autofokusansatz vor, der grundsätzlich mit jeder Mikroskopieart wie unter anderem Fluoreszenz-, Hellfeld- oder auch Phasenkontrast-Mikroskopie verwendet werden kann. Die Neuheit der Methode besteht in einer inhaltsbasierten Fokussuche, die für eine gezieltere Autofokussierung Vorwissen über das zu untersuchende Präparat verwendet. Dabei stellen die von den Trainingsdaten extrahierten und per Boosting selektierten lokalen Haar-Merkmale die Wissensbasis. Die im folgenden als Inhaltsbasierte Autofokus (IB-AF) bezeichnete Methode verfährt in drei Schritten: Zuerst werden an beliebiger z-Koordinate innerhalb des Präparats Regions-of-Interest (ROI) ermittelt, die starke Objekthypothesen enthalten. Danach wird nur auf diesen Regionen eine Kontrastmessung zur Fokuslagenndung der jeweiligen Region entlang der z-Achse durchgeführt. Im letzten Schritt werden die Regionen in ihrer Fokuslage einer genaueren Verikation unterzogen, um ergänzend etwaige uninteressante Objekte auszuschließen. Mit dieser Herangehensweise wendet sich der IB-AF von traditionellen Methoden ab, welche den gesamten Bildbereich einer Fokusmessung unterziehen. Dadurch ist es möglich, sowohl Artefakte aus der Schärfemessung auszuschließen, als auch gezielt spezische Objekte in den Fokus zu bringen. Die vorgestellte Methode wurde auf Präparaten mit unterschiedlichen Herausforderungen getestet und erzielte ein erfolgreiches Fokussieren, wo andere Methoden bisher scheiterten.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Performanzprobleme treten in der Praxis von IT-Anwendungen häufig auf, trotz steigender Hardwareleistung und verschiedenster Ansätze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine Prävention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide Ansätze haben Nachteile: modellbasierte Ansätze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachträgliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlägt einen neuen Ansatz zur Performanzanalyse für eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von Abläufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenläufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten Wirkzusammenhänge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die Abläufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird präsentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenüber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher Abläufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.
Sozialwissenschaftliche Fakultät - Digitale Hochschulschriften der LMU
Die Thematik der Künstlichen Intelligenz (fortan KI) ist virulent. Sie erstreckt sich von der akademischen Fachdiskussion der Informatiker und Physiker, über eine breite philosophische Diskussion - weiter über Beiträge von Spezialisten aus Disziplinen der Psychologie, der Neurophysiologie und Neurobiologie und auch der Physik - doch dabei insbesondere in Beiträge der Quantenmechanik - bis hinein in die Domäne von Soziologie und Politik. Diese Dissertation möchte keinen dieser Bereiche isolieren, daher sollen möglichst viele auch divergierende Argumente der verschiedenen Fachdiskussionen nebeneinander gestellt und abgewogen werden. Der interdisziplinäre Ansatz soll dabei einerseits die erstaunliche Komplexität der Thematik reduzieren helfen, durch Aufzeigung von Konvergenzen und Isomorphien der Argumentationsfiguren, andererseits soll er die Perspektive öffnen, für eine neue hier zu erarbeitende Einordnung der KI in das politische Zeitgeschehen. Die Perspektive auf die transformative Kraft, die neue Technologien auf Gesellschaften ausüben, wird dabei eine bedeutende Rolle spielen. Technische Entwicklung kann der hier vorgestellten Argumentation zu Folge, als eine spezielle Form von Evolution begriffen werden, die der organischen Evolution im Sinne Darwins Argumentation nahe steht. Nicht zuletzt wegen der Nähe zu biologischen Sinnzusammenhängen, ist es z.B. in den Neurowissenschaften üblich geworden, sich Analogien aus der Technologie, insbes. der Informatik bezüglich Hardware als auch Software zu bedienen, um die Funktionsweise von Prozessen des Gehirns zu veranschaulichen. Aus vielen dieser Analogien sind inzwischen leichtfertig Identitätsbehauptungen entwickelt worden, die in diversen kritisch zu betrachtenden Reduktionismen münden. Zu ausgesuchten Positionen dieser Kategorie, die heute besonders in Kreisen der Denker der KI weite Verbreitung finden, soll eine differenzierte Untersuchung stattfinden. Welches wissenschaftliche Selbstverständnis des Menschen lässt sich konstatieren, wenn er metaphorisch und allegorisch zu semantischen wie zu technischen Werkzeugen greift, um mittels daraus abgeleiteter sprachlicher, logischer und auch technischer Konstruktionen seinen Standpunkt in der Welt zu präzisieren? Die Arbeit wird daher über weite Strecken einen grundsätzlich philosophischen Anspruch verfolgen, wobei die Argumentation sich vorwiegend im Areal der Interdependenz von Natur- und Geisteswissenschaften fokussieren wird. Das Oberthema Technik, wird den Einklang bilden, um das Spezialgebiet der KI zu eröffnen. Zunächst sollen die Bedingungen der Möglichkeit von KI auf technischer Ebene erörtert werden. Dazu werden Betrachtungen Neuronaler Netze und von Supercomputern, sowie der zugehörigen Software durchgeführt. Die Entwicklung auf diesem Gebiet wird dargestellt in ihrer Historie, ihrem Status Quo und ihrem Potential für die kommenden 10 bis 15 Jahre der Forschung. Im nächsten Hauptsegment Physik, wird der Begriff der „Information“ selbst mathematisch theoretisch und physikalisch praktisch erörtert und anschließend das Thema „physikalische Grundlagen der KI“ vertieft. Hier kommen wir explizit auf Quantenphysik zu sprechen, die wie wir herausarbeiten werden, das Fundament für die Informatik der kommenden Dekade liefern könnte. Wir stellen Überlegungen und Untersuchungen an, über grundlegende Begrifflichkeiten wie Energie und Entropie, über basale Konstanten und Naturgesetze, sowie den sich daraus ergebenden Raum der Realisierungsmöglichkeiten von Technologie in ihren theoretisch mathematisch maximalen Effizienzgraden. Ein Vergleich solcher Rechenbeispiele aus Natur und Technologie wird interessante neue Einblicke und Perspektiven ermöglichen. Der Anspruch der Interdisziplinarität dieser Arbeit, wird durch die Gliederung und Strukturierung der Abfolge der Argumentationsräume nochmals verdeutlicht: Nach 1.) Einleitung, 2.) Informatik 3.) Physik folgt dann 4.) der Politik Schlussteil. Hier soll dann folgende Fragestellung zum Thema KI die Überlegungen thematisch leiten: Gegeben den Fall, es gelingt in den folgenden ca. zwei Dekaden den Menschen technisch perfekt zu simulieren – worin liegt dann noch der genuin ontologische Kern des „Mensch-seins“ - und welches Bild der Gesellschaft zeichnet sich ab, mit einer solchen paradigmatischen Wende hin zu einer Technologie, die sich heute noch im Spannungsfeld zwischen Utopie und Realität befindet? Ließe sich einer absolut perfekten Simulation bzw. Emulation eines menschlichen Gehirns - wir sprechen von Präzision der letzten denkbaren theoretischen Ebene: Identikalität Molekül für Molekül, Atom für Atom und Quant für Quant - ein Bewusstsein noch absprechen? Hat die Quantenphysik oder sogar das sog. „no cloning“ Theorem hier Relevanz und Aussagekraft? – inwiefern betritt die KI spätestens ab diesem Schritt ethisch brisantes Gebiet? Fragen wie diese sollen im Verlauf der Kapitel sukzessive erörtert werden. Fragen die permanent dienen werden, den Zusammenhang der interdisziplinären Ansätze zu vereinen, sind dabei solche: Welchen Einfluss hat technologische Entwicklung auf Prozesse der Entscheidungsfindung der aktuellen Politik? Wie verhalten sich dabei ökonomische und soziologische Ziele zueinander? Welche soziokulturellen Konsequenzen ergaben und ergeben sich aus der heute etablierten Informations- & Kommunikationstechnologie (IuK) und welche Konsequenzen sind zu erwarten, wenn das Thema KI explizit auf die Agenda der Tagespolitik tritt? Die Kernfrage, die Thema und These dieser Arbeit inspiriert und die sich daher als roter Faden durch die gesamte Arbeit zieht und immer wieder aufs Neue mit verschiedenen Argumenten beleuchtet wird, ist dabei in einer ersten sondierenden Formulierung etwa diese: „Kann der Mensch, mittels seiner Intelligenz, die Grundlage ebendieser technisch simulieren – rekonstruieren – übertreffen? – wenn ja, welche Konsequenzen hat das für unsere Gesellschaft?“
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Die vorliegende Arbeit “Suche nach Cepheid-artigen Veränderlichen Sternen in nördlichen Zwerggalaxien der Lokalen Gruppe” faßt die Ergebnisse des VarStarDwarves-Projektes für alle “blauen”, periodisch Variablen Sterne (VS) zusammen. Die Zielsetzung des VarStarDwarves-Projekts, das seit 1999 an der Universitäts-Sternwarte München betrieben wird, läßt sich am besten durch ein Zitat aus dem zugrundeliegenden DFG-Antrag (Ho1812) erläutern: “Die Bestimmung der Sternentstehungsgeschichte von Zwerggalaxien (ZG) erlaubt, wesentliche Randbedingungen für die Modelle der Evolution von Galaxien abzuleiten. Eine Grundvoraussetzung hierzu ist die Kenntnis der genauen Distanz der ZG. Die Beobachtung hinreichend großer Sample von Veränderlichen Sternen ermöglicht es, diese Distanzen wesentlich präziser als bisher zu bestimmen. Um diese großen Sample zu erhalten, sollen mit für Microlensing entwickelten Bildverarbeitungsmethoden VS in nahen ZG bis weit unter die bis jetzt erreichten Detektionsgrenzen nachgewiesen werden. Darüberhinaus werden die gefundenen VS auch Hinweise zur stellaren Zusammensetzung und damit zum Entwicklungszustand der ZG geben.” Die Ergebnisse für langperiodische, “rote” VS wurden bereits in der Arbeit von Snigula [2006] präsentiert. Im Rahmen des VarStarDwarves-Projekts wurden umfangreiche Modernisierungen und Verbesserungen an den Beobachtungsinstrumenten und dem Umfeld des Observatoriums Wendelstein durchgeführt und darüberhinaus die Entwicklung und der Bau einer neuen, modernen Zweikanal-CCD-Kamera initiiert. Auch diese Aspekte werden hier dokumentiert und die erreichten Fortschritte aufgezeigt (siehe hierzu Kapitel 2.2, 2.3 und 3 sowie die Anhänge A bis C). Diese Dissertation untergliedert sich weiter in eine Einleitung, die neben einer kurzen Vorstellung der mit dem Projekt befaßten Kollegen und ihrer diesbezüglichen Aufgabenbereichen v.a. eine historische Einführung in die Gebiete der Lokalen Zwerggalaxien sowie der “blauen” pulsationsveränderlichen Sterne bietet (Kap. 1), einen Überblick über Kandidatenauswahl und die durchgeführten Beobachtungen (Kap. 2.1, 2.4 und 2.5), sowie eine detaillierte Erläuterung der aufwendigen, z.T. ebenfalls im Rahmen des Projekts entwickelten Datenanalyseverfahren (Kap. 4). Die wesentlichen wissenschaftlichen Ergebnisse der Arbeit sind neue, unabhängige Entfernungsbestimmungen mittels δ Cephei Perioden-Leuchtkraftbeziehungen zu zwei der sechs VarStarDwarves Zwerge, die Bestätigung der Entfernung eines weiteren Zwergs, sowie die Entdeckung etlicher weiterer VS-Kandidaten, deren endgültige Bedeutungen erst durch weitere Beobachtungen bestimmt werden können, wobei aber durchaus mit weitreichenden Konsequenzen für das physikalische Verständnis der entsprechenden VS oder ihrer “Muttergalaxie” zu rechnen ist (Kap. 5).
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Seit der Entdeckung der zwei Typen des Human Immunodeficiency Virus (HIV) in den Jahren 1983 und 1986 gibt es zahlreiche kontroverse Diskussionen über deren Ursprung. Erst die Erforschung des zweiten Primate Immunodeficiency Virus (PIV), des Simian Immuno-deficiency Virus (SIV), ergab neue Erkenntnisse, die die Abstammung des HIV aus SIV weitgehend belegen konnten, obwohl noch heute diesbezügliche Zweifel bestehen. Aufgrund der großen genetischen Variabilität dieser Viren, wurden sie in verschiedene Stämme, Gruppen, Subtypen und Subsubtypen eingeteilt. Ihre Klassifikation und Nomenklatur wurde aufgrund der – vor allem in den 1990er-Jahren gemachten – neuen wissenschaftlichen Erkenntnisse über das HIV-Genom häufig geändert, bis im April 2000 ein Overview of subtypes in the primate immunodeficiency viruses publiziert wurde. Er dient seither als Grundlage für die Nomenklatur von HIV und SIV, wie sie auch in dieser Dissertation Verwendung findet. Die Forschung mit HIV-Subtypen machte es möglich, die epidemiologischen Ausbreitungs-wege von HIV zu eruieren und neue Erkenntnisse zur HIV-Infektion, zu ihren Übertragungs-wegen, zur Prävention und schließlich zu geeigneten Public-Health-Maßnahmen zu erlangen. Die bis noch vor wenigen Jahren diskutierte Frage, ob HIV-Superinfektionen und -Mehrfach-infektionen überhaupt möglich sind und wie die Rekombinanten entstehen, konnte ebenfalls durch die Subtypenforschung beantwortet werden. Diesbezügliche Studien werden seit einigen Jahren auch in Mbeya Region im Südwesten Tansanias durchgeführt. Die Daten dieser Dissertation basieren zum Teil auf jenen der fünfjährigen HIV Superinfection Study (HISIS), die im August 2000 in Mbeya Region begonnen wurde. HISIS befasst sich vor allem mit der Erforschung von HIV-Superinfektionen und deren Mehrfachinfektionen und Intersubtyp-Rekombinationen. Hierzu bedarf es eines Studienortes, in dem unterschiedliche HIV-Subtypen prävalent sind. Dies ist in Mbeya Region mit den Subtypen A, C und D der Fall. Die zweite Voraussetzung ist eine Studienpopulation, die eine hohe Prävalenz dieser Subtypen aufweist. Hierfür wurde eine offene Kohorte von über 700 weiblichen Prostituierten gebildet, aus der ich von September 2000 bis Mai 2001 bei 626 Studienteilnehmerinnen Daten für die vorliegende Arbeit gewinnen konnte. Um diese Populationsgruppe (so genannte High-Risk-Group, HRG) mit einem sehr hohen Risiko hinsichtlich des sexuellen Verhaltens studieren zu können, habe ich für meine Dissertation eine Vergleichspopulation untersucht, die sich in dieser Variable (sexuelles Risikoverhalten) von der HRG unterscheidet (so genannte Non-High-Risk-Group, NRG). Dafür konnte ich Blutproben und soziologische Daten von 757 Blutspendern (Oktober 2000 bis August 2001) und von 351 antenatal clinic attendees (Februar bis August 2001) gewinnen. Um diese HIV-Subtypisierung mit hoher Qualität und relativ geringen Kosten durchführen zu können, wurde von M. Hölscher, dem Mitbetreuer dieser Dissertation, der Multi-Region Hybridisation Assay (MHA) entwickelt. Dieses molekularbiologische Verfahren konnte ich in der vorliegenden Studie zum ersten Mal bei einem größeren Stichprobenumfang einsetzen: 341 Proben aus Mbeya Region. Diese Dissertation konnte nachweisen, dass der MHA eine ausreichende Sensitivität besitzt, um ihn zur HIV-1-Subtypen-Bestimmung bei transversalen Studien einzusetzen, wobei die Sensitivität von der Anzahl der pro Blutprobe gewonnen mononukleären Zellen abhängig ist. In meiner Arbeit hat sich bestätigt, dass in Mbeya Region HIV-1-Mehrfachinfektionen – mit einer Prävalenz von 14 % innerhalb der Studienpopulation – als auch Einfachinfektionen mit rekombinanten Subtypen – mit einer Prävalenz von 32 % innerhalb der Studienpopulation –vorkommen. Dies bedeutet, dass es sich nur bei etwas mehr als die Hälfte aller in Mbeya Region zirkulierenden HI-Viren um reine Subtypen handelt. Die Prävalenz der HIV-1-Subtypen war wie folgt: Subtyp C: 63 %, Subtyp A: 24 %, Subtyp D: 13 %. Konsekutiv sind dadurch C-Rekombinanten (AC und CD) häufiger präsent als die anderen. Auffällig ist die Tatsache, dass unter den Rekombinanten der Subtyp C seltener und die Subtypen A und D häufiger vorkommen als unter den reinen Subtypen. Ich konnte mit dieser Arbeit beweisen, dass mit einem erhöhten Risiko hinsichtlich des sexuellen Verhaltens die Gefahr von Mehrfachinfektionen steigt (p = 0,0196). Aufgrund der Datenlage darf vermutet werden, dass für die Entstehung von Rekombinationen HIV-1-Mehrfachinfektionen Voraussetzung sind. Ein Einfluss des Geschlechts auf die Prävalenz von Mehrfachinfektionen und Rekombinanten konnte – unter Berücksichtigung des geringen Stichprobenumfangs bei den weiblichen und männlichen Blutspendern – in dieser Arbeit nicht festgestellt werden. Ein Einfluss des Alters auf die Prävalenz von Mehrfachinfektionen und Rekombinanten zeigte sich nur in der Risikogruppe der Prostituierten und nicht in den Populationsgruppen antenatal clinic attendees und Blutspender. Die Dissertation basiert auf den Daten meiner Querschnittsstudie, die ich vom August 2000 bis zum August 2001 in Mbeya Region durchgeführt habe. Sie soll den Einfluss der Variablen sexuelles Risikoverhalten auf die Verteilung der HIV-1-Subtypen und deren Rekombinationen und Mehrfachinfektionen eruieren. Obwohl einige signifikante Assoziationen festzustellen waren, kann keine Aussage über deren kausaler Zusammenhang erfolgen, da es sich hierbei ausschließlich um eine transversale Studie handelt. Zur Eruierung der kausalen Inferenz sind longitudinale Kohortenstudien geeignet, die mit Verlaufsdaten von Individuen arbeiten. Des Weiteren können diese Studien mittels Interventionen (Aufklärung, Kondombenutzung, medizinische Betreuung und Versorgung u.a.) eine Verminderung des Risikos hinsichtlich des sexuellen Verhaltens herbeiführen, was die Inzidenz für Neu- und Superinfektionen erfolgreich senken würde. Eine entsprechende Studie wurde in Mbeya Region von der Abteilung für Infektions- und Tropenmedizin der Ludwig-Maximilians-Universität München in Kooperation mit der Muhimbili University of Dar es Salaam an über 700 Prostituierten von August 2000 bis Juni 2005 durchgeführt.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Diese Dissertation hat sich mit dem Prozess der Implementierung numerischer Simulationen auf komplexe Plasmen auseinandergesetzt, aufbauend auf ein Set gekoppelter Partielle Differentialgleichungen. Die Dynamik komplexer Plasmen ist durch die Wechselwirkung ihrer unterschiedlichen Komponenten auf mikroskopischen und mesoskopischen Ebenen charakterisiert worden. Diese Wechselwirkungen resultieren in einer Mischung elektrodynamischer und strömungsdynamischer Effekte. Dieses Differentialgleichungssystem ist mit der Methode der finiten Elemente gelöst worden, die die Verkuppelung verschiedener physikalischer Phänomene in beschränkten Bereichen ermöglicht. Die Sturm-Liouville Theorie ist als mathematisches Gerüst verwendet worden, um Maxwellsche Gleichungen in beschränkten Hohlraumresonatoren mit inhomogenen Randbedingungen zu lösen. Die Profile der elektrischen Energiedichte sind kalkuliert worden, sowohl für den elektrostatischen Fall, als auch für die ersten sechs Eigenresonanzfrequenzen der elektromagnetischen Wellen. Es hat sich herausgestellt, dass die angelegte Hochfrequenz niedriger als die erste Eigenfrequenz der HF-Plasmakammer ist. Es hat sich erwiesen, dass sich die elektromagnetische Energie innerhalb der HF-Plasmakammer unter den Eigenfrequenzen aufspaltet, und dass die Rahmenbedingungen bestimmte Resonanzen erzeugen. Die Form und Verteilung dieser elektromagnetischen Energie korrelieren mit den Eigenfunktionen der respektiven Eigenresonanzfrequenzen. Um eine makroskopische Beschreibung der Dynamik komplexer Plasmen zu erreichen, ist die kinetische Theorie für Modellierung der Strömungsdynamik verwendet worden. Die Kopplung zu den elektromagnetischen Feldern ist auf der kinetischen Ebene durchgeführt worden. Dieses Herangehen überbrückt den Sprung von der mikroskopischen Beschreibung der Boltzmann Gleichung zu einer makroskopischen Beschreibung. Wir haben festgestellt, dass sowohl die dielektrischen Partikel als auch der Dielektrikumfluss einen “Elektrodruck” empfinden. Hohe Gradienten der elektrischen Energiedichte können die komplexen Plasmen zum Wirbeln bringen. Diese Herangehensweise ist neu, denn die gegenwärtige Theorie betrachtet das Neutralgas im Ruhezustand, dabei wird der Reibungswiderstand auf die komplexen Plasmen ausüben. Die beobachteten Wirbel in dem PK-3 Plus Experiment können durch die Stromlinien dieser Gradienten erklärt werden. Wir haben herausgefunden, dass der partikelfreie Raum in dem PK-3 Plus Experiment erklärt werden kann, wenn man sowohl die Elektrostatik als auch die erste Eigenresonanzfrequenz der elektrischen Energiedichte der HF-Plasmakammer berücksichtigt. Dies ist durch ein dreidimensionales Modell visualisiert worden. Dieses Model erklärt auch die Bildung sekundürer Räume, die durch die Einführung metallischer Tastkopfe in die HF-Plasmakammer hervorgebracht werden. Die Hypothese der elektrischen Energiedichte als Quelle der partikelfreien Räume kann durch die Trennung der Partikel in den Plasmakristall-Experimenten geklärt werden. Dielektrophoretische Kräfte stoßen Partikel mit höheren Permittivität (oder größere Partikel, falls alle aus demselben Material sind) in die Richtung der Regionen mit höherer elektrischer Energiedichte. Die Grenze zwischen Partikeln unterschiedlicher Permittivität (oder Größe) ist durch Isoflächen dieser Energiedichte geformt. Die Erklärung dieser Phänomene (die auf der Distribution elektrischer Energiedichte beruht) bietet einen neuen Standpunkt zur aktuellen Theorie, die auf der Reibungskraft der Ionenströmung basiert.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Diese Dissertation beschreibt die Ergebnisse des Wendelstein Calar Alto Pixellensing Project (WeCAPP), welches in Richtung der Andromeda Galaxie (M31) nach Dunkler Materie in Form von "Massiven Kompakten Halo Objekten" (Machos) sucht. Die neuesten wissenschaftlichen Befunde legen ein Universum mit flacher Geometrie nahe, zu dessen Dichteinhalt Dunkle Materie ca. 23% beitraegt. Weitere 4.5% werden baryonischer Materie zugeschrieben, wobei von diesem Anteil bei kleiner Rotverschiebung bisher nur ca. 10% nachgewiesen werden konnten. Die Kandidaten fuer Machos in den Halos von Galaxien umfassen eine baryonische Komponente (vergangene Sterne wie z.B. Weisse Zwerge oder Neutronensterne), sowie eine nicht-baryonische Komponente, zum Beispiel in Form von primordialen Schwarzen Loechern. Da diese Objekte nur sehr schwach leuchten, sind sie dem direkten Nachweis entzogen. Sie koennen jedoch indirekt ueber den Gravitationslinseneffekt nachgewiesen werden, den sie auf das Licht von Sternen im Hintergrund ausueben. Der beobachtbare Helligkeitsanstieg ist charakteristisch fuer solche sogenannten Mikrolinsenereignisse und laesst sich gut von der Helligkeitsaenderung Veraenderlicher Sterne unterscheiden. Die Seltenheit der Gravitationslinsenereignisse machte den Aufbau eines grossen Datensatzes mit entsprechender zeitlicher Ueberdeckung notwendig, was durch simultane Beobachtungen an zwei Standorten (Wendelstein und Calar Alto) erreicht werden konnte. Nach einer kurzen Einfuehrung gibt Kapitel 2 einen Ueberblick ueber das Experiment und die Beobachtungsstrategie und stellt die Teleskope und verwendeten Instrumente vor. Desweiteren behandelt Kapitel 2 die Eigenschaften des Datensatzes (1997 - 2005) und stellt die Algorithmen und Methoden vor, die zum Reduzieren der Daten angewandt wurden. Kapitel 3 praesentiert ein aktualisiertes Modell der Massen- und Lichtverteilung der Andromeda Galaxie, welches gut mit kinematischen Daten, als auch mit Vorhersagen von stellaren Populationsmodellen uebereinstimmt. In Kapitel 4 wird dieses Modell genutzt, um die erwartete Rate von Gravitationslinsenereignissen und deren raeumliche Verteilung fuer das WeCAPP Experiment zu berechnen. Kapitel 5 praesentiert die Kandidaten fuer Mikrolinsenereignisse, die im WeCAPP Datensatz identifiziert werden konnten. Sowohl die Anzahl der Ereignisse als auch ihre raeumliche Verteilung deuten darauf hin, dass sie durch stellare Linsen in M31 selbst verursacht wurden (self-lensing). Der Machoanteil ist demgegenueber als eher gering einzuschaetzen. Der aufgebaute Datensatz ist aufgrund seiner langen zeitlichen Ueberdeckung hervorragend geeignet, intrinsisch Veraenderliche Quellen in M31 zu studieren. In Kapitel 6 wird dieser Katalog von ueber 20 000 Veraenderlichen Quellen praesentiert. Die gemessene Anzahldichte der Quellen weist eine starke Asymmetrie auf, die auf den Einfluss erhoehter Extinktion in den Spiralarmen zurueckzufuehren ist. Die Veraenderlichen lassen sich in 3 Gruppen einteilen, wobei sich in Gruppe 1 die klassischen Cepheiden befinden. Gruppe 2 enthaelt unter anderem Klasse 2 Cepheiden und RV Tauri Veraenderliche, wohingegen sich Gruppe 3 aus Langperiodischen Veraenderlichen zusammensetzt. Die Parameter, die aus der Fourieranalyse der Lichtkurven klassischer Cepheiden extrahiert werden konnten, zeigen den bekannten Verlauf mit der Periode der stellaren Pulsation. Auch fuer die Klasse 2 Cepheiden und die RV Tauri Sterne konnte eine Korrelation bestimmter Phasenparameter gefunden werden, wobei die Relation der RV Tauri Sterne eine Fortfuehrung der Relation der Klasse 2 Cepheiden ist. Dieses Ergebnis unterstuetzt die enge Verbindung zwischen beiden Arten von Veraenderlichen. Neben pulsierenden Veraenderlichen wurden auch ueber 60 klassische Novae identifiziert, deren Helligkeitsverlauf einen eruptiven Charakter aufweist. Der daraus resultierende Novakatalog, der in Kapitel 7 praesentiert wird, ist einer der groessten und homogensten seiner Art. Eine Korrelation mit historischen Novae erbrachte 5 Kandidaten fuer wiederkehrende Novae. Fuer einige Novae gelang es, den Zeitpunkt des Ausbruchs genau zu bestimmen und damit zu zeigen, dass die Konstanz der Helligkeit 15 Tage nach Maximum fuer schnelle und moderat schnelle Novae zu gelten scheint. Sehr schnelle Novae scheinen jedoch davon abzuweichen. Mit Hilfe dieser Relation und den exponentiellen Angleichungen an die Lichtkurven konnte gezeigt werden, dass fuer mittlere Abfallszeitskalen t2 die maximale Helligkeit linear mit dem Logarithmus der Abfallszeit skaliert, fuer grosse t2 jedoch eine Abflachung dieser linearen Relation festzustellen ist.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Diese Dissertation handelt von der TNFa Freisetzung von isoliert, reperfundierten Mäuseherzen nach 15 min Ischämie und 90 min Reperfusion im Vergleich zu normoxisch perfundierten Mäuseherzen. Zudem sollte mit Hilfe von k.o.-Mäusenherzen und pharmakologischen Interventionen versucht werden, Rückschlüsse auf den zellulären Ursprungsort des TNFa zu bekommen und über dessen Freisetzungsmechanismus. TNFa wird nach 15 min Ischämie in zwei Phasen während der Reperfusion freigesetzt: direkt nach der Ischämie und nach 60-90 min. Normoxisch perfundierte Herzen zeigten dagegen einen Basaltonus des TNFa von 1,5pg/min über den gesamten Versuchsablauf. Der erste Gipfel der TNFa Freisetzung konnte als rein kinetisches Phänomen -wash-out- identifiziert werden, während es sich beim zweiten Gipfel um eine de-novo Synthese des TNFa handelt. Interleukin-6 und die Matrix-Metalloprotease-7 sind essentielle Faktoren für die TNFa Freisetung nach 60-90 min. Mastzellen können als Ursprungszelle des zweiten Gipfels ausgeschlossen werden.Sie sind neben Makrophagen und Endothelzellen am Basaltonus der TNFa Freisetzung beteiligt.