POPULARITY
In dieser Episode von Juttas Zukunftskompetenzen spreche ich, Jutta Kallies-Schweiger, mit Maria Fritz, Mitgründerin und Co-Vorstand der Impact Hub Karlsruhe Genossenschaft, die Themen Wirksamkeit und Nachhaltigkeit. Maria teilt ihren persönlichen Weg zur Nachhaltigkeit, die Bedeutung von Kreativität, Mitgefühl und Verletzlichkeit im Leadership sowie ihre Ansichten zu Selbstwirksamkeit und einem erfüllten Leben. Sie spricht über die Herausforderungen, die sie in ihrer Arbeit erlebt hat, und die Strategien, die sie anwendet, um Wirksamkeit zu fühlen, zu messen und zu fördern. Abschließend reflektiert sie über ihre Hoffnungen für die Zukunft und die Rolle von Gemeinschaften in einer zunehmend digitalisierten Welt. Takeaways Wir müssen traditionelle Konzepte von Erfolg neudenken.Nachhaltigkeit beginnt mit persönlicher Verantwortung.Kreativität ist entscheidend für modernes Leadership.Ein erfülltes Leben erfordert Balance und Gemeinschaft.Selbstwirksamkeit bedeutet, die eigenen Grenzen zu erkennen.Wirksamkeit kann durch Gemeinschaft und Unterstützung gefördert werden.Die Messung von Wirksamkeit ist wichtig für nachhaltige Projekte. Menschen sind im Grunde gut und streben nachVeränderung.Kleine Schritte sind entscheidend für nachhaltige Veränderungen.Die Zukunft bietet viele Möglichkeiten zur positiven Veränderung.Willkommen bei „Jutta's Zukunftskompetenzen“ – dem Podcast für alle, die spüren: Kreativität ist die wichtigste Ressource für die Welt von morgen. In jederEpisode entdecken Coaches und Führungskräfte, wie ihre kreative Power zum Kompass in einer komplexen Welt wird. Was als Unsicherheit beginnt, wird zur Kraft, die Zukunft aktiv zu gestalten.Die soluvaire®-Methode öffnet dafür neue Zugänge zu deinem kreativen Potential: durch tiefgehende Innerwork, bewegende Atem-Meditationen und erhellende Gespräche mit Zukunftsgestalter*innen. Was dabei entsteht, ist mehr als Kreativitätstraining – es ist eine neue Art, deine Herausforderungen zu meistern.In den Live-Sessions nach jeder Episode vertieft sich diese Transformation im gemeinsamen Austausch in der Community. Hier wird Kreativität nicht nur verstanden, sondern als lebendige Energie erfahren. Speicher dir den nächsten Termin in deinem Kalender und finde in deinen Zukunftsängsten eine neue Gestaltungskraft: https://www.juttakalliesschweiger.de/events.
Fütterungscontrolling ist der wahre Gamechanger in der Tiergesundheit. Nur wenn die Herde gesund gefüttert wird, kann sie auch fit bleiben und gesund sowie nachhaltig Milch geben. Der mit Abstand wichtigste Parameter in der Fütterung ist die Trockenmasseaufnahme (TMA) pro Kuh und Tag.
digital kompakt | Business & Digitalisierung von Startup bis Corporate
EXPERTENGESPRÄCH | Stell dir vor, du baust ein Unternehmen auf und stehst vor der Frage: Wie schaffe ich eine Organisation, die nicht nur funktioniert, sondern floriert? Im Gespräch mit Joel Kaczmarek tauchen Josef Brunner und Gero Decker tief in die Kunst des Organisationsdesigns ein. Josef, ein erfahrener Unternehmer, und Gero, ein Experte für Unternehmenswachstum, teilen ihre Geheimnisse für den Aufbau einer dynamischen und resilienten Unternehmenskultur. Von der Bedeutung des Vertrauens über die Kraft der Diversität bis hin zu den Tools und Ritualen, die den Unterschied machen – diese Episode bietet wertvolle Einblicke und praktische Tipps, um dein Unternehmen auf das nächste Level zu heben. Lass dich inspirieren und entdecke, wie du die Bausteine für nachhaltigen Erfolg legst! Du erfährst... ...wie du Vertrauen und Teamdynamik in deiner Organisation aufbaust ...warum Diversität und Empathie entscheidend für den Erfolg sind ...wie du mit Feedback und Zuhören die Unternehmenskultur stärkst ...welche Tools und Rituale deine Organisation nachhaltig verbessern ...wie du durch Klarheit und Momentum langfristigen Erfolg sicherstDu verstehst nur Bahnhof? Zu viel Fachchinesisch? Unser Lexikon hilft dir dabei, die wichtigsten Fachbegriffe zu verstehen:Organisationsdesign - Der Prozess des Strukturierens einer Organisation, um ihre Effizienz und Effektivität zu optimieren.Product Market Fit - Der Zeitpunkt, an dem ein Produkt auf dem Markt angenommen wird und die Nachfrage das Angebot übersteigt.Defensibility - Die Fähigkeit eines Unternehmens, seine Marktposition langfristig gegen Konkurrenz zu verteidigen.Nordstern - Ein übergeordnetes Ziel oder ein Leitbild für ein Unternehmen.Cloud-Native - Ein Ansatz zur Anwendungsentwicklung, der speziell für den Betrieb in Cloud-Umgebungen konzipiert ist.psychometrisch - Die Messung und Analyse von Persönlichkeits- und Intelligenzeigenschaften eines Individuums. Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven.
SummaryIn dieser Episode von 'One and a Half Therapists' diskutieren Michael Kern und Patrick Dempt die verschiedenen Aspekte von Stress, dessen physiologische Funktionen und die Auswirkungen auf den Schlaf. Sie beleuchten, wie Stress sowohl positiv als auch negativ sein kann, und geben Einblicke in Stressbewältigungsstrategien, die Rolle von Hormonen wie Cortisol und Oxytocin sowie die Bedeutung von Entspannungstechniken. Zudem wird die Messung von Stress und die Anpassungsfähigkeit des Körpers thematisiert.KeywordsStress, Schlaf, Cortisol, Entspannung, Hormone, Stressbewältigung, Gesundheit, Immunsystem, Magnesium, OxytocinTakeawaysStress ist nicht immer negativ, sondern kann auch hilfreich sein.Cortisol hat sowohl positive als auch negative Effekte auf den Körper.Schlafqualität wird durch Stress erheblich beeinflusst.Magnesium spielt eine wichtige Rolle im Stressmanagement.Oxytocin kann als Gegenspieler zu Cortisol wirken.Atemtechniken sind effektiv zur Regulierung des Nervensystems.Bindung und Nähe sind wichtig für die Stressbewältigung.Stresssymptome sollten ernst genommen werden.Die Messung des Stresslevels kann helfen, die Gesundheit zu verbessern.Entschleunigung ist entscheidend für das Wohlbefinden.Sound Bites"Cortisol hemmt das Immunsystem.""Stress kann uns nachts wachhalten.""Oxytocin ist ein Bindungshormon."Chapters00:00 Einführung in das Thema Stress02:46 Physiologische Reaktionen auf Stress05:53 Der Einfluss von Stress auf Schlaf und Regeneration06:27 Ursachen für nächtliches Wachwerden09:29 Stress und das Immunsystem12:25 Cortisol und Burnout15:17 Stressbewältigung und Anpassungsfähigkeit18:07 Symptome von Stress und Magnesiummangel21:15 Natürliche Mittel zur Stressreduktion25:39 Die Rolle von Oxytocin im Stressmanagement31:41 Das Nervensystem: Sympathikus und Parasympathikus37:28 Stressmessung und InterventionenHier gehts zu mehr Wissen rund um die VNS-Analyse:https://www.patrick-dempt.de/die-vns-analyse-im-detail/Lust auf mehr? Dann Abonniere unseren Podcast und bleibe am Puls der neuesten Gesundheitstrends!**Folge uns auch auf Social Media:**Homepages: www.kernxund.de und www.patrick-dempt.deInstagram: @kernxund und @patrickdempt_personaltrainingYoutube: @KERNXUND ONE AND A HALF THERAPISTSInformativ - Inspirierend - Unwiderstehlich Hosted on Acast. See acast.com/privacy for more information.
SummaryIn dieser Episode diskutieren Patrick und Michael die Ursachen, Auswirkungen und Präventionsmöglichkeiten von Bluthochdruck. Sie erklären, wie Stress, Ernährung und Lebensstil den Blutdruck beeinflussen und geben praktische Tipps zur Regulierung. Zudem wird die Bedeutung der Blutdruckmessung und individuelle Unterschiede hervorgehoben.KeywordsBluthochdruck, Gesundheit, Ernährung, Stress, Bewegung, Blutdruckmessung, Ursachen, Prävention, Lebensstil, GesundheitstippsTakeawaysBluthochdruck betrifft über 40% der Menschen im deutschsprachigen Raum.Ernährung und Bewegung sind entscheidend für die Blutdruckregulation.Stress kann den Blutdruck erhöhen und sollte gemanagt werden.Die Messung des Blutdrucks sollte mehrmals am Tag erfolgen.Homocysteinspiegel ist ein wichtiger Indikator für die Gefäßgesundheit.Bewegung sollte nicht als Bedrohung, sondern als Lösung gesehen werden.Jede kleine Veränderung im Lebensstil kann positive Effekte haben.Bluthochdruck ist ein stiller Killer und sollte ernst genommen werden.Die richtige Ernährung kann den Blutdruck signifikant beeinflussen.Individuelle Unterschiede im Blutdruck sollten bei der Behandlung berücksichtigt werden.TitlesBluthochdruck verstehen: Ursachen und LösungenDie stille Gefahr: Bluthochdruck im FokusSound Bites"Bluthochdruck ist ein Silent Killer.""Stress begünstigt Bluthochdruck.""Blutdruckmessung ist oft nicht optimal.""Der Blutdruck kann individuell variieren.""Bewegung ist Teil der Lösung."Chapters00:00 Einführung in das Thema Bluthochdruck03:03 Ursachen und Auswirkungen von Bluthochdruck05:57 Die Rolle von Stress und Ernährung08:59 Blutdruckmessung und individuelle Unterschiede11:55 Praktische Tipps zur Blutdruckregulation15:02 Die Bedeutung von Bewegung und Lebensstil18:03 Abschluss und Ausblick auf die nächste FolgeLust auf mehr? Dann Abonniere unseren Podcast und bleibe am Puls der neuesten Gesundheitstrends!**Folge uns auch auf Social Media:**Homepages: www.kernxund.de und www.patrick-dempt.deInstagram: @kernxund und @patrickdempt_personaltrainingONE AND A HALF THERAPISTSInformativ - Inspirierend - Unwiderstehlich Hosted on Acast. See acast.com/privacy for more information.
Wenn Taylor Swift spielt, bebt die Erde. Das haben Seismologen unter anderem bei einem Konzert des US-Superstars in Hamburg beobachtet. Die Messung hat aber nicht nur einen Fun-Faktor, sie dient auch der Nachwuchsförderung. Hadziioannou, Céline www.deutschlandfunkkultur.de, Studio 9
Die Messung der Ausdehnungsgeschwindigkeit des Universums liefert zwei sich widersprechende Ergebnisse. Jetzt fragen sich alle, was faul ist im Universum. Geht es im Kosmos mit Dunkler Materie und Energie ganz anders zu als gedacht? Lorenzen, Dirk www.deutschlandfunk.de, Sternzeit
In dieser Sportsprint-Folge geht es um Bluthochdruck und die Rolle von Bewegung und Sport bei der Prävention und Therapie. Bluthochdruck ist ein großer Risikofaktor für Herz-Kreislauf-Erkrankungen und die Gesamtsterblichkeit. Die Messung des Blutdrucks und die Bedeutung der Werte werden diskutiert. Es werden Risikofaktoren für Bluthochdruck aufgezeigt, darunter Bewegungsmangel, Inaktivität, Übergewicht und Rauchen. Sport wird als wichtige Säule bei der Behandlung von Bluthochdruck genannt, insbesondere Ausdauertraining. Überraschenderweise zeigt eine Meta-Analyse, dass isometrisches Training effektiver sein kann. Es werden Beispiele für isometrische Übungen gegeben und Sportarten, die vermieden werden sollten. Die Take-aways sind, dass Sport eine wichtige Rolle bei der Prävention und Therapie von Bluthochdruck spielt und dass isometrisches Training eine effektive Alternative sein kann.Links:Studie Artikel Bluthochdruck Isometrische ÜbungenArtikel 2
In dieser Folge von Stark im Sturm spricht Jens Alsleben mit Christoph Schönfelder über die Bedeutung von Analytik in der Personal- und Organisationsentwicklung. Christoph erklärt, wie Monday Rocks dabei hilft, die Effizienz von Teams zu steigern und die Fluktuation zu reduzieren. Sie diskutieren auch die Herausforderungen in der heutigen Arbeitswelt und wie Analytik und Sensorik in der Teamführung eingesetzt werden können. Christoph betont die Rolle von KI und Analytik in der Führung und wie sie Führungskräfte bei der Lösungsorientierung unterstützen können. Sie sprechen auch über die Zukunft des Management Dashboards zur lösungsorientierten Begleitung und die Rolle von Assistenzsystemen und persönlicher Präferenz in der Führung. Die Verwendung von Tools verbessert die Führung, indem sie eine professionelle Begleitung und eine situations- und personenspezifische Anwendung ermöglicht. Dadurch können Führungskräfte souveräner agieren und frühzeitig auf Probleme eingehen, um Konflikte zu vermeiden und Verbindungen zu stabilisieren. Eine menschzentrierte Haltung ist entscheidend, um die Qualität der Führung zu verbessern und sicherzustellen, dass sie bei den Menschen ankommt. Wertschätzende Kooperation und Teamintelligenz sind wichtige Erfolgsfaktoren für Organisationen. Die Messung von Vertrauen und Kooperationsmomenten ermöglicht eine gezielte Analyse und Verbesserung der Zusammenarbeit. Die Erfassung von Werten und Interessen hilft dabei, individuelle Stärken zu identifizieren und Aufgaben entsprechend zu verteilen. Es ist wichtig, die Lust an der Entwicklung zu fördern und Routinen aufzubrechen, um zukunftsorientiert zu bleiben. Die Führungskultur muss sich an neue Erwartungen anpassen und eine Unterstützung durch Tools und Instrumente ist notwendig, um die Veränderung erfolgreich umzusetzen. - Analytik spielt eine wichtige Rolle in der Personal- und Organisationsentwicklung, um Effizienzsteigerung und Reduzierung der Fluktuation zu erreichen. - In der heutigen Arbeitswelt gibt es viele Herausforderungen, denen Führungskräfte begegnen müssen. - Analytik und Sensorik können Führungskräften helfen, den Fokus zu behalten und Lösungen für Herausforderungen zu finden. - KI und Analytik werden in Zukunft eine immer größere Rolle in der Führung spielen, indem sie Führungskräfte bei der Entscheidungsfindung und Lösungsorientierung unterstützen. - Assistenzsysteme können Führungskräften helfen, ihre Arbeit zu erleichtern, aber persönliche Präferenzen und die Einbindung der eigenen Persönlichkeit bleiben wichtig in der Führung. Der Einsatz von Tools verbessert die Qualität der Führung und ermöglicht eine situations- und personenspezifische Anwendung. - Eine menschzentrierte Haltung und eine wertschätzende Kooperation sind entscheidend für den Erfolg von Teams und Organisationen. - Die Messung von Vertrauen und Kooperationsmomenten ermöglicht eine gezielte Analyse und Verbesserung der Zusammenarbeit. - Die Erfassung von Werten und Interessen hilft dabei, individuelle Stärken zu identifizieren und Aufgaben entsprechend zu verteilen. - Es ist wichtig, die Lust an der Entwicklung zu fördern und Routinen aufzubrechen, um zukunftsorientiert zu bleiben. Viel Spaß beim Reinhören! Hier geht es zu Christoph`s Profil: https://www.linkedin.com/in/christoph-schoenfelder/ Jens holt immer wieder sturmerprobte Gäste vors Mikrofon, die dir Einblick geben in ihre Gedankenwelt und Impulse, wie sie erfolgreich Herausforderungen bewältigt und sprichwörtlich den Sturm gemeistert haben. Jens erläutert dir außerdem immer wieder spannende wissenschaftlich fundierte Führungsmodelle und -methoden und gibt dir inspirierende Managementliteratur an die Hand, die dir und Deinen Mitarbeitenden helfen, stark im Sturm zu bleiben und eure Herausforderungen mit einer größeren Leichtigkeit, viel positiver Energie und Kreativität zu bewältigen. Jens ist neben seiner Autorentätigkeit erfolgreicher Führungsberater, Aufsichtsrat, Investor und begleitet als P
In dieser Folge von "Das Gleiche in Grün" spricht Lutz Fricke von Mosolf mit Timo und Moritz über die Nachhaltigkeitsaktivitäten des Unternehmens und die Herausforderungen, eine Transformation in der Logistikbranche anzustoßen und zu leiten. Das Gespräch hebt die Bedeutung von effektiver Kommunikation, Engagement und dem Vorleben von Veränderungen hervor, um nachhaltige Veränderungen voranzutreiben. Lutz betont die Notwendigkeit, den Mitarbeitern zuzuhören und ihre Ängste und Bedenken anzusprechen. Lutz teilt in dieser Episode viele Erfahrungen, die anderen Nachhaltigkeitsverantwortlichen bei der Transformation ihrer Unternehmen helfen können: - Effektive Kommunikation und Engagement sind entscheidend, um nachhaltige Veränderungen in einer Organisation voranzutreiben. Vorbildliches Verhalten und persönliche Transformation können andere dazu inspirieren und motivieren, die Nachhaltigkeit zu akzeptieren. - Die Festlegung klarer und messbarer Ziele ist unerlässlich, um Fortschritte zu verfolgen und Maßnahmen zu ergreifen. Das Navigieren in Unsicherheiten und das Ansprechen von Widerstand gegen Veränderungen sind zentrale Herausforderungen im Transformationsprozess. - Daten sind entscheidend, um Nachhaltigkeitsziele zu quantifizieren und zu verbessern. Die Messung bestimmter Aspekte der Nachhaltigkeit, wie das Wohlbefinden der Mitarbeiter, kann herausfordernd, aber wichtig sein. - Der Einstieg in die Nachhaltigkeit erfordert dedizierte Ressourcen und eine langfristige Roadmap. Investitionen in Nachhaltigkeit können durch gezielte Fonds getätigt werden, um die Kluft zwischen nachhaltigen und kosteneffizienten Optionen zu schließen. Bezahlte Partnerschaft.
Yara-Fachberaterin Kerstin Berlin ist Fan des N-Testers. Das Werkzeug unterstützt Landwirtinnen und Landwirte im Zusammenspiel mit der Yara-App Atfarm dabei, die Herausforderungen bei der N-Düngung zu meistern. Auch am vierten Messetag interessieren sich viele Besucher für den N-Tester, der am Yara-Messestand für ein Jahr kostenlos vergeben wird. In dieser Episode erfahrt ihr von Kerstin Berlin alles über die Vorteile des N-Tester sowie über seinen schnellen und effizienten Einsatz. Bei Fragen und Themenvorschlägen: podcast@yara.com Mehr zum Thema und über Yara: Webseite: https://www.yara.de/ Instagram – yaradeutschland: https://www.instagram.com/yaradeutschland/ Agritechnica: https://www.agritechnica.com/de/ Kapitelmarken 00:00:00 Intro und Begrüßung 00:01:05 Die größte Herausforderung bei der Stickstoffdüngung 00:04:00 Wie der N-Tester hilft, Prioritäten zu setzen 00:05:20 Wie N-Tester und Atfarm zusammenarbeiten 00:06:35 Die Messung mit dem N-Tester: So geht's 00:08:30 Was sich Landwirte vom N-Tester erhoffen 00:10:40 Wofür Landwirte den N-Tester gerne nutzen 00:11:35 Verabschiedung und Outro
In der Sportwissenschaft gilt die VO2max als das Bruttokriterium der Ausdauerleistungsfähigkeit. Dabei kann die Messung der Sauerstoffaufnahme viel mehr, als nur ein leistungsbeschreibendes Kriterium zu sein. Doch als eben dieses dient sie gar nicht so gut. In der 94. Folge Junkmiles debattieren Daniel Beck (Journalist) und Coach Björn Geesmann (Sportwissenschaftler) die unterschiedlichen Facetten der VO2(max). Die Messung der Sauerstoffaufnahme zählt zu den ältesten Messmethoden in der Sportwissenschaft und ist auch heute eines der wichtigsten Parameter. Warum? Alles dazu in der neuen Folge Junkmiles!
Hast Du auch schon eine Stoppuhr bedient? Da muss man ja einen Knopf drücken, um den Zeitmessvorgang zu starten und dann wieder einen Knopf, um diesen zu beenden. Die Messung hat also einen klaren Anfang und ein eindeutiges Ende. Macht auch Sinn - warum sollte man sonst messen? Wenn ich dies jedoch so in den aktuellen Zeitgeist einordne, dann finde ich es alles andere als zeitgemäss. Heute sind die meisten sehr opportunistisch unterwegs: man legt sich kaum noch fest, will flexibel bleiben, keine Verpflichtungen, schon gar nicht über eine längere Zeit oder irgendwelche verbindlichen Zusagen machen. Flexibel eben. Das mag zwar durchaus attraktiv sein und scheint maximale Freiheit zu versprechen, aber diese Unverbindlichkeit birgt auch die Gefahr, überall und nirgendwo zu sein, nicht mehr greifbar, nicht mehr verlässlich. Und das verunsichert letztlich. Dabei suchen wir irgendwo alle eine gewisse Stabilität und Sicherheit. Wie gehst Du mit diesem Thema um? Ich wünsche Dir einen aussergewöhnlichen Tag! --- Send in a voice message: https://podcasters.spotify.com/pod/show/audiostretto/message
Gold, Platin, seltene Erden: Viele sogenannte schwere Elemente sind heute äußerst wichtig für uns. Doch wo im Universum sie einst entstanden sind, war lange Zeit unklar. Bis 2017 Gravitionswellen die Kollision zweier Neutronensterne zeigten. (00:01:08) Begrüßung (00:01:16) Was sind schwere Elemente? (00:02:25) Blick ins Periodensystem (00:03:32) Wie entsteht ein schweres Element? (00:07:16) Warum ist die Forschung daran so schwer? (00:10:56) Was haben Neutronensterne mit schweren Elemente zu tun? (00:13:13) Zusammenstoß zweier Neutronensterne (00:14:01) Die Messung des Zusammenstoßes (00:18:12) Bedeutung der Forschung (00:22:14) Wie wird die Forschung in Zukunft aussehen? (00:25:00) Verabschiedung Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcast-neutronensterne-schwere-elemente
Gold, Platin, seltene Erden: Viele sogenannte schwere Elemente sind heute äußerst wichtig für uns. Doch wo im Universum sie einst entstanden sind, war lange Zeit unklar. Bis 2017 Gravitionswellen die Kollision zweier Neutronensterne zeigten. (00:01:08) Begrüßung (00:01:16) Was sind schwere Elemente? (00:02:25) Blick ins Periodensystem (00:03:32) Wie entsteht ein schweres Element? (00:07:16) Warum ist die Forschung daran so schwer? (00:10:56) Was haben Neutronensterne mit schweren Elemente zu tun? (00:13:13) Zusammenstoß zweier Neutronensterne (00:14:01) Die Messung des Zusammenstoßes (00:18:12) Bedeutung der Forschung (00:22:14) Wie wird die Forschung in Zukunft aussehen? (00:25:00) Verabschiedung Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcast-neutronensterne-schwere-elemente
Gold, Platin, seltene Erden: Viele sogenannte schwere Elemente sind heute äußerst wichtig für uns. Doch wo im Universum sie einst entstanden sind, war lange Zeit unklar. Bis 2017 Gravitionswellen die Kollision zweier Neutronensterne zeigten. (00:01:08) Begrüßung (00:01:16) Was sind schwere Elemente? (00:02:25) Blick ins Periodensystem (00:03:32) Wie entsteht ein schweres Element? (00:07:16) Warum ist die Forschung daran so schwer? (00:10:56) Was haben Neutronensterne mit schweren Elemente zu tun? (00:13:13) Zusammenstoß zweier Neutronensterne (00:14:01) Die Messung des Zusammenstoßes (00:18:12) Bedeutung der Forschung (00:22:14) Wie wird die Forschung in Zukunft aussehen? (00:25:00) Verabschiedung Hier entlang geht's zu den Links unserer Werbepartner: https://detektor.fm/werbepartner/spektrum-der-wissenschaft >> Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcast-neutronensterne-schwere-elemente
Bluthochdruck ist ein Risikofaktor für Herzinfarkt und Schlaganfall. Die Messung des Blutdrucks sollte in einer ruhigen Atmosphäre erfolgen, sagte der Kardiologe Peter Trenkwalder. Wie hoch er sein darf, richte sich nach Alter und Vorerkrankungen.Winkelheide, Martinwww.deutschlandfunk.de, SprechstundeDirekter Link zur Audiodatei
Herzlich willkommen zu einer neuen Folge hier im Podcast ketogener Lifestyle und Biohacking. Schön dass du wieder eingeschaltet hast. In dieser Folge erfährst du alles zum Thema „Ketose Messung“. Einer der wichtigsten Aspekte, wenn man Keto machen möchte ist die Ketose Messung. Wer sich ketogen ernähren will aber nicht misst, ob er in Ketose ist, der macht allenfalls low carb oder no carb. Die Messung ist eines der wichtigsten Tools überhaupt! Also messen ist das A und O. Was es für Messmethoden gibt und warum Messen gerade für Fettverlust mit KETO so wichtig ist, erfährst du in dieser Folge. Deine Florence von Florence Keto World Connecte dich mit mir auf Instagram: https://www.instagram.com/florence_ketoworld/ Den Link zum Keto Mojo Blutmessgerät findest du hier: https://bit.ly/2FFTMUO Starte JETZT in deinen Ketogenen Lifestyle mit der kostenlosen 7 Tage #hackyourlife Challenge: https://myketocoach.de/7-tage-hackyourlife-challenge/ Hier mehr über exogene Ketone erfahren: https://myketocoach.de/exogene-ketone/ --- Send in a voice message: https://anchor.fm/myketocoach/message
Arved Fuchs und Boris Herrmann - zwei Männer, die das Meer lieben und die oft mit ihren Schiffen unterwegs sind. Boris Herrmann mit einer schnellen Rennyacht, Arved Fuchs mit einem 90 Jahre alten hölzernen Haikutter. Eines haben beide gemeinsam: Wo auch immer sie sind, sammeln sie Daten über den Zustand des Meeres. Diese Daten sind für die Wissenschaft sehr wichtig sind, weil die Meere immer noch recht unerforscht sind. Die Messung erfolgt mit Hilfe eines kleinen "Ocean Packs" das sie an Bord haben - Meerestechnik. In dieser Podcast-Folge erzählen Arved Fuchs und Boris Herrmann, warum sie auch an den entlegensten Stellen unserer Weltmeere diese Daten zu sammeln, welchen Bedingungen die Meerestechnik dabei ausgesetzt ist und welche Erfahrungen sie damit gemacht haben.Ein ausführliches Gespräch zwischen Arved Fuchs und Boris Herrmann gibt es im Podcast "Expedition OCEAN CHANGE mit Arved Fuchs" - dort erzählen die beiden auch sehr viel von ihrer gemeinsamen Geschichte.www.arved-fuchs.dewww.borisherrmannracing.comwww.baerbel-fening.dewww.maritime-technik.de
Nach dem Besichtigen und den ersten beiden Messungen im spannungslosen Zustand, folgt die erste Messung unter Spannung nach VDE 0100-600.Die Messung der Schleifenimpedanz zeigt uns, ob bei einem Isolationsfehler in einem elektrischen Betriebsmittel ein genügend hoher Fehlerstrom zum Fließen kommen kann.Aber warum ist auch diese Messung so extrem wichtig, wenn es um den Schutz der Anlage geht?Worauf ihr schon vor der Messung alles zu achten habt und was überhaupt "Impedanz" ist, erklärt euch Giancarlo the Teacher.Support this podcast at — https://redcircle.com/elektrotechnik-podcast/donationsAdvertising Inquiries: https://redcircle.com/brandsPrivacy & Opt-Out: https://redcircle.com/privacy
Der Zustand unseres Klimas lässt sich mit Hilfe der 54 "wesentlichen Klimavariablen" charakterisieren, die die Fachleute definiert haben. Dazu gehören die Oberflächentemperatur der Erde, die Ausdehnung der Eiskappen an den Polen oder der Grundwasserspiegel.Von Dirk Lorenzenwww.deutschlandfunk.de, SternzeitHören bis: 19. Januar 2038, 04:14Direkter Link zur Audiodatei
Die Messung irrelevanter KPI´s, ist wichtiger als Unternehmensziele zu erreichen. Die Mehrheit versucht irgendwie eine Metrik zu erfüllen, eine gewisse Anzahl an MQL´s zu gewinnen, ohne an das heutige B2B-Kaufverhalten zu denken und die Marketingaktivitäten daran anzupassen.
«Wird mein Immunsystem auch ohne Impfung mit Corona fertig?» Die Messung der Antikörper reicht als Antwort nicht aus. «Puls» erklärt weshalb und zeigt, was es mit dem Immunstatus auf sich hat. Dazu auch ein Live-Chat mit Fachpersonen. Ausserdem: Streitpunkt Zertifikatdauer, Treppenstadt St. Gallen, Spitalberuf Kodiererin. Immunstatus unklar – Wie gut bin ich geschützt? Von der Messung der Antikörper versprechen sich viele Rückschlüsse auf den eigenen Immunstatus. Doch solche Messungen sind schwierig zu interpretieren und nur ein Teil der Immunantwort. «Puls» zeigt, wo bereits Referenzwerte angewendet werden und weshalb noch immer von solchen Tests abgeraten wird. Streit um Covid-19-Zertifikate – Knackpunkt Gültigkeitsdauer Das Zertifikat von Genesenen läuft schneller ab als jenes von doppelt Geimpften. Zurecht? «Puls» beleuchtet die Datenlage und zeigt, dass die Ungleichbehandlung aus wissenschaftlicher Sicht kaum begründbar ist. «Puls»-Chat: «Covid-19 – Wie gut schützt mein Immunsystem?» Wie gut ist mein Immunschutz gegen Covid-19? Macht mich meine chronische Krankheit anfälliger? Wieso machen Antikörpertest keinen Sinn? Wer ist besser geschützt: Genesene oder Geimpfte? Christoph T. Berger, Britta Maurer und Christian Münz haben Ihre Fragen beantwortet. Nachgefragt bei Patrick Mathys Daniela Lager spricht mit dem Leiter Sektion Krisenbewältigung beim Bundesamt für Gesundheit über die Covid-19-Zertifikate und deren Gültigkeitsdauer. Treppenstadt St. Gallen – Gratis-Training an der frischen Luft Ein St. Galler Projekt propagiert die 13'000 Treppenstufen der Stadt als kostenloses Fitnessgerät an der frischen Luft. Taugt Treppenlaufen wirklich als Alternative für Sportmuffel? «Puls» macht mit einer Forscherin die Probe aufs Exempel. «Pulsmix» – Good News aus der Wissenschaft Mit Mozart gegen Epilepsie – Spazieren macht gesund – Weniger gekühlte Lungen sind länger transplantierbar Unbekannte Spitalberufe – Die Kodiererin Ihre Arbeit im Hintergrund trägt entscheidend zum wirtschaftlichen Überleben bei: Kodiererinnen und Kodierer bringen eine Leidenschaft für Zahlen und Spürsinn für Fehler mit und sorgen dafür, dass sich die Spitalkassen mit Geld füllen. Wie sie das tun? Mehr im Berufsportrait.
Der Straßengüterverkehr macht einen nennenswerten Teil der CO2-Belastungen aus. Die Messung und Reduzierung dieser Belastung wird immer nötiger. Die Umsetzung ist aber nicht ganz so einfach. Jakob Muus ist Gründer und CEO des Berliner Startups Tracks. Tracks will den Wandel der Straßengüterverkehrsbranche hin zu mehr Effizienz und Umweltverträglichkeit vorantreiben. Mit Hilfe von KI-basierten Analyse- und Prognoseinstrumenten soll die Tracks Plattform Straßengüterverkehrsunternehmen helfen den Kraftstoffverbrauch und die Kohlenstoffdioxidemissionen zu reduzieren. Gemeinsam mit unserer heutigen Co-Moderatorin Amanda Könning von Logistics4Future, spricht unser Host Boris Felgendreher mit Jakob Muus unter anderem über folgende Themen: - Die Gründungsgeschichte von Tracks - Hintergrundinfos zum Straßengüterverkehr: CO2-Ausstoß, THG-Emissionen, Vergleich mit anderen Verkehrsträgern - Wie groß die Bereitschaft der Unternehmen ist CO2 Emissionen zu senken - Was die wesentlichen Treiber für die Bereitschaft sind - Die größten Herausforderungen beim CO2-Accounting, also beim Messen der Emissionen - Die verschiedenen Möglichkeiten des CO2-Tracking - Wie die Erfassung bei Tracks funktioniert - Welche Berechnungsstandards verwendet werden - Welche Möglichkeiten der Optimierung bestehen - Welche Rolle KI bei der Erfassung und der Optimierung spielen kann - Ein Blick in die Zukunft: Prognosen wohin sich das Feld bewegt - Die Zukunftspläne von Jakob und dem Tracks-Team Mehr Informationen über Logistics4Future unter: https://www.bvl.de/verein/bvl-fuer-studierende/logistics4future Mehr Informationen über Tracks unter: https://www.tracksfortrucks.com/ Mehr Informationen über BVL.digital unter: https://bvl-digital.de/ Mehr Informationen über BVL unter: https://www.bvl.de/
STYLE UP YOUR LIFE! — Beauty | Promi | Fashion by Angela Thomas
Thema Kundenzufriedenheit: Weißt du, wie zufrieden deine Kunden mit deinen Produkten, Dienstleistungen und der Gesamterfahrung mit deinem Unternehmen sind? Wenn deine Antwort „Nein“ oder „Ich bin mir nicht sicher“ lautet, dann solltest du jetzt Maßnahmen ergreifen und es herausfinden. Die Messung der Kundenzufriedenheit kann dir zeigen, wo dein Unternehmen richtig liegt und wo du Schwierigkeiten hast, die Erwartungen deiner Kunden zu erfüllen. Wenn deine Kundenzufriedenheit niedrig ist, solltest du schnell herausfinden, woran es liegt und dann nach Lösungen suchen.
Geschichten, die verkaufen - Mehr Umsatz durch Content Marketing
Geschichten, die verkaufen: https://www.geschichtendieverkaufen.de/ Nr. 37 - Die C.L.E.A.R. Methode - Teil 2: Zuhören, Reagieren & Lernen. Die Messung von Erfolg im Content Marketing und Social Media erfordert neben quantitativen Daten auch ein qualitatives Zuhören. So erreichst du deine Ziele. Der Podcast für Content Marketing, Social Media, Kommunikation und Vertrieb & Sales
Die Messung der Herzratenvariabilität (HRV) haben wir im Coaching unserer Athleten lieben gelernt. HRV-Messung ist ein gutes, wissenschaftlich fundiertes, Werkzeug, zur Bewertung des autonomen Nervensystems. Also, in welchem Aktivitätszustand sich Euer Körper gerade befindet. Wir sprechen über die Physiologie, Messmethoden und Anwendung. Viel Spaß Dir gefällt der Podcast
Zuckerjunkies - Ein Leben mit Diabetes Typ 1 vom Diabetiker für Diabetiker mit Sascha Schworm
Ein paar Fakten Messungen erfolgen alle 5 Minuten Alarm bei Hypo oder Hyper. Die Uhr gibt, wie auch unsere anderen Empfänger, Alarme ab, wenn wir in Richtung Hypo oder Hyper unterwegs sind. Die Alarme können über Vibration oder akustisch erfolgen. braucht keinen Applikator, um einen Sensor aufzubringen. Dieser wird direkt auf die Uhr geklebt (s. unten) die Messung erfolgt über ein spezielles "Pflaster" (K'apsul) mittels kleinen Mikropunkten (Mikronadeln) - man spürt nach deren Aussagen einen leichten Druck. Die Messung ist schmerzfrei, da der Sensor niemals die Schmerznerven oder Blutgefäße trifft. der Sensor muss alle 7 Tage gewechselt werden mittels Cloudfunktion (kostenlose App ist dabei) können auch hier die Zuckererlebnisse geteilt werden USB Ladekabel dabei Bilder und mehr Infos sowie Antworten vom Hersteller, gibt es auf meinem Blog Zuckerjunkies.com ** Danke für´s Zuhören ** Podcast abonnieren Du findest den Podcast "Zuckerjunkies" auf allen großen und kleinen Plattformen wie Spotify, iTunes (iPhone), DEEZER, Player FM (Android), Stitcher, uvm. Besuche mich auf Instagram: @Zuckerjunkies und Facebook: Zuckerjunkies Spotify Playlist – Sammlung von meinen Interviewgästen // FPE Rechner als APP für Android verfügbar //
Thema heute: Servicestudie: Parkhausbetreiber 2018 - Zahlreiche Kritikpunkte in den Parkobjekten - Personal nur selten präsent Reinfahren, parken, rausfahren - auf den ersten Blick haben Parkhäuser nur wenig mit Service zu tun. Doch das täuscht: Enge Stellplätze, verwirrende Wegführung und fehlendes Personal können für Frust sorgen. Und spätestens wenn der Autofahrer sein Parkticket verliert oder das eigene Auto beschädigt wurde, ist guter Service gefragt. Dass es hier aktuell noch deutliche Schwächen gibt, zeigt die Studie des Deutschen Instituts für Service-Qualität, das neun überregionale Anbieter getestet hat. In allen Bereichen - Service vor Ort, am Telefon und per E-Mail - erreicht die Branche nur ein befriedigendes Ergebnis. Lediglich ein Parkhausbetreiber sichert sich insgesamt das Qualitätsurteil "gut". Das Deutsche Institut für Service-Qualität testete neun überregionale Parkhausbetreiber, die in mindestens zehn deutschen Städten vertreten sind und mehr als 20 Parkhäuser betreiben. Die Messung der Servicequalität erfolgte über jeweils fünf verdeckte Besuche (Mystery-Tests) in verschiedenen Parkobjekten eines jeden Anbieters. Im Fokus standen hier die Qualität des Umfelds und des Parkangebots sowie Zusatzservices wie Bonuskarte oder Parkerleichterung via App beziehungsweise RFID-Chip. Zudem wurden je zehn verdeckte Telefon- sowie E-Mail-Tests durchgeführt. Insgesamt flossen 225 Servicekontakte mit den Unternehmen in die Auswertung ein. Weniger als die Hälfte der untersuchten Parkhäuser ist mit Personal besetzt - bei Problemen sind Autofahrer oft auf die Hotline oder den E-Mail-Kontakt angewiesen. Am Telefon erhalten Anrufer aber häufig nur oberflächliche, wenig individuelle und teils nicht einmal freundliche Auskünfte. Per E-Mail sind die Auskünfte zwar umfassender und fachkundiger, allerdings bleibt mehr als jede vierte Anfrage unbeantwortet. In rund jedem vierten Objekt stoßen die Stellplatzbreite oder die Befahrbarkeit der Fahrwege und Rampen auf Kritik. Abzüge gibt es auch für fehlende Orientierungsmöglichkeiten und verbesserungsfähige Sicherheitsaspekte, etwa in puncto sichtbar installierter Videokameras oder Notrufmelder. Dürftig ist zudem das spezielle Angebot, etwa an XXL- oder Dauerparkplätzen; noch eine echte Seltenheit sind E-Auto-Stellplätze mit Ladestation. Punkten können viele Parkobjekte aber mit einer guter Beleuchtungssituation, insgesamt ansprechender Atmosphäre und langen Öffnungszeiten von im Schnitt fast zwanzig Stunden täglich. Q-Park geht mit dem Qualitätsurteil "gut" als Testsieger aus der Servicestudie hervor. Diesen Beitrag können Sie nachhören oder downloaden unter:
Kascha's Energy Talk. Mach(t) Dich glücklich und unbeschwert mit Dr. Kascha B. Lippert
Die Messung der Herzfrequenzvariabilität wird seit Jahren in der Kardiologie gemacht. In Verbindung mit Chronobiologie und dem richtigen Know How kann man über Schlafqualität, Stressmanagement und vieles andere mehr Auskünfte erhalten. Das wiederum kann Dir helfen, Dich in Deinem Leben besser zu organisieren und auch Deine Beziehung zu Deiner Umgebung zu verstehen.
Die Messung von ionisierender Strahlung ist seit der Entdeckung der zunächst mysteriös erscheinenden X-Strahlen durch Wilhelm Conrad Röntgen ein essenzieller Bestandteil bei der Anwendung von Röntgenstrahlung in der Medizin. Die Anforderungen an die Geräte zur Strahlungsdetektion sind in den verschiedenen Gebieten der diagnostischen Bildgebung und therapeutischen Anwendung der ionisierenden Strahlung leicht unterschiedlich. Im Wesentlichen ist man aber immer an der genauen Bestimmung der Energie, Intensität und Position der Strahlung interessiert. Dieser Artikel soll einen Überblick über die Entwicklung der Detektortechnik in den verschiedenen Bereichen der Medizin geben.
Die Messung von ionisierender Strahlung ist seit der Entdeckung der zunächst mysteriös erscheinenden X-Strahlen durch Wilhelm Conrad Röntgen ein essenzieller Bestandteil bei der Anwendung von Röntgenstrahlung in der Medizin. Die Anforderungen an die Geräte zur Strahlungsdetektion sind in den verschiedenen Gebieten der diagnostischen Bildgebung und therapeutischen Anwendung der ionisierenden Strahlung leicht unterschiedlich. Im Wesentlichen ist man aber immer an der genauen Bestimmung der Energie, Intensität und Position der Strahlung interessiert. Dieser Artikel soll einen Überblick über die Entwicklung der Detektortechnik in den verschiedenen Bereichen der Medizin geben.
Evolution Radio Show - Alles was du über Keto, Low Carb und Paleo wissen musst
Audio: Video: Eine wohl formulierte Low Carb Ernährungsweise lerne in meinem kostenlosen Online Seminar alles über die ketogene Ernährung Gratis Online Seminar In dieser Folge: Warum das Gewicht kein guter Marker ist und was es mit Arnold Schwarzenegger zutun hat Welche Messwerte es gibt und was deren Vor- und Nachteile sind z. B. BMI Woraus unser Körper besteht und worauf es zu Achten gilt z. B. „Skinny Fat“ oder „TOFI“ Welche Marker wichtig sind und welche Messmethoden es gibt z. B. DEXA Das Video der aktuellen Folge direkt auf Youtube öffnen Kurze Zusammenfassung Gäste Keine Gewicht alleine kein guter Marker BMI BMI steht für Body Mass Index. Diesem Index liegt die Annahme zu Grunde, dass es ein gewisses „gesundes“ Verhältnis zwischen Körpergröße und Körpergewicht gibt. Diese Annahme hat jedoch eine große Schwäche – die Körperzusammensetzung wird vollkommen außer Acht gelassen! Schlank ist nicht gleich gesund! Leider ist in der heutigen Zeit so, dass „schlank oder dünn“ gleich gesetzt wird mit „gesund“. Das ist jedoch ein Trugschluss . Es ist die Körperzusammensetzung, die ausschlaggebend ist. „Skinny Fat“ oder „TOFI“ (thin on the outside-fat on the inside. Krafttraining Erhöhter Grundumsatz Verringertes Verletzungsrisiko Bessere Körperhaltung Hilft gegen Rücken und Knieschmerzen Außerdem gut für das Gehirn!! BNF-alpha BNF steht für Brain Derived Neurotropic Factor. Wir wissen, dass Menschen mit Demenz und Alzheimer, verringerte BNF Werte haben. In mehreren Studien konnte gezeigt werden, dass Krafttraining die kognitive Leistungsfähigkeit verbessert und zu einer erhöhten Produktion von BNF-alpha führt[i] [ii] [iii]. Was solltest Du messen? Waist to Height Ratio Das Verhältnis von Taille zu Körpergröße. Körperumfänge Oberarm Brust Taille Hüfte Oberschenkel Körperfett – Methoden Hautfaltenmessung Für die größte Genauigkeit wird an 7 Stellen gemessen. Die Messung sollte immer von die selbe Person durchgeführt werden um den Messfehler so gering wie möglich zu halten. Mit Hilfe einer Formel berechnet sich aus den 7 Werten ein gesamt Körperfettanteil in Prozent. Bioimpedanz Misst den elektrischen Widerstand und errechnet so Körperfett, Muskelmasse und Wasser Leicht durchzuführen, aber leicht zu beeinflussen – Training, Hydration, etc…. DEXA „dual energy X-ray absorptiometry“ Knochendichtemessung sehr teuer, aber Gold-Standard Rechner 7-Punkt-Hautfaltenmessung Fotos machen Gerade die Veränderung der Körperzusammensetzung sieht man sehr gut an Fotos. am besten in Unterwäsche. Vorne, Seite, hinten in entspannter Körperhaltung Shownotes Produkte Skinford Fat Caliper Fettmesszange Omron BF 511 Körperanalysegerät Korona Diagnosewaage Dolores Braun BBP2000WE VitalScan 1 Boolavard Körper Bandmaß Omnitest 3 Set Blutzuckermessgerät mit Etui in mmol/l, 1 St Freestyle Precision Ketostix Glucomen LX Plus Messgerät Glucomen LX Plus Testtreifen für Ketone Literatur Zunehmen mit Paleo: Paleo Weightgain Power For Everyone von Pawel M. Konefal Practical Paleo: A Customized Approach to Health and a Whole-Foods Lifestyle von Diane Sanfilippo BS NC Abnehmen mit Paleo: Paleo Lifestyle Power For Everyone Pragmatiker Edition Mit Erfahrungsgarantie von Pawel M. Konefal Gehirn-Pflege Guide 2.0: Paleo Brain Power For Everyone Pragmatiker Edition von Pawel M. Konefal Gehirn-Pflege Paleo Rezepte Kochbuch 2.0: Paleo Brainfood Power For Everyone von Pawel M. Konefal Darm S.O.S. Das Taschenbuch von Julia Tulipan Paleo Ernährung für Mama und Baby: Der Ratgeber für gesunde Steinzeiternährung vor, während und nach der Schwangerschaft – Mit mehr als 40 Paleo Beikost und Babybrei Rezepten zum selber machen – 100% glutenfrei und laktosefrei Entpuppt: Mit LCHF in ein leichtes Leben von Annika Rask LowCarb Basics: Glutenfrei. Sojafrei. Pur! von Daniela Pfeifer The Ketogenic Diet: A Complete Guide for the Dieter and Practitioner 1st by McDonald, Lyle (1998) Paperback von Lyle McDonald Keto Clarity: Your Definitive Guide to the Benefits of a Low-Carb, High-Fat Diet (English Edition) Das Paläo-Prinzip der gesunden Ernährung im Ausdauersport von Loren Cordain Dumm wie Brot: Wie Weizen schleichend Ihr Gehirn zerstört von Dr. David Perlmutter Artikel und Studien Folge #033: Quantified-Self: Misst Du wirklich richtig? Die besten Tipps für Deine Selbstvermessung Studien [i] Cassilhas, Ricardo C., et al. „The impact of resistance exercise on the cognitive function of the elderly.“ Medicine and science in sports and exercise 39.8 (2007): 1401. [ii] Liu-Ambrose, Teresa, et al. „Resistance training and executive functions: a 12-month randomized controlled trial.“ Archives of internal medicine 170.2 (2010): 170-178. [iii] Nagamatsu, Lindsay S., et al. „Resistance training promotes cognitive and functional brain plasticity in seniors with probable mild cognitive impairment.“Archives of internal medicine 172.8 (2012): 666-668. Webseiten JULIAS BLOG http://PaleoLowCarb.de/ PAWELS BLOG http://superhumanoid.de
Das Universum ist voll mit Sternen, Galaxien, Planeten und jeder Menge anderer cooler Dinge. Jedes davon hat seine Geschichten und die Sternengeschichten erzählen sie. Der Podcast zum Blog "Astrodicticum Simplex"
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Der Ursprung und die Entwicklung unseres Universums zeigt sich gleichermaßen in der Raumzeit selbst wie in den Strukturen, die in ihr entstehen. Galaxienhaufen sind das Ergebnis hierarchischer Strukturbildung. Sie sind die massivsten Objekte, die sich im heutigen Universum bilden konnten. Aufgrund dieser Eigenschaft ist ihre Anzahl und Struktur hochgradig abhängig von der Zusammensetzung und Evolution des Universums. Die Messung der Anzahldichte von Galaxienhaufen beruht auf Katalogen, die nach einer beobachtbaren Größe ausgewählt werden. Die Anwendung einer Massen-Observablen-Relation (MOR) erlaubt es, die beobachtete Anzahl als Funktion der Observablen und der Rotverschiebung mit Vorhersagen zu vergleichen und so kosmologische Parameter zu bestimmen. Man kann jedoch zu Recht behaupten, dass diese Messungen noch nicht präzise im Prozentbereich sind. Hauptgrund hierfür ist das unvollständige Verständnis der MOR. Ihre Normalisierung, die Skalierung der Observablen mit Masse und Rotverschiebung und die Größe und Korrelation von intrinsischen Streuungen muss bekannt sein, um Anzahldichten korrekt interpretieren zu können. Die Massenbestimmung von Galaxienhaufen durch die differenzielle Lichtablenkung in ihrem Gravitationsfeld, i.e. durch den so genannten schwachen Gravitationslinseneffekt (weak lensing), kann erheblich hierzu beitragen. In dieser Arbeit werden neue Methoden und Ergebnisse solcher Untersuchungen vorgestellt. Zu ersteren gehören, als Teil der Datenaufbereitung, (i) die Korrektur von CCD-Bildern für nichtlineare Effekte durch die elektrischen Felder der angesammelten Ladungen (Kapitel 2) und (ii) eine Methode zur Maskierung von Artefakten in überlappenden Aufnahmen eines Himmelsbereichs durch Vergleich mit dem Median-Bild (Kapitel 3). Schließlich ist (iii) eine Methode zur Selektion von Hintergrundgalaxien, basierend auf deren Farbe und scheinbarer Magnitude, die eine neue Korrektur für die Kontamination durch Mitglieder des Galaxienhaufens einschließt, im Abschnitt 5.3.1 beschrieben. Die wissenschaftlichen Hauptergebnisse sind die folgenden. (i) Für den Hubble Frontier Field-Haufen RXC J2248.7-4431 bestimmen wir Masse und Konzentration mittels weak lensing und bestätigen die durch Röntgen- und Sunyaev-Zel'dovich-Beobachtungen (SZ) vorhergesagte große Masse. Die Untersuchung von Haufengalaxien zeigt die Abhängigkeit von Morphologie und Leuchtkraft sowie Umgebung (Kapitel 4). (ii) Unsere Massenbestimmung für 12 Galaxienhaufen ist konsistent mit Röntgenmassen, die unter Annahme hydrostatischen Gleichgewichts des heißen Gases gemacht wurden. Wir bestätigen die MOR, die für die Signifikanz der Detektion mit dem South Pole Telescope bestimmt wurde. Wir finden jedoch Diskrepanzen zur Planck-SZ MOR. Unsere Vermutung ist, dass diese mit einer flacheren Steigung der MOR oder einem größen-, rotverschiebungs- oder rauschabhängigen Problem in der Signalextraktion zusammenhängt (Kapitel 5). (iii) Schließlich zeigen wir, durch die Verbindung von Simulationen und theoretischer Modellierung, dass die Variation von Dichteprofilen bei fester Masse signifikant zur Ungenauigkeit von Massenbestimmungen von Galaxienhaufen mittels weak lensing beiträgt. Ein Modell für diese Variationen, wie das hier entwickelte, ist daher wichtig für die genaue Bestimmung der MOR, wie sie für kommende Untersuchungen nötig sein wird (Kapitel 6).
Reicht es, dass eine Führungskraft ausgezeichnete Fachkenntnisse und Skills hat? Viele meinen: Nein, das reicht nicht. So geeignet eine Führungskraft für Job und Rolle ist, sie muss auch zur Kultur einer Organisation passen. Die Messung des Cultural Fit liegt derzeit im Trend. Allerdings gibt es da ein Umsetzungsproblem: Viele wissen gar nicht so genau, wie das geht – kulturelle Passung ermitteln.
Reicht es, dass eine Führungskraft ausgezeichnete Fachkenntnisse und Skills hat? Viele meinen: Nein, das reicht nicht. So geeignet eine Führungskraft für Job und Rolle ist, sie muss auch zur Kultur einer Organisation passen. Die Messung des Cultural Fit liegt derzeit im Trend. Allerdings gibt es da ein Umsetzungsproblem: Viele wissen gar nicht so genau, wie das geht – kulturelle Passung ermitteln.
Reicht es, dass eine Führungskraft ausgezeichnete Fachkenntnisse und Skills hat? Viele meinen: Nein, das reicht nicht. So geeignet eine Führungskraft für Job und Rolle ist, sie muss auch zur Kultur einer Organisation passen. Die Messung des Cultural Fit liegt derzeit im Trend. Allerdings gibt es da ein Umsetzungsproblem: Viele wissen gar nicht so genau, wie das geht – kulturelle Passung ermitteln.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Diese Arbeit pr"asentiert zwei Analysen des Zerfallskanals hwwlnln mit den Daten des ATLAS experiments am LHC. Die analysierten Daten wurden im Jahr 2011 bzw. 2012 bei einer Schwerpunktsenergie von $sqrt{s} = 7 TeV$ bzw. $8 TeV$ aufgezeichnet und es wurde eine integrierte Luminosit"at von $25,textrm{fb}^{-1}$ erreicht. Die beiden Analysen unterscheiden sich im analysierten Phasenraum, der von der Massen $m_{rm H}$ des Higgs boson Signals abh"angt. Die Analyse f"ur Massen $m_{rm H} < 200 GeV$ wurde "uber die letzten Jahre optimiert, um in der Lage zu sein, eine Pr"azisions Messung der Kopplungen einer Resonanz bei $m_{rm H} approx 125 GeV$ durchzuf"uhren. Dabei wird ein Likelihood Fit der transversalen Masse $mT = sqrt{ (E_{T}^{ell ell} + P_{T}^{nu nu})^2 - | vec{P_{T}^{ell ell}} + vec{P_{T}^{nu nu}|^2} }$ angewendet. Mit einer statistischen Signifikanz von $6.1 sigma$ konnte ein hwwlnln Signal bei einer Masse $m_{rm H} = 125.36 pm 0.41 GeV$ beobachtet werden. Die Messung der Signalst"arke, dem Verh"altniss von experimentell bestimmtem Produktionswirkungsquerschnitt mal Verzweigungsverh"altnis zur theoretischen Prognose, ergab folgenden Wert: begin{align*} mu &= 1.08,^{+0.16}_{+0.15} textrm{(stat.)} ,^{+0.16}_{-0.14} textrm{(syst.)}, end{align*} was im Einklang mit der Standard-Modell-Vorhersage steht. Die Skalierung der Kopplungen des Higgs bosons an Fermionen und Bosonen wurden bestimmt zu: begin{align*} kappa_{F} &= 0.92,^{+0.30}_{-0.23} kappa_{V} &= 1.04,^{+0.10}_{-0.11}. end{align*} Zur Suche nach schweren, Higgs boson artigen Teilchen wurde die Analyse des hwwlnln Zerfallskanals f"ur Massen $m_{rm H} > 200 GeV$ optimiert. Auch im hohen Massenbereich wird ein Likelihood Fit an der Verteilung der transversalen Masse mT durchgef"uhrt. Es wurden obere Grenzen auf Produktionswirkungsquerschnitt mal Verzweigungsverh"altnis f"ur drei Szenarien bestimmt: Standard-Model-Higgs-Boson im Massenbereich $200 leq m_{rm H} leq 1 TeV$, Higgs boson artige Resonanz mit einer Zerfallsbreite von $1 GeV$ im Massenbereich $200 leq m_{rm H} leq 2 TeV$ und das elektroschwache Singlet Szenario im Massenbereich $200 leq m_{rm H} leq 1 TeV$, bei dem die Zerfallsbreite zus"atzlich zur Masse variiert wird. Es konnte in keinem getesteten Szenario ein statistisch signifikanter Daten"uberschuss beobachtet werden und dar"uberhinaus konnte ein Standard Modell artiges Higgs Boson bis zu einer Masse von $m_{rm H} = 661 GeV$ ausgeschlossen werden.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Sat, 12 Jul 2014 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/17259/ https://edoc.ub.uni-muenchen.de/17259/1/Vanchev_Yordan_Petrov.pdf Vanchev, Yordan Petrov
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19
Das Trockene Auge ist typischerweise mit einem hyperosmolaren Tränenfilm assoziiert. Dementsprechend stellt die Messung der Tränenfilmosmolarität ein wichtiges Kriterium in der Diagnostik des Trockenen Auges dar. Von manchen Autoren wird sie sogar als Goldstandard diskutiert. Bis vor kurzem konnte die Osmolariät des Tränenfilms nur durch komplexe Laborverfahren wie Gefrierpunktserniedrigung oder Dampfdrucktechnik gemessen werden. Wir hatten die Möglichkeit ein tragbares, einfach zu bedienendes Osmometer (Tearlabtm, Fa. Ocusense) kurz nach der Markteinführung zu testen. Wir untersuchten 200 augengesunde Probanden und Patienten mit trockenem Auge. Anhand der subjektiven Beschwerden (Ocular Surface Disease Index-Fragebogen), der Tränenfilmstabilität (Tränenfilmaufreißzeit), der Oberflächenanfärbung, der Tränenproduktion (Schirmertest) und dem Vorhandensein einer Blepharitis wurden die Studienteilnehmer in eine Siccagruppe (n=129) und eine Kontrollgruppe (n=71) eingeteilt. Die Messung der Tränenfilmosmolarität erfolgte mit dem TearlabTM-Osmometer am schlechteren oder – bei seitengleichem Befund - am linken Auge. Die Tränenfilmosmolarität betrug bei Patienten mit Trockenem Auge 308,9 ± 14,0 mOsml/L, in der Kontrollgruppe 307,1 ± 11,3 mOsml/L. Somit konnten wir anhand der Osmolaritätsdaten nicht zwischen Siccapatienten und augengesunden Probanden unterscheiden. Zudem korrelierte die Osmolaritätsmessung nicht mit den subjektiven Beschwerden der Patienten und den objektiven Zeichen des Trockenen Auges, evaluiert mit etablierten klinischen Tests. Die erhobenen Tränenfilmosmolaritäten korrelierten allerdings eindeutig mit dem Schweregrad des Trockenen Auges. Seit der Beendigung unserer Messungen sind einige Studien zur Tearlab-Osmometrie publiziert worden. Sie demonstrieren die Relevanz der Tränenfilmosmolarität als Einzeltest, zeigen jedoch meist nur beim moderaten bis schweren Trockenen Auge sinnvolle Ergebnisse. Einige Autoren konnten- wie wir - in einem inhomogenen, aber klinisch typischen Patientengut die Tränenfilmosmolarität nicht zur Diskriminierung der Gruppen nutzen. Viele Faktoren scheinen die Zuverlässigkeit der Messungen zu beeinflussen wie Umweltfaktoren, Reflextränen, und eine Augentropfentherapie vor der Messung. Die Testtrennwerte werden nach wie vor diskutiert und wurden vom Hersteller zwischenzeitlich von 316mOsm/L auf 312 mOsm/L gesenkt. Auch ist mittlerweile klar, dass aufgrund der interindividuellen Variabilität und des Messrauschens mehrere Messungen an beiden Augen für ein zuverlässiges Ergebnis notwendig sind. Leider haben sich somit die Hoffnungen auf einen einfachen, spezifischen und sensiblen Einzeltest in der Diagnostik des Trockenen Auges nicht erfüllt. Die Diagnosestellung bei Trockenem Auge bleibt daher komplex und ist nur nach spezifischer Anamnese in Kombination mit mehreren klinischen Testen zu stellen. Es bleibt zu eruieren, ob Patienten mit stark erhöhter Tränenfilmosmolarität eine Subgruppe im Krankheitsspektrum des Trockenen Auges, z.B. mit erhöhter entzündlicher Aktivität darstellen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
In dieser Arbeit wird eine Messung der Top-Quark Masse im vollhadronischen Top-Antitop Zerfallskanal präsentiert. Die Messung basiert auf Daten des ATLAS Detektors aus Proton-Proton Kollisionen, welche am LHC bei einer Schwerpunktsenergie von 7 TeV durchgeführt wurde. Der Datensatz wurde im Jahr 2011 aufgezeichnet und entspricht einer integrierten Luminosität von 4.7 fb^-1. Die Messung der Top-Quark Masse erfolgt mittels einer Template-Technik, wobei die sogenannte R_3/2 Variable als Top-Quark-Massen sensitive Größe benutzt wird. Die R_3/2 Variable errechnet sich hierbei aus dem Verhältnis der invarianten Massen des hadronisch zerfallenden Top-Quarks und W-Bosons. Die Zuordnung von Jets zu den jeweiligen Top-Antitop Zerfalls-Partonen ergibt sich anhand einer Wahrscheinlichkeitsvorhersage, welche die kinematischen Eigenschaften der Jets berücksichtigt. Der Multijet Untergrund des vollhadronischen Top-Antitop Signals wird mittels Daten abgeschätzt, wodurch eine präzise Vorhersage der kinematischen Verteilungen von Untergrund-Ereignissen ermöglicht wird. Die Messung der Top-Quark Masse ergibt m_top = 175.1 +- 1.4 (stat.) +- 1.8 (syst.) GeV/c^2, wobei die dominanten Beiträge zur systematischen Unsicherheit von der Jet-Energie-Skala sowie von der b-Jet Energie-Skala stammen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Otoakustische Emissionen (OAE) werden von den Äußeren Haarzellen im Corti-Organ im Rahmen der aktiven Verstärkerfunktion der Cochlea generiert. Die Messung von OAE ermöglicht somit die Beurteilung der cochleären Funktion mittels einer einfach durchzuführenden, zuverlässigen und nicht-invasiven Technik. Durch die Lage der Cochlea im Felsenbein sind die nicht-invasiven diagnostischen Möglichkeiten ansonsten deutlich eingeschränkt. Dementsprechend unklar ist bis heute die Pathophysiologie zahlreicher Innenohrschwerhörigkeiten. Könnten einzelne charakteristische Veränderungen der OAE jeweils verschiedenen pathophysiologischen Vorgängen in der Cochlea zugeordnet werden, brächte dies umfangreiche Möglichkeiten in Erforschung und Diagnostik von Innenohrschwerhörigkeiten. Eine cochleäre Ischämie mit folgender Hypoxie wird bei vielen Hörstörungen diskutiert. Ziel dieser Arbeit war die Etablierung eines Tiermodells, an dem die Veränderung der Pegel von Distorsionsprodukten Otoakustischer Emissionen (DPOAE) durch verschiedene Einflussfaktoren frequenz-spezifisch und im Zeitverlauf untersucht werden können. Insbesondere sollten die Veränderungen durch Hypoxie detailliert charakterisiert werden. Mit dem etablierten Tiermodell konnten störungsfreie DPOAE-Messungen unter stabilen Rahmenbedingungen erreicht werden. Durch kontinuierliches Monitoring mittels invasiver Blutdruckmessung und pulsoxymetrischer Bestimmung der Sauerstoffsättigung konnten kontrollierte Bedingungen zur Reduktion etwaiger Verzerrungseffekte geschaffen werden. Die Genauigkeit der Pulsoxymetrie wurde mittels Blutgasanalyse validiert. Erstmalig beschrieben werden konnte eine ausgeprägte Destabilisierung der DPOAE-Pegel unter Hypoxie. Eine bereits von mehreren Autoren berichtete Pegelabnahme konnte zudem erstmals mit dem Grad der Hypoxie korreliert werden, welcher mittels kontinuierlichem Monitoring der Sauerstoffsättigung im Blut erhoben wurde. Ein ebenfalls vorbeschriebener erneuter Abfall der DPOAE-Pegel nach Reoxygenierung wurde reproduziert. Dieser dürfte am ehesten durch osmotische Prozesse mit Ausbildung eines endolymphatischen Hydrops bedingt sein. Darüber hinaus wurde im Zusammenhang mit der Hypoxie ein vorübergehender Pegelanstieg auf Werte über den prähypoxischen Mittelwert beobachtet. Dieser wird, 44 analog zu ähnlichen Beobachtungen nach Exposition mit Tönen tiefer Frequenz, durch Verschiebung des „operating points“ der Äußeren Haarzellen erklärt. Bei suboptimaler Ausgangsposition befinden diese sich durch die Verschiebung vorübergehend in optimaler Position, was sich in einem Pegelanstieg bemerkbar macht. Die beobachtete markante Pegelinstabilität ist zwar unseres Wissens bislang für keinen der möglichen Einflussfaktoren beschrieben worden, zur Klärung ob diese tatsächlich Hypoxie-spezifisch ist bedarf es jedoch weiterer Studien. Da deutliche Unterschiede zwischen den einzelnen Frequenzen auffielen, sollten weitere Studien stets ein breites Frequenzspektrum berücksichtigen. Besonders auffallend war ein zu den Veränderungen bei 4, 8 und 16 kHz differentes Muster bei 2 kHz und insbesondere bei 12 kHz. Zusammen mit der einfach erhebbaren Pegelinstabilität könnte eine Analyse der einzelnen Frequenzen einem etwaigen Messmodell zur Erfassung einer cochleären Hypoxie zusätzliche Sicherheit bieten. Ließe sich dadurch tatsächlich eine cochleäre Hypoxie nachweisen, könnte das von großer Bedeutung für das Verständnis von Innenohrschwerhörigkeiten sein und als Bestandteil der audiologischen Diagnostik eventuell bei Therapieentscheidungen helfen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 14/19
Sowohl aktiviertem Protein C (aPC) als auch Antithrombin (AT) werden neben ihrer Bedeutung als physiologische Gerinnungsinhibitoren immunmodulatorische Potenz zugeschrieben. Sie scheinen daher geeignet, die gestörte Immunfunktion wie sie beispielsweise nach Trauma beobachtet wird, günstig zu beeinflussen. Dies könnte der Entstehung von septischen Komplikationen durch eine gestörte Infektabwehr entgegen wirken oder die Organsysteme vor den Folgen überschießender systemischer Entzündungsreaktionen schützen. Während jedoch mittlerweile eine große Anzahl klinischer und experimenteller Arbeiten zur Anwendung dieser Substanzen vorliegt, sind die Wirkungen auf humane Immunzellen nach wie vor nicht abschließend geklärt. Ziel dieser Studie war daher die Charakterisierung möglicher Effekte von aPC und AT auf die zelluläre Immunfunktion unter Berücksichtigung eines sogenannten „Priming“ der Zellen durch vorausgehendes Gewebetrauma (Operation oder schwere Unfallverletzung). Daneben sollte auch die Frage einer möglichen Wechselwirkung von aPC und AT geklärt werden. Außerdem wurde der Einfluss von Heparin auf ein immunmodulatorisches Potential von AT untersucht. Im Rahmen der vorliegenden kontrollierten ex-vivo Studie erfolgte der Einschluss von zwölf viszeralchirurgischen sowie neun polytraumatisierten Patienten. Als Vergleichskollektiv dienten zwölf gesunde Probanden. An mononukleären Zellen des peripheren Blutes (PBMC), die mittels Ficoll-Separation an den Tagen 1, 3 und 7 nach Trauma gewonnen wurden, untersuchten wir den Einfluss von physiologischen (aPC 4 µg / ml, AT 1 IE / ml) oder supraphysiologischen (aPC 100 µg / ml, AT 20 IE / ml) Konzentrationen der Gerinnungsinhibitoren. Bei operierten Patienten erfolgte präoperativ eine zusätzliche Abnahme. Gesunde Probanden spendeten einmalig Blut und dienten als Referenzgruppe. PBMC wurden in serumfreiem Medium kultiviert und mit aPC bzw. AT (allein oder zusammen) für 60 Minuten präinkubiert. Der entzündliche Stimulus erfolgte mit LPS bzw. OKT3. Zellkulturen wurden dann mit oder ohne Stimulus für 20 Stunden (LPS) oder 72 (OKT3) Stunden inkubiert. Für die Zugabe ansteigender Heparindosen erfolgte die analoge Herstellung von LPS-stimulierten Ansätzen mit supraphysiologischer AT Konzentration. Die Messung der Zytokinspiegel erfolgte mit dem Bioplex Suspension Array System aus den Zellkulturüberständen. Bei gesunden Probanden konnten wir unter LPS-Stimulation in Gegenwart von AT (20 IE / ml) signifikante Abfälle sowohl von TNF-α als auch IL-10 beobachten. Im Patientenkollektiv zeigte sich für TNF-α der gleiche Effekt. Für IL-10 zeigte sich ebenfalls der bei gesunden Probanden beobachtete Abfall der LPS-induzierten IL10-Spiegel, hier jedoch ohne statistische Signifikanz. In unstimulierten Proben führte AT (20 IE / ml) zu einer signifikanten Erhöhung der TNF-α Spiegel. Ein Effekt von AT in der Konzentration 1IE / ml konnte nicht gezeigt werden. Für aPC konnte im LPS-Model kein Einfluss auf die Immunantwort von PBMC unter serumfreien Bedingungen nachgewiesen werden. Nach Aktivierung mit OKT3 kam es durch AT (20 IE / ml) zu einem teils signifikanten Abfall von IFN-γ, und IL-13, wohingegen aPC (100 µg / ml) zu einem Anstieg beider Zytokine führte. Sowohl AT als auch aPC führten zu signifikant erhöhten IL-6 Spiegeln in OKT3-stimulierten Ansätzen. Allerding erhöhte nur AT signifikant die Freisetzung von IL-6 und IFN-γ in unstimulierten Ansätzen. Bei gleichzeitiger Gabe von aPC und AT zeigten sich mit AT 20 IE / ml vergleichbare Spiegel. In Ansätzen die Heparin enthielten zeigte AT (20 IE / ml) eine unveränderte Reduzierung der IL-10 und TNF-α Spiegel. Unsere Ergebnisse zeigen somit für beide Substanzen eine immunmodulatorische Potenz in supraphysiologischen Konzentrationen. Antithrombin führt ex-vivo mit Ausnahme von IL-6 und im Unterschied zu aPC zu einer breiten Suppression der Zytokinfreisetzung aus stimulierten PBMC. Mit Heparin in Dosierungen bis 200IE konnte dieser Effekt nicht antagonisiert werden. Demgegenüber ist aPC in einem serumfreien ex-vivo Modell ein Aktivator der lymphozytären TH1-Antwort in humanen PBMC, hat also entgegen häufig postulierter Vorstellungen klare proinflammatorische Effekte, zumindest auf humane Immunzellen. Die klinische Bedeutung dieser Beobachtungen und die zugrunde liegenden Mechanismen bedürfen der weiteren Klärung.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07
Ziel der vorliegenden Untersuchung war es, die Validität der Serumpepsinogenbestimmung zur Diagnostik von Labmagengeschwüren bei Kühen zu untersuchen. Es sollte die Möglichkeit geprüft werden, durch die Bestimmung der Serum PG Konzentration Rückschlüsse auf den aktuellen Zustand der Labmagenschleimhaut zur Zeit der Probennahme zu ziehen. Zu diesem Zweck wurden die Labmägen von 59 zwischen zwei und 10,4 Jahre alten euthanasierten Klinikpatienten pathologisch-anatomisch untersucht und die Pepsinogenkonzentration in einer Serumprobe, welche aus einer unmittelbar vor der Euthanasie entnommenen Blutprobe gewonnen wurde, gemessen. Im Rahmen der pathologsich-anatomischen Untersuchung der Labmägen wurden, in Fällen in denen Läsionen gefunden wurden, neben dem Läsionstyp (Narbe, Erosionen, nicht-perforierendes Geschwür, perforierendes Geschwür) auch deren Lokalisation sowie deren Anzahl ermittelt. Die von den Läsionen betroffene Fläche wurde im Anschluss an die Sektion computergestützt bestimmt. Die Messung der Serumpepsinogenkonzentration erfolgte anhand der von PAYNTER (1994) beschriebenen Methode, welche an das Arbeiten mit einer Mikrotiterplatte angepasst und anschließend validiert wurde. Insgesamt konnten an 34 Labmägen (57,4 %) Läsionen gefunden werden. Es handelte sich dabei in 16 Fällen (27,12 %) um Erosionen, in 11 Fällen (18,64 %) um nicht-perforierende Geschwüre; in fünf Fällen (8,47 %) war je ein perforierendes Geschwür zu finden, sowie in zwei Fällen (3,39 %) Narben. Die Ergebnisse der Serumpepsinogenbestimmung ergaben einen statistisch signifikanten Unterschied (p = 0,046) zwischen der medianen Serumpepsinogenkonzentrationen der Tiere mit aktiven Läsionen an der Labmagenschleimhaut und der medianen Serumpepsinogenkonzentration der Tiere, bei denen keine Läsionen gefunden wurden. Es konnte gezeigt werden, dass der Läsionstyp einen Einfluss auf die Serumpepsinogenkonzentration hat. So unterschieden sich lediglich die medianen Serumpepsinogenkonzentrationen der Tiere mit nicht-perforierenden Geschwüren und der Tiere ohne Läsionen signifikant voneinander (p = 0,01). Tiere mit nicht-perforierenden Geschwüren wiesen weiterhin eine höhere mediane Serumpepsinogenkonzentration auf als Tiere mit Erosionen und solche mit perforierendem Geschwür, allerdings waren die Unterschiede hierbei nicht signifikant (p > 0,05). Es konnte bei Tieren mit nicht-perforierenden Labmagengeschwüren zudem eine positive Korrelation zwischen der Serumpepsinogenkonzentration und der Fläche, welche von den Geschwüren betroffen war, ermittelt werden (p = 0,04). Die Untersuchung der Validität der Serumpepsinogenbestimmung zur Diagnostik von nicht-perforierenden Labmagengeschwüren ergab einen statistisch signifikanten Zusammenhang zwischen dem Vorliegen solcher Geschwüre und ermittelten Serumpepsinogenkonzentration über 3,40 UTyr (p = 0,002). Bei diesem Cut-Off Wert konnte für die angewandte Methode eine Sensitivität von 72,7 % sowie eine Spezifität von 79,1 % ermittelt werden. Aufgrund der Resultate der vorliegenden Arbeit, könnte sich die Serumpepsinogenbestimmung vor allem dazu eignen, großflächige, nicht-perforierende Labmagengeschwüre nahezu auszuschließen. Die gewonnenen Daten zeigten zudem, dass durch die Ermittlung der Serumpepsinogenkonzentration kein Erkenntnisgewinn in der Diagnostik von perforierenden Labmagengeschwüren zu erwarten ist.
Die Messung von Körperflüssigkeiten stellt für viele Laboratorien eine besondere Herausforderung dar. Neben dem erschwerten Umgang mit dem Probenmaterial sind standardisierte Prozesse im Labor gefragt. Am Beispiel von Liquor und CAPD erklären Experten aus Labor und Klinik, wie man einen höheren Grad an Standardisierung erreichen kann.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19
Die Kapnometrie ist ein einfach anwendbares, nicht-invasives Monitoringverfahren zur endexpiratorischen Messung des Kohlenstoffdioxid-Gehaltes in der Atemluft und somit Ventilationssituation des Patienten. Trotz der weiten Verbreitung in der Anästhesie und in der Intensivmedizin fand die Kapnometrie bei der Überwachung der Patienten mit einem zerebralen Infarkt bisher nur wenig Anwendung. Ziel dieser prospektiven klinischen Studie war es, Patienten mit frischen zerebralen Hirninfarkten auf Unterschiede in der Ventilation im Vergleich zu gesunden Patienten zu untersuchen und mögliche Zusammenhänge mit den Neuroscores, Entzündungsparameter, biochemischen Marker für neurologische Schädigung sowie Krankenhaus- und Reha- Liegedauer aufzudecken. Im Untersuchungszeitraum von Juni 2003 bis August 2004 wurden 45 Patienten mit einem radiologisch gesicherten Schlaganfall und 25 Kontrollpatienten in die Studie aufgenommen. Die Messung dauerte mindestens 2 Stunden und lag innerhalb der ersten 72 Stunden nach Beginn der Schlaganfall- Symptomatik. Zu 3 verschiedenen Zeitpunkten erfolgte eine Beurteilung der Neuroscores (Barthel- Index und NIHSS): Aufnahme in die Klinik, Entlassung aus der Klinik, Entlassung aus der Reha- Klinik. Es wurden NSE und Protein S 100 sowie Leukozyten und CRP in Patientenblut bestimmt. Das Messprotokoll wurde auf mögliche Messfehler und Einhalt der Mindestmessdauer von 2 Stunden überprüft. Nach Abschluss der Patientenakte wurden Liegedauer im Krankenhaus und in der Reha- Klinik ermittelt. Patienten sind auf Vorhandensein der Ausschlusskriterien überprüft worden. Die endgültige Patientenzahl betrug 18 bei Kontrollpatienten und 34 bei Schlaganfallpatienten. Diese Gruppe wurde nochmals in 2 Gruppen geteilt- Patienten mit Schlaganfällen im Versorgungsgebiet A. cerebri media (23) und Patienten mit anderen Schlaganfällen (11). Diese prospektive klinische Studie zeigte, dass Patienten mit Schlaganfällen in den ersten 72 Stunden nach Onset signifikant mehr zu Hyperventilation neigen (58,8% der Messzeit) als Kontrollpatienten (36,1% der Messzeit). In der Schlaganfallgruppe sind 2 Subgruppen unterschieden worden: Schlaganfall im Versorgungsgebiet von A. cerebri media und Schlaganfälle in den anderen zerebralen Arterien. Die Hyperventilationswerte lagen für diese Gruppen etwa gleich (57,6% und 58,3%), dafür neigten Patienten mit Media- Schlaganfällen deutlich mehr zu Hypoventilation (23,7% gegen 0,7%). • Die Korrelationsanalyse hat den Zusammenhang zwischen Normoventilation und besseren Neuroscores gezeigt. Hyper- und Hypoventilation korrelierte positiv mit den schlechteren neurologischen Indices. • Ein signifikanter Zusammenhang der Ventilation mit erhöhten Entzündungswerten konnte nicht nachgewiesen werden. • Eine Korrelation der Ventilation mit NSE und Protein S100 konnte nicht eindeutig nachgewiesen werden. • Für die gesamte Gruppe der Schlaganfälle konnte kein eindeutiger Zusammenhang der Ventilation mit dem Outcome nachgewiesen werden. Die Korrelationsanalyse zeigte eine signifikante, leicht negative Korrelation zwischen Normoventilation und Dauer des Reha-Aufenthaltes bei Patienten mit „Media-Schlaganfällen“ und positive Korrelation zwischen Hypoventilation und Liegedauer in der Reha-Klinik. Bei Patienten mit „Nicht-Media Schlaganfällen“ bestand eine positive Korrelation zwischen Normoventilation und Krankenhausliegedauer sowie zwischen Hyperventilation und Krankenhausliegedauer. Insgesamt legen die vorliegenden Ergebnisse einen positiven Zusammenhang zwischen der Normoventilation und dem Zustand des Patienten sowie Outcome nahe. Die Hyper- und Hypoventilation sind mit einem ungünstigen Verlauf assoziiert. Das macht umso deutlicher, dass Überwachung der Ventilation bei Patienten mit frischen zerebralen Infarkten und Einhalten dieser im Normbereich ganz wichtig ist. Die Kapnometrie eignet sich dazu hervorragend durch einfache Anwendung und fehlende Invasivität. Die Aussagekraft dieser Analyse ist durch eine kleine Fallzahl eingeschränkt. Die Ergebnisse dieser Arbeit sind zu Hypothesegenerierung geeignet, um weitere Studien mit größerer Patientenanzahl anzustoßen. Diese könnten weitere Rolle des Kohlenstoffdioxids bzw. Ventilation bei Schlaganfällen klären.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
Virtualisierungstechniken erfreuen sich immer größerer Beliebtheit in vielen Bereichen der Informatik. Ursprünglich wiederentdeckt mit dem Ziel Ressourcen und Dienste zu konsolidieren, dienen Virtualisierungsansätze heute als Grundlage für moderne Grid- und Cloud-Computing-Infastrukturen und werden damit auch im Bereich des Hochleistungsrechnens eingesetzt. Derzeit existieren keine objektiven und systematischen Analysen bezüglich des Wirkungsgrades von Virtualisierungsansätzen, Techniken und Implementierungen, obwohl sie von vielen großen Rechenzentren weltweit eingesetzt und produktiv betrieben werden. Alle existierenden, modernen Hostvirtualisierungsansätze setzen derzeit auf eine Softwareschicht, die sich je nach Virtualisierungstyp zwischen Hardware und Gast-Betriebssystem bzw. zwischen Host- und Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen Maschine ist somit nicht mehr nur von der Leistung des physischen Systems abhängig, sondern ebenfalls von der Technologie des eingesetzten Virtualisierungsproduktes und nebenläufigen virtuellen Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen anderen Virtualisierungsansatz zu wählen und auf den Typ der nebenläufigen virtuellen Maschinen zu achten, um den Wirkungsgrad eines lokalen Systems sowie den der globalen Infrastruktur zu optimieren. Um dieses Ziel zu erreichen, werden in einem zweistufigen Ansatz zunächst theoretisch Virtualisierungsansätze analysiert und Parameter identifiziert, deren Einfluss auf den Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird. Für die Durchführung dieser quantitativen Analyse ist eine Anpassung verbreiteter Leistungsmaße, wie z.B. Durchsatz und Antwortzeit, für den Kontext der Virtualisierung erforderlich, da sie sich klassisch gesehen auf das Betriebssystem einer Maschine beziehen, eine virtuelle Maschine jedoch von der Architektur her eher einer klassischen Anwendung entspricht. Die Messung dieses Leistungsmaßes in virtuellen Umgebungen stellt eine weitere Herausforderung dar, da Zeitmessung in virtuellen Maschinen aufgrund von Scheduling durch den Hypervisor generell fehlerbehaftet ist und somit alternative Messmethoden konzipiert werden müssen. Basierend auf den durchgeführten Analysen und Messungen wird anschließend ein Leitfaden entwickelt, der dabei hilft, die zur Virtualisierung einer Infrastruktur benötigten Ressourcen qualitativ sowie quantitativ abzuschätzen und eine Verteilung der virtuellen Maschinen anhand ihres charakteristischen Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass vorhandene physische Ressourcen optimal ausgenutzt werden können. Die Automatisierung des erstellten Leitfadens durch die Entwicklung und prototypische Implementierung eines globalen Ressourcen-Schedulers auf der Basis eines gewichteten Constraint Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar eine theoretisch exponentielle Laufzeitkomplexität, liefert in der Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits nach extrem kurzer Laufzeit herausragende Ergebnisse. Die optimierten Verteilungen lassen sich anschließend mittels weniger Live Migration realisieren, da bereits bei der Berechnung einer Verteilung auf deren räumliche Nähe zur bestehenden Verteilung geachtet wird.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19
In der vorliegenden Arbeit wurden A549 Zellen, als Modell für Epithelzellen der Lunge, mittels nicht-viralen Gentransfers mit pDNA bzw. mRNA kodierend für das sekretorische Protein mSEAP transfiziert. Die höchste Transgen-Expression konnte durch den mRNA-vermittelten Gentransfer erreicht werden, unabhängig von dem verwendeten Genvektor. Die Messung der Aktivität von mSEAP im Medium nach mRNA Transfektion mit Liposomen ergab eine Konzentration von maximal 1 ng/50 µl nach 24h, 5 ng/50 µl nach 48h und 7,5 ng/50 µl nach 72h. Für die pDNA Transfektion ergaben sich Konzentrationen für mSEAP von 400 pg/50µl nach 24 h, 700 pg/50 µl nach 48 h und 800pg/50 µl nach 72 h. Es konnte gezeigt werden, dass es bei der Verwendung von mRNA - vor allem nach Transfektion mit dem kationischen Lipid DMRIE-C - zu einer 9-fachen Steigerung der Proteinsekretion in das Medium der kultivierten Zellen kommt. Weiterhin waren ca. 45% der Zellen bei Verwendung von Lipoplexen mit DMRIE-C/mRNA im Gegensatz zu 15% nach Transfektion von pDNA positiv für mSEAP. Nach Transfektion der mRNA mit dem kationische Polymer b-PEI konnten Konzentrationen von mSEAP im Medium von 10pg, 15pg und 50pg in 50µl Medium nach 24h, 48h und 72h gemessen werden. Für die Magnetofektion von mRNA ergeben sich Mengen von ca. 150pg, 250pg und 400pg in 50µl Medium nach 24h, 48h und 72h. Dies entspricht im Vergleich zur Verwendung von pDNA einer 3,3-fachen Steigerung nach Transfektion von mRNA/b-PEI Komplexen, mit der Methode der Magnetofektion einer 4-fachen Steigerung der Proteinexpression. Die erhöhte Proteinexpression kann auf die intrazelluläre Barriere des nukleären Imports von pDNA, welche bei der Verwendung von mRNA nicht notwendig ist, zurückgeführt werden. Die Unterschiede des endosomalen „Escape“ - und dem daraus resultierenden Verhältnis freier mRNA zu komplexierter mRNA im Zytoplasma - könnte eine Erklärung für die geringere Effizienz von Polyethyleniminen im Vergleich zu kationischen Lipiden bei dem Transfer von mRNA sein. Weiterhin konnte mit diesem Modell gezeigt werden, dass humane alveolare Epithelzellen des Adenokarzinoms (A549) - als Modell für humane Lungenepithelzellen - imstande sind, zellfremde Proteine nach Transfer genetischen Materials zu translatieren und zu sezernieren. Eine pulmonale Applikation von therapeutischen Genen kodierend für sekretorische Proteine mittels Vernebelung könnte als nicht-invasive Methode z.B. für die Therapie von Hämophilie A oder B eine Rolle spielen. Weiterführende in vivo Versuche könnten Aufschluss über Serumkonzentrationen des sekretorischen Proteins nach pulmonaler Applikation bringen. Die Verwendung von mRNA als therapeutischem genetischem Material zeigt hierbei Vorteile gegenüber von pDNA, aufgrund der gesteigerten Transgen -Expression, der verminderten Dosis an Transferreagenz, sowie dem fast gänzlich ausgeschlossenen Risiko der insertionellen Mutagenese.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19
Mon, 20 Jul 2009 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/10645/ https://edoc.ub.uni-muenchen.de/10645/1/Poeschl_Karoline_A_B.pdf Poeschl, Karoline
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Im Rahmen der vorliegenden Arbeit wurde ein spektral hochauflösendes Lidar (HSRL) aufgebaut und während des Feldexperiments SAMUM im Mai/Juni 2006 und im Januar/Februar 2008 an Bord des Forschungsflugzeugs Falcon betrieben. Die Intensität von Lidar–Signalen wird maßgeblich durch die Rückstreuung und die Extinktion der atmosphärischen Teilchen beeinflusst. Dabei stehen die Rückstreuung und die Extinktion der Aerosole in keinem konstanten Verhältnis zueinander. Die Messgröße eines normalen Rückstreu–Lidars ist insofern mit zwei unbekannten Größen behaftet, weshalb die direkte Messung der Aerosolextinktion mit einem solchen Lidar nicht möglich ist. Im Gegensatz dazu wird bei der Methode des HSRL neben der gesamten atmosphärischen Rückstreuung der Teil der molekularen Rückstreuung gesondert gemessen. Die Messung des molekularen Rückstreusignals wird durch die spektrale Filterung der atmosphärischen Rückstreuung mit einem schmalbandigen optischen Filter ermöglicht. Durch den Vergleich des gemessenen molekularen Signals mit dem zu erwartenden kann die Aerosolextinktion direkt bestimmt werden. Zum Aufbau des Instruments wurde eine Joddampfabsorptionszelle konstruiert und in das Empfangsmodul des bestehenden flugzeuggetragenen Lidars des Deutschen Zentrums für Luft– und Raumfahrt integriert. Außerdem wurde der Lasertransmitter des Lidars mit einem neuartigen Verfahren der opto–akustischen Modulation frequenzstabilisiert. Während SAMUM–1 wurden damit erstmalig die optischen Eigenschaften des reinen Saharastaubaerosols, insbesondere dessen Extinktion, das Verhältnis von Extinktion und Rückstreuung sowie die Depolarisation, in der Nähe seiner Quellgebiete untersucht. Die Messungen des neuen HSRL wurden zur Qualitätssicherung mit Hilfe unabhängiger Instrumente validiert. Die Lidar–Verhältnis–Messungen wurden durch Trajektorienanalysen auf mögliche Abhängigkeiten von unterschiedlichen Quellgebieten untersucht. Die HSRL–Messungen der Aerosol–optischen Dicke wurden mit satellitengestützten Messungen verglichen. Südlich des Hohen Atlas Gebirges wurden Aerosol–optische Dicken von 0,50 bis 0,60 gemessen. Es zeigte sich eine ausgeprägte laterale Variabilität der Aerosol–optischen Dicke, die bei homogenen Schichten allein auf deren unterschiedliche Dicke zurückgeführt werden konnte. Die vertikalen Variationen des Lidar–Verhältnisses zwischen 38 sr und 50 sr wurden durch Trajektorienanalysen auf die Anströmung aus unterschiedlichen Quellgebieten zurückgeführt. Im Depolarisationsverhältnis wurden jedoch keine vertikale Variationen beobachtet, was auf eine einheitliche Teilchenform schließen lässt. Die Aerosoldepolarisation betrug in den Staubaerosolschichten 0,30 ± 0,02. Dies bestärkt die Annahme, dass das Lidar–Verhältnis in erster Linie durch die unterschiedliche chemische Zusammensetzung des Aerosols beeinflusst wird. Aufgrund der hohen natürlichen Variabilität erscheint die Angabe eines mittleren Wertes als nicht sinnvoll. Der Vergleich mit MISR–Messungen der Aerosol–optischen Dicke zeigte größtenteils Übereinstimmung innerhalb der Fehlergrenzen. Direkt über dem Hohen Atlas traten signifikante Abweichungen auf, die durch die sich stark ändernde Topographie erklärt werden können.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Die Messung des BMD mit der DXA stellt die weitverbreitetste Methode in der Osteoporosediagnostik zur Abschätzung des Frakturrisikos dar. Zur Einschätzung der mechanischen Festigkeit des distalen Radius sind jedoch verbesserte Methoden notwendig, um zum frühest möglichen Zeitpunkt einen osteoporotisch bedingten Knochenverlust zu erkennen und folgende Frakturen durch eine adäquate Therapie zu verhindern. Ziel der vorliegenden Studie war daher die Prüfung der Hypothese, dass quantitative Messungen der Knochenmikrostruktur mit der Mikro-CT eine Verbesserung der Vorhersagen der Bruchlasten des distalen Radius, verglichen mit der Bestimmung der Knochenmasse alleine, ergeben. Das Untersuchungsgut umfasste 130 Unterarme von Präparaten (66 Männer, Alter: 79,7±9,13; 64 Frauen, Alter 81,5± 8,94) aus 3 aufeinanderfolgenden Präparierkursen der Jahre 2000 bis 2002 in der Ludwig-Maximilian-Universität München. Die Unterarme der einen Seite wurden mit der Zweienergie-Röntgen-Absorptiometrie (pDEXA; Norland/ Stratec,, Pforzheim, Deutschland) sowohl an der distalen Metaphyse (1 cm Länge; proximal des Articulatio radiocarpalis) als auch am Schaft (1 cm Länge; bei ca. 33% der gesamten Knochenlänge) gemessen. Die Mikro-CT Scans der kontralateralen Radii (2 mm proximal des Gelenkspaltes) wurden an einem zylindrischen „Volume Of Interest“ von 6 mm Durchmesser und 6 mm Länge durchgeführt. Im Anschluss wurden die Versagenslasten der Radii in einer Sturzsimulation (in 80% Pronation, 70% Dorsalflexion) mittels einer Materialprüfmaschine (Firma Zwick, Zwick 1445, Ulm) ermittelt. Bei der Analyse des gesamten Untersuchungsgutes (n=130) zeigt die ROI „Distaler isolierter Radius ohne Ulna“ (bzw. Dist BMD R) die höchste Korrelation (r=0,82) mit den mechanischen Versagenslasten. Nach Ausschluss von 21 Radii, die kein radiologisch sichtbares Zeichen einer Fraktur aufwiesen (n=109), ergab sich eine Korrelation von r=0,85. Die Untergruppe der „Loco-Typico-Frakturen“ (n=79) wies eine Korrelation von 0,82 auf. Bei der Analyse der Mikro-CT Parameter des gesamten Kollektives zeigte der BV/TV die höchste Korrelation (r=0,49) mit den Versagenslasten. Den höchsten Korrelationskoeffizienten (r=0,55) aller Mikro-CT Parameter erreichte der BV/TV in der Untergruppe der radiologisch identifizierten Frakturen. In der Untergruppe der Loco-Typico-Frakturen wies der BV/TV einen Korrelationskoeffizienten von r=0,43 auf. In multiplen Regressionsanalysen konnte auf Basis der Mikro-CT keine signifikante zusätzliche Information zu der mit der DXA möglichen Vorhersage gewonnen werden. Die Befunde zeigen, dass auch bei hochauflösender Messung mit Mikro-CT die μ-Struktur des trabekulären Knochens von Biopsien der hier untersuchten Größe keinen Informationsgewinn gegenüber der Knochenmasse in Bezug auf die Strukturfestigkeit des distalen Radius ergibt. Eventuell besteht klinisch daher keine so hohe Bedeutung der Bestimmung der trabekulären μ-Struktur wie bisher angenommen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
The objective of this study was to evaluate the measurement of whole body composition by dual-energy X-ray absorptiometry (DXA) in turkeys (post mortem). In total, 130 turkeys (1.3 – 24.1 kg) of two genotypes BUT Big6 and Kelly Bronze were scanned at 4 different ages by using DXA with a LUNAR DPX-IQ densitometer. Whole body scans were performed and analyzed twice using Pediatrie Small (Reference Mode) for all animals. Additionally, Pediatric Medium, Pediatric Large, Small Animal Medium, or Small Animal Small modes were used on a smaller number of animals. DXA measurements provided readings of fat mass, lean mass, bone mineral mass, and bone mineral density. The turkeys were frozen (-18 °C) and analyzed in a plastic bag. The body weight of Big6 (15.7 kg) in week 18 is already similar to the body weight of Kelly Bronze (16.3 kg) four (4) weeks later. After week 18, the DXA FAT (%) values were smaller (week 18: 12.6; week 24: 7.7 %) but the values for DXA LEAN (%) were higher (84.8 / 89.7 %) in Big6 than in Kelly Bronze (13.3 / 11.5 or 84.4 / 85.9 % respectively). The body weight can be predicted with a high precision (R² = 1; RMSE = 21 in g) and a high accuracy (R² = 0,996; RMSE = 351 in g) by DXA. These results indicate a good suitability of DXA to estimate the carcass composition of turkeys in vivo. But the results should be validated by chemical analysis or dissection.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Ultraschalltechnisch können die myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain auf verschiedene Arten berechnet werden. Es besteht die Möglichkeit, die Parameter mittels Gewebedoppler zu analysieren. Neue Techniken sind die Methode des Speckle Tracking und Kombinationen beider Methoden. Der Gewebedoppler ist in der Human- und beginnend auch in der Tiermedizin bereits untersucht und etabliert. Limitiert ist diese Technologie vor allem durch den Winkelfehler und aufwendiges manuelles Tissue Tracking. Das Speckle Tracking ist dopplerunabhängig und berechnet die Funktions¬parameter durch die Bewegung von Graubildpixeln von Bild zu Bild. In der Theorie ist das Speckle Tracking unabhängig vom Anschallwinkel und das Tracking erfolgt automatisch. Auch diese neue Untersuchungstechnik beginnt in der Humanmedizin Fuß zu fassen und wird in klinischen Studien bereits eingesetzt. Für die Tiermedizin existieren zu dieser Technologie noch keine Veröffentlichungen. Ziel der Arbeit „Zweidimensionales Speckle Tracking im Vergleich zu dopplerbasierten Ultraschallmethoden zur Bestimmung der myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain beim Hund“ war es, an einer Population von 116 herzgesunden Hunden verschiedener Rassen (Alter 1 bis 15 Jahre, Gewicht 2 bis 72 kg) Referenzwerte zu erstellen. Gewebegeschwindigkeit, Strain Rate und Strain wurden mit (1) Speckle Tracking, (2) einer kombinierte Methode aus Speckle Tracking und Gewebedoppler, (3) einer Methode, die automatisches Tracking verwendet, jedoch zur Analyse der Parameter auf Dopplerdaten zurückgreift sowie (4) der konventionellen Gewebedoppler-Echokardiographie mit manuellem Tracking evaluiert. Die Datenakquirierung erfolgte mit einem Vivid 7® System, die offline-Analyse mit den Programmen EchoPac Q-Analyse® und EchoPac 2D Strain® (Versionen BT 04 und BT 05) der Firma GE (Horten, Norwegen). Bei der Untersuchung der neuen Methoden – auch im Vergleich mit der konven¬tionellen Gewebedopplertechnologie – und bei der Erstellung von Referenz¬werten, wurde auf Mittelwerte innerhalb von Myokardsegmenten zurückgegriffen. Die verglichenen Analysemethoden korrelierten gut miteinander, wobei die neuen Techniken teilweise niedrigere Messwerte als die konventionelle Gewebe¬dopplertechnologie lieferten. Im Vergleich von Myokardsegmenten innerhalb einzelner Herzwände zeigte die Tissue Velocity einen Gradienten von basal nach apikal. Strain Rate und Strain dagegen waren homogen verteilt. Mit der konventionellen Gewebedoppler¬technologie konnte diese homogene Verteilung von Strain Rate und Strain in der Tiermedizin bisher nicht gezeigt werden. Eine Ursache für die durch den Gewebedoppler ermittelte inhomogene Verteilung von Strain Rate und Strain kann die Winkelabhängigkeit der Messungen sein. Das Fehlen eines Gradienten in Strain Rate und Strain weist darauf hin, dass eine Winkelabhängigkeit der neuen Methoden nicht vorhanden ist. Im Vergleich der Herzwände zeigte die rechte Wand mit den neuen Methoden bei der Messung der meisten Parameter die höchsten Werte. Die Messung der Parameter in der Einzelwanddarstellung lieferte aufgrund höherer Bildraten größere Messwerte als im Vierkammerblick. Einige der Parameter zeigten eine Abhängigkeit von physiologischen Einfluss¬faktoren wie Alter, Gewicht, Geschlecht, Rasse und Herzfrequenz. Klinisch relevant war vor allem der Einfluss des Gewichts. Dies macht die Erstellung von Referenzwerten für einzelne Gewichtsgruppen notwendig. Die Reproduzierbarkeit des Speckle Tracking und der Dopplerdatenanalyse mit automatischem Tracking war für die meisten Parameter gut und teilweise war sie besser, als mit der konventionellen Gewebedoppleranalyse. Die kombinierte Analysemethode zeigte eine schlechtere Reproduzierbarkeit als die anderen Methoden. Diese relativ schlechte Reproduzierbarkeit der kombinierten Analyse¬methode und die Tatsache, dass diese Methode teilweise nicht erklärbare, von den anderen Methoden abweichende Untersuchungsergebnisse lieferte, lässt sie für den Hund als wenig geeignet erscheinen. Die vorliegenden Untersuchungsergebnisse können als Grundlage für weiter¬führende Untersuchungen dienen. Hier sind das Verhalten der myokardialen Funktionsparameter bei Herzerkrankungen oder der Einfluss von Medikamenten mögliche Fragestellungen für zukünftige Studien. Zudem können die erzielten Ergebnisse teilweise in die Humanmedizin übernommen werden.
Die Prävalenz des Tabakkonsums ist bei Personen mit einer Neigung zur Depression höher als in der Allgemeinbevölkerung. Gleiches gilt für Personen mit einer Erkrankung aus dem schizophrenen Formenkreis. Alkoholabhängige Patienten weisen eine höhere psychische Belastung auf als nichtabhängige Personen. Bislang ungeklärt ist, inwiefern sich die rauchenden von den nichtrauchenden alkoholabhängigen Personen hinsichtlich ihrer psychischen Belastung unterscheiden. Es wurden Daten von 1403 Patienten mit der Hauptdiagnose „Alkoholabhängigkeit“ aus 40 Suchtrehabilitationskliniken zu Beginn der stationären Behandlung erhoben. 84% der Stichprobe sind Raucher. Die Messung der subjektiv empfundenen psychischen Symptombelastung erfolgte mittels der neun Skalen des Brief Symptom Inventory (BSI). Innerhalb der untersuchten Population der alkoholabhängigen Patienten weisen die zusätzlich rauchenden Patienten in den Bereichen Zwanghaftigkeit (T-Werte: 58 vs. 55), Depressivität (T-Werte: 64 vs. 61), Aggressivität (T-Werte: 59 vs. 55) und Psychotizismus (T-Werte: 63 vs. 59) signifikant höhere Werte auf als die Vergleichsgruppe. Diese Ergebnisse implizieren eine im Durchschnitt höhere Symptombelastung von rauchenden Alkoholpatienten im Vergleich zu nichtrauchenden Patienten. Dies impliziert eine klarere Diagnostik dieser Patientengruppe sowie das Bereitstellen von intensiveren Tabakentwöhnungsmaßnahmen für spezifische Subgruppen von Rauchern. Die Ergebnisse können als mögliche Erklärung herangezogen werden, weshalb diesen Patienten eine Aufgabe des Tabakkonsums besonders schwer fällt. Zu diskutieren bleibt die Richtung der Kausalität.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Die Osteoporose ist eine der bedeutendsten Erkrankungen des Haltungs- und Bewegungsapparates. Jede dritte Frau und jeder vierte Mann in Deutschland erkranken an Osteoporose. Diese Zahl wird in Anbetracht der demografischen Entwicklung in den kommenden Jahrzehnten noch deutlich ansteigen. Bis zu 95% aller Personen, die eine Fraktur erleiden, werden im Rahmen ihrer ambulanten oder stationären Versorgung nicht bezüglich einer Osteoporose evaluiert. Ziel der Studie war ein Osteoporosescreening bei Krankenhauspatienten durchzuführen sowie der Vergleich der Knochendichte von Diabetikern und einer gesunden Kontrollgruppe. Die Messung der Knochendichte wurde mit quantitativer Knochenultrasonometrie an den Fingern II bis V, der nicht–dominanten Hand, durchgeführt (DBM Sonic Bone Profiler, Firma I.G.E.A. Idar – Oberstein). Gleichzeitig wurde das für die Messungen verwendete Gerät, der I.G.E.A. Bone Profiler bezüglich seiner Eignung zu Screening–Untersuchung im klinischen Alltag getestet. Es konnte gezeigt werden, dass Patienten im Alter zwischen 50 und 70 Jahren eine signifikant niedrigere Knochendichte aufweisen als ein gesundes Referenzkollektiv. Bei den Patienten mit Diabetes mellitus hatten die Typ2-Diabetiker im Vergleich zum gesunden Referenzkollektiv und zu den Typ1-Diabetikern signifikant niedrigere Knochendichtewerte. Screeningverfahren zur Osteoporoseprophylaxe sind also nicht nur bei Risikogruppen, wie z.B. Diabetikern notwendig, sondern für die überwiegende Mehrheit des Krankenhauskollektivs von Bedeutung. Zusätzlich konnte gezeigt werden, dass praktikable Untersuchungsverfahren, wie die Ultrasonometrie, für den klinischen Alltag zur Verfügung stehen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
In der Literatur wird eine Verschlechterung grobmotorischer Fähigkeiten bei Kindern beschrieben, die mit verschiedenen Erkrankungen im Erwachsenenalter assoziiert sind. Daher sollen Risikofaktoren für ein motorisches Defizit im Einschulungsalter identifiziert werden, die einer möglichen Prävention zugänglich gemacht werden können. Daten von 205 Kindern im Alter von 5 und 6 Jahren wurden im Rahmen der Schuleingangsuntersuchung 2004/05 in München erhoben. Bestandteil der Studie war der Motoriktest "Seitliches Hin- und Herspringen". Potentielle Einflussgrößen wurden einem Elternfragebogen sowie Daten über die körperliche Aktivität der Kinder gemessen mit dem Akzelerometer entnommen. Verglichen mit den Normtabellen der Universität Karlsruhe zeigten 75% der Münchener Kinder grobmotorische Auffälligkeiten. Als einer Primärprävention zugänglichen Risikofaktoren wurden Rauchen in der Schwangerschaft, hoher Medienkonsum sowie seltenes Ball und Fangen spielen identifiziert. Diese gehen mit einer Leistungsminderung von 8 bis 15% einher. Die Messung mit dem Akzelerometer zeigte keine Assoziation zwischen der körperlichen Aktivität und der grobmotorischen Leistung der Kinder.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Fortschreitender Knochenmasseverlust und sekundäre Osteoporose sind häufige Komplikationen bei Patienten mit chronischer Herzinsuffizienz. Aufgrund von Schmerzen, spontanen Frakturen und eventuell dauerhafter Immobilisation werden die ohnehin schon schwer erkrankten Patienten noch weiter beeinträchtigt. Bisher jedoch gibt es noch keine Standardtherapie für die sekundäre Osteoporose nach Herzinsuffizienz. In vorliegender Arbeit wurde deshalb erstmals der Effekt einer Osteoporose-Therapie mit Alfacalcidol (1-α-Hydroxy-Vitamin D3) plus Calcium auf den Knochenstoffwechsel von Patienten mit chronischer Herzinsuffizienz untersucht. Dies geschah in interdisziplinärer Zusammenarbeit mit der Medizinischen Poliklinik Innenstadt der Ludwig-Maximilians-Universität München. Es sollte evaluiert werden, ob diese Therapie entscheidende Vorteile gegenüber der alleinigen prophylaktischen Gabe von Calcium bietet. Patienten mit chronischer Herzinsuffizienz erhielten im ersten Studienjahr eine Basisgabe von 500 mg Calcium und im 2. Studienjahr eine Kombinationstherapie aus 1 µg Alfacalcidol plus 500 mg Calci-um. Als Hauptzielgrößen für den Therapieerfolg dienten die biochemischen Parameter des Knochenstoffwechsels und die Entwicklung der Knochendichte. Als Marker der Knochenformation wurden das nichtkollagene Knochenprotein Osteocalcin und die Knochenspezifische Alkalische Phosphatase, als Marker der Knochenresorption die Pyridinium-Crosslinks Pyridinolin und Desoxypyridinolin herangezogen. Die Messung der Knochendichte erfolgte mittels Zweispektren-Röntgenabsorptiometrie (DXA) an Lendenwirbelsäule (LWS) und Femur. Zu Studienbeginn zeigten die Patienten einen gestörten Knochenstoffwechsel mit physiologischer Knochenformation und erhöhter Knochenresorption. Die mittlere Knochendichte an Femur und Len-denwirbelsäule war gemäß der WHO-Definition im Sinne einer Osteopenie vermindert. Eine Osteopo-rose war bei 18 % der Studienteilnehmer am Femur und bei 23 % an der LWS nachweisbar. 41 % der Patienten litten zudem an einem sekundären Hyperparathyreoidismus, welcher einen wichtigen Faktor bei der Krankheitsentstehung darstellt. Die Untersuchung ergab, dass unter dem Einfluss der alleinigen Calciumgabe im ersten Studienjahr die Knochenresorption weiter anstieg und auch der fortschreitende Verlust an Knochenmasse nicht aufgehalten werden konnte. Hingegen bewirkte die Therapie mit Alfacalcidol plus Calcium im zweiten Studienjahr eine Normalisierung des Knochenstoffwechsels. Die Knochendichte an der Lendenwirbelsäule und am Femurhals stieg unter der Therapie mit Alfacalcidol plus Calcium hochsignifikant an. In vorliegender Arbeit konnte gezeigt werden, dass die alleinige Gabe von Calcium nicht geeignet ist, den pathologischen Knochenstoffwechselvorgängen bei Patienten mit chronischer Herzinsuffizienz entgegen zu wirken. Hingegen stellt die Kombination aus Alfacalcidol plus Calcium eine geeignete Therapie dar, durch welche die erhöhte Knochenresorption gehemmt, der fortschreitende Knochenverlust aufgehalten und in Folge eine Steigerung der Knochenmasse herbeigeführt wird.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Die Osteoporose ist heute mit Millionen betroffener Patienten ein weltweites Gesundheitsproblem. Die WHO hat sie als eine der zehn wichtigsten Volkskrankheiten eingestuft. Die Prävalenz zumindest einer osteoporotischen Fraktur steigt bei Frauen im Alter von 70 Jahren auf nahezu 50%. Das vergleichbare Frakturrisiko für Männer liegt zwischen einem Drittel und einem Sechstel desjenigen der Frauen. Obwohl in den letzten Jahren eine Vielzahl von diagnostischen und therapeutischen Maßnahmen etabliert wurde, sind viele Osteoporose–Patienten noch heute unterdiagnostiziert und untertherapiert. Ziel der vorliegenden Studie war es, ein Osteoporose-Screening bei Krankenhauspatienten mittels Fingerultraschall durchzuführen und eventuelle Korrelationen zwischen veränderten Knochendichtewerten und Einflussfaktoren zu finden. Zusätzlich zur Hauptfragestellung nach Knochendichtewerten eines durchschnittlichen Patientenkollektivs im Krankenhaus, sollte die Praktikabilität des I.G.E.A. Bone Profilers, zur Messung der Knochendichte mittels Ultraschall für eine Screening – Untersuchung im klinischen Alltag getestet werden. Vergleicht man die Knochendichtewerte von Patienten- und Kontrollgruppe (n = 345), ergeben sich signifikant niedrigere Werte innerhalb der Patientengruppe (p-AD-SoS = 0,000, p-T-Score = 0,000, p-UBPI = 0,000). Mit Ausnahme von Alter (p = 0,000), Geschlecht (p- AD-SoS = 0,02; p-T-Score = 0,006) und Bewegung (p-UBPI = 0,01) lassen sich keine weiteren Einflussfaktoren innerhalb der Patientengruppe finden. Das bedeutet, dass das durchschnittliche Patientenkollektiv im Alter zwischen 50 und 70 Jahren auf internistischen, allgemeinchirurgischen und gynäkologischen Stationen, sowie auf Stationen der physikalischen Medizin keine normalen Knochendichtewerte mehr aufweist, sondern im Bereich der Osteopenie bzw. Osteoporose liegt. Trägt man dieser Tatsache Rechnung, sind nahezu alle Patienten, unabhängig von ihrer Grunderkrankung und bekannten Risikofaktoren, jenseits des 50. Lebensjahres gefährdet, eine Osteoporose und nachfolgend Frakturen zu entwickeln. Betrachtet man die demographische Bevölkerungsentwicklung in Deutschland, wird deutlich, dass der sich entwickelnden Masse an Osteoporosepatienten nur dann Einhalt geboten werden kann, wenn nahezu alle Fachbereiche in die Diagnostik und Therapie eingebunden werden. Schon wenige spezielle Fragen im Rahmen der Erstanamnese können Hinweise auf die Entwicklung oder das Vorliegen einer Osteoporose geben. Gefährdete Personen sollten sich dann einer Knochendichtemessung unterziehen. In der vorliegenden Studie hat sich der I.G.E.A. Bone Profiler als praktikables und einfach anzuwendendes Gerät bewährt. Die Messung lässt sich in ca. 5 Minuten pro Patient durchführen und liefert gut reproduzierbare Ergebnisse. Aufgrund der fehlenden Strahlenbelastung wird die Knochendichtemessung mittels Ultraschall vom Patienten gut toleriert und positiv bewertet. Die eingeschränkte Messgenauigkeit des Bone Profilers bei sehr adipösen Patienten ist ein Nachteil der Methode, stellt aber, wenn man sie berücksichtigt, kein gravierendes Problem dar. Patienten, die weder an einer Adipositas per magna leiden noch Ödeme an den Händen aufweisen, können bedenkenlos mit dem Bone Profiler gemessen werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Ältere Menschen weisen eine hohe Inzidenz an osteoporotischen Wirbelkörperfrakturen auf. Diese betreffen überwiegend Frauen und finden sich vor allem im thorakolumbalen Bereich der Wirbelsäule. Sie führen zu einer stark herabgesetzten Lebensqualität der Patienten und zu enormen Kosten für das Gesundheitssystem. Das Frakturrisiko wird dabei unter anderem von der mechanischen Kompetenz des Wirbelkörpers bestimmt. Bislang ist jedoch unklar, welchen Beitrag verschiedene anatomische Strukturen der Wirbelkörper (trabekulärer Kern, (sub)kortikale Randzone, Endplatten) zur mechanischen Festigkeit leisten und welche Unterschiede dabei zwischen Frauen und Männern bestehen. Ziel der Studie war es die Heterogenität der mechanischen Festigkeit und der Knochendichte innerhalb der Wirbelsäule zu analysieren, den Beitrag des kortikalen bzw. trabekulären Kompartiments zur mechanischen Festigkeit zu bestimmen und dabei geschlechtsspezifische Differenzen der Versagenslasten, Versagensspannungen und Dichtemessungen zu ermitteln. Es wurden insgesamt 39 Wirbelsäulen (23 Frauen und 16 Männer im Alter von 79 ± 11 J.) von BWK 3 bis LWK 5 untersucht. Nach Kompartimenten getrennte Messungen der Dichte wurden auf 25, 50 und 75 % der Wirbelkörperhöhe mittels der pQCT durchgeführt. Anschließend erfolgte die Zerlegung jeder Wirbelsäule in 5 Einheiten zu je 3 Wirbeln, welche wiederum jeweils in vier Proben (planparallele Scheibe, funktionelles 3er-Segment, trabkulärer Kern und (sub)kortikaler Ring) unterteilt wurden. In axialer Kompression wurden an diesen Proben insgesamt 780 mechanische Tests durchgeführt. Es zeigten sich weder in Bezug auf das Versagen noch auf die Knochendichte signifikante Unterschiede zwischen Frauen und Männern. Die (sub)kortikalen Ringe wiesen in allen Regionen deutlich höhere Versagensspannungen auf als die trabekulären Kerne. Die Versagensspannungen der Ringe waren höher mit denjenigen der 3er-Segmente (r = 0,78) und der planparallelen Scheiben (r = 0,69) korreliert als die Versagensspannungen der Kerne (r = 0,62 und 0,57). Die Korrelationen der Versagensspannungen zwischen Wirbeln unterschiedlicher Regionen waren nur sehr moderat (r = 0,63 bis 0,71). Auch die Dichtewerte korrelierten zwischen den Wirbeln nur gering (Durchschnitt r = 0,76). Beide Parameter zeigten eine Abnahme der Korrelation mit zunehmender Distanz der Wirbelkörper voneinander. Die Messung der Gesamtdichte ermöglichte eine bessere Vorhersage der Versagensspannungen (r = 0,63) als die Messung der trabekulären oder (sub)kortikalen Dichte (r = 0,50 bzw. 0,35). Wir schließen aus den Befunden, dass sich die unterschiedlichen Frakturinzidenzen zwischen Frauen und Männern bei älteren Menschen nicht auf verschiedene Versagenslasten, -spannungen oder Knochendichtewerte zurückführen lassen. Außerdem ist nach unseren Ergebnissen davon auszugehen, dass sowohl das mechanische Versagen als auch die Dichte eine hohes Maß an Heterogenität innerhalb der Wirbelsäule aufweisen. Dies bedeutet, dass hohe Werte in einer Region nicht notwendigerweise mit hohen Werten in anderen Regionen assoziiert sind. Des Weiteren scheint die äußere (sub)kortikale Randzone bei älteren Menschen einen größeren Beitrag für die Aufrechterhaltung der mechanischen Integrität der Wirbelkörper zu leisten als der trabekuläre Kern. Die Korrelation der Dichte mit den Versagensspannungen zeigt, dass zur Vorhersage der mechanischen Kompetenz sich klinisch die Messung der Gesamtknochendichte empfiehlt.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
In der vorliegenden, randomisierten und verblindeten Studie wurden die Effekte von PerflubronTM 60% als Supplement zur konventionellen Volumentherapie des hämorrhagischen Schocks auf Sauerstofftransport und Gewebeoxygenierung untersucht. Die Studie wurde am experimentellen Modell des splenektomierten, narkotisierten Hundes durchgeführt. Nach der chirurgischen Präparation und einer Stabilisierungsphase erfolgte die Induktion eines hämorrhagischen Schocks mittels Blutentzug bis zu einem Mittleren Arteriellen Druck von 45 mmHg. Das Modell war über die im Verlauf der Hypotension eingegangene Sauerstoffschuld standardisiert, die definierte Schocktiefe war mit 120 ml/kg KG eingegangener Sauerstoffschuld erreicht. Durch Randomisierung erfolgte die Zuordnung der Tiere in zwei Gruppen. In der HES-Gruppe wurde das entzogene Blutvolumen normovolämisch mit 6% HES 200000 ersetzt. In der PFC-Gruppe wurden 2,7 g/kg KG PerflubronTM 60% infundiert und die verbleibende Differenz zum entzogenen Blutvolumen mit 6% HES 200000 ersetzt. Ab dem Therapiezeitpunkt wurden die Tiere beider Gruppen mit 100% O2 beatmet. Messungen fanden nach der Stabilisierungsphase, im Schock, direkt nach Therapie, sowie 30, 60 und 180 Minuten nach Therapie statt. Für die vorliegende Arbeit wurden die Parameter des systemischen Sauerstofftransportes und der Gewebeoxygenierung unter besonderer Berücksichtigung der regionalen, intestinal-mukosalen Situation untersucht. Weiterhin umfaßten die Messungen hämodynamische Werte, sowie Parameter zu Myokardfunktion und –oxygenierung. Die Ergebnisse der vorliegenden Arbeit lassen sich wie folgt zusammenfassen: Die Messungen zu systemischem Sauerstofftransport und Gewebeoxygenierung zeigten, daß der arterielle Sauerstoffpartialdruck in der PFC-Gruppe aufgrund der verbesserten Löslichkeit von Sauerstoff in Plasma signifikant stärker anstieg als in der HES-Gruppe. Der Plasmaanteil am Sauerstoffangebot war in der PFC-Gruppe um 20% höher als in der HES-Gruppe und führte zu einem höheren systemischen Sauerstoffangebot. Dies ermöglichte in der PFC-Gruppe einen höheren Sauerstoffverbrauch der Tiere und als Zeichen einer verbesserten Gewebeoxygenierung eine temporäre Senkung der Sauerstoffschuld. Die Messung des Gewebesauerstoffpartialdruckes auf der intestinalen Mukosaoberfläche ergab in der PFC-Gruppe einen um 4-8 mmHg höheren Medianwert des PO2 als in der HES-Gruppe bis 60 Minuten nach Therapie. Insbesondere fanden sich in der PFC-Gruppe signifikant weniger hypoxische Werte. Die PFC-Supplementierung führte in der vorliegenden Studie zu keinem relevanten Unterschied in der Überlebenszeit. Aufgrund der nur initial durchgeführten Therapie starben alle Tiere als Folge von kapillären Flüssigkeitsverlusten im kardialen Versagen. Unsere Studie zeigt, daß durch die Supplementierung der konventionellen Volumentherapie des hämorrhagischen Schocks mit PerflubronTM 60% eine temporäre Verbesserung des Sauerstofftransportes und der Gewebeoxygenierung erzielt werden kann. Durch den Einsatz von PerflubronTM 60% in der prähospitalen Therapie könnten daher theoretisch die Letalität und die Spätfolgen des hämorrhagischen Schocks gesenkt werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Eine erstmals durchgeführte optische Messung der Hyperfeinaufspaltung des 2s-Zustandes in Deuterium und die Beschreibung eines Aufbaus zur Messung der 1s-3s-Frequenz in Wasserstoff durch Anregung mit einen Frequenzkamm erwarten den Leser dieser Arbeit. Beide Experimente haben das Ziel, die Quantenelektrodynamik (QED) gebundener Zustände mit hoher Präzision zu testen. Die Messung der Hyperfeinaufspaltung dient dabei der Verbesserung der Genauigkeit der sog. D21 = 8HFS(2s)− HFS(1s) Differenz. Da D21 weitgehend unabhängig von der Kernstruktur ist, kann trotz nicht akkurat bekanntem Protonenladungsradius QED auf einem Niveau von 10^−7 getestet werden. Im Rahmen der hier vorliegenden Arbeit wurde der Fehler dieser Größe um einen Faktor drei reduziert. Das Ergebnis für die 2s-Hyperfeinaufspaltung lautet: f_D HFS(2s) = 40 924 454(7) Hz. Durch eine neue, geschicktere Art der Datenaufnahme konnten außerdem viele systematische Fehler, insbesondere nichtlineare Driften des Referenzresonators, im Vergleich zu einer ähnlichen Messung an Wasserstoff reduziert werden. Der zweite Teil der Arbeit beschreibt die Anstrengungen, die unternommen wurden und werden, um QED anhand ihrer Vorhersage der 1s-Lamb-Verschiebung zu prüfen. Dazu soll die Frequenz des 1s-3s-Übergangs in Wasserstoff erstmals absolut gemessen werden. Ein weiteres Novum ist, daß hierzu ein frequenzvervierfachter, modengekopplter Laser zum Einsatz kommen soll. Im einzelnen wird der Aufbau und die Stabilisierung eines ps-Lasers, der Aufbau zweier Frequenzverdopplungs-Stufen, der Aufbau zur Messung der Absolutfrequenz des Spektroskopielasers, der Umbau des bestehenden 1s-2s-Vakuumsystems und die Entwicklung der Meß-Software beschrieben. Erste, von mir durchgeführte Versuche mit diesem neuen Spektrometer die Resonanz zu finden, blieben allerdings bislang erfolglos. Abschließend werden daher eine Reihe von Verbesserung vorgeschlagen, die das Experiment mit hoher Wahrscheinlichkeit doch noch zum Erfolg führen werden. Zusätzlich wird in dieser Arbeit die Theorie zur Zweiphotonen-Frequenzkammspektroskopie weiterentwickelt. Es werden konkrete Ausdrücke für die erwartete Linienform und den Einfluß von Chirp auf die Anregungsrate angegeben.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Strukturelle Skoliosen sind durch komplexe dreidimensionale Wirbeldeformitäten und eine gestörte Statik der Wirbelsäule charakterisiert. Trotz des Einsatzes vielfältiger diagnostischer Möglichkeiten sind die biomechanischen Erklärungsmodelle zur vorliegenden Gelenksmechanik nicht ausreichend und vollständig. Ziel der Arbeit war es, anhand der Untersuchung von Endplatten und Facettengelenken bei strukturellen Skoliosen bisher fehlende präzise Informationen über die Beanspruchungssituation an den Gelenken der Wirbelsäule zu erhalten, den Zusammenhang zum Schweregrad der Erkrankung herzustellen und davon ausgehend die Kräfteverhältnisse in skoliotischen Wirbelsäulen zu beurteilen. Hierzu wurden 72 Brust- und 30 Lendenwirbel von sechs skoliotischen Wirbelsäulen unterschiedlicher Ausprägungsgrade untersucht. Durch die 3-D-Rekonstruktionen von CT-Datensätzen der Wirbel und Winkelmessungen auf den CT-Schnittbildern wurden zunächst die Wirbeldeformitäten analysiert. Mittels der CT-Osteoabsorptiometrie (CT-OAM) (Müller-Gerbl 1989) – einem etablierten Verfahren für die Beanspruchungsanalyse von Gelenken – konnte die individuelle Mineralisierungsverteilung der gelenkigen Verbindungen als Maß der längerfristigen Spannungsverteilung in der subchondralen Knochenlamelle dargestellt werden. Es konnten die skoliosetypischen Wirbeldeformitäten nachgewiesen werden und dabei präzise Aussagen über an den Facettengelenken vorhandene Asymmetrien gemacht werden. Zudem beobachteten wir osteophytäres Knochenwachstum vor allem an den Wirbelsäulen mit stärkerem Krümmungsausmaß. Die Messung des Facettengelenkwinkels an den lumbalen Scheitelwirbeln wies auf eine deutlich frontalere Orientierung der konkavseitigen Facettengelenke hin, wobei die Differenz zwischen linkem und rechtem Winkel ein direkt proportionales Verhalten zum Cobb-Winkel zeigte. Der intraindividuelle Vergleich des Mineralisierungsverhaltens an den Scheitelregionen zeigte eine deutliche Bevorzugung der konkaven Endplattenhälften, sowohl hinsichtlich der Lokalisation der Mineralisierungsmaxima, als auch des Kalziumgehaltes (mg Ca/ml). An den Facettengelenken beobachteten wir ebenfalls eine konkavseitige Erhöhung der Mineralisierung, am apikalen Wirbel selbst wurden jedoch auch vereinzelte Erhöhungen auf der konvexen Seite gefunden. Unsere Untersuchungen zeigen, dass in einer skoliotischen Wirbelsäule sowohl hinsichtlich der Wirbelmorphologie, wie auch hinsichtlich der subchondralen Mineralisierung von Endplatten und Facettengelenken deutliche Asymmetrien nachweisbar sind. Zudem konnten wir eine Abhängigkeit vom Schweregrad der Skoliose und dem Ausmaß der strukturellen Fixierung feststellen. Wir verstehen die von uns beschriebenen Mineralisierungsmuster als Ergebnis der langfristig veränderten Lastverhältnisse in einer skoliotischen Wirbelsäule. Ausgehend von den beobachteten Befunden stellen wir ein eigenes Kräftemodell vor, das die in einer skoliotischen Wirbelsäule vorherrschenden Kräfte darstellt und biomechanische Erklärungen zur Gelenksmechanik skoliotischer Wirbelsäulen liefert. Die Ergebnisse dieser Studie zeigen zudem, dass der Einsatz der CT-OAM in Klinik und Forschung wertvolle Erkenntnisse für die Beurteilung und Planung operativer Wirbelsäuleneingriffe insbesondere bei skoliotischen Wirbelsäulen liefert.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Ziel der Arbeit ist die Untersuchung von Magnetfeldern im intergalaktischen Gas von Galaxienhaufen mittels Faradayrotationskarten extragalaktischer Radioquellen, die in oder hinter einem Galaxienhaufen lokalisiert sind. Faradayrotation entsteht, wenn linear polarisierte Strahlung einer solchen Quelle durch ein magnetisiertes Medium propagiert und dabei dessen Polarisationsebene rotiert wird. Multifrequenzbeobachtungen erlauben die Konstruktion von Faradayrotationskarten. Die statistische Charakterisierung und Analyse dieser Karten erlaubt es, Eigenschaften der Magnetfelder, welche mit dem Plasma in Galaxienhaufen in Verbindung stehen, zu bestimmen. Es wurde untersucht, ob es einen Beweis dafuer gibt, dass die Faradayrotation im quellennahen Material erzeugt wird oder im magnetisierten Plasma der Galaxienhaufen. Dazu wurden zwei statistische Masse zur Charakterisierung der Daten eingefuehrt. Beide Masse sind ausserdem wertvolle Indikatoren fuer moegliche Probleme bei der Berechnung von Magetfeldeigenschaften auf der Basis von Faradayrotationsmessungen. Die Masse wurden auf Faradayrotationsmessungen von ausgedehnten Radioquellen angewandt. Es konnten keine Hinweise auf quellennahe Enstehungsorte der Faradyrotation gefunden werden. Aufgrund von davon unabhaengigen Beweisen, wurde festgestellt, dass die Magnetfelder, welche die Faradayrotation verursachen, mit dem Plasma in Galaxienhaufen in Zusammenhang stehen sollten.Eine statistische Analyse von Faradayrotationsmessungen mittels Autokorrelationsfunktionen und aequivalent dazu Energiespektren wurde entwickelt um Magnetfeldstaerken und -korrelationslaengen zu bestimmen. Diese Analyse stuetzt sich auf die Annahme, dass die Magnetfelder statistisch isotrop im Faradayrotationsgebiet verteilt sind. Sie benutzt eine sogenannte Fensterfunktion, die das Probenvolumen beschreibt, in welchem Magnetfelder detektierbar sind. Die Faradayrotationskarten von drei ausgedehnten Radioquellen (d.h. 3C75 in Abell 400, 3C465 in 2634 und Hydra A in Abell 780) wurden mittels dieser Methode neu ausgewertet und dabei Magnetfeldstaerken von 1 bis 10 muGauss fuer diese drei Galaxienhaufen abgeleitet.Die Messung von magnetischen Energiespektren erfordert Faradayrotationskarten hoechster Guete. Um Artefakte durch die Datenreduktion zu vermeiden, wurde ein neuer Algorithmus -- Pacman -- zur Berechnung von Faradayrotationskarten entwickelt. Verschiedene statistische Tests zeigen, dass dieser Algorithmus stabil ist und zuverlaessige Faradayrotationswerte berechnet. Zur genauen Messung von magnetischen Energiespektren aus den Pacman Karten wurde ein Maximum-Likelihood-Schaetzer, der auf der zuvor eingefuehrten Theorie beruht. Diese neue Methode erlaubt erstmals, die statistische Unsicherheit des Ergebnisses anzugeben. Des weiteren beruecksichtigt diese Methode das begrenzte Probenvolumen und macht die verlaessliche Bestimmung von Energiespektren moeglich. Diese Maximum-likelihood Methode wurde auf Pacman Faradayrotationskarten von Hydra A angewandt. Beruecksichtigt man die Ungewissheit ueber die exakte Probengeometrie des Faradaygebietes, erhaelt man eine Magnetfeldstaerke von 7 +/- 2 muGauss. Das berechnete Energiespektrum folgt einem Kolmogorov aehnlichem Energiespektrum ueber wenigstens eine Groesseenordnung. Die magnetische Energie ist auf einer dominanten Skale von ungefaehr 3 kpc konzentriert.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Ziel der vorliegenden Arbeit war es, ein chronisches Modell zur minimal-invasiven Organperfusionsmessung am Kaninchen vorzustellen. Hierzu musste als Voraussetzung für die chronischen Messungen die Implantation eines Portkathetersystems in den linken Ventrikel etabliert werden. Mit Hilfe der Portkatheter wurde der regionale Blutfluss zu verschiedenen Zeitpunkten bei gesunden Kontrolltieren und in einer Pilotstudie bei Tieren mit experimentell induzierter Peritonitis bestimmt. Die Messung der Perfusion erfolgte mit fluoreszenzmarkierten Mikrosphären (Latexkugeln mit 15 mm Durchmesser). Aus der Anzahl der im präkapillären Stromgebiet arretierten Mikrosphären kann der regionale Blutfluss in verschiedenen Organen qualitativ und, bei gleichzeitiger Gewinnung einer Referenzprobe, quantitativ in ml pro g Organgewebe pro Minute erfasst werden. Die Implantation des Portsystems wurde unter perioperativer Antibiotikaprophylaxe bei weiblichen weißen Neuseeland-Kaninchen (n = 30, 3,8 ± 0,3 kg KG) in Medetomidin/Ketamin-Anästhesie durchgeführt. Speziell entwickelte Portkatheter wurden über die Arteria carotis communis mit der Katheterspitze in den linken Ventrikel eingeführt. Perioperativ erfolgte die kontinuierliche intraarterielle Blutdruckmessung sowie eine Bestimmung der Herzfrequenz und der Sauerstoffsättigung. Prä- und postoperativ wurden Blutproben zur Bestimmung der S100-b-Serumkonzentration als Marker einer cerebralen Ischämie entnommen. Nach einem Erholungszeitraum von 2 bis 4 Wochen wurden zwei Versuchsgruppen untersucht. Zunächst wurde bei einer Versuchsgruppe (n = 16, 3,7 ± 0,4kg) zu sieben Zeitpunkten (0, 2, 24, 26, 48, 72 und 96 Stunden nach Versuchsbeginn, t1 – t7) je eine Mikrosphäreninjektion durchgeführt. Bei einer zweiten Versuchsgruppe, der Peritonitisgruppe (n = 4, 3,5 ± 0,4kg) wurde zu den gleichen Zeitpunkten unter den gleichen Narkosen bzw. Sedierungen je eine Mikrosphäreninjektion durchgeführt, darüber hinaus wurde zwischen den Zeitpunkten t1 und t2 eine „cecal ligation and puncture“ zur Auslösung einer kotigen Peritonitis mit nachfolgender septischer Allgemeinerkrankung durchgeführt, welche dann zwischen den Zeitpunkten t3 und t4 revidiert, die Bauchhöhle gespült und der Peritonitisherd saniert wurde. Die Anlage der linksintraventrikulär inserierten Portkatheter war bei 29/30 (97%) Tieren innerhalb von 71 ± 9 Minuten problemlos möglich. Weder intra- noch postoperativ kam es zu signifikanten, katheterassoziierten Rhythmusstörungen, Blutdruckabfällen (MAP präop. 73 ± 2 mmHg vs. postop. 71 ± 2) oder Hypoxieereignissen (SaO2 präop. 84 ± 2% vs. postop. 95 ± 2). Durch eine speziell modifizierte mikrochirurgische Technik war das Einbringen des Katheters im Bereich der Vorderwand der Arteria carotis communis unter Aufrechterhaltung der Durchgängigkeit des Gefäßes und somit unter Erhalt der zerebralen Perfusion möglich. So war klinisch bei keinem der Tiere eine postoperative zerebrale Ischämie nachweisbar. Die S100-b-Serumkonzentration zeigte postoperativ keinen signifikanten Anstieg (präop. 1,6 ± 0,4 ng/dl vs. postop. 1,8 ± 0,4). Das Ausgangsgewicht der Tiere wurde innerhalb weniger Tage wieder erreicht. Durch Sektion wurde die korrekte Katheterlage bei 26/29 Tieren (90%). In der Kontrollgruppe konnte gezeigt werden, dass minimal-invasive Messungen der Perfusion gut toleriert werden. Es war keine Beeinflussung des Blutflusses durch die Mikrosphäreninjektionen und die damit verbundenen notwendigen Narkosen bzw. Sedierungen zu beobachten. Die Perfusion der paarigen Organe Lunge, Gehirn und Niere war im Rechts-Links-Vergleich nicht unterschiedlich. Auch die Analyse der Werte über den gesamten Zeitraum zeigte eine gleichmäßige und nicht signifikant unterschiedliche Perfusion. So betrug die Durchblutung beispielsweise im Gehirn zum Zeitpunkt t1 rechts 1,11 ± 0,31 ml/g/min, links 1,25 ± 0,34, zum Zeitpunkt t7 rechts 0,97 ± 0,44 ml/g/min, links 1,04 ± 0,52, in der Niere bei t1 1,33 ± 0,21 ml/g/min (rechts) vs. 1,53 ± 0,23 (links), bei t7 1,11 ± 0,23 ml/g/min (rechts) vs. 1,05 ± 0,22 ml/g/min (links). Bei der Peritonitisgruppe ließ sich zunächst im Rechts-Links-Vergleich zu den einzelnen Zeitpunkten eine gute Korrelation der Perfusion nachweisen, so dass die vorliegenden Werte reliabel erschienen. In der Lunge war die Durchblutung bei t2 rechts 0,59 ± 0,19 ml/g/min, links 0,66 ± 0,20. Im Vergleich mit der Kontrollgruppe zeigte sich bei stabiler Hämodynamik ein signifikanter Abfall der Durchblutung der von dem septischen Geschehen betroffenen Organe (Niere, Leber, Magen, Lunge), welche sich zum Versuchsende nur langsam wieder erholte. Die Perfusion des Magens fiel zum Beispiel von anfänglich (t1) 0,63 ± 0,14 ml/g/min auf 0,35 ± 0,12 (t3) ab. Die Muskeldurchblutung war jedoch über den gesamten Zeitraum vergleichbar (z.B. t1 0.04 ± 0,01 ml/g/min vs. t4 0,06 ± 0,02). Die hier beschriebene Technik erlaubt somit erstmals die minimal-invasive Messung der Organperfusion beim leicht sedierten Versuchstier über mehrere Tage. Dadurch wird zum einen das bisher erforderliche erhebliche operative Trauma einer intrakardialen Injektion bzw. einer Thorakotomie vermieden und zum anderen die Notwendigkeit einer repetitiven Allgemeinanästhesie. Somit wird die Belastung für die Tiere sowie die unerwünschte Beeinflussung der Untersuchungsergebnisse durch die erwähnten Prozeduren vermindert. Die Insertion des Portkatheters unter der Aufrechterhaltung der zerebralen Perfusion trägt zur Verminderung des Risikos zerebraler Ischämien und kardiozirkulatorischer Dysregulationen bei. Die in diesem Modell notwendige Applikation von Sedativa hatte in der Kontrollgruppe per se keinen Einfluss auf die Organdurchblutung. Bei der experimentell induzierten Peritonitis fand sich eine Umverteilung der Perfusion zu Ungunsten der von der Sepsis betroffenen Organe bei stabiler Makrohämodynamik. Die repetitive Messung des regionalen Blutflusses kann in Zukunft für chronische Untersuchungen zur Perfusionsänderung, z.B. bei der Wundheilung oder in Sepsismodellen, eingesetzt werden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Die moderne Astrophysik steht vor der Herausforderung, neueste Beobachtungen mit den theoretischen und numerischen Modellen der Galaxienentstehung und -entwicklung zu konfrontieren. So hofft man, die wichtigsten physikalischen Prozesse und ihre Zeitskalen identifizieren zu koennen. In dieser Arbeit nehmen wir eine komplette, helligkeits--limitierte Auswahl von 1862 Galaxien aus der Sloan Digital Sky Survey (SDSS), um eine Anzahl von globalen und strukturellen Parametern zu untersuchen. Diese Auswahl beinhaltet helle Objekte mit einer r--Band Helligkeit von < 15.9 im nahen Universum mit einer Rotverschiebung von z < 0.12. Sie enthaelt elliptische, Spiral- und irregulaere Galaxien. Photometrische Daten sind fuer die u, g, r, i und z--Baender angegeben und von 1588 Galaxien wurden nachtraeglich Spektra genommen. Die `Bulge' Komponente der Galaxien wird mit Sersic und de Vaucouleurs Modellen modelliert, waehrend die Scheibenkomponente mit einer exponentiellen Verteilung modelliert wird. Die Messung des Lichtanteils in `Bulge' und Scheibenkomponente gibt Aufschluss ueber die Effizienz des hierarchischen Strukturbildungsprozesses. In Kapitel 3 zeigen wir, dass der mittlere Anteil des Lichts aus der Scheibe stark mit der totalen absoluten Helligkeit der Galaxie zunimmt. Unabhaengige r und i Band Analysen ergeben einen sehr aehnlichen Trend. Zum ersten Mal schaetzen wir den volumengemittelten Anteil des Lichts aus der Scheibenkomponente von Galaxien ab und stellen fest, dass ungefaehr (55 +- 2) % des gesamten Lichts im lokalen Universum aus Scheiben kommt. Wir ermitteln auch die Leuchtkraftfunktion fuer reine 'Bulges', also fuer Strukturen ohne Scheibenanteil, die nicht einfache Spheroide sind. In Kapitel 4 studieren wir die Abhaengigkeiten von visuellen und quantitativen morphologischen Klassifikationskriterien mit dem Ziel sauberere Galaxienkataloge zu erstellen, besonders bei hohen Rotverschiebungen, wo die Klassifikation schwierig ist. Wir finden, dass Galaxienfarben, effektive Oberflaechenhelligkeit, Masse/Licht Anteil, und Asymmetrie Parameter einen Mehrparameter Raum aufspannen, in der alle Galaxien je nach morphologischem Typ eindeutig positioniert sind. In Kapitel 5 beobachten wir einen klaren Trend, mit dem die Skalenlaenge der Scheiben mit ihrer Helligkeit zunimmt, und dieser Trend ist unabhaengig vom photometrischen Band und der morphologischen Klasse. Es existiert auch eine klare Abhaengigkeit zwischen dem effektiven Radius des `Bulge' und seiner Helligkeit, aber die Steigung dieser Relation aendert sich mit dem morphologischem Typ. Sie ist steiler fuer fruehere Typus, was uns zu der Schlussfolgerung fuehrt, dass die Skalenlaenge weniger von der Morphologie abhaengt als die Skalenlaenge des `Bulges'. Dies legt nahe, dass `Bulges' in fruehen und spaeteren Galaxien in unterschiedlichen Prozessen gebildet werden. Wir finden auch eine Korrelation zwischen den strukturellen Parametern von Scheiben und `Bulges', insbesondere zwischen effektivem Radius der `Bulges' und der Skalenlaenge der Scheiben in Systemen fruehen Typus. Wir interpretieren dies als Beweisstueck zugunsten von saekularen Evolutionsmodellen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Seit Jahrzehnten wird versucht, spezifische Proteine oder Peptide zu bestimmen, deren Konzentrationsänderungen im Liquor und oder im Blut eine diagnostische Aussage über den Zustand des ZNS bzw. über das quantitative Ausmaß des Schadens im Gehirn und Rückenmark zulassen. Der Wert eines biochemischen Markers insbesondere bei akuten Ereignissen, ähnlich wie die Herzenzymdiagnostik in der Kardiologie, erscheint hoch. GFAP wurde 1971 von Eng erstmalig aus Multiple Sklerose Plaques isoliert. GFAP ist ein 50 ± 1 kDa großes Protein, welches in einer wasserlöslichen und wasserunlöslichen Form existiert. GFAP gehört zu der Gruppe der Intermediärfilament-Proteine, die am Aufbau des Zytoskeletts beteiligt sind. GFAP konnte bisher nur in Gliazellen und Zellen glialen Ursprungs gefunden werden. Fast jede Reaktion von Astrozyten geht mit einer morphologisch sichtbaren Veränderung einher. Die Zellform verändert sich von einer runden protoplasmatischen Zelle mit wenigen Zellfortsätzen in eine verzweigte Zelle mit zahlreichen Zellfortsätzen. Diese Vorgänge sind immer mit einer Vermehrung zytoplasmatischer Filamente und einer Veränderung des GFAP Gehaltes verknüpft. Deshalb ist GFAP ein wichtiger Funktionsmarker. Bisher konnte GFAP in wäßrigen Gewebsextrakten mittels Immundiffusion und Elektrophorese, Immunradiometrie, Immunelektrophorese und Radioimmunoassays nachgewiesen werden. Die hauptsächlich angewendeten Nachweise beruhen auf immunhistochemischen Verfahren. Es gelang auch GFAP im Liquor mittels Radioimmunoassay und Enzyme Linked Immunosorbent Assay nachzuweisen und bei Erkrankungen, die mit einer Gliose einhergehen, erhöhte GFAP-Konzentrationen nachzuweisen. Der in dieser Arbeit vorgestellte Nachweis von GFAP in humanem Serum basiert auf der Messung von GFAP in humanem Blut mit Hilfe eines zerfallsunterstützten Lanthanide Immunfluoresenzassays (Dissociation Enhanced Lanthanide Fluorescence Immunoassay = DELFIA). Die Messung beruht auf der Bindung von in Standardlösungen und Proben enthaltenem GFAP an Festphasen-Anti-GFAP. Anschließend wird das gebundene GFAP in mehreren Schritten mittels eines anti-GFAP Antikörpers und Europium detektiert. Die Fluoreszenz des gebundenen Europiums wird nach Anregung durch einen Lichtimpuls gemessen und so die in der Probe enthaltene Menge GFAP quantifiziert, die der Menge des gebundenen GFAP proportional ist. In dieser Arbeit konnte erstmalig GFAP zuverlässig, empfindlich und quantitativ bestimmt werden. Damit wird es erstmalig möglich ein für das Zentralnervensystem spezifisches Protein im Blut zu messen. Uns gelang es mit einem Kollektiv von Schädel-Hirn-Trauma Patienten eine Korrelation zwischen klinisch gesicherten Affektionen des Zentralnervensystems und dem Ansteigen des GFAP-Spiegels im Blut nachzuweisen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
In der vorliegenden Arbeit werden mittels der Einzelmolekül-Fluoreszenzspektroskopie und einer neuartigen Ultrakurzzeit-Photostromkorrelationstechnik der Energietransfer und die Ladungsträgererzeugung in konjugierten Polymeren untersucht. Aufgrund ihrer großen Flexibilität sowohl in Bezug auf die elektronischen und optischen Eigenschaften als auch im Hinblick auf die Verarbeitungsmöglichkeiten erschließen diese molekularen Halbleiter zahlreiche Anwendungsfelder aus der Optoelektronik. Hierzu gehören insbesondere die organischen Leuchtdioden und Photodetektoren, aber auch Laser und Transistoren. Der Energietransfer zwischen einzelnen Untergruppen eines konjugierten Polymermoleküls, sogenannten Chromophoren, wird erstmals durch zeitaufgelöste Einzelmolekülspektroskopie direkt verfolgt. So wird der Transfer von Anregungsenergie zwischen zwei energetisch verschiedenen Chromophoren zeitlich aufgelöst und mit theoretischen Modellen verglichen. Durch die Messung der homogenen Linienbreite der Einzelmolekül-Photolumineszenz bei Temperaturen zwischen T = 5K und T = 300K und deren Auswirkung auf die Mobilität der Anregungen wird in dieser Arbeit der mikroskopische Mechanismus des Energietransfers direkt zugänglich. Es zeigt sich, daß der Energietransfer über die stark temperaturabhängige Linienbreite der Absorption und Emission der einzelnen Chromophore kontrolliert wird. Die Messung der Polarisations-Anisotropie des konjugierten Polymers gibt Aufschluß über die relative Orientierung der Chromophore zueinander. Es zeigt sich, daß eine geeignete Molekülgeometrie in Verbindung mit dem Energietransfer zu einer hochgradig polarisierten Emission von Photolumineszenz selbst bei unpolarisierter Anregung führt. Mit einer neuartigen Kombination von optischer Ultrakurzzeitspektroskopie und Photostrommessungen wird die Photoerzeugung von Ladungsträgern in Polymer-Dünnschichtdioden mit einer Zeitauflösung im sub-Pikosekunden Bereich verfolgt. Erstmals gelingt damit der direkte Nachweis, daß alle freien Ladungsträger durch zeitverzögerte Dissoziation von optisch generierten Exzitonen auf der Zeitskala der Exzitonenlebensdauer von 100 ps erzeugt werden. Darüberhinaus wird die ultraschnelle Dissoziation ”heißer“ Exzitonen binnen 0.1 Pikosekunden beobachtet, die jedoch nicht freie Ladungsträger erzeugt, sondern schwach Coulomb-gebundene Paare von Ladungsträgern, sogenannte Polaronenpaare. Die Polaronenpaare weisen eine verschwindende Lumineszenzausbeute auf, tragen aber auch nicht zum Photostrom bei und stellen daher einen Verlustkanal für Polymer-Leuchtdioden und für organische Solarzellen dar. Der quantitative Vergleich mehrerer ultrakurzzeitspektroskopischer Signale erlaubt erstmals eine quantitative Bestimmung der Erzeugung von Polaronenpaaren ohne die Annahme weiterer Materialparameter. An zwei Modellsystemen effizienter organischer Polymer-Photodioden, nämlich Mischsystemen aus einem konjugierten Polymer mit dem Elektronenakzeptor C60, wird die Bedeutung der Polaronenpaare für organische Photodetektoren nachgewiesen. Wiederum durch die Kombination der Ultrakurzzeitspektroskopie mit Photostrommessungen kann eindeutig zwischen freien Ladungsträgern und Polaronenpaaren unterschieden und deren Population getrennt verfolgt werden. Die zentrale Rolle der Polaronenpaare für die Photostrom-Quantenausbeute in verschiedenen organischen Nanokompositen wird herausgearbeitet. Es zeigt sich, daß die makroskopisch beobachtete Diskrepanz zwischen der Zahl dissoziierter Anregungen und der Zahl detektierter freier Ladungsträger auf der Tendenz einiger Materialien beruht, die Erzeugung von Polaronenpaaren mit einer hohen Rekombinationswahrscheinlichkeit zu begünstigen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Die repetitive transkranielle Magnetstimulation (rTMS) findet seit einigen Jahren zunehmende Beachtung als potentielle Behandlungsform für eine Reihe von neurologischen und psychiatrischen Erkrankungen. Die umfangreichste Datenbasis liegt bisher für die behandlung depressiver Störungen vor. In früheren rTMS-Studien wurde ein antidepressiver Effekt nach hochfrequenter Stimulation des linken dorsolateralen präfrontalen Kortex (DLPFC) und nach niederfrequenter Stimulation des rechten DLPFC nachgewiesen. In den ersten Studien mit hochfrequenter rTMS bei gesunden Probanden wurde über hemisphärisch lateralisierte Effekte berichtet, mit einer Stimmungsverschlechterung nach Stimulation des linken DLPFC und Stimmungsverbesserung nach Stimulation des rechten DLPFC. Weitere Studien mit ähnlichen Stimulationsparameter konnten diese Ergebnisse jedoch nicht verifizieren. Stimmungseffekte nach niederfrequenter Stimulation wurden bei gesunden Probanden bislang nur in einer Studie untersucht. Effekte nach Stimulation des anteromedialen präfrontalen Kortex (AMPFC) wurden bislang nicht systematisch untersucht. Weitere, nicht stimmungsbezogene Befindlichkeitsqualitäten wurden bisher kaum einbezogen. Fragestellung der Arbeit war, ob sich auch bei niederfrequenter rTMS signifikante lateralisierte Stimmungseffekte nachweisen lassen. In einem explorativen Teil wurde zusätzlich untersucht, ob sich Veränderungen weiterer Befindlichkeitsqualitäten zeigen. Zusätzlich wurde explorativ der Einfluß bestimmter Persönlichkeitszüge auf die Reagibilität der Probanden bei den einzelnen Untersuchungsbedingungen untersucht. In einem randomisierten cross-over Design erhielten 16 rechtshändige Probanden eine niederfrequente rTMS (0,5 Hz, 150 Stimuli pro Sitzung, 120% der individuellen motorischen Schwelle) des rechten und linken DLPFC, rechten und linken AMPFC sowie des occipitalen Kortex. Die Messung der Stimmung und der Befindlichkeit erfolgte mit einer standardisierten Selbstrating-Skala (Eigenschaftswörterliste, Globalform) mit 15 Subskalen sowie mit 8 visuellen Analogskalen. Zur Messung der Persönlichkeitszüge wurden der NEO-FFI und der Sensation-Seeking-Test (SSS, Globalskala) eingesetzt. Bei allen Skalen zeigten sich deutliche individuelle Unterschiede und inkonsistente Reaktionen. Bei den Stimmungsskalen ergaben sich nach α-Korrektur keine signifikanten Effekte, Tendenzen waren jedoch erkennbar. Auch im direkten Vergleich zwischen den einzelnen Regionen fanden sich keine signifikanten Unterschiede. Bei den Befindlichkeitsskalen waren die Effekte z.T. stärker als bei den Stimmungsskalen. Nach rechts dorsolateraler Stimulation kam es vor allem zu einer Abnahme von Extravertiertheit, Vertrautheit, Konzentriertheit und des globalen Zustandes. Links dorsolateral fand sich im Wesentlichen eine Abnahme der Erregtheit sowie eine Zunahme der Verträumtheit und der Ruhe. Nach rechts anteromedialer Stimulation kam es vor allem zu einer Zunahme der Selbstsicherheit und von Ärger. Links anteromedial war eine Zunahme von Introvertiertheit und Benommenheit sowie eine Abnahme von Aktiviertheit, Empfindlichkeit und der Angst zu verzeichnen. Nach occipitaler Stimulation fanden sich kaum Änderungen. Im Vergleich zur occipitalen Kontrollbedingung zeigten sich rechts dorsolateral eine Zunahme der Empfindlichkeit und eine Abnahme der Aktiviertheit und der Vertrautheit, links dorsolateral eine Abnahme der Aktiviertheit und der Konzentriertheit. Rechts anteromedial fand sich eine Abnahme der Ängstlichkeit, links anteromedial eine Abnahme der Extravertiertheit und der Aktiviertheit. Im Direktvergleich rechts vs. links ergaben sich dorsolateral signifikante Seitenunterschiede in den Skalen „Extravertiertheit“, „Erregtheit“ und „Verträumtheit“, anteromedial bei den Skalen „Aktiviertheit“, “Benommenheit“ und „Extravertiertheit“. Auch im Vergleich dorsolateral vs. anteromedial ergaben sich signifikante Unterschiede: rechts bei den Skalen „Extravertiertheit“ und „Globaler Zustand“, links bei „Aktiviertheit“ und „Empfindlichkeit“. Bei der explorativen Untersuchung des Einflusses von Persönlichkeitsfaktoren fanden sich im Bereich der Stimmungsskalen keine signifikanten Korrelationen mit dem NEO-FFI. Bei der Persönlichkeitseigenschaft „Sensation Seeking“ (SS) ergaben sich Hinweise auf eine Beteiligung des linken AMPFC: In einem Extremgruppenvergleich kam es nach rTMS des linken AMPFC bei der Gruppe mit hohem SS zu einer leichten Stimmungsverbesserung, bei Probanden mit niedrigem dagegen eher zu einer Stimmungsverschlechterung. Tendenziell kam es nach rTMS im Vergleich beider Gruppen zu einer Angleichung der Stimmungslage. Der SSS könnte damit ein Prädiktor für ein unterschiedliches Ansprechen von Probanden auf niederfrequente rTMS des linken AMPFC sein. Die auf der Basis des explorativen Teils der vorliegenden Arbeit generierten Hypothesen müssen in zukünftigen kontrollierten Probandenuntersuchungen spezifisch getestet werden. Von zunehmender Bedeutung dürften dabei die Kombination mit weiteren Verfahren wie z.B. funktionelle Bildgebung, Neuronavigation, brain-mapping sein. Insgesamt zeigt sich, daß die Methode der rTMS ein wertvolles Forschungsinstrument zur Untersuchung der komplexen Funktion des prä-frontalen Kortex darstellt und damit zu einem verbesserten Verständnis der Regulation von Stimmung, Emotionen und Befindlichkeit beitragen kann.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Die tiefinelastische Streuung von Leptonen an Nukleonen stellt eine gute Methode dar, die Struktur der Nukleonen zu erforschen. Erste Messungen der Strukturfunktionen des Protons wurden bereits in den 60er Jahren am Stanford Linear Accelecator Center (SLAC) vorgenommen. Es wurde hier ein 20 GeV Elektronstrahl benutzt. Diese Messungen zeigten, dass die Wirkungsquerschnitte einem Skalenverhalten genuegen, welches charakteristisch ist fuer eine Streuung an punktfoermigen Konstituenten. Dies war vom Quark-Parton-Modell (QPM) vorhergesagt worden. Die spinabhaengigen Strukturfunktionen des Protons wurden am SLAC in den 70er Jahren erstmals gemessen. Die Messungen wurden dann am CERN (Europaeisches Zentrum fuer Elementarteilchenphysik) durch die European Muon Collaboration (EMC) in den Jahren 1984 und 1985 mit einem Myonstrahl hoeherer Energie fortgesetzt. Der CERN Myonstrahl hatte eine Strahlenergie von 280 GeV und wurde aus dem Beschuss von Protonen aus dem Super-Proton-Synchrotron (SPS) auf ein Beryliumtarget und anschliessendem Zerfall der dabei entstehenden Pionen in ein Myon und ein Neutrino erzeugt. Die Myonen sind aufgrund der Paritaetsverletzung beim Pionzerfall natuerlich polarisiert. Anders als bei den SLAC-Experimenten mit Elektronenstrahlen kann allerdings die Polarisation nicht so leicht invertiert werden. Die EMC arbeitete deshalb mit zwei entgegengesetzt polarisierten Targethaelften. Die Nachfolger der EMC, die Spin-Muon-Collaboration (SMC), verwendet im wesentlichen denselben experimentellen Aufbau, der schon von der EMC und der New-Muon-Collaboration (NMC) genutzt worden war. Sie benutzte fuer die erste Datennahme im Jahre 1992 das von EMC konstruierte Target, welches im Jahre 1993 durch ein groesseres und verbessertes Target ersetzt wurde. Als Targetmaterial wurde Butanol und mit Deuterium versetztes Butanol verwendet. Dadurch konnte im Jahre 1992 die Strukturfunktion des Deuterium g_1d gemessen werden. Zusammen mit der Messung der spinabhaengigen Protonstrukturfunktion g_1p konnte dann die Neutronenstrukturfunktion g_1n bestimmt werden. Die Strahlenergie lag 1992 bei 100 GeV und in den darauffolgenden Jahren bei 190 GeV. Die aus diesen Messungen resultierenden ersten Momente Gamma_p, Gamma_d und Gamma_n sind im Quark-Parton-Modell mit dem Spinanteil der Quarks am Nukleonenspin verbunden. Die von der EMC gefundene Abweichung von der Ellis-Jaffe Summenregel, die eine theoretische Vorhersage ueber den Wert dieser ersten Momente unter bestimmten Annahmen macht, wurde bestaetigt. Die fundamentalere Bjorken Summenregel hingegen, die eine Aussage ueber die Differenz der ersten Momente von Proton und Neutron macht, konnte mit sehr grosser Genauigkeit bestaetigt werden. In dieser Arbeit wird der gesamte Deuterium Datensatz, der von der SMC aufgezeichnet wurde, verwendet. Es werden neue Methoden zur Berechnung der Asymmetrie und zu der aus den Schwankungen im Ansprechverhalten des Spektrometers resultierenden scheinbaren Asymmetrie vorgestellt. Aus der Analyse der Deuterium Daten der Jahre 1992, 1994 und 1995 wird das erste Moment der spinabhaengigen Strukturfunktion Gamma_d berechnet. Zusammen mit der Messung der Protonstrukturfunktion g1_p wird das erste Moment der Neutronstrukturfunktion Gamma_n ermittelt. Abschliesend werden diese Werte mit den theoretischen Vorhersagen von Bjorken und Ellis-Jaffe verglichen.
Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06
Die Belastung des Menschen mit verschiedenen alkylierenden Agenzien ist auf unterschiedliche Quellen zurückzuführen. Im Rahmen dieser Arbeit sollten durch ein Biomonitoring insbesondere die Beiträge von Nahrung, Rauchen und Passivrauchen möglichst umfassend geklärt werden. Als Biomarker wurden neben Hämoglobinaddukten methylierender, ethylierender, hydroxyethylierender und cyanoethylierender Precursoren mit dem N–terminalen Valin die korrespondierenden alkylierten Mercaptursäuren gewählt, erweitert um eine hydroxypropyl-alkylierte Mercaptursäure. Zur Erfassung der Gesamtbelastung sollte neben den Mercaptursäuren auch die Thioether-Gesamtausscheidung bestimmt werden. Um das Gesamtbild abzurunden, ist allerdings auch die Erfassung von Addukten auf dem Level der DNA nötig. Diese Marker sollten möglichst mit genetischen Prädispositionen in Verbindung gebracht werden, wobei ein Hauptaugenmerk auf den fremdstoffmetabolisierenden Phase-II-Enzymen der Glutathion-S-Transferasen GSTM1, GSTT1 und GSTP1 lag. Die Hauptaufgabe der vorliegenden Arbeit bestand darin, geeignete Methoden zum Nachweis der genannten Verbindungen zu entwickeln oder in geeigneter Weise weiterzuentwickeln, so dass unter den Gesichtspunkten der Anwendbarkeit im Humanbiomonitoring im Rahmen einer Studie bei relativ geringem Aufwand, niedrigen Kosten pro Analyse, hoher Selektivität und Sensitivität bei paralleler Gruppenbestimmung ein möglichst effektives Biomonitoring möglich ist. Dazu wurde eine publizierte Methode der DFG zur Bestimmung der Hämoglobinaddukte so weiterentwickelt, dass sie die Simultanbestimmung des Ethylvalinadduktes mittels GC-MS-EI gestattet. Zum Nachweis der Mercaptursäuren alkylierender Verbindungen aus Humanurin wurde eine neue Methode entwickelt, die sich auf eine einfache Probenvorbereitung durch Festphasenextraktion und anschließende Detektion mittels HPLC-APCI-MS/MS stützt. Die Ionisierung der Analyten durch die APCI-Quelle hat gegenüber einer Ionisierung durch Elektrospray-Verfahren wesentliche Vorteile vor allem im Routinebetrieb. Durch den Einsatz des Tandem-Massenspektrometers und Messung selektiver Ionenübergänge ist eine zuverlässige Identifizierung der gesuchten Komponenten gewährleistet. Obwohl Bestimmungen der Gesamt-Thioetherausscheidung schon lange bekannt sind, war die Anwendbarkeit der Methodik insofern begrenzt, als die Probenvorbereitung und die Messungen einen für größere Studien nicht vertretbaren Zeitaufwand bedeuteten. Durch die im Rahmen dieser Arbeit eingeführten Modifikationen ist es möglich, den Arbeitsablauf in den meisten Schritten zu beschleunigen und den Probendurchsatz damit zu erhöhen. Die Kenndaten der Methode werden durch die erhöhte Anzahl an Messungen pro Probe verbessert. Durch den Einsatz eines Multikanalreaders kann die Messung und Auswertung gleichzeitig rechnergestützt erfolgen. Die Bestimmung von 3-Methyl- und 3-Ethyladenin in Urin als Marker für die Alkylierung der DNA setzte bislang im Bereich einer Hintergrundbelastung den Einsatz immunochemischer Methoden voraus. Durch die neuentwickelte Methode reduzieren sich die Probenvorbereitung und –Anreicherung auf eine Festphasenextraktion. Vorteil davon ist ein erhöhter Probendurchsatz bei reproduzierbaren Bedingungen. Die Messung mit HPLC-APCI-MS/MS gestattet die sichere Quantifizierung selbst unbelasteter Nichtraucherproben mit hoher Genauigkeit. Auch in diesem Falle zeigt die Ionisierung mit APCI bedeutende Vorteile gegenüber der Elektrospray-Ionisation, vor allem bei den bedingt durch die hohe Konzentrierung stark matrixbelasteten Proben. Im Rahmen einer longitudinalen Feldstudie mit 69 Probanden wurden die Thioether, Mercaptursäuren, sowie die Hämoglobin- und DNA-Addukte alkylierender Verbindungen untersucht. Die Ergebnisse bestätigen andere Studien, wonach Aktivraucher bezüglich der MeVal-, HyEtVal- und CyEtVal-Addukte erhöhte Level aufweisen. Gleiche Resultate sind für die Mercaptursäuren MMA und HPMA, die Thioether-Gesamtausscheidung sowie für die untersuchten DNA-Addukte gefunden worden. Die vom Probanden selbst berichtete Passivrauchbelastung hatte keinen messbaren Einfluss auf die Biomarker der Exposition gegenüber alkylierenden Agenzien. Es wurde auch kein Zusammenhang zwischen der durch Biomonitoring ermittelten Belastung und der durch Cotinin im Urin und Plasma bzw. der objektiv gemessenen Passivrauchbelastung (Nikotin auf Passiv-Diffusionssammlern) gefunden. Die Ergebnisse lassen den Schluss zu, dass die Exposition gegenüber alkylierenden Verbindungen aus weiteren exogenen und endogenen Quellen einen wesentlichen Beitrag zur Gesamtexposition leistet. Im Falle der Nahrung sind die Precursoren allerdings in der Regel zu unspezifisch, als dass sie bestimmten biochemischen Effektmarkern zugeordnet werden könnten, so dass keine Effekte beobachtet werden können und eine eventuelle zusätzliche Belastung beispielsweise durch Passivrauchen im Hintergrundrauschen untergeht. Allerdings lässt sich ein Einfluss der genetisch bedingten Enzymausstattung auf die Level bestimmter Marker feststellen. Vor allem die Träger des GSTT1*0-Gens zeigen eine verringerte Mercaptursäurebildung und ähnlich wie bei doppelten Nullgenotypen GSTM1 T1 vermehrte Bildung von Hämoglobinaddukten, zumindest für methylierende Spezies. Bei hydroxy- und cyanoethylierenden Verbindungen lässt sich allenfalls ein Trend erkennen, der jedoch nicht signifikant ist. Dies ist vermutlich auf die zu geringe Anzahl an Probanden und den Einfluss weiterer im Rahmen einer Feldstudie nicht kontrollierbarer Parameter zurückzuführen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Die sprunghafte Entwicklung in der Femtosekundenlasertechnologie Anfang der 90er Jahre ermöglicht es, laserphysikalische Experimente in den verschiedensten Bereichen der Naturwissenschaften bei Pulsdauern von einigen Femtosekunden und elektrischen Feldstärken in der Größenordnung inneratomarer Felder durchzuführen. Im Rahmen dieser Arbeit wurden die drei wichtigsten Prozesse im Bereich der Wechselwirkung von Atomen mit starken Laserfeldern untersucht: Im Fall der Above-threshold Ionisation (ATI) absorbiert ein Elektron aus dem Lichtfeld mehr Photonen, als zu seiner Ionisation notwendig sind. Die Überschussenergie kann mit einem Flugzeitspektrometer in Form der kinetischen Energie des Photoelektrons gemessen werden. Im ATI-Spektrum wird die Zahl der gemessenen Photoelektronen als Funktion ihrer Energie aufgetragen: Es ergibt sich eine Serie von Maxima im Abstand der Photonenenergie. Diese fallen mit steigender Photoelektronenenergie stark ab und entsprechen der Anzahl der jenseits der Ionisationsschwelle absorbierten Photonen. Die Form der Spektren gibt detaillierte Hinweise auf Einzelheiten des Ionisationsvorgangs. Zum Beispiel misst man für lineare Polarisation des eingestrahlten Lichts eine plateauartige Struktur, die durch einen Rückstreuprozess des Elektrons am Ionenrumpf hervorgerufen wird: Die Einhüllende des ATI-Spektrums folgt zunächst dem störungstheoretisch erwarteten starken Abfall für niedrige Elektronenenergien. Sie geht dann in das ATIPlateau über, bis sie am sogenannten Cutoff endgültig stark abfällt. Neben dem Ionisationsprozess beobachtet man bei der Wechselwirkung von Atomen mit intensiven Laserfeldern auch die Erzeugung hoher Harmonischer (high harmonic generation, HHG). Dabei emittieren die Atome Strahlung mit Photonenenergien, die einem Vielfachen der Energie der eingestrahlten Photonen entsprechen. Aufgrund der Inversionssymmetrie werden im Gas nur die Harmonischen ungerader Ordnung erzeugt. HHG kann durch Elektronen erklärt werden, die - statt wie bei ATI am Ionenrumpf zu streuen, rekombinieren und auf diese Weise die aus dem Laserfeld aufgenommene Energie in Form von hochenergetischer Strahlung abgeben. Auch im Spektrum der Harmonischen fand man ein Plateau, das sich bis in den Bereich weicher Röntgenstrahlung erstrecken kann. HHG erlaubt es damit, vergleichsweise effizient kohärente kurzwellige Strahlung zu erzeugen, die vielversprechende Anwendungen ermöglicht, zum Beispiel in der Biologie (Mikroskopie). Als dritte Möglichkeit kann das Elektron seine während des Ionisationsprozesses gewonnene Energie dazu benutzen, ein zweites Elektron aus dem Atom zu lösen. Dies wird nicht-sequentielle Doppelionisation (NSDI) genannt und beinhaltet hochinteressante korrelierte Ionisationsdynamik. Für die Experimente dieser Arbeit wurde ein hochrepetitives (100kHz) Lasersystem aufgebaut, das bei einer Pulsenergie von 6µJ und einer Pulsdauer von 50fs Spitzenintensitäten von 2 · 1014W/cm2 erzeugt. Für Messungen in diesem Intensitätsbereich wurde ein kombiniertes Elektronen- und Ionen-Flugzeitspektrometer sowie ein Vakuum-UVSpektrometer konstruiert. Ersteres wurde im Rahmen dieser Arbeit aufgebaut und erlaubt die gleichzeitige Messung von Elektronen und Ionen. Das XUV-Spektrometer wurde im Rahmen dieser Arbeit umgebaut und erstmals zur Messung hoher Harmonischer eingesetzt. Bei einer Repetitionsrate von 100kHz sind sehr detaillierte Analysen des Ionisationsprozesses möglich. So wurde eine vergleichende Studie zum Einfluß der Elliptizität des einfallenden Lichtfeldes auf die drei oben genannten Effekte durchgeführt. Elliptisch polarisiertes Licht beschleunigt das Elektron in zwei Raumrichtungen. Mit zunehmender Elliptizität verringert sich die Wahrscheinlichkeit, dass das Elektron während des Ionisationsprozesses zum Ionenrumpf zurückkehrt und damit auch die Effizienz von ATI, HHG und NSDI. Ihre Abhängigkeit von der Elliptizität wurde unter nahezu identischen experimentellen Bedingungen gemessen. Die Messung bestätigt die gemeinsame Wurzel der drei Prozesse. Der Einfluß der Polarisation auf die Bahn des Elektrons kann in einem einfachen klassischen Modell beschrieben werden, das die gemessene Abhängigkeit näherungsweise reproduziert. Ein Durchbruch in der theoretischen Beschreibung von Prozessen in starken Feldern gelang Lewenstein et. al. mit vom Feynman’schen Pfadintegral abgeleiteten Gleichungen. Der klassische Limes dieser Theorie ist das oben erwähnte klassische Modell. Beide erlauben eine intuitive Deutung der physikalischen Vorgänge mit Hilfe von räumlichen Trajektorien bzw. Quantentrajektorien, die das Elektron aufgrund der Wechselwirkung mit dem Feld nehmen kann. Im ATI-Experiment ist es uns dabei gelungen, unter bestimmten Bedingungen ein ATI-Spektrum in die Beiträge von einzelnen Paaren von Quantentrajektorien zu zerlegen. Führen mehrere Quantentrajektorien zum gleichen Endzustand des Elektrons, so können sie miteinander interferieren. Die Interferenz von Quantentrajektorien beeinflusst die Form der ATI-Spektren auf verschiedenste Art. Dies zeigt zum einen die Messung der Interferenz niederenergetischer Elektronen und rückgestreuter hochenergetischer Elektronen. Eine Voraussetzung für ihre Interferenz mit messbarem Kontrast ist eine vergleichbare Amplitude in den entsprechenden Termen der Wellenfunktion. Im Plateau-Bereich der Photoelektronenspektren ist dies für kleine elliptische Polarisation des Lichts erfüllt, da dann, wie schon erwähnt, der Rückstreuvorgang abgeschwächt wird. Die Interferenz der beiden Beiträge zeigt sich in der Winkelverteilung der Photoelektronen dadurch, dass sich das ATI-Plateau aufgrund der Interferenz aufspaltet. Ein zweites Beispiel für den Einfluss von Interferenzeffekten betrifft die Form der Einhüllenden eines ATI-Spektrums. Diese wird durch resonanzartig auftretende Effekte bei bestimmten Intensitäten dominiert. Die Dynamik in der Ausbildung des ATI-Plateaus wurde durch die detaillierte Messung der Intensitätsabhängigkeit der ATI-Spektren untersucht. Dazu wurde in kleinen Schritten die Intensität erhöht und die dazugehörigen Spektren aufgenommen. Die resonanzartigen Effekte treten gerade bei solchen Intensitäten auf, bei denen die Theorie eine große Anzahl von Quantentrajektorien braucht, um das Spektrum zu approximieren. Daraus kann man auf konstruktive Interferenz der beteiligten Trajektorien schließen. Ein völlig neuer Bereich der Wechselwirkung ultrakurzer Pulse mit Atomen eröffnet sich bei Pulslängen um oder kürzer als 5fs. Solche Pulse bestehen aus weniger als zwei optischen Zyklen (FWHM). Dadurch wird die Phase zwischen der Einhüllenden des Pulses und seiner Trägerwelle von Bedeutung (absolute Phase). Da alle Effekte, die durch intensive Laserfelder hervorgerufen werden, vom Verlauf des elektrischen Feldes des Laserpulses abhängen, hängen sie auch von der absoluten Phase ab. Dies ist von entscheidender Bedeutung für verschiedene moderne Forschungsbereiche wie die Erzeugung von Attosekundenpulsen, die kohärente Steuerung atomarer und molekularer Prozesse, die Laserplasmaphysik aber auch die Entwicklung optischer Frequenzstandards. An der Politecnico di Milano haben wir mit einem 5fs-Lasersystem erstmals Effekte der absoluten Phase nachweisen können. Dies wurde durch eine Korrelationsanalyse der in entgegengesetzte Raumrichtungen emittierten Photoelektronen erreicht.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
In der hier vorgestellten Arbeit wurde gezeigt, daß das weltweit beobachtete Ph¨anomen geringer Intensit¨at der nat¨urlichen remanenten Magnetisierung von etwa 20 Ma alten Ozeanbasalten und das dadurch verursachte Minimum bei den Amplituden der ozeanischen Magnetfeldanomalien auf die Tieftemperaturoxidation der Titanomagnetite zu Titanomaghemiten zur¨uckzuf¨uhren ist. Dazu wurden magnetische und mineralogische Untersuchungen an etwa 100 durch das Deep Sea Drilling Project bzw. Ocean Drilling Program erbohrten Ozeanbasalten durchgef¨uhrt. Die Proben decken einen Altersbereich von 0.6 bis 135 Ma ab und stammen haupts¨achlich aus dem Atlantischen und Pazifischen Ozean. Tr¨ager der Magnetisierung bei den meisten Proben ist je nach Alter der Ozeanbasalte Titanomagnetit oder Titanomaghemit. Um den Oxidationsgrad der Titanomaghemite zu bestimmen, wurden die davon abh¨angigen Parameter Curie-Temperatur und Gitterkonstante gemessen sowie Mikrosonden-Analysen durchgef¨uhrt. Der Oxidationsgrad wird durch den von 0 (nicht oxidiert) bis 1 (vollst¨andig tieftemperaturoxidiert) variierenden Oxidationsparameter beschrieben. Es wurde nachgewiesen, daß die S¨attigungsmagnetisierung der Ozeanbasalte (gemessen bei Raumtemperatur) in gleicher Weise wie die Intensit¨at der nat¨urlichen remanenten Magnetisierung (NRM) mit dem Alter variiert und bei 10 bis 40 Ma alten Ozeanbasalten ein Minimum aufweist. Dieses Ph¨anomen wird durch die fortschreitende Tieftemperaturoxidation der Titanomaghemite verursacht, bei der Fe-Ionen bevorzugt aus den Oktaederpl¨atzen des ferrimagnetischen Gitters auswandern und verbleibende Fe2+-Ionen zu Fe3+-Ionen oxidiert werden. Die S¨attigungsmagnetisierung der ferrimagnetischen Titanomaghemite ist gleich der Untergittermagnetisierung der Fe-Ionen auf Oktaederpl¨atzen abz¨uglich der antiparallelen Untergittermagnetisierung der Fe-Ionen auf Tetraederpl¨atzen und nimmt deshalb mit der Tieftemperaturoxidation ab. Bei 10 bis 40 Ma alten Proben wird f¨ur die Titanomaghemite eine fast vollst¨andige Oxidation beobachtet. Der Oxidationsparameter erreicht hier einen Wert von ≈ 0.8. Bei noch ¨alteren Proben findet vermutlich eine Diffusion der Fe-Ionen aus den Tetraederl ¨ucken in die Oktaederl¨ucken statt. Dies k¨onnte die beobachtete Zunahme der S¨attigungsmagnetisierung im Altersbereich von 40 bis 130 Ma bei ungef¨ahr gleichbleibendem Oxidationsgrad der Titanomaghemite erkl¨aren. Zur weiteren Charakterisierung der Titanomaghemite wurde die Temperaturabh¨angigkeit der S¨attigungsmagnetisierung MS(T) bestimmt. Der Verlauf der MS(T)-Kurven h¨angt von der Zusammensetzung der Titanomaghemite ab und zeigt deshalb eine Abh¨angigkeit vom Alter der Proben. Die MS(T)-Kurven von Ferrimagnetika werden nach N´eel (1948) in verschiedene Typen eingeteilt, die sich jeweils aus dem Unterschied der Temperaturabh¨angigkeiten ihrer Untergittermagnetisierungen ergeben. Proben aus allen Altersbereichen zeigen ein Maximum bei MS(T) oberhalb des absoluten Nullpunktes der Temperatur. Bei einem Teil der 10 bis 40 Ma alten Proben wird außerdem beiT
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Die vorliegende Arbeit berichtet ueber die ersten atomoptischen Experimente mit Atomlaserstrahlen. Die Atomlaserstrahlen werden aus Bose-Einstein-Kondensaten, die aus 87Rb- Atomen bestehen, extrahiert und propagieren ballistisch im Gravitationsfeld. Mit Hilfe von Hyperfein-Ramanuebergaengen in einem externen inhomogenen Magnetfeld wird ein Spiegel, ein Strahlteiler und ein Resonator fuer den Atomlaser realisiert. Die Oberflaeche des Spiegels ist durch eine Resonanzbedingung definiert, die von der Differenz der Frequenzen der Ramanlaser und der lokalen Magnetfeldstaerke abh¨angt. Die Reflektion findet an Flaechen konstanten Magnetfeldes statt und somit kann eine extrem glatte Spiegelflaeche realisiert werden. Die Impulsverbreiterung des Atomlaserstrahls bei der Reflektion betraegt weniger als 1/30 eines Photonenr¨uckstoßes und die Reflektivitaet des Materiewellenspiegels liegt bei ¨uber 98%. Mit dem neuen Materiewellenspiegel wird die zeitliche Kohaerenz von Atomlaserstrahlen untersucht. Durch die Retroreflektion des Atomlaserstrahls an dem Spiegel erzielt man eine Ueberlagerung des einlaufenden und des reflektierten Anteils der Welle. Die Verz¨ogerungszeit zwischen den interferierenden Anteilen haengt von der Entfernung des Beobachtungsortes zur Spiegeloberflaeche ab. Das resultierende Interferenzmuster dieser stehenden Materiewelle wird mit einem neuartigen Magnetresonanzverfahren detektiert, das eine raeumlichen Aufl¨osung von 65 nm ermoeglicht. Der gemessene Kontrast ist ein Maß fuer die Kohaerenzzeit bzw. die Energiebreite des Atomlaserstrahls. Die Messung zeigt, daß die Energiebreite des Atomlaserstrahls mit zunehmender zeitlicher Dauer der Auskopplung abnimmt und Fourier-begrenzt durch die Auskopplungsdauer ist. Außerdem setzt die Messung eine Untergrenze fuer die Phasendiffusionszeit des Bose-Einstein-Kondensats. Waehrend des Auskopplungsprozesses des Atomlaserstrahls aus dem Bose-Einstein- Kondensat streuen die Atome an dem repulsiven Potential des in der Falle verbleibenden Bose-Einstein-Kondensats. Dieser Streuvorgang wird sowohl theoretisch als auch experimentell untersucht. Um die resultierenden transversalen Strukturen im Atomlaserstrahl sichtbar zu machen, wird ein neues Verfahren zur Impulsvergroeßerung eingesetzt: der Materiewellenspiegel wird in einer Hohlspiegelkonfiguration verwendet, die den Strahl aufweitet und eine Impulsaufl¨osung von 1/100 eines Photonenr¨ucktoßes ermoeglicht. Damit tritt die theoretisch erwartete Aufspaltung des Strahls deutlich hervor. Neben den Eigenschaften der Atomlaserstrahlen wird auch die Kinetik des Wachstumsprozesses von Bose-Einstein-Kondensaten beim Durchqueren des Phasenuebergangs untersucht. DasWachstum von Bose-Einstein-Kondensaten besitzt in Bezug auf den Atomlaser die gleiche Bedeutung wie das Pumpen des Verstaerkungsmediums im optischen Laser. Fuer eine quantitative Untersuchung wird eine thermische Atomwolke oberhalb der kritischen Temperatur pr¨apariert und dann kontrolliert in das quantenentartete Regime gekuehlt. Das Wachstum des Kondensats startet nach dem Beginn des Kuehlens erst mit Verz¨ogerung, und diese Verz¨ogerungszeit wird erstmals gemessen. Fuer schwaches Kuehlen durch den Phasenuebergang beobachtet man einen zweistufigenWachstumsprozeß der Kondensatatomzahl, was moeglicherweise auf Phasenfluktuationen im Entstehungsprozeß hindeutet.
Mon, 1 Jan 1973 12:00:00 +0100 http://epub.ub.uni-muenchen.de/10192/ http://epub.ub.uni-muenchen.de/10192/1/10192.pdf Zacher, Hans Friedrich Zacher, Hans Friedrich (1973): Die Messung sozialen Glücks. Zur Problematik der sozialen Indikatoren. In: Bogs, Walter (Hrsg.), Sozialrecht in Wissenschaft und Praxis. Zeitschrift für Sozialreform. Chmielorz: Wiesbaden, pp. 585-614. Jura 0