POPULARITY
Ab und zu haben wir eine Wissenschaftsgeschichte für euch, die ihr schnell weg snacken könnt. Heute geht's um den Rauch, der verkündet hat, dass ein neuer Papst gewählt wurde. Und wir haben Vogelkunde betrieben, während alle anderen auf den Schornstein geguckt haben. Checkt gerne den Spektrum-Artikel zur Papst-Wahl aus oder unsere Folge zu Gustav Kirchhoff und die Spektralanalyse.Wenn ihr echte essbare Snacks sucht, nutzt im Mai gerne unseren Buah-Code behindscience10. Oder spart bei KoRo-Code mit unserem Code BEHINDSCIENCE. Eine neue Folge gibt's jeden Samstag – am Science-Samstag. Zwischendurch erreicht ihr uns per Mail und Instagram, und hier gibt's unsere Links, die gerade wichtig sind. Hosted on Acast. See acast.com/privacy for more information.
Wie misst man eigentlich Entfernungen im Universum? Und wie hat sich unser Verständnis darüber im Laufe der Jahrhunderte verändert? In dieser Folge erklimmen Susanne und Paul mit euch die „Himmelsleiter“ der Astronomie und zeigen, wie Wissenschaftler über Jahrhunderte hinweg nach Wegen suchten, die kosmischen Distanzen zu bestimmen.Von den ersten Versuchen mit Venustransits, bei denen Forscher wie Captain Cook im 18. Jahrhundert die einen der sehr seltenen Durchgänge der Venus vor der Sonne beobachteten, bis hin zu den bahnbrechenden Erkenntnissen der modernen Astronomie – unsere beiden Astronomen tauchen mit euch heute ein in die Geschichte der Himmelsvermessung. Die berühmten Keplerschen Gesetze halfen zwar, die Bewegung der Planeten zu verstehen, doch ohne eine verlässliche Bestimmung der Entfernung zwischen Erde und Sonne blieb die Himmelsleiter sogar im Sonnensystem ohne Maßstab. Erst aufwendige Expeditionen brachten uns diesem heiligen Gral der Astronomie näher.Und dann? Im 19. Jahrhundert brachte die Messung der Parallaxe den nächsten Durchbruch: Wir erfuhren, wie weit weg die nächsten Sterne sind. Heute liefern uns Teleskope und Raumsonden wie Gaia gigantische Datenmengen, die es ermöglichen, Entfernungen für Milliarden von Objekten im All zu berechnen.Doch nicht nur geometrische Methoden helfen uns weiter – auch das Licht der Sterne verrät uns, wie weit sie entfernt sind. Mithilfe der Spektralanalyse können wir die wahre Leuchtkraft eines Sterns bestimmen und so seine Distanz berechnen.Wie all diese Methoden zusammenspielen und welche faszinierenden Erkenntnisse sie uns über das Universum liefern – das erfahrt ihr in dieser Folge mit unseren beiden Himmelspaziergängern Susanne und Paul!
Der Bunsenbrenner ist nur eine der Errungenschaften von Robert Wilhelm Eberhard Bunsen. Der Deutsche Chemiker prägt die heutige Chemie auch 125 Jahre nach seinem Tod mit seinen zahlreichen Entdeckungen, wie z.B. der Spektralanalyse.
Gustav Kirchhoff hatte zwei herausragende Talente: Die Physik und Mathematik und die Fähigkeit enge Freundschaften zu knüpfen. In Heidelberg entwickelte er die weltberühmte Spektralanalyse, mit der zehn neue Elemente gefunden werden. Und das Dank seines scharfen wissenschaftlichen Geists und einer sehr besonderen Freundschaft zu Robert Bunsen, der mit ihm zusammen im Labor steht. Dank dieser Methode schafft Kirchhoff nichts geringeres, als die Sonne chemisch zu analysieren. Kirchhoff erlebt diese Zeit in Heidelberg als die glücklichste seines Lebens, bis das Licht der Sonne in seinem Leben sich verdunkelt... Hier geht's zur Folge über Robert Bunsen: https://spoti.fi/3VGXnGi Auch Cecilia Payne hat Kirchhoffs Methode genutzt: https://spoti.fi/3z2lab3 Willkommen zu unserem True Science-Podcast! Wir reden über die absurden, irren, romantischen und verworrenen Geschichten hinter Entdeckungen und Erfindungen. Denn in der Wissenschaft gibt es jede Menge Gossip! Wir erzählen zum Beispiel, wie die Erfinderin des heutigen Schwangerschaftstests mit Hilfe einer Büroklammerbox den Durchbruch schaffte, oder wie eine Hollywood-Schauspielerin den Grundstein für unser heutiges WLAN legte. Immer samstags - am Science-Samstag. Wir, das sind Marie Eickhoff und Luisa Pfeiffenschneider. Wir haben Wissenschaftsjournalismus studiert und die Zeit im Labor schon immer lieber zum Quatschen genutzt. Schreibt uns: podcast@behindscience.de I Instagram: @behindscience.podcast Wir sind übrigens ein offizieller #WissPod, gelistet im Reiseführer für Wissenschaftspodcasts: https://bitly.ws/3eGBW Hinweis: Werbespots in dieser Folge erfolgen automatisiert. Wir haben keinen Einfluss auf die Auswahl. Vermarktung: Julep Media GmbH | Grafikdesign: Mara Strieder | Sprecherin: Madeleine Sabel | Fotos: Fatima Talalini
Nicht nur Schaulustige und Amateur-Astronomen - wenn eine Sonnenfinsternis angekündigt wird, machen sich Physiker, Chemiker, Kosmologen auf den Weg. In der Neuzeit entwickelte sich das Himmelsschauspiel zum Objekt wissenschaftlicher Neugier. Im zweiten Teil des Geschichts-Podcasts über Sonnenfinsternisse geht es um planetare Umlaufbahnen, ein neu entdecktes Element und um nichts weniger als die Revolution unseres gesamten Weltbildes.
Warum leuchtet die Sonne? Darüber hat man seit Jahrtausenden nachgedacht. Die vorgeschlagenen Antworten wirken aus heutiger Sicht oft absurd. Und tatsächlich hat es überraschend lange gedauert, bis wir gecheckt haben, was in der Sonne abgeht. Was davor passiert ist, erfahrt ihr in der neuen Folge der Sternengeschichten
Magdalena und Hartmut knüpfen in dieser Ausgabe ihre Sparstrümpfe ganz weit auf und investieren in Innovation, Zukunft, Nachhaltigkeit und Mähdrescher; Denn es geht um Wirtschaft. Ein sehr weites Feld mit vielen thematischen Fallstricken, wie unsere beiden Radioentrepreneure schmerzhaft festellen müssen, wenn sie sich aufgrund ihrer bodenlosen Unwissenheit mit der Nase vorraus gepflegt auf das Börsenparkett der Tatsachen legen. Goethe der Ökonom schaut kurz vorbei, der Professor Eisenbart erzählt von seinen Erfahrungen auf der Elektrosportmesse, wir schauen und die Ursprünge des Geldes an und zahlen Charon einen Obolus, um uns über den den Styx und an Cherberus vorbei zu bringen. Eine durchaus spannende Reise also, die die Folie für die absoluten Premiumtexte unerer Autor * innenschaft bildet. Diese schreibt sich mal wieder die Finger wund und führt eine kollektive Spektralanalyse des Themas durch, vom Bier bis zur Lichtgestalt Friedrich Merz sind alle mit dabei und führen uns durch das dichte Dickicht der Businesswelt. Sie ziehen einen dicken Sstrich unter das Thema und schreiben nebst tiefschwarzen Zahlen auch höchst effiziente Texte auf, die befflissen von unsereren Sprecher * innen zu gewinnbringenden Beiträgen fusioniert und synergiert werden. Wie GEIL! Mit desininfizierten Grüßen Ihr Pappy, der Redaktionspapagey Schreiber: Aufzählungs-TextAufzählungs-Text: Christian Y. Schmidt Elmar Tannert Michael Schmidt Marius Geitz Mina Reischer Walter Hirschwieserl Andreas Lugauer Daphne Elfenbein Matt S. Bakausky Cornelius W. M. Oettle Sprecher: Verena Schmidt Enrique Fiß Anna Krestel Vincent Metzger Bernadette Rauscher Odai Albatal Christian Mosbacher Vaha Candolucky José Ortega
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Aktive Galaxienkerne (AGN) werden durch das Wachstum super-schwere schwarze Löcher, die im Zentrum jeder massiven Galaxie sitzen, betrieben. Da enge Korrelationen ihrer Massen zu Eigenschaften der elliptischen Galaxienkomponente beobachtet werden, und durch ihre extreme Leuchtkraft ist es naheliegend, dass AGN einen wichtigen Baustein von Galaxien bilden. Der erste Schritt, AGN zu verstehen ist es, ihre Häufigkeit zu ermitteln, sowie die Leuchtkraft der Population. Dieses Unterfangen wird dadurch erschwert, dass die meisten AGN von Gas und Staub umgeben sind. Selbst im energiereichen Röntgenbereich, der in dieser Arbeit verwendet wird, wird die intrinsische Strahlung durch Absorption um mehrere Größenordnung verringert. Die vorliegenden Doktorarbeit untersucht zuerst die Eigenschaften dieser Wolken, im speziellen ihre Geometrie, Säulendichteverteilung und ihr Verhältnis zur Leuchtkraft des AGN. Dazu werden ∼ 300 AGN von der längst-beobachteten Röntgenregion, der Chandra Deep Field South Kampagne verwendet. Eine neue Bayesische Methode zur Spektralanalyse wurde entwickelt, um verschiedene physikalisch motivierte Modelle für den Aufbau der Wolken zu vergleichen. Das Röntgenspektrum reagiert, hauptsächlich dank Compton-Streuung, auf die Gesamtbedeckung der Quelle durch das Gas. Eine detaillierte Analyse zeigt, dass die Wolken mit einer Torus (“Donut”) Form konsistent sind, und sowohl vollständige Bedeckung als auch eine Scheiben-artige Konfiguration ausgeschlossen werden können. Außerdem ist eine weiteren Komponente höherer Dichte notwendig um zusätzlich beobachtete Compton-Reflektion zu erklären. Dies deutet auf eine strukturierte Formation hin, wie etwa ein Torus mit einem Dichtegradienten. Die Untersuchung der gesamten AGN-Population inklusive der AGN mit hohen Säulendichten, verlangt eine große Stichprobe mit einem genauen Verständnis für die Stichprobenverzerrung, sowie fortgeschrittene statistische Inferenzmethoden. Diese Arbeit baut auf eine ∼ 2000 AGN große Stichprobe die durch Röntgenemission detektiert wurde, bestehend aus mehrschichtigen Kampagnen aus den CDFS, AEGIS-XD, COSMOS and XMM-XXL Regionen. Die Röntgenspektren wurden im Detail mit einem physikalischen Spektralmodell analysiert, um die intrinsische Leuchtkraft, Rotverschiebung, sowie Säulendichte (N_H) für jedes Objekt zu erhalten, inklusive der Messunsicherheit. Außerdem wurden in dieser Arbeit neue statistische Methoden entwickelt um die richtige Assoziation zu optischen/infraroten Objekten zu finden, und um die Unsicherheiten durch Objekte ohne Pendant, der Rotverschiebungsmessung, sowie der Poissonfehler des Röntgenspektrums in alle Ergebnisse einzubinden. Einen weiteren wichtigen Beitrag bildet eine Bayesische, nicht-parametrische Methode um die unverzerrte Dichte von AGN in kosmologischen Volumen als Funktion von intrinsischer Leuchtkraft, Rotverschiebung und Säulendichte (N H ) der verbergenden Wolken zu rekonstruieren. Obwohl in dieser Methode lediglich Glattheit verwendet wird, kann dieser Ansatz dieselben Formen der Leuchtkraftverteilung sowie ihre Entwicklung rekonstruieren, die sonst oft in emprischen Modellen verwendet werden, jedoch ohne diese apriori anzunehmen. Im Großen und Ganzen kann die Leuchtkraftverteilung, in allen Rotverschiebungsschalen, als Potenzgesetz mit einem Umbruchspunkt beschrieben werden. Sowohl die Normalisation als auch der Leuchtkraftumbruchspunkt entwickeln sich über den Lauf des Universums, allerdings zeigen die Daten keine Belege für eine Veränderung der Form der Verteilung. Dies deutet darauf hin, im Gegensatz zu Aussagen vorherigen Studien, dass der Rückkopplungsmechanismus zwischen AGN und beherbergender Galaxie immer gleich funktioniert, und sich nur die Anzahl und Größe der wachsenden Systeme verändert. Die nicht-parametrische Rekonstruktionsmethode verwendet keine Annahmen darüber wie sich z.B. die Häufigkeiten von Säulendichte des verdeckenden Gases mit Leuchtkraft oder Rotverschiebung verändert. Dies erlaubt sehr robuste Schlüsse über den Anteil der verdeckten AGN (N_H > 10^22 cm −2 ), die 77 +4 −5 % der Population ausmachen sowie den Anteil der Compton-dicken AGN (38 +8 −7 %), die sich hinter enormen Säulendichten (N_H > 10^24 cm −2 ) verbergen. Insbesondere dass der letztere Anteil bestimmt werden konnte, lässt endlich Schlüsse darauf zu, wieviel AGN “verdeckt” wachsen. Außerdem suggeriert es, dass der Torus einen großen Teil des AGN verdeckt. Basierend auf der Leuchtkraft der gesamten AGN Population wurde die Masse, die über den Lauf der Zeit in schwarzen Löchern gesperrt wurde, geschätzt, und die Massendichte der supermassereichen schwarzen Löcher im heutigen Universum vorhergesagt. Die Rekonstruktion bringt außerdem zu Tage, dass der Anteil der verdeckten AGN (insbesondere der Compton-dünnen AGN) eine negative Leuchtkraftabhängigkeit aufweist, und dass sich diese Abhängigkeit über die Geschichte des Universums entwickelt hat. Dieses Resultat wird in dieser Arbeit im Zusammenhang mit bestehenden Modellen interpretiert und ist möglicherweise ein Nebeneffekt eines nicht-hierarchischen Wachstums von AGN.
Satellitengestützte geodätische Messmethoden, insbesondere GPS (Global Positioning System), sind von zunehmender Bedeutung in den Geowissenschaften und erlauben neue Einblicke in verschiedenste geophysikalische Prozesse. Zeitreihen hochpräziser Positionsmessungen von Punkten auf der Erdoberfläche ermöglichen unter anderem die Bestimmung von Relativgeschwindigkeiten tektonischer Einheiten, die Messung von Verformungsraten der Kruste an aktiven Störungen und Vulkanen und erlauben es Rückschlüsse auf die rheologischen Parameter der Lithosphäre und der Asthenosphäre zu ziehen. Mit zunehmender Länge und Genauigkeit der Zeitreihen ist es möglich, auch zeitabhängige dynamische tektonische Prozesse in GPS Zeitreihen zu identifizieren. Die Schwierigkeiten in der Interpretation der Messungen bestehen unter anderem darin, von Punktmessungen auf kontinuierliche Deformationsmuster zu schließen, zeitlich korreliertes Rauschen zu quantifizieren, um realistische Fehlergrenzen anzugeben, und schließlich zeitabhängige tektonische Signale von zeitabhängigem Rauschen zu trennen. In dieser Arbeit werden Lösungsansätze zu diesen Punkten erarbeitet. Zunächst wird ein Algorithmus entwickelt, durch den aus einem diskreten Geschwindigkeitsfeld, ohne Vorgabe weiterer Randbedingungen (Geometrie der Störungen etc.), der kontinuierliche zweidimensionale Tensor der Verformungsraten abgeleitet werden kann. Aus der Tensoranalysis erhält man Informationen zur maximalen Scher- und Rotationsverformungsrate, sowie zur Dilatationsrate. Die Anwendung dieses Algorithmus auf verschiedene Datensätze in Südkalifornien und Island zeigt, dass hiermit sowohl aktive Störungen identifiziert, als auch Informationen uber Bruchflächen von Erdbeben aus ko- bzw. postseismischen GPS Messungen abgeleitet werden können. Außerdem wurden zeitabhängige Signale in den GPS Geschwindigkeitsfeldern ersichtlich. Im zweiten Teil dieser Arbeit wird ein weiterer Algorithmus eingeführt, der unter Berücksichtigung der Effekte zeitabhängigen Rauschens die Berechnung der Varianz innerhalb von GPS Geschwindigkeitsfeldern ermöglicht. Somit wird außerdem der Notwendigkeit Rechnung getragen, realistische Fehlergrenzen als Grundlage zur Konfidenzabschätzung von Modellen zu definieren. Dieser Algorithmus basiert auf der Allan Varianz, die bei der Messung der Stabilität von Oszillatoren Verwendung findet und ausschließlich im Zeitbereich berechnet wird. Er wird ausführlich mit verschiedenen synthetischen Zeitreihen und Fehlermodellen getestet und auf einen südafrikanischen Datensatz angewandt. Der Vergleich mit Methoden, die auf einer Spektralanalyse oder einem Maximum Likelihood Estimator beruhen zeigt, dass der relativ schnelle Algorithmus stabile und verlässliche Angaben liefert. Zuletzt wird der entwickelte Algorithmus erweitert, um die Kovarianz der Geschwindigkeit zu erhalten. Die Anwendung auf verschiedene Datensätze an konvergenten Plattengrenzen, wo regelmäßig Kriechereignisse in Form von Slow Slip Events auftreten, zeigt für einige Stationen stark richtungsabhängige und räumlich korrelierte Geschwindigkeitsfehler. Des Weiteren konnte eine Zeitkorrelation beobachtet werden, die auf einen tektonischen Ursprung der Ereignisse hinweist. Die korrigierten Zeitreihen, von denen die modellierten Ereignisse subtrahiert wurden, haben dagegen richtungsunabhängig eine Zeitkorrelation, die etwa dem 1/f Rauschen entspricht, und weisen keine räumlich korrelierten stark exzentrischen Fehlerellipsen auf. Die Analyse ermöglicht somit eine qualitative Bewertung der Modelle zeitabhängiger Signale in GPS Zeitreihen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Die vorliegende Arbeit stellt eine Zusammenfassung der bisherigen EEG-Publikationen und Ergebnisse des Verfassers dar. Das Ziel der Dissertation besteht darin, die Möglichkeiten und biomedizinische Relevanz der rechnergestützten EEG-Analyse exemplarisch aufzuzeigen. Dies erfolgt mit geeigneten Methoden der Signalverarbeitung, Nachrichtentechnik, Informationstheorie, Mustererkennung, Chaostheorie und Statistik an Hand von EEG-Daten aus verschiedenen Forschungsbereichen. Dabei werden quantitative EEG-Veränderungen, insbesondere in Abhängigkeit von dem Alter, der Vigilanz, den Schlafstadien, dem Menstruationszyklus, der Intelligenz sowie entwicklungsneurologischen Störungen, speziell beim Down Syndrom, untersucht und z. Teil hochsignifikante Ergebnisse erzielt. Besonderer Schwerpunkt wird auf die Analyse der zeitlichen Ordnung bzw. Rhythmizität des EEG-Signals mit Hilfe der Chaosanalyse gelegt, die eine signaltheoretisch bedeutende Alternative zur klassischen Spektralanalyse darstellt. Eine Störung dieser zeitlichen Ordnung kann einen prädiktiven Wert bei funktionellen Störungen des zentralen Hirnstammsystems haben. Es kann gezeigt werden, dass die diagnostische Aussagekraft des EEGs durch den Einsatz der rechnergestützten EEG-Analyse wesentlich erhöht wird. Insbesondere bei morphologischen und funktionellen Störungen des ZNS können die maschinellen EEG-Parameter als ergänzende Faktoren zur Diagnosefindung herangezogen werden. Somit tragen die Parameter der automatischen EEG-Analyse zu einer erheblich differenzierten Betrachtungsweise des EEG bei und eröffnen zusätzliche diagnostische, therapeutische und verlaufsbeurteilende Perspektiven für die klinische Elektroenzephalographie.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Zusammenfassung O ene Sternhaufen stellen als Gruppen von Sternen gleichen Alters und aufgrund ihres Ursprungs gleicher chemischer Zusammensetzung ein einzigartiges Labor zum Test von Sternentwicklungsmodellen dar. Diese Arbeit beschaftigt sich dabei mit dem o enen Sternhaufen Melotte 111 und den Pleiaden. Um Beobachtung und Modell vergleichen zu konnen, ist es dabei notwendig die stellaren Parameter E ektivtemperatur, Gravitationsbeschleunigung, Metallizitat und Mikroturbulenz mit gro tmoglicher Prazision fur Sterne im gesamten in o enen Haufen vorkommenden Parameterbereich zu messen. Um diesem Anspruch gerecht zu werden wird im Rahmen dieser Arbeit das Opacity Sampling Modellatmospharenprogramm MAFAGS-OS eingefuhrt. Auf einer Datenbasis von mehr als 20 Millionen gebunden-gebunden Ubergangen von Elementen der Ionisationsstufen I, II und III sowie 11 diatomischen Molekulen basierend werden Methoden der Linienauswahl, sowie ein geeignetes Stutzstellengitter fur Sterne der Spektraltypen A, F und G fur Entwicklungsstadien von der Hauptreihe bis zum Turno und Sterne verschiedener Metallizitat untersucht und festgelegt. MAFAGS-OS erweist sich im Vergleich mit der solaren Flussverteilung und den " Farben der Sonneals herkommlichen Opacity Distribution Function (ODF) Modellen uberlegen. Das sogenannte Problem der missing ultraviolet opacity verschwindet in der Sonne dabei fast zur Ganze.1 Bezuglich der Sonne bleiben allerdings die von herkommlichen Modellen bekannten De zite in d
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Um zu untersuchen, ob ein Zusammenhang zwischen EEG-Merkmalen und Leistung im Intelligenztest besteht, wurde retrospektiv bei 69 Kindern im Alter 10+-1Jahr, die in den Jahren 1996 und 1997 am Sozialpädiatrischen Zentrum Inn-Salzach in Altötting untersucht wurden, die Intelligenztestung mit dem HAWIK-R mit dem EEG verglichen. Die Hirnaktivität wurde mittels der Spektralanalyse analysiert. Die Ergebnisse wurden mit den Ergebnissen der 11 Subtests und der drei berechneten Intelligenzquotienten des HAWIK-R korreliert. Zunächst erfolgte ein Vergleich der Ergebnisse der 11 Subtests jeweils mit den Spektralwerten in 0,5 Hz Abständen sowie mit den klassichen EEG-Bändern. In weiteren Schritten wurde eine spektral- und bandbezogene Korrelations- und Varianzanalyse durchgeführt. Die Spektralanalyse zeigte die ausgeprägtesten Zusammenhäge bei 10,0-10,5 Hz. Die Bandanalyse ergab signifikante Ergebnisse im Alpha-Berich okzipital. Die besten Korrelationen zwischen Testergebnis und Alpha-Aktivität wurden bei sprachlich gebundenen kognitiven Fähigkeiten (HAWIK-R Verbal-IQ (H 12)) nachgewiesen, aber auch bei den Untertesten Allgemeines Wissen (H1), Wortschatz-Test (H5), Bilderordnen (H9) und Figurenlegen (H11). Bei der okzipitalen Alpha-Aktivität waren die Unterschiede zwischen Kindern mit hohen und niedrigem IQ signifikant auf dem Niveau < 5%.