POPULARITY
Gravitationswellen, Verzerrungen der Raumzeit, einst von Albert Einstein theoretisch vorhergesagt, sind eine der aufregendsten Entdeckungen der modernen Physik. Ihr Nachweis stellt eine enorme Präzisionsleistung dar. Doch was genau sind Gravitationswellen? Wie entstehen sie? Und warum dauerte es mehr als hundert Jahre, bis ihr Nachweis gelang? In dieser Episode tauchen wir tief in die Welt der Gravitationswellen ein und erkunden, warum ihre Erforschung für die Astronomie so wichtig ist. Ihr könnt uns gerne bei [Steady](https://steadyhq.com/de/cosmiclatte/), [Patreon] (https://patreon.com/CosmiclattePodcast) oder [Paypal](https://paypal.me/cosmiclattepod) unterstützen!
In Folge 99 sind wir schon fast bei Folge 100. Oder eigentlich sind wir schon da, aber drüber reden wir nicht. Stattdessen über umfallende Sonden auf dem Mond, über kaputte Asteroiden und über den langen Flug der New Horizons, bis dahin wo es richtig staubig ist. Außerdem geht es um Moebius-Mathematik, um Pistolenschüsse auf Teleskope und den Zweck von Raumanzügen. Wenn ihr uns unterstützen wollt, könnt ihr das hier tun: https://www.paypal.com/paypalme/PodcastDasUniversum Oder hier: https://steadyhq.com/de/dasuniversum Oder hier: https://www.patreon.com/dasuniversum
In dieser Episode widmen wir uns den massereichsten Objekte im Universum - den Schwarzen Löchern und werfen einen besonderen Blick auf das Schwarze Loch im Herzen der Milchstrasse, Sagittarius A*. Wir sehen uns seine Geschichte von den ersten theoretischen Vermutungen bis hin zum ersten Bild an und erklären warum man dazu ein Teleskop mit einem Durchmesser der Erde brauchte.
Antares ist der Gegenmars. Und das Herz des Skorpions. Und der rote Mann im Himmel. Und er gehört zu den wenigen Sternen, von denen wir mehr sehen als nur einen Punkt. Mehr erfahrt ihr in der neuen Folge der Sternengeschichten: Wer den Podcast finanziell unterstützen möchte, kann das hier tun: Mit PayPal (https://www.paypal.me/florianfreistetter), Patreon (https://www.patreon.com/sternengeschichten) oder Steady (https://steadyhq.com/sternengeschichten)
Ruth Grützbauch ist Astronomin, betreibt in Wien ein Popup-Planetarium, hat ein Buch* geschrieben, und ich lasse mir von ihr erzählen, was es am Himmel nicht zu sehen gibt, obwohl es dort ist. Darin: Schwarzes Loch M87, Messier 87, 99pi-Podcast: Vantablack, Ereignishorizont, Weißes Loch, Wurmlöcher, Event Horizon Telescope, Interferometrie und eine zur Bibel gekommene Wissenschaftlerin. *Affiliate-Link: Wer über […]
Ruth Grützbauch ist Astronomin, betreibt in Wien ein Popup-Planetarium, hat ein Buch* geschrieben, und ich lasse mir von ihr erzählen, was es am Himmel nicht zu sehen gibt, obwohl es dort ist. Darin: Schwarzes Loch M87, Messier 87, 99pi-Podcast: Vantablack, Ereignishorizont, Weißes Loch, Wurmlöcher, Event Horizon Telescope, Interferometrie und eine zur Bibel gekommene Wissenschaftlerin. *Affiliate-Link: Wer über […]
In Folge 45 geht es um diverse Megakollisionen. Wir lassen alles miteinander kollidieren: Supermassereiche Löcher im Zentrum einer Galaxie, Asteroiden miteinander, Teilchen im galaktischen Zentrum, Intelligente Unterhaltung und Roland Emmerich. Florian erzählt von der Entdeckung des ersten Vierfachasteroiden; Ruth von der möglicherweise bevorstehenden Kollision zweier ehemaliger Galaxienzentren. Außerdem präsentiert sie ein wunderschönes Radiobild unseres galaktischen Zentrum. Wir machen Vorschläge, welchen Weltuntergang Roland Emmerich als nächstes schlecht fürs Kino verfilmen könnte. Wir beantworten Fragen, zu schwarzen Löchern und astronomischen Radtouren. Und in “Neues von der Sternwarte” diskutieren wir mit Evi über Prüfungen an der Uni und warum die so oft so schlecht organisiert sind.
Wir haben keine Nobelpreise gewonnen, reden aber darüber. Denn es geht um die Erforschung schwarzer Löcher, was cool ist und deswegen besprochen werden muss. Danach erzählt Florian eine Geschichter über die Suche nach extragalaktischen Planeten. Und wir beantworten Fragen über das was im Zentrum von Galaxien ist, was zwischen Galaxien ist und wie das mit den Sternbildern und Sternzügen funktioniert.
In unserer heutigen Folge geht es um Atominterferometer. Man kann statt Laserlicht auch einfach Materiewellen nutzen und damit Interferometrie betreiben. Wie das genau funktioniert und was das für Vorteile haben kann, erfahrt ihr hier! Viel Vergnügen! #atominterferometer #materiewellen #interferometer #gravitationswellen
Wenn man das Universum richtig gut sehen will, dann braucht man Teleskope mit Löchern. Die Technik nennt sich "Interferometrie". Und sie hat die Aufnahme des ersten Bilds eines schwarzen Lochs möglich gemacht. Wie das geht erfahrt ihr in der neuen Folge des Sternengeschichten-Podcast.
Schwarze Löcher kann man nicht sehen. Aber weil die Astronomie sehr super ist, kann man es doch. Was man sehen kann, was nicht und wie man das sieht was man sehen kann, erfahrt ihr in der aktuellen Folge des Sternengeschichten-Podcast.
Habt ihr euch schon mal gefragt, was Äther mit Gravitation zu tun hat? Das und vieles mehr erfahrt ihr in dieser Nussschale!
Aus technischen Gründen fehlt die erste Hälfte der Vorlesung. In der zweiten Hälfte werden verschiedene Anwendungen der Interferometrie und und verschiedene Interferometertypen vorgestellt.
Darin: Vortragskonzepte – Sciencebusters Battle Royal Halbzeit zum Kuipergürtel – Feldhamster – Meta-Weltraumschrott – Geisterfischchen – Blinkkomparator – Bezos verkauft Aktien – Kandidat für Planet 9 (dazu Florian) – Event Horizon Telescope (dazu Florian) – Interferometrie – Saharastaubmikroben – Marathonschäden – Plutopanorama – Kessler-Syndrom (Florians Artikel dazu) – Theory of Mind im Hund – Delfine prügeln Kraken – IgNobel in Graz – Dachs […]
Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen positionierter Streuer in einer Entfernungszelle.Die für die SAR-Interferometrie wesentliche Information aber ist die Phase. Sie kann allerdings nur genutzt werden, wenn zwei oder mehr Aufnahmen aus annähernd der gleichen Position vorliegen. Die grundlegende Idee dabei ist die Betrachtung von Doppeldifferenzen der Phase zweier Pixel zweier Aufnahmezeitpunkte. Um sie zu verstehen nehmen wir zunächst an, dass sich in beiden Auflösungszellen je ein dominanter, punktförmiger Streuer befindet, was so gemeint ist, dass die Phase einer Laufzeit entspricht. Da die Subpixelpositionen unbekannt sind und die Größe der Auflösungszelle um Vieles größer als die Wellenlänge ist, ist die Phasendifferenz zweier Pixel eines einzelnen Bildes nicht verwertbar. In der Doppeldifferenz heben sich die unbekannten Subpixelpositionen allerdings heraus. Die Doppeldifferenz ist in dieser idealisierten Situation die Summe dreier Anteile: des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien, des Laufzeitunterschiedes auf Grund einer relativen Positionsänderung der Streuer während der zwischen den Aufnahmen verstrichenen Zeit und des Laufzeitunterschiedes auf Grund der räumlichen und zeitlichen Variation der atmosphärischen Verzögerung. Diese drei Anteile können jeder für sich nützliche Information darstellen. Der Erste wird zur Gewinnung von Höhenmodellen genutzt, der Zweite zur Detektion von Deformationen der Erdoberfläche und der Dritte, obwohl meist als Störterm angesehen, kann bei der Bestimmung der Verteilung von Wasserdampf in der Atmosphäre genutzt werden. Es stellt sich aber die Frage, wie man diese Terme separiert, zumal noch die Mehrdeutigkeit aufgelöst werden muss, die darin liegt, dass die Phase nur bis auf ganzzahlige Vielfache von zwei Pi bekannt ist.Weitere Fragen ergeben sich, da in realen Daten diese Annahmen für viele Pixel nicht erfüllt sind. Stellt man sich beispielsweise eine Auflösungszelle mit mehreren oder vielen kleineren Streuern vor (z.B. mit Geröll), so ändert sich die Phase der überlagerten Returns mit dem Einfallswinkel des Signals. Sie ändert sich auch, wenn manche der Streuer bewegt wurden oder die beiden Aufnahmen nicht ausreichend genau zur Deckung gebracht wurden. Dies führt dazu, dass die Phase sich um einen schlecht quantifizierbaren Betrag ändert. Man spricht dann von Dekorrelation. Eventuell besteht nach Änderung der physischen Gegebenheiten in der Auflösungszelle keine Beziehung mehr zwischen den Phasenwerten eines Pixels. Dies ist etwa der Fall, wenn ein dominanter Streuer hinzu kommt oder nicht mehr anwesend ist, ein Gelände überschwemmt wird oder trocken fällt. Es stellt sich also die Frage, welche Pixel überhaupt Information tragen, bzw. wie ihre Qualität ist und wie sie extrahiert werden kann.Die Geschichte der SAR-Interferometrie begann nach dem Start des ESA-Satelliten ERS 1 im Jahr 1991 mit einfachen differentiellen Interferogrammen. Das berühmteste ist sicher das vom Landers-Erdbeben 1992 in Kalifornien. Zum ersten Mal in der Geschichte der Wissenschaft war es möglich, das Deformationsfeld eines Erdbebens flächig zu messen, wenn auch nur die Komponente in Sichtlinie des Sensors. Statt Werte hunderter in der Region installierter Messstationen stellte das Interferogramm ein Bild des Erdbebens mit Millionen Datenpunkten dar. Diese Fähigkeit, großflächig Deformationen der Erdoberfläche aufzuzeichnen, besitzt nur die SAR-Interferometrie! Allerdings ist zu bemerken, dass dieses Resultat seine Entstehung auch günstigen Umständen verdankt. Landers liegt in der Mojave-Wüste, so dass die Variation der atmosphärischen Verzögerung und die Dekorrelation vernachlässigbar waren. Dank der Verfügbarkeit eines guten Höhenmodells konnte der Anteil des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien eliminiert werden (man spricht dann von einem differentiellen Interferogramm). Ein weiterer Meilenstein war die Shuttle Radar Topography Mission des Space Shuttle Endeavour im Februar 2000, während der die Daten für ein Höhenmodell der gesamten Landmasse zwischen 54 Grad südlicher Breite und 60 Grad nördlicher Breite aufgezeichnet wurden. Für diesen Zweck wurde die Endeavour mit zwei SAR-Antennen ausgestattet, eine am Rumpf, eine an einem 60 Meter langen Ausleger. Dank zeitgleicher Aufnahmen waren die Phasenanteile auf Grund Deformation und atmosphärischer Verzögerung vernachlässigbar. Dekorrelation auf Grund von Änderungen der physischen Gegebenheiten spielt hier auch keine Rolle. Dem Wunsch nach einem weltweiten, dazu deutlich höher aufgelösten Höhenmodell kommt seit 2010 die TanDEM-X-Mission des DLR nach, bei der die beiden SAR-Antennen von zwei Satelliten im Formationsflug getragen werden. Auch in der Algorithmik gab es entscheidende Fortschritte. Einer der fruchtbarsten war die Erfindung von Permanent Scatterer Interferometric SAR (PSInSAR) um das Jahr 2000, das durch die Verwendung einer längeren Zeitreihe von differentiellen Interferogrammen und einiger neuer Ideen das Problem der Separierung der im vorangehenden Abschnitt genannten Terme löste. Der Ausgangspunkt hierfür war die Entdeckung, dass häufig eine größere Anzahl über lange Zeiträume phasenstabile Streuer, die sogenannten Permanent Scatterer (auch Persistent Scatterer oder PS), gefunden werden können, die man sich vereinfacht als Pixel vorstellen darf, deren Auflösungszelle einen dominanten, punktförmigen, über die Zeitreihe unveränderten Streuer enthält. Auf diese wird nun die Auswertung beschränkt, die vereinfacht folgende Schritte durchläuft: Definition eines Graphen mit den PS als Knoten und Paaren benachbarter PS als Kanten; Schätzung einer Modellphase für Deformation und Höhenmodellfehler an Hand der Doppeldifferenzen aller verwendeten differentiellen Interferogramme für alle Kanten; Entrollen von Originalphase minus Modellphase, d.h. Auflösen der Mehrdeutigkeiten; räumlich-zeitliche Filterung, um die Variation der atmosphärischen Verzögerung zu eliminieren. Als Produkt ergeben sich für jeden PS seine Bewegung in Sichtlinie des Sensors und eine Korrektur seiner Höhenlage relativ zum für die Erzeugung der differentiellen Interferogramme verwendeten Höhenmodell. Seither wurden diese Grundideen modifiziert und verfeinert. Vor allem müssen die Berücksichtigung verteilter Streuer (auch Distributed Scatterer oder DS) für die Deformationsanalyse erwähnt werden, was die Informationsdichte vor allem in ariden Gebieten drastisch erhöhen kann, sowie die SAR-Tomographie, die eine Analyse auch dann erlaubt, wenn zwei oder drei vergleichbar starke Streuer in einer Auflösungszelle vorhanden sind (z.B. wenn ein Streuer am Boden, eine Fensterniche und eine Dachstruktur den gleichen Abstand zum Sensor haben). Die SAR-Interferometrie, insbesondere die Deformationsanalyse, verwendet vor allem mathematische Methoden aus den Bereichen Stochastik, Signalverarbeitung, Optimierungstheorie und Numerik. Besondere Herausforderungen ergeben sich daraus, dass die Vielfalt natürlicher Phänomene sich nur bedingt durch einfache statistische Modelle beschreiben lässt und aus dem Umstand, dass die Datensätze in der Regel sehr groß sind (ein Stapel von 30 Aufnahmen mit komplexwertigen 600 Megapixeln ist durchaus typisch). Es treten lineare Gleichungssysteme mit mehreren Zehntausend Unbekannten auf, die robust gelöst sein wollen. Für die Auflösung der Mehrdeutigkeiten verwenden die fortgeschrittensten Algorithmen ganzzahlige Optimierung. Wavelet-basierte Filterverfahren werden genutzt, um die atmosphärische Verzögerung vom Nutzsignal zu trennen. Im Zusammenhang mit der Schätzung der Variation der atmosphärischen Verzögerung werden geostatistische Verfahren wie Kriging eingesetzt. Statistische Tests werden bei der Auswahl der DS, sowie zur Detektion schlechter Pixel eingesetzt. Bei der Prozessierung der DS spielen Schätzer der Kovarianzmatrix eine prominente Rolle. Die SAR-Tomographie nutzt Compressive Sensing und viele weitere Verfahren. Zusammenfassend lässt sich sagen, dass die SAR-Interferometrie auch aus Perspektive eines Mathematikers ein reichhaltiges und spannendes Arbeitsgebiet ist. Eine wichtige Anwendung ist die Deformationsanalyse durch die InSAR-Methode: Die SAR-Interferometrie zeichnet sich vor allen anderen Techniken dadurch aus, dass sie bei geeignetem Gelände sehr großflächige Phänomene mit sehr hoher Informationsdichte abbilden kann. Allerdings liefert sie relative Messungen, so dass in der Regel eine Kombination mit Nivellement oder hochgenauen GPS-Messungen verwendet wird. Ihre Genauigkeit hängt neben der Qualität der Daten von der Wellenlänge ab und zeigt bei 3cm Wellenlänge meist nur wenige Millimeter je Jahr Standardabweichung. Damit können selbst sehr feine Bewegungen, wie z.B. die Hebung des Oberrheingrabens (ca. 2mm/y), nachgewiesen werden. Allerdings können wegen der Mehrdeutigkeit der Phase Bewegungen auch zu stark sein, um noch mit PSInSAR auswertbar zu sein. In diesem Fall können längere Wellenlängen, höhere zeitliche Abtastung oder Korrelationsverfahren helfen. Trotz der diskutierten Einschränkungen lässt sich die Deformationsanalyse mit InSAR in vielen Zusammenhängen nutzensreich einsetzen, denn auch die Ursachen für Deformationen der Erdoberfläche sind vielfältig. Neben geologischen und anderen natürlichen Phänomenen werden sie von Bergbau, Förderung von Wasser, Erdgas, Erdöl, durch Geothermiebohrungen, Tunnelbau oder andere Bautätigkeiten ausgelöst. Meist steht bei den Anwendungen die Einschätzung von Risiken im Fokus. Erdbeben, Vulkanismus, aber auch Schäden an kritischer Infrastruktur, wie Deichen, Staudämmen oder Kernkraftwerken können katastrophale Folgen haben. Ein weiteres wichtiges Thema ist die Entdeckung oder Beobachtung von Erdbewegungen, die sich potentiell zu einem Erdrutsch entwickeln könnten. Allein in den Alpen gibt es tausende Bergflanken, wo sich größere Bereiche in langsamer Bewegung befinden und in Leben oder Infrastruktur gefährdende Hangrutsche münden könnten. Auf Grund der zunehmenden Erderwärmung nimmt diese Bedrohung überall dort zu, wo Permafrost zu tauen beginnt, der bisher den Boden stabilisierte. InSAR wird bei der Erstellung von Risikokarten genutzt, die der Beurteilung der Gefährdungslage und der Entscheidung über Gegenmaßnahmen dienen. In vielen Regionen der Erde werden Deformationen der Erdoberfläche durch veränderte Grundwasserstände verursacht. Nimmt das Grundwasser ab, etwa wegen Entnahme zur Bewässerung oder industriellen Verwendung, so senkt sich die Erdoberfläche. Nimmt das Grundwasser während regenreicher Zeiten zu, so hebt sich die Erdoberfläche. Das Monitoring mit InSAR ist hier aus mehreren Gründen interessant. Bewegungen der Erdoberfläche können Schäden an Gebäuden oder anderen Strukturen verursachen (Bsp. Mexico City). Übermäßige Wasserentnahme kann zu irreversibler Verdichtung der wasserführenden Schichten führen, was Konsequenzen für die zukünftige Verfügbarkeit der lebenswichtigen Flüssigkeit hat. Bei Knappheit muss die Entnahme reguliert und überwacht werden (Bsp. Central Valley, Kalifornien). Von besonderer Bedeutung sind durch geologische Phänomene wie Vulkanismus oder tektonische Bewegungen verursachte Deformationen der Erdoberfläche. Die von SAR-Satelliten gewonnenen Daten werden zur Einschätzung von Risiken benutzt, auch wenn eine sichere, frühzeitige und zeitgenaue Vorhersage von Erdbeben oder Vulkanausbrüchen mit den heutigen Methoden nicht möglich ist. Sie sind aber die Grundlage für eine ausgedehnte Forschungsaktivität, die unser Verständnis der Vorgänge in der Erdkruste stetig wachsen lässt und immer genauere Vorhersagen erlaubt. Dies ist in erster Linie den SAR-Satelliten der ESA (ERS-1, ERS-2, Envisat und aktuell Sentinel-1A) zu verdanken, die seit 1991 mit lediglich einer Lücke von zwei Jahren (2012-2014) kontinuierlich die gesamte Erde aufnehmen. Die Idee dabei ist, dass so in festem zeitlichen Rhythmus (bei ERS alle 35 Tage) jeder Punkt der Erde aufgenommen wird. Dadurch ist ein großes Archiv entstanden, das es nach einem geologischen Ereignis ermöglicht, dieses mit den Methoden der SAR-Interferometrie zu untersuchen, da die Vorgeschichte verfügbar ist. Eine Entwicklung der letzten Jahre ist die Nutzung bei der Erschließung von Erdgas und Erdöl. Die mit InSAR sichtbar gemachten Deformationen erlauben es, neue Einsicht in die Struktur der Lagerstätten zu erhalten, geomechanische Modelle zu kalibrieren und letztlich die Rohstoffe Dank optimierter Positionierung von Bohrlöchern effektiver und kostengünstiger zu fördern. Wer InSAR noch besser verstehen will, der findet in den InSAR Guidlines der ESA die Grundlagen sehr gut erklärt. Einen etwas breiteren Überblick über Anwendungsmöglichkeiten kann man sich auf der Homepage von TRE verschaffen, einem Unternehmen, das von den Schöpfern von PSInSAR gegründet wurde und im Bereich InSAR-Auswertungen nach wie vor führend ist. Die Wettbewerber ADS und e-GEOS bieten außer InSAR weitere Anwendungen von SAR-Daten. Aus wissenschaftlich/politischer Perspektive kann man sich in der Broschüre der DLR über Themenfelder der Erdbeobachtung informieren. Zu dem speziellen Thema der Erdbewegung auf Grund Absenkung des Grundwasserspiegels in den USA gibt es weitere Informationen. Literatur und weiterführende Informationen A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet: InSAR Principles: Guidelines for SAR Interferometry Processing and Interpretation, TM-19, ESA Publications, 2007. M. Fleischmann, D. Gonzalez (eds): Erdbeobachtung – Unseren Planeten erkunden, vermessen und verstehen, Deutsches Zentrum für Luft- und Raumfahrt e.V., 2013. Land Subsidence, U.S. Geological Survey. M. Even, A. Schunert, K. Schulz, U. Soergel: Atmospheric phase screen-estimation for PSInSAR applied to TerraSAR-X high resolution spotlight-data, Geoscience and Remote Sensing Symposium (IGARSS), IEEE International, 2010. M. Even, A. Schunert, K. Schulz, U. Soergel: Variograms for atmospheric phase screen estimation from TerraSAR-X high resolution spotlight data, SPIE Proceedings Vol. 7829, SAR Image Analysis, Modeling, and Techniques X, 2010. M. Even: Advanced InSAR processing in the footsteps of SqueeSAR Podcast: Raumzeit RZ037: TanDEM-X Podcast: Modellansatz Modell010: Positionsbestimmung Podcast: Modellansatz Modell012: Erdbeben und Optimale Versuchsplanung Podcast: Modellansatz Modell015: Lawinen
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Zur Untersuchung ultraschneller molekularer Quantendynamik und deren Dephasierung werden erstmals extrem kurze Lichtimpulse erzeugt, die aus nur wenigen Zyklen des elektrischen Feldes bestehen und sowohl im Sichtbaren als auch im Ultravioletten weit abstimmbar und untereinander phasengekoppelt sind. Im Sichtbaren gelingt die Erzeugung von 7-fs Impulsen durch nichtkollineare optisch-parametrische Verstärkung eines Weißlicht-Kontinuums und adaptive Kompression mit einem deformierbaren Spiegel in der Fourier-Ebene. Durch geeignete zeitliche Streckung aller beteiligten Impulse (optical parametric chirped pulse amplification) kann die spektrale Breite der Impulse stark erweitert und darüber hinaus leicht an experimentelle Fragestellungen angepasst werden. Bei einer hohen Repetitionsrate von 4 MHz werden nahinfrarote 12-fs Impulse mit Hilfe von cavity-dumping und Dauerstrich-Nachverstärkung erzeugt. Die Impulse haben eine ausreichende Intensität zur Erzeugung eines stabilen Weißlicht-Kontinuums in Saphir. Die spektrale Bandbreite von kollinearen optisch-nichtlinearen Frequenzmischprozessen ist generell durch die Phasenanpassung zwischen den beteiligten Wellen limitiert. Diese Beschränkung kann mit einem neuartigen Konzept zur achromatischen Phasenanpassung um zwei Größenordnungen überwunden werden. Dadurch gelingt erstmals die Erzeugung weit abstimmbarer ultravioletter 7-fs Impulse durch Frequenzverdopplung von spektral geeignet aufgespalteten Lichtfeldern. Diese Impulse sind die bisher kürzesten im ultravioletten Spektralbereich und eine Erzeugung von 2.5-fs-Impulsen ist möglich. Alternativ können ultraviolette 20-fs Impulse mit höherer Energie und größerem Abstimmbereich auch durch gestreckte Summenfrequenzmischung erzeugt werden. Ein neuartiges interferometrisches Messkonzept, zero-additonal-phase SPIDER, erlaubt erstmals die vollständige Charakterisierung der zeitlichen Impulsform und der spektralen Phase der extrem kurzen ultravioletten, sichtbaren und nahinfraroten Impulse direkt am Ort eines spektroskopischen Experiments. Die zeitlichen Eigenschaften der Impulse werden dabei erstmals durch die Messung nicht beeinflusst. Die interferometrische Kalibrierung erfolgt im bestehenden Aufbau und die Konsistenz der Messung kann mit einfachen Tests kontrolliert werden. Alternativ ermöglicht eine Autokorrelationsmessung ohne optischen Strahlteiler die dispersionsfreie Messung von Impulsdauern für sichtbare bis nahinfrarote sub-10-fs Impulse in einem besonders kompakten Aufbau. Unter Berücksichtigung von höheren Ordnungen der spektralen Phase wird eine analytische Theorie der Frequenzverdopplung entwickelt, die eine häufig beobachtete Frequenzverschiebung und über die Phasen-fehlanpassung hinausgehende spektrale Einengung erklärt. Theorie und Experiment zeigen, dass sich die verschiedenen Ordnungen der spektralen Phase unabhängig voneinander zur zweiten Harmonischen übertragen und höhere Ordnungen dabei unterdrückt werden. Das erlaubt die Erzeugung von nahezu Fourier-limitierten ultravioletten sub-20-fs Impulsen durch ausschließliche Kompression im Sichtbaren und durch Frequenzverdopplung zeitlich gestreckter Impulse. Die Impulse aus zwei getrennten parametrischen Verstärkern weisen zeitliche Schwankungen von weniger als einer Femtosekunde auf und sind zueinander phasenstarr. Die Phase der verstärkten Impulse ist nur durch die Phase des als Saat-Licht verwendeten Weißlicht-Kontinuums bestimmt. Dessen restliche Phasenfluktuationen sind direkt mit der Intensität des Pumpimpulses gekoppelt und einfache Überlegungen zur Filamentbildung erklären die Großenordnung und das Vorzeichen dieser Zusammenhänge. Die relativen Schwankungen der carrier-envelope-Phase können durch räumliche Interferometrie für jeden Einzelimpuls gemessen und mit experimentellen Daten korreliert werden. Für Impulszüge bei verschiedenen Wellenlängen wird eine relative Phase definiert und mit Hilfe eines optisch-nichtlinearen Interferometers gemessen, das auf kohärenter Anti-Stokes-Raman-Streuung basiert. Getrennte Spektralkomponenten eines Weißlicht-Kontinuums aus Saphir erweisen sich in hohem Maße als zueinander phasenstarr. Dies erlaubt die Erzeugung von weit abstimmbaren Impulszügen mit fester Phasenbeziehung trotz unterschiedlicher Zentralwellenlänge. Molekulare Quantenzustände verlieren ihre elektronischen und Schwingungs-Kohärenzen innerhalb kür-zester Zeit an die Lösungsmittelumgebung und makroskopische Polarisationen zerfallen durch homogene und inhomogene Dephasierung. Mit den nun verfügbaren kurzen Impulsen werden die Mechanismen der extrem schnellen elektronischen Dephasierung von verschiedenen Farbstoffen in Lösung durch Photon-Echo-Messungen untersucht. Es zeigt sich, dass die Dephasierungszeit von elektronischen Kohärenzen von der Flexibilität oder Starrheit der Molekülstruktur abhängt. Mit den phasengekoppelten Impulsen kann außerdem die unterschiedliche Dephasierungszeit von verschiedenen Schwingungsmoden ausgenutzt werden, um unter-schiedliche Moleküle trotz überlappender Energiebänder durch zeitlich verzögerte Heterodyn-Detektion zu unterscheiden. In der Raman-Mikroskopie wird dieser Effekte als neuartiger Kontrastmechanismus zur untergrundfreien und molekülspezifischen Bildgebung ausgenutzt.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Seit Winter 1998/1999 führen Gruppen am Max-Planck-Institut für Radioastronomie (MPIfR), Max-Planck-Institut für extraterrestrische Physik (MPE) und dem National Radio Astronomy Observatory (NRAO) bei 1.2 mm eine tiefe, große Gebiete abdeckende Himmelsdurchmusterung mit dem Max-Planck-Millimeter Bolometer Array ("MAMBO") am IRAM 30-m Millimeterteleskop durch, um eine signifikante Anzahl von hellen mm-Quellen zu detektieren. Diese Quellen sind höchstwahrscheinlich staubreiche Galaxien bei hoher Rotverschiebung mit Sternentstehungsraten von bis zu einigen Tausend Sonnenmassen pro Jahr. Kosmologisch gesehen sind sie hochinteressant, da sie signifikant zum extragalaktischen kosmischen Hintergrund, d.h. zur Stern- und Galaxienentwicklungsgeschichte des Universums, beitragen. Zum Verständnis ihrer Natur sind Identifikationen mit Hilfe tiefer optischer und Nahinfrarotaufnahmen essentiell. Aufgrund der geringen Winkelauflösung des IRAM 30-m Millimeterteleskopes (10.7") ist eine eindeutige Identifikation der mm-Quellen, die nur auf Bolometerdaten basiert, unmöglich. Deshalb ist die mm- und cm-Interferometrie ein Schlüsselelement in der Nachbeobachtung dieser staubhaltigen, hochrotverschobenen Quellen. Unsere Identifikationsstrategie basiert auf der Kombination von radio- (VLA) und millimeter- (PdBI) interferometrischen Beobachtungen, um die genauen Positionen der mm-Quellen zu bestimmen, und optischen/Nahinfrarotaufnahmen zur eigentlichen Identifikation. Ziel dieser Arbeit ist die Identifizierung und Charakterisierung der Quellen der mm-Strahlung, fokussierend auf das auf der südlichen Himmelskugel gelegene NTT Deep Field und seine Umgebung. Im Winter 2000/2001 wurden mit dem mm-Interferometer PdBI Beobachtungen durchgeführt, um exakte Flüsse und Positionen von einigen der hellsten MAMBO-Quellen bestimmen zu können. Vier wurden erfolgreich auf einem 5sigma-Niveau mit dem PdBI detektiert. Für alle PdBI-Detektionen konnten auch schwache Radiogegenstücke detektiert werden. Interessanterweise offenbarten die Positionen, die durch die interferometrischen Beobachtungen exakt bestimmt werden konnten, dass keine dieser MAMBO-Quellen ein Gegenstück im Nahinfraroten bis zu sehr schwachen Magnituden besitzt (K~22.0 mag). Diese tiefen K-Band Grenzen der helleren 1.2 mm MAMBO-Quellen setzen strikte Beschränkungen hinsichtlich der Natur und Rotverschiebung dieser Objekte: Falls die spektrale Energieverteilung der mm-Quellen denen der ultraleuchtkräftigen Infrarotgalaxien (ULIRGs) ähnelt, dann müssten sie bei Rotverschiebungen größer als 4 liegen, was einem Zeitpunkt von etwa 1.5 Mrd Jahren nach dem Urknall entspricht. Andernfalls könnten sie bei niedrigeren Rotverschiebungen sein, müssten jedoch UV-optische Farben besitzen, die röter sind als selbst die der extremsten ULIRGs, wie zum Beispiel Arp 220. Unsere Analyse basierend auf nahinfrarot/radio/(sub)mm Daten zeigt, dass es einen Trend zwischen den Flussverhältnissen nahinfrarot-zu-submm und radio-zu-submm gibt. Dieses Ergebnis deutet daraufhin, dass die geringe Helligkeit im K-band von unseren PdBI-Detektionen in erster Linie auf die hohe Rotverschiebung dieser Objekte zurückzuführen ist. Durch eine Korrelation zwischen Radioquellen, die sich nahe der nominalen mm-Position befinden und unseren tiefen optischen/Nahinfrarotaufnahmen konnte die Anzahl von sicher identifizierten MAMBO mm-Quellen auf 18 signifikant erhöht werden. Für 13 1.2 mm-Quellen wurden optische/ NIR Gegenstücke gefunden, deren K-band Magnituden zwischen 19 und 22.5 liegen. Fünf MAMBO-Quellen sind "Blank Fields" und sind schwächer als K > 22 mag. Basierend auf dem radio/mm Spektralindex, wurde der Median der Rotverschiebung der radio-identifizierten mm-Quellen berechnet: z~2.6. Der Median der optischen/NIR photometrischen Rotverschiebung für mm-Quellen mit einem Gegenstück ist ~2.1. Dies weist daraufhin, dass die radio-identifizierten mm-Quellen ohne einem optischen/NIR Gegenstück dazu tendieren, bei höheren Rotverschiebungen als die mit optischen/NIR Gegenstücken zu liegen. Ein Vergleich mit publizierten Identifikationen von Objekten aus 850 micrometer-Durchmusterungen (SCUBA) von vergleichbarer Tiefe zeigt, dass die K- und I-Magnituden unserer Gegenstücke etwa 2 mag schwächer sind und die Dispersion der I-K Farbe geringer ist. Tatsächliche Unterschiede im Median der Rotverschiebungen, verbleibende falsche Identifikationen mit hellen Quellen, kosmische Variationen und statistisch kleine Proben tragen höchstwahrscheinlich zu dem signifikanten Unterschied bei, welcher auch die Strategie zur Messung von Rotverschiebungen beeinflusst. In dieser Arbeit werden die Eigenschaften von NIR/(sub)mm/radio spektraler Energieverteilungen unserer Galaxien und von interferometrisch identifizierten submm- Quellen aus der Literatur diskutiert. Basierend auf einem Vergleich mit submm-Quellen mit durch CO-Messungen bestätigten spektroskopischen Rotverschiebungen argumentieren wir, dass etwa zwei Drittel der (sub)mm Galaxien bei einer Rotverschiebung höher als 2.5 liegen. Wahrscheinlich ist dieser Anteil höher, wenn Quellen ohne radio-Detektion hinzugenommen werden.