POPULARITY
2021… Es sind die Zeiten des Umbaus: der Merkur (im rückläufigen Zyklus) trifft auf die Venus, das alles im Wassermannzeitalter! Es herrscht ein ganz schönes Gedrängel. Alexander sieht hier aber eher eine Fokusierung und bringt vor allem Beziehungen, Freundschaften und Vernetzungen ins Spiel. John sinniert über Diskussionen, Perspektiven und Verantwortung.Und auch wenn Corona uns noch beschäftigt, geht John schon auf den „Lock Up“ ein: Wie werden die Sterne dann stehen, wieviel Energie haben wir, wieviel Druck entsteht? Der Astropod stimmt auf die Fastenzeit ein, das Fische-Zeichen und damit das eigentliche (astrologische) Ende des Jahres. John macht einen Rückgriff auf den Beginn des Erdzeitalters vor über 220 Jahren und wie sehr es nachhallt. Was das alles mit Napoleon, der Kirche und Steuern zu tun hat, erfahrt ihr im aktuellen Astropod. See acast.com/privacy for privacy and opt-out information.
Verlosung: Marcus hat uns 10 signierte Ausgaben seines Buches "als Finanzberater an die Spitze" zur Verfügung gestellt. Diese verschenken wir gegen eine ITunes-Bewertung. Gib Deine Bewertung ab und schicke uns einen Screenshot vor dem "absenden" der Bewertung an info@vertriebsansatz.de. Die ersten 10 Einsender gewinnen. In dieser Folge spricht Nico mit dem renommierten Coach und Trainer Marcus Renziehausen über Deine mögliche Entwicklung vom Finanzberater zum Unternehmer. Marcus Renziehausen ist leidenschaftlicher Unternehmer, Autor und Podcaster. Seit 2002 ist er als Vorstandsvorsitzender bei der The Engineers of Finance AG tätig. Renziehausen erarbeitet gemeinsam mit Finanzberatern eine individuelle Strategie, um den Berater an die Spitze der Finanzbranche zu bringen und auch dort zu halten. In den letzten 20 Jahren hat er über 1.000 Finanzberatern erfolgreich geholfen, eine einzigartige Strategie zu entwickeln. Marcus hat einen 9-Stufen-Plan entwickelt um Dich als Finanzberater an die Spitze zu bringen. Von der Fokusierung auf Deine Kernkompetenz über das Finden Deines Kernkundens und der Schaffung einer einzigartigen Dienstleistung mit sehr hohem Mehrwert für Deine Kunden (Stufe 1 -3) geht es darum das persönliche Mindset weiter zu entwickeln und einen Expertenstatus in Deiner Zielgruppe zu erlangen (Stufe 4-6). Online- und Offline-Marketing und Teamaufbau helfen Dir dann in Stufe 7-9 Dein Unternehmen zu scalieren. Wenn auch Du Dein Unternehmen weiterentwickeln möchtest, höre Dir diese Folge an. Marcus Buch "Als Finanzberater an die Spitze" findest Du hier: https://buch.finanzberater-spitze.de Seinen Podcast "Als Finanzberater an die Spitze" gibt es hier auf die Ohren: https://renziehausen.de/index.php/podcastfolgen Seine Website: https://www.renziehausen.de Dort findest Du auch alle Kontaktdaten zu Marcus. Instagram: https://www.instagram.com/marcusrenziehausen Facebook: https://www.fb.com/AlsFinanzberaterAnDieSpitze Mehr über den Makler- und Vermittlerpodcast findest Du hier: vertriebsansatz.de www.facebook.com/maklerundvermittlerpodcast FB Gruppe: www.facebook.com/groups/MaklerundVermittlerPodcast www.instagram.com/maklerundvermittlerpodcast Mehr über Nico findest Du hier: www.wbv-vogt.de www.facebook.com/WBVFinanzwelt www.facebook.com/WBVVogt www.instagram.com/wbvgruppe Mehr über Torsten findest Du hier: www.torsten-jasper.de www.facebook.com/JasperTorsten www.instagram.com/torstenjasper
Stress. Heutzutage überall. Woher kommt er? Was macht er aus uns? Wie gehen wir am Besten mit ihm um? Stressmanagement? In Episode #65 geht es um den Umgang mit den unzähligen Stressoren, die uns unser heutiges Leben bietet. Spoiler: Stresst euch nicht so! Andererseits...stresst euch...aber RICHTIG! ► Online Coaching, Apparel und Personal Training: https://www.mtmt.life/store/ ► (2:20) Intro ► (5:56) Was ist dieser Stress? ► (11:20) Wieso sind wir immer gestresster? ► (21:25) Stress im Training ► (31:22) Stress und seine Nebenwirkungen ► (33:20) How to: Positiver Stress ► (37:33) Fokusierung, Priorisierung & Kanalisierung ► (49:10) Wie holt man sich die Kontrolle zurück? ► Instagram: https://www.instagram.com/mtmt.life ► Youtube: www.youtube.com/channel/UCrgV394fYb9H-rkmIjRSHSQ ► Wenn Ihr Fragen oder Anregungen habt, kontaktiert uns auf unseren Social Media Kanälen oder schreibt uns unter podcast@mtmt.life !!
Gerade in der heutigen Zeit muss man besonders fokusiert sein, wenn man seine Ziele erreichen möchte. Und gerade heute ist es besonders schwierig fokusiert zu sein oder zu bleiben. Überall und an jeder Ecke wird man abgelenkt. Hier noch schnell Email checken, die Mailbox abhören, noch schnell was im Internet nachschauen… Die Möglichkeit, immer und … „Anspannung – Entspannung – Fokusierung – Gleichgewicht“ weiterlesen
Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen positionierter Streuer in einer Entfernungszelle.Die für die SAR-Interferometrie wesentliche Information aber ist die Phase. Sie kann allerdings nur genutzt werden, wenn zwei oder mehr Aufnahmen aus annähernd der gleichen Position vorliegen. Die grundlegende Idee dabei ist die Betrachtung von Doppeldifferenzen der Phase zweier Pixel zweier Aufnahmezeitpunkte. Um sie zu verstehen nehmen wir zunächst an, dass sich in beiden Auflösungszellen je ein dominanter, punktförmiger Streuer befindet, was so gemeint ist, dass die Phase einer Laufzeit entspricht. Da die Subpixelpositionen unbekannt sind und die Größe der Auflösungszelle um Vieles größer als die Wellenlänge ist, ist die Phasendifferenz zweier Pixel eines einzelnen Bildes nicht verwertbar. In der Doppeldifferenz heben sich die unbekannten Subpixelpositionen allerdings heraus. Die Doppeldifferenz ist in dieser idealisierten Situation die Summe dreier Anteile: des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien, des Laufzeitunterschiedes auf Grund einer relativen Positionsänderung der Streuer während der zwischen den Aufnahmen verstrichenen Zeit und des Laufzeitunterschiedes auf Grund der räumlichen und zeitlichen Variation der atmosphärischen Verzögerung. Diese drei Anteile können jeder für sich nützliche Information darstellen. Der Erste wird zur Gewinnung von Höhenmodellen genutzt, der Zweite zur Detektion von Deformationen der Erdoberfläche und der Dritte, obwohl meist als Störterm angesehen, kann bei der Bestimmung der Verteilung von Wasserdampf in der Atmosphäre genutzt werden. Es stellt sich aber die Frage, wie man diese Terme separiert, zumal noch die Mehrdeutigkeit aufgelöst werden muss, die darin liegt, dass die Phase nur bis auf ganzzahlige Vielfache von zwei Pi bekannt ist.Weitere Fragen ergeben sich, da in realen Daten diese Annahmen für viele Pixel nicht erfüllt sind. Stellt man sich beispielsweise eine Auflösungszelle mit mehreren oder vielen kleineren Streuern vor (z.B. mit Geröll), so ändert sich die Phase der überlagerten Returns mit dem Einfallswinkel des Signals. Sie ändert sich auch, wenn manche der Streuer bewegt wurden oder die beiden Aufnahmen nicht ausreichend genau zur Deckung gebracht wurden. Dies führt dazu, dass die Phase sich um einen schlecht quantifizierbaren Betrag ändert. Man spricht dann von Dekorrelation. Eventuell besteht nach Änderung der physischen Gegebenheiten in der Auflösungszelle keine Beziehung mehr zwischen den Phasenwerten eines Pixels. Dies ist etwa der Fall, wenn ein dominanter Streuer hinzu kommt oder nicht mehr anwesend ist, ein Gelände überschwemmt wird oder trocken fällt. Es stellt sich also die Frage, welche Pixel überhaupt Information tragen, bzw. wie ihre Qualität ist und wie sie extrahiert werden kann.Die Geschichte der SAR-Interferometrie begann nach dem Start des ESA-Satelliten ERS 1 im Jahr 1991 mit einfachen differentiellen Interferogrammen. Das berühmteste ist sicher das vom Landers-Erdbeben 1992 in Kalifornien. Zum ersten Mal in der Geschichte der Wissenschaft war es möglich, das Deformationsfeld eines Erdbebens flächig zu messen, wenn auch nur die Komponente in Sichtlinie des Sensors. Statt Werte hunderter in der Region installierter Messstationen stellte das Interferogramm ein Bild des Erdbebens mit Millionen Datenpunkten dar. Diese Fähigkeit, großflächig Deformationen der Erdoberfläche aufzuzeichnen, besitzt nur die SAR-Interferometrie! Allerdings ist zu bemerken, dass dieses Resultat seine Entstehung auch günstigen Umständen verdankt. Landers liegt in der Mojave-Wüste, so dass die Variation der atmosphärischen Verzögerung und die Dekorrelation vernachlässigbar waren. Dank der Verfügbarkeit eines guten Höhenmodells konnte der Anteil des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien eliminiert werden (man spricht dann von einem differentiellen Interferogramm). Ein weiterer Meilenstein war die Shuttle Radar Topography Mission des Space Shuttle Endeavour im Februar 2000, während der die Daten für ein Höhenmodell der gesamten Landmasse zwischen 54 Grad südlicher Breite und 60 Grad nördlicher Breite aufgezeichnet wurden. Für diesen Zweck wurde die Endeavour mit zwei SAR-Antennen ausgestattet, eine am Rumpf, eine an einem 60 Meter langen Ausleger. Dank zeitgleicher Aufnahmen waren die Phasenanteile auf Grund Deformation und atmosphärischer Verzögerung vernachlässigbar. Dekorrelation auf Grund von Änderungen der physischen Gegebenheiten spielt hier auch keine Rolle. Dem Wunsch nach einem weltweiten, dazu deutlich höher aufgelösten Höhenmodell kommt seit 2010 die TanDEM-X-Mission des DLR nach, bei der die beiden SAR-Antennen von zwei Satelliten im Formationsflug getragen werden. Auch in der Algorithmik gab es entscheidende Fortschritte. Einer der fruchtbarsten war die Erfindung von Permanent Scatterer Interferometric SAR (PSInSAR) um das Jahr 2000, das durch die Verwendung einer längeren Zeitreihe von differentiellen Interferogrammen und einiger neuer Ideen das Problem der Separierung der im vorangehenden Abschnitt genannten Terme löste. Der Ausgangspunkt hierfür war die Entdeckung, dass häufig eine größere Anzahl über lange Zeiträume phasenstabile Streuer, die sogenannten Permanent Scatterer (auch Persistent Scatterer oder PS), gefunden werden können, die man sich vereinfacht als Pixel vorstellen darf, deren Auflösungszelle einen dominanten, punktförmigen, über die Zeitreihe unveränderten Streuer enthält. Auf diese wird nun die Auswertung beschränkt, die vereinfacht folgende Schritte durchläuft: Definition eines Graphen mit den PS als Knoten und Paaren benachbarter PS als Kanten; Schätzung einer Modellphase für Deformation und Höhenmodellfehler an Hand der Doppeldifferenzen aller verwendeten differentiellen Interferogramme für alle Kanten; Entrollen von Originalphase minus Modellphase, d.h. Auflösen der Mehrdeutigkeiten; räumlich-zeitliche Filterung, um die Variation der atmosphärischen Verzögerung zu eliminieren. Als Produkt ergeben sich für jeden PS seine Bewegung in Sichtlinie des Sensors und eine Korrektur seiner Höhenlage relativ zum für die Erzeugung der differentiellen Interferogramme verwendeten Höhenmodell. Seither wurden diese Grundideen modifiziert und verfeinert. Vor allem müssen die Berücksichtigung verteilter Streuer (auch Distributed Scatterer oder DS) für die Deformationsanalyse erwähnt werden, was die Informationsdichte vor allem in ariden Gebieten drastisch erhöhen kann, sowie die SAR-Tomographie, die eine Analyse auch dann erlaubt, wenn zwei oder drei vergleichbar starke Streuer in einer Auflösungszelle vorhanden sind (z.B. wenn ein Streuer am Boden, eine Fensterniche und eine Dachstruktur den gleichen Abstand zum Sensor haben). Die SAR-Interferometrie, insbesondere die Deformationsanalyse, verwendet vor allem mathematische Methoden aus den Bereichen Stochastik, Signalverarbeitung, Optimierungstheorie und Numerik. Besondere Herausforderungen ergeben sich daraus, dass die Vielfalt natürlicher Phänomene sich nur bedingt durch einfache statistische Modelle beschreiben lässt und aus dem Umstand, dass die Datensätze in der Regel sehr groß sind (ein Stapel von 30 Aufnahmen mit komplexwertigen 600 Megapixeln ist durchaus typisch). Es treten lineare Gleichungssysteme mit mehreren Zehntausend Unbekannten auf, die robust gelöst sein wollen. Für die Auflösung der Mehrdeutigkeiten verwenden die fortgeschrittensten Algorithmen ganzzahlige Optimierung. Wavelet-basierte Filterverfahren werden genutzt, um die atmosphärische Verzögerung vom Nutzsignal zu trennen. Im Zusammenhang mit der Schätzung der Variation der atmosphärischen Verzögerung werden geostatistische Verfahren wie Kriging eingesetzt. Statistische Tests werden bei der Auswahl der DS, sowie zur Detektion schlechter Pixel eingesetzt. Bei der Prozessierung der DS spielen Schätzer der Kovarianzmatrix eine prominente Rolle. Die SAR-Tomographie nutzt Compressive Sensing und viele weitere Verfahren. Zusammenfassend lässt sich sagen, dass die SAR-Interferometrie auch aus Perspektive eines Mathematikers ein reichhaltiges und spannendes Arbeitsgebiet ist. Eine wichtige Anwendung ist die Deformationsanalyse durch die InSAR-Methode: Die SAR-Interferometrie zeichnet sich vor allen anderen Techniken dadurch aus, dass sie bei geeignetem Gelände sehr großflächige Phänomene mit sehr hoher Informationsdichte abbilden kann. Allerdings liefert sie relative Messungen, so dass in der Regel eine Kombination mit Nivellement oder hochgenauen GPS-Messungen verwendet wird. Ihre Genauigkeit hängt neben der Qualität der Daten von der Wellenlänge ab und zeigt bei 3cm Wellenlänge meist nur wenige Millimeter je Jahr Standardabweichung. Damit können selbst sehr feine Bewegungen, wie z.B. die Hebung des Oberrheingrabens (ca. 2mm/y), nachgewiesen werden. Allerdings können wegen der Mehrdeutigkeit der Phase Bewegungen auch zu stark sein, um noch mit PSInSAR auswertbar zu sein. In diesem Fall können längere Wellenlängen, höhere zeitliche Abtastung oder Korrelationsverfahren helfen. Trotz der diskutierten Einschränkungen lässt sich die Deformationsanalyse mit InSAR in vielen Zusammenhängen nutzensreich einsetzen, denn auch die Ursachen für Deformationen der Erdoberfläche sind vielfältig. Neben geologischen und anderen natürlichen Phänomenen werden sie von Bergbau, Förderung von Wasser, Erdgas, Erdöl, durch Geothermiebohrungen, Tunnelbau oder andere Bautätigkeiten ausgelöst. Meist steht bei den Anwendungen die Einschätzung von Risiken im Fokus. Erdbeben, Vulkanismus, aber auch Schäden an kritischer Infrastruktur, wie Deichen, Staudämmen oder Kernkraftwerken können katastrophale Folgen haben. Ein weiteres wichtiges Thema ist die Entdeckung oder Beobachtung von Erdbewegungen, die sich potentiell zu einem Erdrutsch entwickeln könnten. Allein in den Alpen gibt es tausende Bergflanken, wo sich größere Bereiche in langsamer Bewegung befinden und in Leben oder Infrastruktur gefährdende Hangrutsche münden könnten. Auf Grund der zunehmenden Erderwärmung nimmt diese Bedrohung überall dort zu, wo Permafrost zu tauen beginnt, der bisher den Boden stabilisierte. InSAR wird bei der Erstellung von Risikokarten genutzt, die der Beurteilung der Gefährdungslage und der Entscheidung über Gegenmaßnahmen dienen. In vielen Regionen der Erde werden Deformationen der Erdoberfläche durch veränderte Grundwasserstände verursacht. Nimmt das Grundwasser ab, etwa wegen Entnahme zur Bewässerung oder industriellen Verwendung, so senkt sich die Erdoberfläche. Nimmt das Grundwasser während regenreicher Zeiten zu, so hebt sich die Erdoberfläche. Das Monitoring mit InSAR ist hier aus mehreren Gründen interessant. Bewegungen der Erdoberfläche können Schäden an Gebäuden oder anderen Strukturen verursachen (Bsp. Mexico City). Übermäßige Wasserentnahme kann zu irreversibler Verdichtung der wasserführenden Schichten führen, was Konsequenzen für die zukünftige Verfügbarkeit der lebenswichtigen Flüssigkeit hat. Bei Knappheit muss die Entnahme reguliert und überwacht werden (Bsp. Central Valley, Kalifornien). Von besonderer Bedeutung sind durch geologische Phänomene wie Vulkanismus oder tektonische Bewegungen verursachte Deformationen der Erdoberfläche. Die von SAR-Satelliten gewonnenen Daten werden zur Einschätzung von Risiken benutzt, auch wenn eine sichere, frühzeitige und zeitgenaue Vorhersage von Erdbeben oder Vulkanausbrüchen mit den heutigen Methoden nicht möglich ist. Sie sind aber die Grundlage für eine ausgedehnte Forschungsaktivität, die unser Verständnis der Vorgänge in der Erdkruste stetig wachsen lässt und immer genauere Vorhersagen erlaubt. Dies ist in erster Linie den SAR-Satelliten der ESA (ERS-1, ERS-2, Envisat und aktuell Sentinel-1A) zu verdanken, die seit 1991 mit lediglich einer Lücke von zwei Jahren (2012-2014) kontinuierlich die gesamte Erde aufnehmen. Die Idee dabei ist, dass so in festem zeitlichen Rhythmus (bei ERS alle 35 Tage) jeder Punkt der Erde aufgenommen wird. Dadurch ist ein großes Archiv entstanden, das es nach einem geologischen Ereignis ermöglicht, dieses mit den Methoden der SAR-Interferometrie zu untersuchen, da die Vorgeschichte verfügbar ist. Eine Entwicklung der letzten Jahre ist die Nutzung bei der Erschließung von Erdgas und Erdöl. Die mit InSAR sichtbar gemachten Deformationen erlauben es, neue Einsicht in die Struktur der Lagerstätten zu erhalten, geomechanische Modelle zu kalibrieren und letztlich die Rohstoffe Dank optimierter Positionierung von Bohrlöchern effektiver und kostengünstiger zu fördern. Wer InSAR noch besser verstehen will, der findet in den InSAR Guidlines der ESA die Grundlagen sehr gut erklärt. Einen etwas breiteren Überblick über Anwendungsmöglichkeiten kann man sich auf der Homepage von TRE verschaffen, einem Unternehmen, das von den Schöpfern von PSInSAR gegründet wurde und im Bereich InSAR-Auswertungen nach wie vor führend ist. Die Wettbewerber ADS und e-GEOS bieten außer InSAR weitere Anwendungen von SAR-Daten. Aus wissenschaftlich/politischer Perspektive kann man sich in der Broschüre der DLR über Themenfelder der Erdbeobachtung informieren. Zu dem speziellen Thema der Erdbewegung auf Grund Absenkung des Grundwasserspiegels in den USA gibt es weitere Informationen. Literatur und weiterführende Informationen A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet: InSAR Principles: Guidelines for SAR Interferometry Processing and Interpretation, TM-19, ESA Publications, 2007. M. Fleischmann, D. Gonzalez (eds): Erdbeobachtung – Unseren Planeten erkunden, vermessen und verstehen, Deutsches Zentrum für Luft- und Raumfahrt e.V., 2013. Land Subsidence, U.S. Geological Survey. M. Even, A. Schunert, K. Schulz, U. Soergel: Atmospheric phase screen-estimation for PSInSAR applied to TerraSAR-X high resolution spotlight-data, Geoscience and Remote Sensing Symposium (IGARSS), IEEE International, 2010. M. Even, A. Schunert, K. Schulz, U. Soergel: Variograms for atmospheric phase screen estimation from TerraSAR-X high resolution spotlight data, SPIE Proceedings Vol. 7829, SAR Image Analysis, Modeling, and Techniques X, 2010. M. Even: Advanced InSAR processing in the footsteps of SqueeSAR Podcast: Raumzeit RZ037: TanDEM-X Podcast: Modellansatz Modell010: Positionsbestimmung Podcast: Modellansatz Modell012: Erdbeben und Optimale Versuchsplanung Podcast: Modellansatz Modell015: Lawinen
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Diese Dissertation untersucht den Urspung der kosmischen Strahlung mit Beobachtungen der MAGIC Teleskope im Bereich der hoch energeticher Gammastrahlenastronomie. Gammastrahlung wird bei der Wechselwirkung relativistischer Teilchen erzeugt. Im Gegensatz zur geladenen kosmichen Strahlung, werden Gammastrahlen nicht von interstellaren Magnetfeldern beinflusst. Daher erlaubt die Ankunftsrichtung von Gammastrahlen die Bestimmung ihres Ursprungs. Ein Teil dieser Arbeit widmet sich der Verbesserung der Analyse von MAGIC-daten. Im besonderen wurde ein neuer Algorithmus zur Hintergrundbestimmung entwickelt, wodurch die systematischen Unsicherheiten deutlich verbessert werden konnten. Zudem wurde die Reflekivitaet und Fokusierung beider MAGIC Teleskope anhand des Vergleichs zwischen echten und simulierten Muonereignissen bestimmt. Die heutige Meinung ist, dass die Ueberreste von Supernovae, die expandierende Schockwellen der Sternimplosionen, der Ursprung der galaktischen kosmischen Strahlung sind. Obwohl hoch energetische Gammastrahlung von vielen dieser Objekte beobachtet wurde, erlaubt die schwierige Unterscheidung von leptonisch und hadronsich produzierter Gammastrahlung in den meisten Faellen keine klaren Schlussfolgerungen ueber die Anwesenheit relativistischer Hadronen und damit kosmischer Strahlung. Da Gammastrahlung aus hadronischen Wechselwirkungen, nahezu ausschliesslich in inelastischen Proton-Proton Kollisionen erzeugt wird, ist ihre Produktion umso effektiver, desto hoeher die Dichte des mediums ist. Die Region W51 beherbergt den 30000 Jahre alten Supernovaueberrest W51C, welcher teilweise mit der grossen Molekuelwolke W51B kollidiert. MAGIC hat ausgedehnte Gammastrahlung von dieser Region mit hoher statistischer Signifikanz (11 sigma) gemessen. Es konnte gezeigt werden, dass das Zentrum der Emission in dem Bereich hoher Dichte liegt, wo der Supernovaueberrest mit der Molekuelwolke kollidiert. Das Energiespektrum wurde im Bereich von 75 GeV bis 5.5 TeV gemessen und folgt einem Potenzgesetz. Die moegliche Kontamination dieser Emission durch einen nahegelegenen potentiellen Pulsarwindnebel zeigt keine Energieabhaengigkeit und wurde als ~20% der Gesamtemission bestimmt. Die Modellierung der nicht thermischen Mutliwellenlaengenemission deutet stark auf einen hadronischen Ursprung der Gammastrahlung hin. Diese Beschreibung impliziert, dass in etwa 16% der kinetsiche Energie der Schockwelle von W51C zur Produktion kosmischer Strahlung genutzt wurden. Damit is W51C eine der wenigen bekannten Supernovaueberreste wo eine Beschleunigung von Protonen der komsischer Strahlung, zumindestens bis 50 TeV, direkt beobachtet wird. HESS J1857+026 ist eine nicht identifizierte TeV-Quelle, die moeglicherweise den Pulsarwindnebel des, von der Gammastrahlung umschlossenen, hochenergetischen Pulsares PSR J1856+0245 darstellt. Eine augedehnte Emission wurde von MAGIC mit einer statistischen Signifikanz von mehr als 12 sigma gemessen. Das berechnete Spektrum verbindet die vorherigen Daten von Fermi/LAT und HESS, wobei es mit beiden Messungen ueberlappt. Anhand der MAGIC und Fermi/LAT Daten wurde ein Abweichung von einem einfachen Potenzgesetz bei ca. 100~GeV festgestellt. Bei hoeheren Energien werden zwei Emissionsregionen aufgeloest. Ueberhalb von einem TeV koennen zwei voneinander getrennte, einzeln signifikante Regionen festgestellt werden. Diese Dissertation zeigt die ersten morphologischen Untersuchungen, die mit den MAGIC Teleskopen durchgefuehrt wurden. Es wurde gezeigt, dass die Faehigkeit Strukturen in galaktischen Quellen aufloesen zu koennen, wichtige Informationen ueber die Physik der Teilchenbeschleunigung in astrophysikalischen Objekten liefert.