POPULARITY
Wie müssen Schiffe konstruiert sein, um sich sanft durchs Eis zu bewegen? Welche Rolle spielt das Meereis für den Schiffbau? Und wie beeinflusst der Klimawandel in der Arktis die Anforderungen an den Bau moderner Schiffe? Der Schiffbau-Experte Dr. Franz von Bock und Polach von der TU Hamburg. erzählt in dieser Podcast-Folge von einer spektakulären Forschungsreise an Bord eines Eisbrechers zum Nordpol. Gemeinsam mit Wissenschaftlern des Alfred-Wegener-Instituts (AWI) führte er u.a. Messreihen zu Schiffsgeschwindigkeit, Antriebsleistung und der Temperatur des äußeren Schiffskörpers durch. Zurück aus der arktischen Kälte wertet er die Daten an der TU Hamburg aus.https://www.tuhh.de/skf/homepagewww.baerbel-fening.dewww.maritime-technik.de
Die neueste Folge von "Passierschein A38 - Der Podcast aus der Kreisverwaltung Wittenberg" erkundet das Thema Wasser und seine wachsende Bedeutung angesichts der fortschreitenden Auswirkungen des Klimawandels. Der Sommer ist da, und anstatt des üppigen Grüns sind Gelb und Braun die dominierenden Farben in der Natur. Waldbrände nehmen zu und Schädlinge breiten sich rasch aus. Wasser, eine unserer wichtigsten natürlichen Ressourcen, muss daher sorgfältig gehandhabt werden. In dieser Folge begrüßen wir Kerstin Neumann, Sachbearbeiterin bei der Unteren Wasserbehörde der Kreisverwaltung Wittenberg. Sie erklärt die Rolle der Kreisverwaltung im Wassermanagement und beleuchtet die Regulierungsverfahren in Sachsen-Anhalt. Durch den Begriff "Wasserbuch" führt uns Neumann in die lange Geschichte der Wasserverwaltung ein. Kerstin Neumann teilt auch ihre persönlichen Erfahrungen und die Motivation, die sie dazu gebracht hat, beruflich im Wassersektor tätig zu sein. Sie spricht über ihre täglichen Aufgaben und die Arten von Menschen und Organisationen, die sich mit ihr in Verbindung setzen, von Landwirten über Industrievertreter bis hin zu Privatpersonen, die Brunnen bauen möchten. Unsere Gesprächspartnerin führt uns auch in die Welt unter unseren Füßen ein und gibt uns einen Einblick in die Struktur und Verwaltung von Grundwasserkörpern. Sie erklärt, wie Grundwasserstände gemessen und nachverfolgt werden können und zeigt uns, wie die Daten öffentlich zugänglich gemacht werden, um Transparenz zu gewährleisten. Auf den Seiten des Landesamtes für Hochwasserschutz zum Beispiel kann man sich sogar die historischen Messreihen für die Grundwassermessstellen in seiner näheren Umgebung anschauen: https://gld.lhw-sachsen-anhalt.de/ - dort einfach Grundwasser, Grundwasserstand und Grundwassermessstellen auswählen und dann in der Karte eine Messstelle nach Wahl aufklappen. So zeigt zum Beispiel der Pegel in Lubast in der Dübener Heide seit den ersten Messungen im Jahr 1941 ein Absinken von rund 160 Zentimeter auf rund 370 Zentimeter. Im Kontext des Klimawandels und dessen Auswirkungen diskutiert der Podcast auch effektive Wasserersparnisstrategien und gibt praktische Tipps, wie wir unseren täglichen Wasserverbrauch reduzieren können. Darüber hinaus wird auch erörtert, welche rechtlichen Maßnahmen eine Kreisverwaltung ergreifen kann, um den Wasserverbrauch zu kontrollieren. Schließlich fassen wir die wichtigsten Punkte des Gesprächs zusammen und ermutigen die Hörerinnen und Hörer, uns Feedback zu senden und unseren Podcast zu abonnieren. Ihre Meinungen und Anregungen sind uns sehr wichtig, daher können Sie uns jederzeit unter presse@landkreis-wittenberg.de erreichen. Wir hoffen, Sie genießen diese informative Folge von Passierschein A38 und finden sie ebenso aufschlussreich und anregend wie wir. Denken Sie daran, dass Wasser eine kostbare Ressource ist, und tun Sie Ihr Bestes, um sie zu schützen und zu bewahren.
Boxplots sind Grafiken, die völlig zu Unrecht ein Schattendasein fristen. Sie ermöglichen besser als jede andere Grafik Vergleiche von Messreihen und Einblicke in Gemeinsamkeiten und Unterschiede. Dabei brauchen wir keine Annahmen zur Verteilung oder Symmetrie, um mit Boxplots gut arbeiten zu können. Boxplots sind natürlich auch keine eierlegende Wollmilchsau und so gibt es neben vielen Vorteilen auch Grenzen.
In den USA ist kein Rückgang der Häufigkeit und der Artenvielfalt von Insekten und anderen Gliederfüßern zu beobachten. Das zeigen angeblich Ergebnisse einer aktuellen Auswertung langjähriger Messreihen. Doch die Analyse hat erhebliche Fehler. Martin Gramlich im Gespräch mit Prof. Dr. Johannes Steidle der Universität Hohenheim
Beim Thema Klimawandel denkt man meist an den Anstieg der Meeresspiegel oder die Aufheizung der Ozeane. Doch auch im kleineren Maßstab verändern sich die Ökosysteme in Gewässern, direkt vor unserer Haustür. Das gilt auch für die Binnenseen, die offenbar seit Jahrzehnten immer ein bisschen wärmer werden. Und das hat Konsequenzen. Rita Adrian beobachtet mit ihrem Forscherteam unter anderem den Müggelsee – den größten Berliner See – in einer Langzeituntersuchung. Die Biologin leitet die Abteilung Ökosystemforschung am Leibniz-Institut für Gewässerökologie und Binnenfischerei in Berlin-Friedrichshagen. Für sie steht fest: Der Klimawandel ist auch in unseren Seen angekommen. Bei dem Mechanismus, in den durch das Mehr an Wärme eingegriffen wird, spielen viele Faktoren eine Rolle. Grob gesagt: Im Sommer bilden sich im See zwei Wasserschichten – an der Oberfläche eine wärmere, unten zum Grund hin eine kühlere, und beide durchmischen sich nicht. Das ist zwar in der warmen Jahreszeit immer so, aber wenn diese Wärmephase immer länger anhält, führt das dazu, dass unten der Sauerstoff knapp wird. Oben kommt es unterdessen zu einem Düngungseffekt und dadurch beispielsweise zum übermäßigen Wachstum von Blaualgen, die wiederum für andere Mikroorganismen, aber auch für Fische Gift sind. Das fragile ökologische Gleichgewicht droht aus der Balance zu geraten. Klimaforschung ist vor allem Dingen das Hantieren mit Big Data. Rita Adrian erklärt, wie man die Daten erhebt, damit sich in den Messreihen tatsächlich aussagekräftige Muster erkennen lassen. Daten sind unerlässlich, um die komplexen Zusammenhängen nachvollziehen zu können – und sie helfen, besser zu verstehen, was es bedeutet, wenn der Mensch in die natürliche Dynamik eingreift.
Paul Darscheid gehört der KIT-Hochschulgruppe Engineers without borders an und arbeitet dort konkret in einer Projektgruppe mit, die im ländlichen Raum von Äthopien einen Brunnen bohrt. Um dafür die Nachhaltigkeit des Grundwasserzuflusses zu klären, suchte er den Kontakt zu Uwe Ehret vom Institut für Wasser und Gewässerentwicklung, Bereich Hydrologie. Die spannenden Themen dort fesselten ihn so sehr, dass schließlich auch seine Masterarbeit in Zusammenarbeit mit der Hydrologie entstand. Zum Spektrum der Fragen der Hydrologen gehören sehr viele unterschiedliche Themen. Man kann summarisch sagen: alles zum Thema Wasserkreislauf, was nicht die Meteorologen beantworten. Konkret geht es z.B. um Niederschlagsabfluss oder Hochwasservorhersage. Eine Frage, die dabei immer wieder auftaucht ist: Wo steckt die meiste Information in den Datensätzen oder den erstellten Modellen? Ein typischer Anwendungsfall schließt beispielsweise aus den Flußpegelstände von unterschiedlichen Flüssen im gleichen System, den Niederschlagmessungen, der Lufttemperatur, Schneehöhen, Bodenfeuchte und Bodenbeschaffenheit auf die Zielgröße - einen konkreten Flusspegelstand. Ein Zusammenhang aller Daten mit der Zielgröße ist klar, aber wie er konkret aussieht ist schwerer zu fassen. Informationsflüsse quantifizieren in diesem Kontext, welche Messreihen die meisten Informationen über die Zielgröße liefern. Daneben stellt sich auch die Frage: Kann ich einmal gewonnene Konzepte auf andere System übertragen? Kann ich mir dort sparen noch einmal sehr viel zu messen, also mit weniger Daten auskommen? Am Anfang steht dann die Frage: Was ist Information? Das Konzept für das sich Paul Darscheid entschieden hat ist die Shannon Entropie - ein Maß für Unsicherheit aufgrund der vorliegenden Streuung in den Daten. Tatsächlich besteht ein Zusammenhang zum physikalischen Begriff der Entropie. Die unterstellte Verteilung eines Datensatzes wird zur Grundlage auf der Größen wie Informationssicherheit und andere abgeleitet werden. Die Natur als Meßdaten führt auf eine diskrete Verteilung, die evtl. noch vergröbert wird durch Wählen von Stufen (bins) innerhalb derer der Unterschied als nicht relevant angesehen wird. Für eine Beobachtung stellt sich die Frage: Wieviel Information steckt in dieser zusätzlichen Messung? Für sehr wahrscheinliche Ereignisse ist es kaum zusätzliches Wissen, weil es mit vorherigen Vermutungen übereinstimmt. Für ein unwahrscheinliches Ereignis ist die zusätzlich gewonnene Information sehr groß. Ein Problem ist auch, dass die diskrete Verteilung aus beobachteten Daten gewonnen wird - d.h. man muss eine Schätzung der Verteilung vornehmen. Darauf aufbauend ist es wichtig zu wissen, wie mit Teilmengen des Datensatzes die geschätzte Verteilung approximiert werden kann. Die Unsicherheit hierbei kommt durch Streuung der Daten und durch den vorhandenen Ausschnitt der Realität, der in den Daten eingefangen wird. Wie sehr beeinflusst die Größe des Datensatzes die zutreffende Schätzung der Verteilung? Dies lässt sich mir der Kullberg-Leibler-Divergenz beschreiben, die die Unsicherheit durch Unwissen über die Verteilung misst. Die Kreuzenthropie addiert die Unsicherheiten der Shannon Entropie und der Kullberg-Leibler Divergenz und ist damit ein Maß für die Gesamtunsicherheit der Schätzung der Verteilung. Hierbei erleichtern die logarithmischen Maße das Rechnen - Produkte werden zu Summen. Literatur und weiterführende Informationen Brunnenprojekt Jello Adancho: Wir versorgen ein Dorf in Äthiopien mit sauberem Trinkwasser Claude Elwood Shannon: The Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948. Grassberger: Entropy Estimates from Insufficient Samplings, arXiv:physics/0307138, 2003. Thomas M. Cover and Joy A. Thomas. Elements of Information Theory, (Wiley Series in Telecommunications and Signal Processing). Wiley-Interscience, 2006. Vijay P. Singh. Entropy theory and its applications in environmental and water engineering, Wiley-Blackwell, 2013. Janusz Miskiewicz. Improving quality of sample entropy estimation for continuous distribution probability functions, Physica A: Statistical Mechanics and its Applications, 450(C):473–485, 2016. Ilias G. Pechlivanidis, Bethanna Jackson, Hilary Mcmillan, and Hoshin V. Gupta. Robust informational entropy-based descriptors of flow in catchment hydrology, Hydrological Science Journal, 61(1):1–18, 2016. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
In der vorliegenden Arbeit wurde der Einfluss des dreidimensionalen Strahlungstransportes, insbesondere der differentiellen Einstrahlung, auf die Wolkenbildung und -entwicklung untersucht. Hierzu wurde ein Verfahren zur Berechnung der Bestrahlungsstärke am Boden unter inhomogener Bewölkung entwickelt und in das Grobstruktursimulationsmodell EULAG implementiert. Durch Vergleich von Simulationen mit der originalen Modellversion und dem weiterentwickelten Modell wurde der Einfluss der differentiellen Einstrahlung, verursacht durch Wolkenschatten, auf die konvektive Grenzschicht untersucht. Das Verfahren beruht auf der tilted independent column approximation (TICA). Hierbei werden einzelne Säulen, die in Richtung der Sonne ausgerichtet sind, betrachtet und für diese die Strahlung unabhängig voneinander berechnet. Die Methode wurde optimiert, parallelisiert und dadurch so stark beschleunigt, dass die Rechenzeiten der in dieser Arbeit durchgeführten Simulationen mit EULAG-TICA nur maximal 3% über denen mit EULAG ohne Strahlung liegen. Durch Vergleich mit exakten dreidimensionalen Strahlungstransportrechnungen wurde gezeigt, dass die TICA eine sehr gute Näherung zur Berechnung solarer Bestrahlungsstärken am Boden für unterschiedliche Wolkensituationen und verschiedene Sonnenzenitwinkel darstellt. Hingegen ist die verbreitete independent column approximation (ICA) zur Berechnung von Bestrahlungsstärken am Boden nur für im Zenit stehende Sonne geeignet, da die ICA aufgrund der Beschränkung auf den Strahlungstransport in senkrechten Säulen keinen realistischen Schatten produziert. Die berechnete Bestrahlungsstärke wurde an die Modellphysik gekoppelt durch die Anpassung des Wärmeflusses am Boden. Dieser wirkt sich auf die Temperatur in der Atmosphäre aus. Anhand von Vergleichen mit Messreihen unter gleichen Wolkenbedingungen wurde gezeigt, dass die durch die Wolkenschatten verursachten Temperaturfluktuationen am Boden in Simulationen mit EULAG-TICA realistisch sind. Zur Untersuchung des Einflusses der differentiellen Einstrahlung auf die Wolkenbildung wurden Simulationen einer einzelnen konvektiven Wolke durchgeführt. Der Einfluss auf die Wolkenentwicklung wurde anhand von Simulationen der konvektiven Grenzschicht untersucht. Die Simulationen mit und ohne Wolkenschatten zeigen deutliche Unterschiede. Im Bereich des Wolkenschattens ist der Aufwind wie erwartet schwächer ausgeprägt als in der Referenzsimulation ohne Schatten. Als Folge des schwächeren Aufwindes reicht die Wolke in den Simulationen mit Schatten weniger hoch und weist daher ein geringeres Volumen und einen geringeren Flüssigwasserpfad auf. Ist das Wolkenwachstum nach oben durch eine Inversion begrenzt, so wie in der konvektiven Grenzschicht, zeigen sich kaum Unterschiede im Bedeckungsgrad und Wolkenvolumen zwischen den Berechnungen mit und ohne Wolkenschatten. In jedem Fall hat die differentielle Einstrahlung jedoch einen starken Einfluss auf die Zirkulation. Vertikalprofile der horizontalen Windgeschwindigkeiten zeigen mittleren Wind von der Wolke in Richtung ihres Schattens in Höhe der Wolken und in entgegengesetzter Richtung in Bodennähe. Dies bedeutet, dass die an konvektiven Wolken vorhandene Zirkulation (aufsteigende Luft unterhalb der Wolke, Ausfließen in der Höhe der Wolke aus der Wolke heraus in alle Richtungen, absinkende Luft neben der Wolke und am Boden Luftbewegung von allen Seiten unter die Wolke) in Richtung des Schattens orientiert wird. Des Weiteren zeigen die Ergebnisse eine Bewegung der Wolken weg von ihrem Schatten, bzw. eine Auflösung der Wolken oberhalb ihres Schattens und Wolkenwachstum auf der der Sonne zugewandten Seite. Steht die Sonne im Zenit ist die Lebensdauer der einzelnen Wolken kürzer. Sie lösen sich schneller wieder auf, da der sie bildende Aufwind durch den Schatten abgeschwächt wird.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Mit den Mitteln der Infrarotspektroskopie wurde der Einfluss der organischen Hülle auf Struktur und Dynamik von CdSe Nanopartikeln untersucht. Zunächst wurde ein Verfahren entwickelt, das es ermöglicht, aus dem statischen Infrarotspektrum Informationen über die Qualität der organischen Hülle und das Bindungsverhalten der Liganden zu gewinnen. An qualitativ hochwertigen und gut charakterisierten Proben wurde anschließend die Dynamik des niederenergetischsten Elektronenniveaus 1S nach optischer Anregung im Sichtbaren zeitaufgelöst gemessen. Als Referenz diente CdSe TOPO, das durch Proben mit den Liganden Octanthiol, Octansäure, Octylamin, Naphthoquinon, Benzoquinon und Pyridin ergänzt wurde. Die untersuchten Nanopartikel hatten einen Durchmesser von 4.86 nm. Mit Hilfe des Anreg-Abtast- oder Pump-Probe-Verfahrens wurden zunächst Messungen im Pikosekundenbereich durchgeführt. Die Anregungswellenlängen wurden dabei spektral eingeschränkt und so gewählt, dass selektiv die Übergänge 1S-1S und 1P-1P, nicht aber der dazwischenliegende 2S-1S-Übergang, angeregt wurden. Die Anregungsintensitäten wurden bewusst so niedrig gehalten, dass die Anregung mehrerer Exzitonen in einem Kristall vermieden werden konnte. Die Abtastwellenlänge im Infraroten entsprach der Energiedifferenz zwischen den Elektronenniveaus 1S und 1P. Die Transienten im Pikosekundenbereich zeichnen sich durch einen steilen Anstieg des Signals aus, auf den ein multiexponentieller Zerfall folgt. Der Anstieg, der die Bevölkerung des angeregten Zustands widerspiegelt, ist unabhängig von der Wahl der Liganden. Der Einfluss der organischen Hülle wird erst in den unterschiedlichen Zerfallszeiten der angeregten Elektronenniveaus sichtbar. Der Zerfall des Messsignals von CdSe TOPO lässt sich näherungsweise mit drei Zeitkonstanten beschreiben: eine Zerfallszeit im frühen Pikosekundenbereich, eine Zeitkonstante um die hundert Pikosekunden und eine Zeitkonstante bei einigen Nanosekunden. Bei ansteigender Abtastwellenlänge werden die Zerfallszeiten länger. Durch gezielte Anregung des 1S-1S und des 1P-1P-Übergangs konnte der Zerfall des 1P-Zustands in den energetisch günstigeren 1S-Zustand beoachtet werden, der im verzögerten Anstieg des Messsignals bei Anregung des 1P-1P-Übergangs sichtbar wird. Dem Übergang zwischen den Elektronenniveaus 1P und 1S konnte eine Zeitkonstante von ca. 190 fs zugewiesen werden, die nicht von der Wahl der organischen Hülle beeinflusst wird. Nanopartikel mit den Liganden TOPO, Pyridin und Octanthiol zeigen auch nach 3 ns noch ein gut sichtbares Messsignal. An diesen Proben wurden Messungen im Nanosekundenbereich durchgeführt. Auch hier ist der Einfluss der organischen Hülle auf die Dynamik der Nanopartikelprobe deutlich zu erkennen. Mit der Kombination beider Messreihen konnte erstmals ein Zeitbereich abgedeckt werden, der sich von einigen hundert Femtosekunden bis in den Mikrosekundenbereich hinein erstreckt.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Ziel der Untersuchung war die Entwicklung eines In-vitro-Modells zur Evaluierung von Ablationskathetern für die Therapie von Herzrhythmusstörungen, die durch thermische Prozesse eine Modifikation des Myokards bewirken. Hierzu wurde erstmals die Technik der modernen Thermografie angewandt. Diese ermöglicht während der Ablation eine Online-Registrierung von Temperaturprozessen an jedem beliebigen Ort im Myokardquerschnitt mit einer Auflösung von 0,1mm und einer Messgenauigkeit von 0,1°C. Ebenfalls lassen sich die Temperaturprozesse zweidimensional in Falschfarbenbildern darstellen. Durch die kontaktfreie Technik der Thermografie konnte auf intramyokardiale Temperatursonden verzichtet werden, welche in ihrer Positionierung meist schwierig standardisierbar sind und selbst zu störenden Effekten und somit Messfehlern während der Stromabgabe führen können. Als optisches Medium zwischen Myokard und Thermografiekamera wurde Saphirglas mit einer Transmission von 92% verwendet. Das Modell konnte mit Hilfe eines Schwarzen Strahlers in seiner Messgenauigkeit und Aussagekraft validiert werden. Im zweiten Teil der Studie wurden drei verschiedene Ablationskatheter (4mm-, 8mm- und eine gekühlte 4mm-Elektrodenspitze) mit dem vorgestellten Versuchsmodell auf ihre thermischen Eigenschaften während der Ablation in n=105 Messreihen bei unterschiedlichen Ablationsleistungen untersucht. Neben den bereits in der Literatur beschriebenen Temperaturphänomenen war es mit dem vorgestellten Versuchsmodell erstmals möglich Prozesse nachzuweisen, welche bisher nur in mathematisch-numerischen Modellen postuliert werden konnten (Bsp. Temperaturverteilung im Perfusionsstrom an der Myokardoberfläche). Ebenfalls zeigte sich eine hohe Korrelation zwischen den Temperaturverteilungsmustern und den resultierenden Nekrosezonen im Myokard, was die rein thermische Alteration des Myokards während der Ablation erneut beweisen konnte. Prinzipiell kann mit dem vorgestellten In-vitro-Modell jedes Ablationssystem auf seine Eigenschaften untersucht werden, welches eine thermische Veränderung des Ablationssubstrats bewirkt. Durch eine geringe Kostenintensität und eine gute Reproduzierbarkeit könnte dieses Modell außerdem zu einer Einsparung von Tierversuchen führen.