POPULARITY
Ein Kommentar von Volker Fuchs. (Betreiber des Portals ansage.org)Die University of Alabama in Huntsville (UAH) hat einen speziellen Satellitentemperaturdatensatz entwickelt, der die Temperatur verschiedener Atmosphärenschichten aus Satellitenmessungen der Sauerstoffstrahlung im Mikrowellenband mithilfe von Temperaturmessungen der Microwave Sounding Unit ableitet. Es handelte sich bei diesem Verfahren um das erste, das globale Temperaturdatensätze aus Satelliteninformationen mit hoher Präzision modelliert. Mittlerweile wird es standardmäßig als Tool zur Erforschung von Änderungen der Oberflächen- und Atmosphärentemperatur verwendet.Satelliten messen die Temperatur nicht direkt; sie messen nur Strahlungsdichten in verschiedenen Wellenlängenbändern, die im Wege der Verfahrensproportionalität zutreffende Rückschlüsse auf die vorherrschenden planetaren Temperaturen erlauben. Bereits seit 1979 transportieren NOAA-Satelliten Instrumente, die die natürlichen thermischen Mikrowellenemissionen von Sauerstoff in der Atmosphäre messen. Die Intensität der Signale, die diese Mikrowellenradiometer bei verschiedenen Mikrowellenfrequenzen messen, ist dabei direkt proportional zur Temperatur verschiedener tiefer Schichten der Atmosphäre.Daten konträr zu den IPCC-AngabenNach drei Jahren Arbeit liegt nunmehr die aktuelle Version 6.0 der Re-Analyse der globalen MSU/AMSU-Daten vor. Die satellitengestützten MSU- und AMSU-Instrumente messen die thermische Mikrowellenemission von atmosphärischem Sauerstoff im 50- bis 60-Gigahertz-Sauerstoffabsorptionskomplex, und die resultierenden kalibrierten Helligkeitstemperaturen (Tb) entsprechen nahezu der thermometrischen Temperatur – insbesondere einem vertikal gewichteten Durchschnitt der atmosphärischen Temperatur, dargestellt durch „Gewichtungsfunktionen“ (siehe den aktuelle Bericht – Stand 2023 – von Dr. Roy Spencer). Eine Diskussion des Datensatzes der Version 6.0 ist hier nachzulesen. Aktualisierungen erfolgen in der Regel innerhalb der ersten Woche eines jeden Monats. Die digitalen Daten bilden verschiedene Unterregionen der Erde und drei weitere Atmosphärenschichten ab. Diese sind die untere Troposphäre, die mittlere Troposphäre und Tropopause sowie die untere Stratosphäre......weiterlesen hier: https://apolut.net/erdtemperatur-satellitendaten-von-1979-bis-2023-entlarven-den-klimaschwindel-von-volker-fuchs+++Bildquelle: tsuneomp / shutterstock+++Apolut ist auch als kostenlose App für Android- und iOS-Geräte verfügbar! Über unsere Homepage kommen Sie zu den Stores von Apple und Huawei. Hier der Link: https://apolut.net/app/Die apolut-App steht auch zum Download (als sogenannte Standalone- oder APK-App) auf unserer Homepage zur Verfügung. Mit diesem Link können Sie die App auf Ihr Smartphone herunterladen: https://apolut.net/apolut_app.apk+++Abonnieren Sie jetzt den apolut-Newsletter: https://apolut.net/newsletter/+++Ihnen gefällt unser Programm? Informationen zu Unterstützungsmöglichkeiten finden Sie hier: https://apolut.net/unterstuetzen/+++Unterstützung für apolut kann auch als Kleidung getragen werden! Hier der Link zu unserem Fan-Shop: https://harlekinshop.com/pages/apolut+++Website und Social Media:Website: https://apolut.netOdysee: https://odysee.com/@apolut:aRumble: https://rumble.com/ApolutTwitter: https://twitter.com/apolut_netInstagram: https://www.instagram.com/apolut_net/Gettr: https://gettr.com/user/apolut_netTelegram: https://t.me/s/apolutFacebook: https://www.facebook.com/apolut/ Hosted on Acast. See acast.com/privacy for more information.
Paul Darscheid gehört der KIT-Hochschulgruppe Engineers without borders an und arbeitet dort konkret in einer Projektgruppe mit, die im ländlichen Raum von Äthopien einen Brunnen bohrt. Um dafür die Nachhaltigkeit des Grundwasserzuflusses zu klären, suchte er den Kontakt zu Uwe Ehret vom Institut für Wasser und Gewässerentwicklung, Bereich Hydrologie. Die spannenden Themen dort fesselten ihn so sehr, dass schließlich auch seine Masterarbeit in Zusammenarbeit mit der Hydrologie entstand. Zum Spektrum der Fragen der Hydrologen gehören sehr viele unterschiedliche Themen. Man kann summarisch sagen: alles zum Thema Wasserkreislauf, was nicht die Meteorologen beantworten. Konkret geht es z.B. um Niederschlagsabfluss oder Hochwasservorhersage. Eine Frage, die dabei immer wieder auftaucht ist: Wo steckt die meiste Information in den Datensätzen oder den erstellten Modellen? Ein typischer Anwendungsfall schließt beispielsweise aus den Flußpegelstände von unterschiedlichen Flüssen im gleichen System, den Niederschlagmessungen, der Lufttemperatur, Schneehöhen, Bodenfeuchte und Bodenbeschaffenheit auf die Zielgröße - einen konkreten Flusspegelstand. Ein Zusammenhang aller Daten mit der Zielgröße ist klar, aber wie er konkret aussieht ist schwerer zu fassen. Informationsflüsse quantifizieren in diesem Kontext, welche Messreihen die meisten Informationen über die Zielgröße liefern. Daneben stellt sich auch die Frage: Kann ich einmal gewonnene Konzepte auf andere System übertragen? Kann ich mir dort sparen noch einmal sehr viel zu messen, also mit weniger Daten auskommen? Am Anfang steht dann die Frage: Was ist Information? Das Konzept für das sich Paul Darscheid entschieden hat ist die Shannon Entropie - ein Maß für Unsicherheit aufgrund der vorliegenden Streuung in den Daten. Tatsächlich besteht ein Zusammenhang zum physikalischen Begriff der Entropie. Die unterstellte Verteilung eines Datensatzes wird zur Grundlage auf der Größen wie Informationssicherheit und andere abgeleitet werden. Die Natur als Meßdaten führt auf eine diskrete Verteilung, die evtl. noch vergröbert wird durch Wählen von Stufen (bins) innerhalb derer der Unterschied als nicht relevant angesehen wird. Für eine Beobachtung stellt sich die Frage: Wieviel Information steckt in dieser zusätzlichen Messung? Für sehr wahrscheinliche Ereignisse ist es kaum zusätzliches Wissen, weil es mit vorherigen Vermutungen übereinstimmt. Für ein unwahrscheinliches Ereignis ist die zusätzlich gewonnene Information sehr groß. Ein Problem ist auch, dass die diskrete Verteilung aus beobachteten Daten gewonnen wird - d.h. man muss eine Schätzung der Verteilung vornehmen. Darauf aufbauend ist es wichtig zu wissen, wie mit Teilmengen des Datensatzes die geschätzte Verteilung approximiert werden kann. Die Unsicherheit hierbei kommt durch Streuung der Daten und durch den vorhandenen Ausschnitt der Realität, der in den Daten eingefangen wird. Wie sehr beeinflusst die Größe des Datensatzes die zutreffende Schätzung der Verteilung? Dies lässt sich mir der Kullberg-Leibler-Divergenz beschreiben, die die Unsicherheit durch Unwissen über die Verteilung misst. Die Kreuzenthropie addiert die Unsicherheiten der Shannon Entropie und der Kullberg-Leibler Divergenz und ist damit ein Maß für die Gesamtunsicherheit der Schätzung der Verteilung. Hierbei erleichtern die logarithmischen Maße das Rechnen - Produkte werden zu Summen. Literatur und weiterführende Informationen Brunnenprojekt Jello Adancho: Wir versorgen ein Dorf in Äthiopien mit sauberem Trinkwasser Claude Elwood Shannon: The Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948. Grassberger: Entropy Estimates from Insufficient Samplings, arXiv:physics/0307138, 2003. Thomas M. Cover and Joy A. Thomas. Elements of Information Theory, (Wiley Series in Telecommunications and Signal Processing). Wiley-Interscience, 2006. Vijay P. Singh. Entropy theory and its applications in environmental and water engineering, Wiley-Blackwell, 2013. Janusz Miskiewicz. Improving quality of sample entropy estimation for continuous distribution probability functions, Physica A: Statistical Mechanics and its Applications, 450(C):473–485, 2016. Ilias G. Pechlivanidis, Bethanna Jackson, Hilary Mcmillan, and Hoshin V. Gupta. Robust informational entropy-based descriptors of flow in catchment hydrology, Hydrological Science Journal, 61(1):1–18, 2016. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Das kosmologische Prinzip der Homogenität und statistischen Isotropie des Raumes ist eine fundamentale Annahme der modernen Kosmologie. Auf dieser Basis wird die Existenz einer inflationären Phase im jungen Universum postuliert, welche wiederum primordiale Gaußverteilte Fluktuationen vorhersagt, welche sich im kosmischen Mikrowellenhintergrund als Temperatur- und Polarisationsanisotropien manifestieren. Die Grundidee meiner Arbeit war die Weiterentwicklung einer modellunabhängigen Untersuchungsmethode, welche die Gauß’sche Hypothese für die Dichtefluktuationen testet, wobei die Gaußianität eines Ensembles mit der Zufallsverteilung der Fourier Phasen im Phasenraum definiert wird. Die Methode basiert auf einer nichtlinearen Datenanalyse mit Hilfe von Surrogatkarten, welche die linearen Eigenschaften eines Datensatzes imitieren. Im Rahmen der Surrogatmethode habe ich unter Verwendung zweier verschiedener Bildanalyseverfahren, nämlich den Minkowski Funktionalen und den Skalierungsindizes, beide sensitiv auf Korrelationen höherer Ordnung, Karten der kosmischen Mikrowellenhintergrundstrahlung des WMAP und des Planck Experimentes auf skalenabhängige Phasenkorrelationen untersucht. Ein Schwerpunkt lag hierbei auf Studien zu hemisphärischen Asymmetrien und zum Einfluss der galaktischen Ebene auf die Resultate. Aus der Analyse der Phasenkorrelationen im Phasenraum entwickelte ich neue Methoden zur Untersuchung von Korrelationen zwischen Statistiken höherer Ordnung im Ortsraum und den Informationen des Phasenraumes. Beide Bildanalyseverfahren detektierten Phasenkorrelationen auf den größten Skalen des kosmischen Mikrowellenhintergrundes in vergleichbarer Ausprägung. Der Einfluss der galaktischen Ebene auf diese Resultate zeigte sich in Cutsky Analysen und beim Vergleichen verschiedener Vordergrundsubtraktionsverfahren innerhalb der zwei Experimente als vernachlässigbar gering. Hemisphärische Anomalien auf den größten Skalen der Hintergrundstrahlung wurden wiederholt bestätigt. Die Parametrisierung von Nicht-Gaußianität durch den fNL-Parameter zeigte sich beim Vergleich von fNL-Simulationen mit experimentellen Daten als unzureichend. In Analysen der Daten mit Hilfe von Bianchi-Modellen zeigten sich Hinweise auf eine nicht-triviale Topologie des Universums. Die Resultate meiner Arbeit deuten auf eine Verletzung des standardmäßigen Single Field Slow-Roll Modells für Inflation hin, und widersprechen den Vorhersagen von isotropen Kosmologien. Meine Studien eröffnen im Allgemeinen neue Wege zu einem besseren Verständnis von Nicht-Gauß'schen Signaturen in komplexen räumlichen Strukturen, insbesondere durch die Analyse von Korrelationen der Fourier-Phasen und deren Einfluss auf Statistiken höherer Ordnung im Ortsraum. In naher Zukunft können die Polarisationsdaten des Planck Experimentes weiteren Aufschluss über die Anomalien der kosmischen Mikrowellenhintergrundstrahlung bringen. Die Beschreibung des polarisierten Mikrowellenhintergrundes innerhalb einer Phasenanalyse wäre eine wichtige Ergänzung zu klassischen Studien.
Fliegen Streifengänse wirklich über den Mount Everest? Auf Basis eines Datensatzes, mit dem auch Mariëlle arbeitet, wurde das überprüft. Zusammen mit der sportlichen Leistung der Gänse. Im Tierreich geht es weiter: Wo nicht überall Methan herkommt...! Katrin berichtet, fast aus erster Hand. Weiter geht es mit ernsteren Angelegenheiten, nämlich der Messbarkeit von Verwahrlosung im Kindesalter im Gehirn. Auch viele Jahre später noch. Sodann beißen wir uns durch ein technisch-physikalisches Thema und erklären, wie man organische LEDs blauer Farbe haltbarer macht. Zum Ausklang reden wir noch über Sport und Chronobiologie, und haben auch wieder ein paar spannende Empfehlungen für euch. Viel Spaß beim Hören und viele Grüße!
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07
Das Ziel der vorliegenden Arbeit war es, molekulare Vorgänge während der B-Zellentwicklung in der Bursa Fabricii des Haushuhns mittels proteomischer Analysen zu charakterisieren. Hierfür wurden zunächst repräsentative Zeitpunkte der bursalen B-Zellentwicklung für die Probengewinnung definiert. Daran schlossen sich qualitative Proteomanalysen der Bursa Fabricii zu den gewählten Entwicklungszeitpunkten Embryonaltag 10 (ET10), Embryonaltag 18 (ET18), Tag 2 und Tag 28 nach dem Schlupf an. Diese erfolgten durch Vorfraktionierung der Proben mittels 1D-SDS-PAGE und nano-HPLC gefolgt von Tandem-MS-Analysen. Hierbei konnten für die bursalen Proteome zu jedem Zeitpunkt zwischen 1152 und 1392 Proteine identifiziert werden (FDR < 1 %). Überschneidungen der einzelnen Zeitpunkte in 537 allgemeinen Struktur- und Stoffwechsel-Proteinen berücksichtigt, wurden insgesamt 2214 verschiedene Proteine identifiziert. Eine zusätzliche qualitative Analyse aufgereinigter bursaler B-Zellen führte zur Identifizierung von 758 Proteinen. Durch genontologische Analysen konnte festgestellt werden, dass für das Zellwachstum verantwortliche Proteine va. zu den frühen Zeitpunkten zu finden waren, während Proteine, welche eine Rolle für das Immunsystem spielen, eher zu späteren Entwicklungszeitpunkten in Erscheinung traten. Dies spiegelt die Entwicklung der Bursa von der unreifen, embryonalen Wachstums- und Differenzierungsprozessen unterliegenden Bursaanlage, zum fertig ausdifferenzierten, primär-lymphatischen Organ auf molekularer Ebene wider. Konform zu den hohen Proliferationsraten der B-Zellen während der Bursaentwicklung fanden sich in den genontologischen Analysen der B-Zellen besonders hohe Anteile an Proteinen, welche für Zellteilung verantwortlich sind. Proteine, welche in Zusammenhang mit Zellmigration stehen, wurden vor allem in der B-Zell-Probe sowie an ET10 gefunden, was als Hinweis auf eine Beteiligung dieser Proteine an der Einwanderung der B-Zellen in die Bursaanlage betrachtet werden kann. Die anschließende quantitative Proteomanalyse wurde zu denselben Entwicklungszeitpunkten an je sechs biologischen Replikaten mittels 2D-DIGE durchgeführt. In der statistischen Auswertung der quantitativen Veränderungen zeigten sich 402 hochsignifikante Unterschiede zwischen den bursalen Proteomen der verschiedenen Entwicklungszeitpunkte, wobei die sehr große Übereinstimmung der Analyseergebnisse innerhalb der biologischen Replikate die gute Reproduzierbarkeit der Experimente belegte. Die deutlichsten Veränderungen zeigten sich zwischen ET10 und allen weiteren Zeitpunkten, wohingegen innerhalb der übrigen Stadien eine geringere Anzahl signifikanter Unterschiede nachgewiesen wurde. Für die 402 differentiell exprimierten Proteine konnten verschiedene charakteristische Protein-expressionsverläufe nachgewiesen werden, welche Rückschlüsse auf die biologischen Hintergründe ermöglichten. Durch massenspektrometrische Analysen der Proteine mittels MALDI-TOF/TOF und LC-MS/MS gelang es, 203 der 242 zur Identifikation vorgesehenen Spots zu identifizieren. Im Rahmen einer bioinformatischen Auswertung des erhaltenen Datensatzes erbrachten sowohl die genontologische Analysen als auch Pathway-Analysen wesentliche Anhaltspunkte für die Auswahl besonders interessanter und vielversprechender Proteine für weiterführende funktionelle Analysen. Unter den identifizierten, differentiell exprimierten Proteinen fanden sich auffällig viele Vertreter des Aktin-Zytoskelett-Pathways, welcher für die mechanische Stabilisierung von Zellen und deren aktive Bewegungen verantwortlich ist. Dabei fielen in dieser Arbeit sowohl Vinculin als auch Gelsolin durch ihre charakteristischen Expressionsmuster auf. Vinculin zeigte zu Beginn der embryonalen Entwicklung erhöhte Abundanzwerte, welche nach ET18 steil abfielen. Als fokales Adhäsionsprotein stellt es ein Schlüsselprotein in der Regulation der Übertragung von kontraktilen Kräften dar, welche die Voraussetzung für die Migration von Zellen sind. Gelsolin, ein wichtiges Apoptose-Effektorprotein, welches auch in Verbindung mit Zellmotilität gebracht wird, zeigte erhöhte Expressionslevel an ET18, welche über die nachfolgenden Entwicklungszeitpunkte abfielen. Gelsolin konnte in drei verschiedenen Ladungs-Isoformen detektiert werden. Für die Fragestellung dieser Arbeit interessant erschien weiterhin eine Gruppe differentiell exprimierter Proteine des Retinolsäure-Metabolismus. Im Einzelnen wurden die Retinaldehydrogenase 2 (ALDH1A2), das „retinol-binding protein 5“ (RBP5), das „fatty acid-binding protein 7“ (FABP7), und Transthyretin (TTR) mit ähnlichen Proteinexpressions-profilen detektiert, welche ihr Expressionsmaximum jeweils an ET10 aufwiesen. Das könnte ein Hinweis sein, dass die embryonale Entwicklung der Bursa Fabricii von ähnlichen Faktoren gesteuert ist wie die embryonale Ausbildung der sekundär-lymphatischen Organe beim Säuger, bei der Retinolsäure-abhängige Proteine eine entscheidende Rolle spielen. Über die Thematik dieser Arbeit hinausgehend, stellt der umfangreiche proteomische Datensatz dieser Arbeit eine wertvolle Ressource dar, die sowohl für weitere Fragestellungen bezüglich der Bursa Fabricii des Huhns, als auch für die Vervollständigung der Annotation des Hühnergenoms genutzt werden können.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Bisher waren Längenmessungen und deskriptive Charakterisierungen die einzigen Anhaltspunkte zur Beschreibung der Oberflächenmorphologie von Frontzähnen. Für die Erstellung eines Datensatzes bei computergestützten Verfahren in der Zahnmedizin ist dies nicht mehr ausreichend. In der Literatur existieren bisher keine Ansätze zur Morphometrie der Oberflächen oberer Frontzähne, die für automatische Rekonstruktionsverfahren verwertbar wären. Für diese Arbeit wurde in einem ersten Schritt eine Zahnbibliothek aus natürlichen, unversehrten Frontzahnoberflächen aufgebaut. Mit Hilfe dieser Zahndatenbank konnten verschiedene dreidimensionale morphometrische Untersuchungen durchgeführt werden, bei denen Analysen zur Spiegelsymmetrie eine wichtige Rolle einnahmen. Zudem wurden die gewonnenen metrischen Ergebnisse mit dem visuellen Eindruck von Experten verglichen. Diese Beobachterdaten wurden außerdem zur explorativen Detektion jener morphologischen Merkmale genutzt, die maßgeblich die subjektive menschliche Wahrnehmung beeinflussen. Durch einen mathematischen Oberflächenvergleich wurde es möglich die morphologische Variabilität von oberen Frontzähnen zu quantifizieren. Die Durchschnittswerte für die mittlere Abweichung nach Überlagerung der Vestibularflächen (Quant_80_20_halbe) betragen bei symmetrischen Zähnen zwischen 44 µm und 53 µm, bei Zähnen unterschiedlicher Probanden sind die Werte um den Faktor zwei höher. Die benutzten statistischen Verfahren (u.a. Multidimensionale Skalierung, Multidimensionale Entfaltung) weisen auf eine mäßige Übereinstimmung der metrisch ermittelten Ähnlichkeiten mit der visuellen Wahrnehmung von Zahnärzten hin. Den Ergebnissen multivariater Analysen zufolge hatten die beurteilenden Zahnärzte eine vergleichbare Vorstellung der Zahnmorphologie, wobei sie einzelne Merkmale der Zahnstruktur scheinbar verschieden gewichten. Ein übergeordneter Parameter der visuellen Bewertung ist das Längen-Breiten-Verhältnis, über die anderen Merkmale kann bisher nur spekuliert werden. In einer dreidimensionalen Versuchsanordnung wurde simuliert, inwieweit es möglich ist, dass ein achsensymmetrisch gespiegelter Zahn seinen kontralateralen Zahn ersetzen kann. Dieser Ansatz wurde unter approximalen, okklusalen und ästhetischen Gesichtspunkten evaluiert. Es zeigte sich eine zufriedenstellende metrische Passung hinsichtlich der approximalen und okklusalen Verhältnisse. Bemerkenswert war die bessere visuelle Akzeptanz der modifizierten Frontzahnansichten im Vergleich zu den jeweiligen Originalansichten. Insgesamt erscheint der spiegelsymmetrische Ersatz als ein brauchbares Basiskonzept für vollautomatische Rekonstruktionsmaßnahmen im oberen Frontzahnbereich.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Längenmessungen und deskriptive Charakterisierungen waren bisher die einzigen Anhaltspunkte zur Beschreibung der Kauflächenmorphologie. Für computergestützte Verfahren in der Zahnmedizin ist dies für die Erstellung eines Datensatzes nicht ausreichend. In der Literatur existieren hierzu bisher keine Lösungsansätze. In dieser Arbeit wurde in einem ersten Schritt eine Zahnbibliothek aus unversehrten Kauflächen aufgebaut. Mit Hilfe dieser Zahndatenbank wurde ein mathematisches Modell (Mehl 2002), das einen bestimmten Zahntypus anhand weniger Parameter unter Berücksichtigung funktioneller und biologisch relevanter Strukturen mathematisch beschreiben kann, erstellt. Dieses biogenerische Zahnmodell wurde an verschiedenen, der Zahnbibliothek unbekannten, Zähnen getestet. Die Ergebnisse zeigen, dass in allen Fällen eine vollautomatische Anpassung möglich war. Die Genauigkeiten der Anpassungen lagen bei etwa 87 μm. Des Weiteren wurden verschiedene Einflussgrößen auf das mathematische Modell untersucht. Dabei konnten keine allgemeingültigen Werte gefunden werden, die in jedem Falle die besten Ergebnisse liefern. Die Bandbreite der entsprechenden Werte konnte jedoch eingegrenzt werden. Die visuelle Auswertung und der metrische Vergleich der Anpassungen verdeutlichen die große Flexibilität des biogenerischen Zahnmodells. In einem weiteren Schritt wurden die Bibliothekskauflächen untereinander verglichen. Der Durchschnittswert für die mittlere Abweichung von dem rechten und dem linken ersten Molaren jeweils eines Probanden beträgt 119 µm im Unterkiefer und 126 µm im Oberkiefer. Bei dem Vergleich von ersten Molaren unterschiedlicher Probanden ergibt sich ein Wert von 276 µm im Unterkiefer und 340 µm im Oberkiefer. In einer Dritten Versuchsanordnung wurden sieben Prothesenzähne mittels biogenerischen Zahnmodells auf ihre „Natürlichkeit“ getestet. Vier Zähne konnten als eher natürliche Durchschnittszähne klassifiziert werden. Zwei Zähne wurden als nicht repräsentative Durchschnittszähne eingestuft. Ein Zahn konnte auf Grund seines starken Abrasionsgrades nicht eingeordnet werden. Insgesamt besteht mit Hilfe des biogenerischen Zahnmodells die Möglichkeit, Kauflächen vollautomatisch unter Berücksichtigung biologischer und funktio¬neller Kriterien zu rekonstruieren. Inwieweit dies bei Zähnen gelingt, die einen großem Substanzverlust erfahren haben, beispielsweise durch Inlay-/Onlaypräperation, müssen weiter Studien zeigen. Auch scheint die Frage interessant, ob es möglich ist, von noch erhaltenen Zähnen Rückschlüsse auf bereits zerstörte Zähne zu erhalten.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Längenmessungen und deskriptive Charakterisierungen waren bisher die einzigen Anhaltspunkte zur Beschreibung der Kauflächenmorphologie. Für computergestützte Verfahren in der Zahnmedizin ist dies für die Erstellung eines Datensatzes nicht mehr ausreichend. In der Literatur existieren hierzu bisher keine Lösungsansätze. In dieser Arbeit wurde in einem ersten Schritt eine Zahnbibliothek aus unversehrten Kauflächen aufgebaut. Mit Hilfe dieser Zahndatenbank wurde ein mathematisches Modell (Mehl 2002), das einen bestimmten Zahntypus anhand weniger Parameter unter Berücksichtigung funktioneller und biologisch relevanter Strukturen mathematisch beschreiben kann, erstellt. Dieses biogenerische Zahnmodell wurde an verschiedenen Inlaysituationen getestet. Die Ergebnisse zeigen, dass in allen Fällen eine vollautomatische Rekonstruktion möglich war. Die Genauigkeiten der Rekonstruktionen lagen bei etwa 150 μm und waren nur geringfügig von der Kavitätengröße abhängig. Des Weiteren wurden verschiedene Einflussgrößen auf das mathematische Modell untersucht. Dabei konnten keine allgemeingültigen Werte gefunden werden, die in jedem Falle die besten Ergebnisse liefern. Die Bandbreite der entsprechenden Werte konnte jedoch eingegrenzt werden. Die visuelle Auswertung und der metrische Vergleich der Rekonstruktionen untereinander verdeutlichen die große Flexibilität des biogenerischen Zahnmodells. Insgesamt besteht mit Hilfe des biogenerischen Zahnmodells die Möglichkeit, die Kauflächen von Zahnrestaurationen im CAD/CAM-Prozess vollautomatisch unter Berücksichtigung biologischer und funktioneller Kriterien zu rekonstruieren. Inwieweit andere Kriterien wie zum Beispiel Abrasionsgrad durch dieses Verfahren beschrieben werden können und welche Feinanpassungen für eine optimale Zahnrestauration notwendig sind, müssen weiter Studien zeigen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Diese Dissertation beschreibt die Ergebnisse des Wendelstein Calar Alto Pixellensing Project (WeCAPP), welches in Richtung der Andromeda Galaxie (M31) nach Dunkler Materie in Form von "Massiven Kompakten Halo Objekten" (Machos) sucht. Die neuesten wissenschaftlichen Befunde legen ein Universum mit flacher Geometrie nahe, zu dessen Dichteinhalt Dunkle Materie ca. 23% beitraegt. Weitere 4.5% werden baryonischer Materie zugeschrieben, wobei von diesem Anteil bei kleiner Rotverschiebung bisher nur ca. 10% nachgewiesen werden konnten. Die Kandidaten fuer Machos in den Halos von Galaxien umfassen eine baryonische Komponente (vergangene Sterne wie z.B. Weisse Zwerge oder Neutronensterne), sowie eine nicht-baryonische Komponente, zum Beispiel in Form von primordialen Schwarzen Loechern. Da diese Objekte nur sehr schwach leuchten, sind sie dem direkten Nachweis entzogen. Sie koennen jedoch indirekt ueber den Gravitationslinseneffekt nachgewiesen werden, den sie auf das Licht von Sternen im Hintergrund ausueben. Der beobachtbare Helligkeitsanstieg ist charakteristisch fuer solche sogenannten Mikrolinsenereignisse und laesst sich gut von der Helligkeitsaenderung Veraenderlicher Sterne unterscheiden. Die Seltenheit der Gravitationslinsenereignisse machte den Aufbau eines grossen Datensatzes mit entsprechender zeitlicher Ueberdeckung notwendig, was durch simultane Beobachtungen an zwei Standorten (Wendelstein und Calar Alto) erreicht werden konnte. Nach einer kurzen Einfuehrung gibt Kapitel 2 einen Ueberblick ueber das Experiment und die Beobachtungsstrategie und stellt die Teleskope und verwendeten Instrumente vor. Desweiteren behandelt Kapitel 2 die Eigenschaften des Datensatzes (1997 - 2005) und stellt die Algorithmen und Methoden vor, die zum Reduzieren der Daten angewandt wurden. Kapitel 3 praesentiert ein aktualisiertes Modell der Massen- und Lichtverteilung der Andromeda Galaxie, welches gut mit kinematischen Daten, als auch mit Vorhersagen von stellaren Populationsmodellen uebereinstimmt. In Kapitel 4 wird dieses Modell genutzt, um die erwartete Rate von Gravitationslinsenereignissen und deren raeumliche Verteilung fuer das WeCAPP Experiment zu berechnen. Kapitel 5 praesentiert die Kandidaten fuer Mikrolinsenereignisse, die im WeCAPP Datensatz identifiziert werden konnten. Sowohl die Anzahl der Ereignisse als auch ihre raeumliche Verteilung deuten darauf hin, dass sie durch stellare Linsen in M31 selbst verursacht wurden (self-lensing). Der Machoanteil ist demgegenueber als eher gering einzuschaetzen. Der aufgebaute Datensatz ist aufgrund seiner langen zeitlichen Ueberdeckung hervorragend geeignet, intrinsisch Veraenderliche Quellen in M31 zu studieren. In Kapitel 6 wird dieser Katalog von ueber 20 000 Veraenderlichen Quellen praesentiert. Die gemessene Anzahldichte der Quellen weist eine starke Asymmetrie auf, die auf den Einfluss erhoehter Extinktion in den Spiralarmen zurueckzufuehren ist. Die Veraenderlichen lassen sich in 3 Gruppen einteilen, wobei sich in Gruppe 1 die klassischen Cepheiden befinden. Gruppe 2 enthaelt unter anderem Klasse 2 Cepheiden und RV Tauri Veraenderliche, wohingegen sich Gruppe 3 aus Langperiodischen Veraenderlichen zusammensetzt. Die Parameter, die aus der Fourieranalyse der Lichtkurven klassischer Cepheiden extrahiert werden konnten, zeigen den bekannten Verlauf mit der Periode der stellaren Pulsation. Auch fuer die Klasse 2 Cepheiden und die RV Tauri Sterne konnte eine Korrelation bestimmter Phasenparameter gefunden werden, wobei die Relation der RV Tauri Sterne eine Fortfuehrung der Relation der Klasse 2 Cepheiden ist. Dieses Ergebnis unterstuetzt die enge Verbindung zwischen beiden Arten von Veraenderlichen. Neben pulsierenden Veraenderlichen wurden auch ueber 60 klassische Novae identifiziert, deren Helligkeitsverlauf einen eruptiven Charakter aufweist. Der daraus resultierende Novakatalog, der in Kapitel 7 praesentiert wird, ist einer der groessten und homogensten seiner Art. Eine Korrelation mit historischen Novae erbrachte 5 Kandidaten fuer wiederkehrende Novae. Fuer einige Novae gelang es, den Zeitpunkt des Ausbruchs genau zu bestimmen und damit zu zeigen, dass die Konstanz der Helligkeit 15 Tage nach Maximum fuer schnelle und moderat schnelle Novae zu gelten scheint. Sehr schnelle Novae scheinen jedoch davon abzuweichen. Mit Hilfe dieser Relation und den exponentiellen Angleichungen an die Lichtkurven konnte gezeigt werden, dass fuer mittlere Abfallszeitskalen t2 die maximale Helligkeit linear mit dem Logarithmus der Abfallszeit skaliert, fuer grosse t2 jedoch eine Abflachung dieser linearen Relation festzustellen ist.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Kupfer im Serum des Menschen lässt sich zwei Kompartimenten zuordnen: dem Coeruloplasmin-Kupferkompartiment, welches das meiste Kupfer des Serums gebunden an das Cuproprotein Coeruloplasmin enthält, und dem Nicht-Coeruloplasmin-Kupferkompartiment, dem alles übrige Kupfer gebunden vorwiegend an Albumin und Aminosäuren zugerechnet wird. Über die Kupfermengen in den beiden Kompartimenten gibt es sehr widersprüchliche Meinungen. So werden die Zahl der Kupferatome im Cpl-Molekül mit 6 bis 8 und der Anteil des nichtCplCu am gesamten Serumkupfer mit 1 bis 40% angegeben. Von einzelnen Untersuchergruppen durchgeführte Berechnungen und Messungen haben jedoch ergeben, dass das Cpl-Molekül sechs Kupferbindungsstellen besitzt, die unter normalen Bedingungen immer besetzt sind, und dass mit hochempfindlichen Nachweismethoden selbst geringe Kupfermengen wie 0,1 µmol/l in coeruloplasminfreien Seren nicht gefunden werden. Wegen dieser widersprüchlichen Angaben ist eine sinnvolle Bewertung von Cu- und Cpl-Messungen bei Patienten nicht möglich. Es gibt zwar jeweils Normbereiche für Cu und für Cpl im Serum. Diese erlauben jedoch lediglich eine getrennte Einstufung der Messwerte beider Faktoren und lassen die Abhängigkeit der Cu- von der Cpl-Konzentration unberücksichtigt. Störungen im Kupferhaushalt bleiben deshalb häufig unerkannt. In dieser Arbeit wird versucht, die Gründe für die widersprüchlichen Angaben in der Literatur aufzudecken, in dem nach Gesetzmäßigkeiten zwischen den Konzentrationen von Cu und Cpl im Serum von gesunden Menschen und von Patienten mit verschiedenen Erkrankungen gesucht wird. Denn erst wenn die Gesetzmäßigkeiten bekannt sind, können normale und pathologische Verhältnisse von Cu und Cpl im Serum des Menschen von einander abgegrenzt und Störungen im Kupferhaushalt aufgedeckt werden. Überprüft werden in dieser Arbeit die folgenden drei Hypothesen. Hypothese I: „Nahezu das gesamte Cu des Serums ist Cpl gebunden“ oder „Unter normalen Bedingungen lassen sich im Serum des Menschen keine signifikanten Konzentrationen von nichtCplCu nachweisen.“ Hypothese II: „Die Cu- und Cpl- Konzentrationen im Serum des Menschen stehen in einem festen, positiven linearen Verhältnis zueinander.“ Hypothese III: „Das Coeruloplasminmolekül im Serum des Menschen enthält konstant sechs Atome Kupfer.“ Dem Dokumentationszentrum für Kupfervergiftungen im Dr. von Haunerschen Kinderspital wurden von fünf Klinisch-chemischen Instituten in fünf Städten Deutschlands Serien (Datensätze) von Cu- und Cpl-Messwerten aus den Jahren 1988 bis 2004 für weitere Berechnungen überlassen. Aus den Datensätzen wurden in dieser Arbeit alle Parallelmessungen von Cu und Cpl in jeweils ein und derselben Serumprobe (sog. CuundCpl-Messungen) mit Hilfe der linearen Regressionsanalyse (OSL) untersucht und entsprechend der Formel „Y = a + b * X“ die Mittelwerte für „a“ = intercept = (hier:) das nichtCplCu und für „b“ = Steigung der Regressionsgeraden = (hier:) der Cu/Cpl-Koeffizient = Zahl Cu-Atome pro Cpl-Molekül berechnet. Die Regressionsformel lautet dann: „Cu = nichtCplCu + Cu/Cpl-Koeffizient * Cpl“; das Produkt „Cu/Cpl-Koeffizient * Cpl“ repräsentiert das CplCu. Analysiert wurden insgesamt 1239 CuundCpl-Messwertepaare. Das aus methodischer Sicht wichtigste Ergebnis der Untersuchung war, dass eine gemeinsame Analyse aller Datensätze zu nicht plausiblen Ergebnissen führt, weil – bei nahezu identischen mittleren Messwerten für Cu – die mittleren Cpl-Messwerte der einzelnen Institute, aber auch ein und desselben Institutes aus verschiedenen Jahren erheblich von einander abweichen. Diese offensichtlich systematische Abweichung der Cpl-Messungen hatte zur Folge, dass sich für die Datensätze unterschiedliche Cu/Cpl-Koeffizienten und damit unterschiedliche Zahlen von Cu-Atomen pro Cpl-Molekül errechneten. Getrennte Regressionsanalysen der Datensätze ergaben dann übereinstimmend für die überwiegende Zahl (mehr als 90%) der Messungen in den Seren keine statistisch signifikanten Cu-Konzentrationen im nichtCplCu-Kompartiment (mittlere Konzentrationen unter 0,2 µmol/l) und für die einzelnen Datensätze (also für jedes Labor für bestimmte Zeitabschnitte) konstante Cu/Cpl-Koeffizienten zwischen 6,0 und 8,8. Bei einer mittleren GesCu-Konzentrationen von ca. 20 µmol/l im Serum errechnet sich somit für das nichtCplCu ein Anteil von weniger 1%. Das Ergebnis bestätigt die Hypothese I dieser Arbeit und die Mittelung von Evans et al. (1989) die bei direkten Messungen in Seren von Menschen kein nichtCplCu (untere Nachweisgrenze: 0,1 µmol/l) nachweisen konnten. Die für jedes Labor (und für bestimmte Zeitperioden) als Konstante zu errechnenden Cu/Cpl-Koeffizienten (Bestätigung der Hypothese II dieser Arbeit) weisen daraufhin, dass die Cpl-Messmethoden nicht ausreichend standardisiert und ihre Ergebnisse deshalb nicht geeignet sind, die Hypothese III dieser Arbeit zu überprüfen: nur in einem der fünf Datensätze konnte der erwartete Cu/Cpl-Koeffizient von 6 gefunden werden. Im Verlauf der Untersuchungen dieser Arbeit erwies sich die Ermittlung des Cu/Cpl-Koeffizienten mittels Regressionsanalyse (OLS) als immer dann nicht möglich ist, wenn sich unter den CuundCpl-Messwertepaaren stark abweichende Messungen, wie solche mit einem Kupferüberschuss, befanden. Die Arbeit zeigt jedoch Verfahren auf, wie diese Messungen im Datensatz erkannt und entfernt werden können. Ein solches Vorgehen erwies sich jedoch als überflüssig, weil sich herausstellte, dass der nach Berechnung des Cu/Cpl-Quotienten für alle Serumproben eines Datensatzes ermittelte Median der Quotienten (MedianCu/Cpl-Q) immer nahezu identisch ist mit dem zugehörigen Cu/Cpl-Koeffizienten. Der MedianCu/Cpl-Q kann in praxi in jedem Labor z. B. täglich oder wöchentlich anhand von Routinemessungen bei Patienten ermittelt und dann anstelle des Cu/Cpl-Koeffizienten verwendet werden. Ist der Cu/Cpl-Koeffizient oder der (hier als gleichwertig gefundene) Median der Cu/Cpl-Quotienten eines Laboratoriums bekannt, lässt sich aus den Messwerten Cu und Cpl der CuSOLL-Wert der Probe ermitteln und ein Überschuss an Cu, wie er z.B. bei Patienten mit Morbus Wilson oder mit einer Kupfervergiftung vorkommt, ermitteln. Die entsprechenden Formeln lauten: „deltaCu = CuIST- Cu/Cpl-Koeff. * CplIST“ bzw. „deltaCu = CuIST- MedianCu/Cpl-Q * CplIST“. Auf diese Weise lässt sich eine „echte“ Hypercuprämie (die hypercupraemia vera), die auf ein Missverhältnis zwischen Cu und Cpl im Serum hinweist, unterscheiden von der einfachen Hypercuprämie (der hypercupraemia simplex), die immer dann auftritt, wenn Cpl im Serum z.B. bei entzündlichen oder malignen Prozessen oder unter hormonellem Einfluss bei Schwangerschaft oder Antikonzeption, erhöht ist. Ausblick: Die in dieser Arbeit ermittelten Gesetzmäßigkeiten zwischen den Konzentrationen von Cu und Cpl im Serum gesunder und kranker Menschen erlaubt eine gezielte Suche nach Patienten/Krankheiten mit Störungen im Kupferhaushalt; sie ermöglicht insbesondere eine quantitative Bestimmung des Kupferüberschusses im Serum von Menschen mit Morbus Wilson und den Kupfervergiftungen als einen zur Diagnose führenden Befund.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Sicherlich steht mit der zweidimensionalen Echokardiographie zur Zeit ein diagnostisches Verfahren zur Verfügung, mit dem alle Arten von Ventrikelseptumdefekten sehr präzise dargestellt werden können und das für das gegenwärtige medizinische und chirurgische Management dieser Gruppe von Herzfehlern ausreicht Die in dieser Arbeit erläuterten dreidimensionalen Darstellungen der verschiedenen Typen von Ventrikelseptumdefekten bieten allerdings eine Reihe von Lösungen für einige Probleme der zweidimensionalen Echokardiographie bei der Darstellung von Ventrikelseptumdefekten. Es liegt auf der Hand, dass eine komplexe dreidimensionale Struktur wie das interventrikuläre Septum mit seinen verschiedenen Untereinheiten nicht vollständig in einem zweidimensionalen Schnittbild erfasst werden kann. Das Septum erscheint in den zweidimensionalen Schnittbildern als homogene Struktur- die morphologische Unterscheidung in die verschiedenen Untereinheiten gelingt nicht. Die Generierung einer Vielzahl von Schnittebenen ist nötig, die dann im Kopf des Untersuchers oder Betrachters zu einem virtuellen dreidimensionalen Bild zusammengesetzt werden müssen. Wenn der größte Durchmesser des Defektes nicht in einer der zur Verfügung stehenden Schnittebenen liegt, kann die Defektgröße zudem unterschätzt werden. Die in dieser Arbeit angewandte dreidimensionale Darstellung kommt pro Patient mit Ventrikelseptumdefekt hingegen nur mit zwei Abbildungen des Defektes aus- der Aufblick auf die Oberfläche des interventrikulären Septums von der rechts- und der linksventrikulären Seite, die jeweils die Form des Defektes und seinen gesamten Umfang zeigen. Durch Optimierung der Methodik wurde eine sehr wirklichkeitsgetreue Darstellung erreicht, wie der Vergleich mit pathologischen Präparaten und dem intraoperativen Situs zeigt. Beispielsweise erfolgte die Akquisition aller gezeigten dreidimensionalen Darstellungen ausschließlich transthorakal über das subkostale Schallfenster. Die Diagnosestellung ist also nicht von einer Vielzahl verschiedener Schnittebenen abhängig, von denen je nach individuellen anatomischen Verhältnissen auch nicht immer jede verfügbar ist. Der subkostale Zugangsweg ist im Kindesalter hingegen leicht einzustellen und nicht durch Strukturen der Thoraxwand eingeengt. Durch Verbesserung der Akquisitionsbedingungen und optimale Kombination der zur Verfügung stehenden 3-D Algorithmen wurden die offline- Nachbearbeitung der Rohdatensätze optimiert. Bei allen Arten von Ventrikelseptumdefekten war die akkurate dreidimensionale Darstellung möglich, es zeigte sich ein zusätzlicher Informationsgewinn im Vergleich zur 2-D Echokardiographie bei 73% der akquirierten Datensätze. Eine dreidimensionalen Darstellung genügt, um den Defekt einer der Untereinheiten des Ventrikelseptums zuzuordnen. Durch die Analyse seiner Beziehung zu den benachbarten Strukturen des Septums in der gleichen Darstellung konnten die Defekte noch detaillierter beschrieben werden. Die Vorteile der dreidimensionalen Darstellung von Ventrikelseptumdefekten liegt in der Verbesserung der Kommunikation zwischen den Klinikern und der besseren Planbarkeit interventioneller und operativer Eingriffe. Alle nicht operativ tätigen Ärzte bekommen durch die dreidimensionale Echokardiographie Einblicke in das Herz wie sie nur der Herzchirurg oder der Pathologe hat. Die Darstellung des gesamten Defektes in einem Bild macht zusätzlich die Unter- oder Überschätzung der Defektgröße unwahrscheinlicher. Die Nachteile der dreidimensionalen Echokardiographie liegen in ihrem hohen logistischen und zeitlichen Aufwand. In dieser Arbeit zeigte sich die Notwendigkeit zur Sedierung der pädiatrischen Patienten. Im Vergleich zur online generierten zweidimensionalen Echokardiographie bedeutete dies einen höheren logistischen Aufwand. Der zeitliche Aufwand der offline erfolgende Bearbeitung der gewonnenen Daten variiert sehr je nach Qualität des aufgenommenen Datensatzes und der vorliegenden Anatomie. Hinzu kommt die Akquisitionszeit von durchschnittlich 2- 5 Minuten hinzu, sodass ein zeitlicher und logistischer Mehraufwand im Vergleich zur zweidimensionalen Echokardiographie vorliegt. Dies verhinderte bislang den routinemäßigen Einsatz der dreidimensionalen Echokardiographie. Mit der Real- Time 3-D Echokardiographie steht allerdings seit kurzem ein Verfahren zur Verfügung, dass dreidimensionale Bilder online liefert und dem Nachteil des zeitlichen und organisatorischen Mehraufwandes stark limitieren wird. Dies zeigen erste Erfahrungen auf diesem Gebiet.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
In dieser Dissertation wird die Entwicklung von Galaxien innerhalb eines sehr großen Zeitraums (90% des Alters des Universums) anhand sehr tief belichteter Aufnahmen des sogenannten FORS Deep Field (FDF) untersucht. Homogenität und Größe des Datensatzes erlauben eine gründliche Analyse der Galaxienentwicklung, ohne großen systematischen Effekten zu unterliegen. Nachdem in Kapitel 1 ein Überblick der Kosmologie sowie der Strukturbildung und der bis dato beobachteten Entwicklungen von Galaxien gegeben wurde, werden in Kapitel 2 die Eigenschaften des FDFs diskutiert. Dabei wird der Objekt-Katalog, der über 8000 Galaxien und photometrische Informationen in 9 Filtern enthält, vorgestellt. In Kapitel 3 werden mögliche Auswahleffekte aufgrund des im I-Band (8000 Angström) selektierten Kataloges diskutiert und die Güte der Entfernungsbestimmung, welche auf photometrischen Rotverschiebungen basiert, beschrieben. Basierend auf diesen photometrischen Rotverschiebungen wird in Kapitel 3 und Kapitel 4 die Entwicklung der Anzahldichte von Galaxien pro Magnitude und Volumen, also der Leuchtkraftfunktion (LF), in Abhängigkeit der Rotverschiebung analysiert. Die LF der Galaxien entwickelt sich im UV viel stärker als im sichtbaren bzw. nah-infraroten Licht. Ein Vergleich mit der lokalen LF ergibt, daß die Galaxienpopulation im frühen Universum im Mittel im UV viel heller (Faktor 10), die Gesamtanzahl dagegen wesentlich niedriger (Faktor 10) gewesen ist. Im optischen bleibt dieser Trend nachweisbar. Ein Vergleich mit LF-Ergebnissen von anderen Himmelsdurchmusterungen zeigt eine sehr gute Übereinstimmung mit deren Ergebnissen. Aufgrund der tiefen Belichtung des FDFs ist es zudem möglich, auch noch sehr schwache Galaxien in die Analyse mit einzubeziehen und dadurch die Steigung der Leuchtkraftfunktion, d.h. das Verhältnis von schwachen zu hellen Galaxien, deutlich besser zu bestimmen. Ein Vergleich mit Vorhersagen theoretischer Galaxienentwicklungs-Modelle zeigt eine gute Übereinstimmung bei kleiner Rotverschiebung. Mit zunehmender Entfernung nehmen jedoch die Unterschiede zu. Um die Beiträge von einzelnen Galaxienpopulationen zur LF zu untersuchen, wird der Objekt-Katalog in Kapitel 5 in vier typische Populationen aufgeteilt: von frühen Typen mit praktisch keiner Sternentstehung bis hin zu Typen mit extremer Sternbildung. Die jeweilige LF wird in den verschiedenen Rotverschiebungsbereichen mit der Gesamt-LF verglichen. Der unterschiedliche Beitrag dieser Subpopulationen zur Gesamt-LF in den verschiedenen Filtern und bei verschiedenen Rotverschiebungen erklärt auf natürliche Weise die Änderung der Steigung der LF als Funktion der Wellenlänge. In Kapitel 6 wird die Entwicklung der Sternentstehungsrate, d.h. wieviel stellare Masse pro Jahr und Volumen bei welcher Rotverschiebung gebildet wird, untersucht. Dazu wird jeweils ein FDF B, I, (I+B) und GOODS (Great Observatories Origins Deep Survey) K selektierter Galaxien-Katalog analysiert. Es wird gezeigt, daß die Sternentstehungsrate bis ca. z=1.5 ansteigt, um dann bis ca. z=4 konstant zu bleiben. Bei noch höherer Rotverschiebung scheint sie wieder abzunehmen. Dieser Trend ist weitgehend unabhängig vom Selektionsband. Aus der Sternentstehungsrate wird in Kapitel 7 die Entwicklung der stellaren Massendichte als Funktion der Rotverschiebung berechnet. Unter der Annahme, daß die mittlere Staubkorrektur im UV weitgehend unabhängig von der Rotverschiebung ist, steigt die stellare Masse zw. z=4 und z=0.5 um einen Faktor 10 an. Ein Vergleich mit der Massendichte in der Literatur ermöglicht es uns außerdem eine mittlere Staubkorrektur von 2.5 plusminus 0.2 für den UV-Fluß abzuleiten. In Kapitel 8 werden die Ergebnisse nochmals zusammengefasst. Ein Vergleich mit Vorhersagen theoretischer Galaxienentwicklungs-Modelle basierend auf monolithischen Kollaps und hierarchischer Struckturbildung zeigt zudem, daß letztere meist besser mit integralen Beobachtungsgrößen wie der Leuchtkraftdichte übereinstimmen. Es gibt jedoch bei allen Modellen Probleme bei manchen detaillierten Vorhersagen wie zum Beispiel bei der Entwicklung der LF.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die vorliegende Arbeit beinhaltet drei wesentliche Teile. Zunächst wird eine systematische quantitative Literaturübersicht zur Prognose der Lithiumresponse durchgeführt. Hierbei wurden in einer Serie von Metaanalysen insgesamt 21 Variablen als Prädiktoren für die Lithiumresponse identifiziert. Im zweiten Teil werden auf Grundlage dieser systematischen Literaturübersicht verschiedene Prognoseinstrumente entwickelt. Diese Prognoseinstrumente umfassen eine für die klinische Anwendung optimierte Lithium-Response-Skala, sowie eine Reihe multivariater Verfahren. Im letzen Hauptabschnitt der vorliegenden Arbeit wird die praktische Eignung und prognostische Kraft dieser Prognoseinstrumente anhand eines umfangreichen Datensatzes evaluiert. Im Ergebnis hat sich die Verwendung der Lithium-Response-Skala hinsichtlich prognostischer Kraft und praktischer Verwendbarkeit am besten bewährt.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Die herk¨ommlichen Wellenfeldbearbeitungen der CMP-Refraktionsseismik basieren auf N¨aherungsl¨osungen f¨ur kleine Schichtneigungen. Dieser Ansatz hat sich f¨ur Schichtneigungswinkel bis zu ca. 100 bew¨ahrt. Mit gr¨oßer werdendem Neigungswinkel verschlechtern sich die Ergebnisse der CMP-Refraktionsseismik aber zunehmend. Große Neigungswinkel machen sich in zu hoch bestimmten Wellenausbreitungsgeschwindigkeiten und einer schlechteren Fokussierung auf gemeinsame Untergrundabschnitte durch die CMPSortierung bemerkbar. Die Probleme falsch bestimmterWellenausbreitungsgeschwindigkeiten und die schlechtere Fokussierung auf gemeinsame Untergrundspunkte, sind auch aus den Anf¨angen der CMP-Reflexionsseismik bekannt. Es gelang zuerst Judson, Shultz und Sherwood (1978) mit der Einf¨uhrung eines zus¨atzlichen Korrekturschritts das CMP-Konzept so zu erweitern, daß auch das reflektierte Wellenfeld von geneigten Schichtgrenzen korrekt bearbeitet werden konnte. Ihr Verfahren, das sie DEVILISH nannten, wurde durch eine Vielzahl von Autoren weiter verbessert und ist heute unter dem Namen DMO weitl¨aufig in der Seismik bekannt. Die DMO hat sich zum Standardschritt in der modernen seismischen Datenverarbeitung etabliert. Die vorliegende Arbeit besch¨aftigt sich erstmals mit der M¨oglichkeit einer DMOKorrektur f¨ur die CMP-Refraktionsseismik. Zu diesem Zweck mußte zun¨achst das DMOKonzept aus der Reflexionsseismik in die Refraktionsseismik ¨ubertragen und in mathematischen Grundgleichungen quantifiziert werden. F¨ur eine Erprobung der Refraktions-DMO an seismischen Daten mußte man aus den Grundgleichungen einen geeigneten Algorithmus konstruieren. Die ¨Ubertragung des DMO-Konzepts aus der Reflexionsseismik in die Refraktionsseismik erfolgte in Kapitel 3. In Kapitel 4 wurden die zugeh¨origen Grundgleichungen mit Hilfe des Hales-Kreises nach Hales (1958) hergeleitet. Es zeigt sich, daß die gewonnenen Grundgleichungen nicht mehr von der Zeit- bzw. der Ortskoordinate abh¨angen. Weil auch die LMO-Korrektur unabh¨angig von der Zeit ist, sind LMO und Refraktions-DMO,im Gegensatz zu NMO und Reflexions-DMO, im Processing kommutativ. Die Kommutativit ¨at vereinfacht das urspr¨unglich in Analogie zur Reflexionsseismik entwickelte Processing. Die Stapelung kann nach DMO (ohne vorherige LMO) mit den neigungsfreien Stapelgeschwindigkeiten entlang schr¨ager Geraden erfolgen. F¨ur die iterative Geschwindigkeitsbestimmung ben¨otigt man statt LMO-, DMO- und inverser LMO-Korrektur nur eine einfache DMO-Korrektur. Diese Erkenntnis f¨uhrt zu dem in Kapitel 3 beschriebenen Processingvorschlag. Aus den Grundgleichungen konnte in Kapitel 4 ein DMO-Algorithmus entwickelt werden. Dieser Algorithmus wirkt auf die fouriertransformierten COF-Wellenfelder. Der Weg ¨uber den Frequenz-Wellenzahl-Bereich hat sich auch schon bei der Reflexions-DMO bew¨ahrt (s. z.B. Hale, 1984; Jakubowicz, 1990). Ein o®ensichtlicher Vorteil beim Wechsel des Koordinatensystems ist, daß die recht komplizierte und numerisch aufwendige Operation der Faltung zu einer einfachen Multiplikation des Spektrums mit einem Operator wird. Im DMO-Verfahren von Hale (1984) macht sich der Autor einen heuristischen Ansatz zunutze. Es zeigt sich in dieser Arbeit, daß dieser heuristische Ansatz von Hale (1984) auch f¨ur die Refraktions-DMO funktioniert. Der gewonnene DMO-Operator (Gl. 4.64) f¨ur die Spektren der COF-Familien wurde auf dem Rechner implementiert. Bei der Implementierung der Refraktions-DMO f¨ur diskrete Wellenfelder m¨ussen die Eigenarten der Diskreten Fouriertransformation beachtet werden. Zur Vermeidung des wrap-around- E®ekts wurde deshalb eine Option zum Anf¨ugen von Nullspuren vorgeschlagen. Die bei Migrationsalgorithmen immer auftretenden, st¨orenden Ausschmierungen an den Enden der Laufzeitkurven, konnten durch eine Option zur Beschr¨ankung der ¨O®nungsweite teils unterdr¨uckt werden. Die Grundgleichungen lassen sich auch f¨ur eine theoretische Vorhersage ¨uber die Wirkungsweise des Prozesses bei der iterativen Geschwindigkeitsbestimmung nutzen. Durch die verschiedenen numerischen Versuche prognostiziert man ein schnelles Konvergieren bei den neigungsfreien CRP-Scheingeschwindigkeiten. Diese theoretische Prognose wurde mit Versuchen an synthetischen Datens¨atzen unter Verwendung des DMO-Algorithmus f¨ur den Frequenz-Wellenzahl-Bereich in Kapitel 5 best¨atigt. Die Grundgleichungen der Refraktions-DMO wurden, wie ¨ubrigens auch die Gleichungen f¨ur die Reflexions-DMO, auf der Basis des sehr einfachen 2-Schichtenmodells mit konstanten Wellenausbreitungsgeschwindigkeiten hergeleitet. Im Fall mehrerer Schichten im Hangenden einer Schichtgrenze f¨uhrt der Einsatz Reflexions-DMO i.d.R. trotzdem zu einer Verbesserung. Das Processing der CMP-Reflexionsseismik ist dann allerdings nicht mehr exakt richtig. F¨ur die Refraktions-DMO konnte mit Hilfe der Grundgleichungen gezeigt werden, daß das Verfahren bei geeignet gew¨ahlten Korrekturparametern vhan und vref sehr gut funktioniert. Mit den neigungsfreien CRP-Scheingeschwindigkeiten des direkt angrenzenden Hangenden f¨ur vhan kann man wie im 2-Schichtenfall, die neigungsfreien CRP-Scheingeschwindigkeiten des Refraktors exakt bestimmen. Die theoretisch, auf der Basis der Grundgleichungen getro®enen Aussagen, konnten an einem synthetischen Datensatz erprobt werden. Die simulierten Seismogramme wurden mit Hilfe eines Cerveny-Raytracing-Programms auf der Basis eines Mehrschichtenfalls mit Geschwindigkeitsgradienten berechnet. Anschließend wurde der Datensatz nach dem Konzept aus Kapitel 3 mit DMO bearbeitet. Das verwendete Modell wich dabei bewußt von dem zur Herleitung der DMO verwendeten Modell ab, um bei der Bearbeitung auch die Grenzen des DMO-Verfahrens auszuloten. Sowohl die Geschwindigkeitsgradienten, wie auch die kleinen Neigungen im Hangenden, wurden in der Theorie der Refraktions-DMO nicht ber¨ucksichtigt. Die Bearbeitung des synthetischen Datensatzes demonstrierte die stabile Funktionsweise der f-k-DMO. Auch die großen Amplituden anderer Wellentypen (Reflektierte und Direkte Welle) bzw. das aufaddierte Rauschen konnten die Funktionsweise nicht beeintr¨achtigen. Es zeigte sich, daß man die Geschwindigkeiten nicht durch eine langwierige Iteration verbessern mußte. Schon nach einer DMO-Korrektur mit den zu großen neigungsabh¨angigen CMP-Scheingeschwindigkeiten ließen sich die anschließend ermittelten CRP-Scheingeschwindigkeiten nicht weiter verbessern. Die Scheingeschwindigkeiten wurden mit einer ¢tV-Inversion in Geschwindigkeitstiefen-Funktionen gewandelt und zu einem 2-dimensionalen Geschwindigkeitsmodell kombiniert. Der Vergleich dieses Modells mit dem Ausgangsmodell und mit dem Modell einer CMP-Bearbeitung ohne DMO-Korrektur zeigte die Vorteile der Refraktions-DMO bei der Geschwindigkeitsbestimmung. Der zweite Ansatzpunkt bei der Konzeptionierung der Refraktions-DMO, die verbesserte Fokussierung auf gemeinsame Untergrundabschnitte, war weniger erfolgreich. Die DMO-Bearbeitung brachte keine Vorteile bei der Darstellung der refraktierenden Strukturen gegen¨uber der CMP-Bearbeitung ohne DMO. Theoretisch sollte allerdings zumindest die verbesserte Geschwindigkeitsbestimmung zu einer besseren Lotzeittransformation f¨uhren. Der E®ekt war allerdings gering. Die theoretisch erdachten Verbesserungen der Refraktions-DMO konnten an dem synthetischen Datensatz also gr¨oßtenteils best¨atigt werden. Allerdings basiert die Theorie der Refraktions-DMO, wie ¨ubrigens die Theorie der Reflexions-DMO auch, auf der Annahme zumindest lokal planarer Schichtgrenzen. Die Erweiterung der CMP-Refraktionsseismik auf gekr¨ummte Schichtgrenzen ist eine sehr spannende und anspruchsvolle Herausforderungen. Es ist zu erwarten, daß mit einer erweiterten CMP-Refraktionsseismik noch große Fortschritte in der Abbildung der refraktierenden Strukturen durch das Wellenfeld zu erzielen sind. Ho®entlich regen die ¨Uberlegungen und Ergebnisse dieser Arbeit m¨oglichst viele Leser zu Weiterentwicklungen der CMP-Refraktionsseismik an.