Podcasts about modellparameter

  • 5PODCASTS
  • 5EPISODES
  • 1h 33mAVG DURATION
  • ?INFREQUENT EPISODES
  • Jul 23, 2015LATEST

POPULARITY

20172018201920202021202220232024


Latest podcast episodes about modellparameter

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05

Gewitterzellen mit ihren negativen Begleiterscheinungen wie Starkregen, Hagel oder Fallwinden verursachen Verspätungen sowie Flugausfälle und sind damit für höhere Kosten der Airlines und Flughafenbetreiber verantwortlich. Eine verlässliche Vorhersage von Gewittern bis zu mehreren Stunden könnte dagegen den Entscheidungsträgern am Flughafen einen größeren zeitlichen Spielraum geben, um auf mögliche Gewitterzellen angemessen zu reagieren und adäquate Maßnahmen zu ergreifen. Zur Bereitstellung zuverlässiger Gewittervorhersagen bis zu sechs Stunden wurde Cb-LIKE am Deutschen Zentrum für Luft- und Raumfahrt (DLR) entwickelt. Der neue Gewittervorhersagealgorithmus wird in der vorliegenden Dissertation detailliert vorgestellt. Cb-LIKE ist ein automatisiertes System, das unter Verwendung von Modelldaten des COSMO-DE Wettermodells des Deutschen Wetterdienstes (DWD) Gebiete ausweist, die eher für oder gegen eine Entwicklung von Gewittern sprechen. Vier atmosphärische Parameter (CAPE, Vertikalwind, Radarreflektivität und Temperatur an der Wolkenobergrenze) fließen in das System ein. Eine neu entwickelte „Best-Member-Selection“ sorgt dabei durch einen Abgleich zur aktuellen Gewittersituation für die automatische Auswahl des realistischsten Modelllaufes aus einem Ensemble. Dadurch wird die beste Datengrundlage für die Berechnung der Gewittervorhersagen gewährleistet. Für die Auswahl des besten Members stehen vier verschiedene Modi zur Verfügung. Ein neu entwickeltes Fuzzy-Logik System ermöglicht anschließend die Kombination der Modelldaten und die Berechnung eines Gewitterindikators von 11,6¯6 bis 88,3¯3 für jeden Gitterpunkt des Modells für die nächsten sechs Stunden in stündlichen Intervallen. Je höher der Wert des Indikators, desto mehr sprechen die Modellparameter für die Entstehung von Gewittern. Zusätzlich wird die Vorhersagequalität des neuen Algorithmus anhand einer umfassenden Verifikation unter Verwendung einer „neighbourhood-verification“ Technik und von „multi-event contingency tables“ untersucht. Für die Sommerperiode 2012 weist Cb-LIKE im Vergleich zur COSMO-DE Radarreflektivität bessere Werte in den Verifikationsgrößen auf. So ist das „Fehlalarmverhältnis“ für den neuen Algorithmus niedriger (0,48 zu 0,56), die „Wahrscheinlichkeit der Detektion“ (0,52 zu 0,45) und der „Critical Success Index“ (0,50 zu 0,48) fallen dagegen höher aus. Die Resultate zeigen, dass der Cb- LIKE Algorithmus eine sinnvolle neue Methodik für Gewittervorhersagen von hoher Qualität auf der Datenbasis des COSMO-DE Modells darstellt. Die Ergebnisse aus der Verifikation ermöglichen außerdem die Übersetzung des Cb-LIKE Indikatorfeldes in die gewünschten probabilistischen Gewittervorhersagen. Zusätzlich wird die erfolgreiche Implementierung der Cb-LIKE Gewittervorhersagen in das WxFUSION System, eine graphische Benutzeroberfläche, vorgestellt.

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Vergleich von Methoden zur Strukturfindung in der Psychometrie mit Hilfe echter Daten

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jan 22, 2015


Die vorliegende Arbeit beschäftigt sich mit der Evaluation von strukturfindenden Methoden, die die Items psychologischer Fragebogendaten in homogene Gruppen von ähnlichen Items zusammenfassen. Ein wesentlicher Unterschied zwischen Methoden, die zu diesem Zweck verwendet werden, ist, ob sie ein zugrundeliegendes Messmodell annehmen oder ob sie nur eine möglichst brauchbare Gruppierung der Items anstreben. Zum einen gibt es die modellbasierte Faktorenanalyse (FA), die auf dem Faktormodell basiert. Der mathematische Ansatz ist ähnlich der Hauptkomponentenanalyse, oder principal component analysis (PCA). In der FA wird im Unterschied zur PCA noch angenommen, dass die Antworten auf die Items kausal von zugrundeliegenden Faktoren plus einem einzigartigen Residualterm kausal erklärt werden. Und dieser spezifische Residualterm jedes Items wird als völlig unkorreliert zu allen anderen Items angenommen. Ein Verfahren, das keine Modellannahmen trifft, ist die Clusteranalyse (CA). Hier werden lediglich Objekte zusammengefügt, die sich auf einem bestimmten Kriterium ähnlicher sind als andere. So wie man Methoden darin unterscheiden kann, ob sie ein zugrundeliegendes Modell annehmen oder nicht, kann man auch bei der Evaluation von Methoden diese Unterscheidung treffen. Eine Evaluationtechnik, die ein Modell annimmt, ist die Monte Carlo Simulation. Eine Technik, die nicht zwangsweise ein Modell zugrunde legt, ist das Resampling. Es werden Stichproben aus einem echten Datensatz gezogen und das Verhalten der Methode in diesen Stichproben wird untersucht. In der ersten Studie wurde ein solches Resampling-Verfahren angewandt, das wir Real World Simulation nennen. Es soll das bestehende Problem der mangelnden Validität von Monte Carlo Studien zur FA beheben. Es wurde eine Real World Simulation an zwei großen Datensätzen durchgeführt und die Schätzer der Modellparameter aus dem echten Datensatz anschließend für die Monte Carlo Simulation als Modellparameter verwendet. So kann getestet werden, welchen Einfluss die spezifischen Datensatzcharakteristiken sowie kontrollierte Veränderungen von ihnen auf die Funktion der Methoden haben. Die Ergebnisse legen nahe, dass die Resultate von Simulationsstudien immer stark von bestimmten Spezifikationen des Modells und seiner Verletzungen abhängen und daher keine allgemeingültigen Aussagen getroffen werden können. Die Analyse echter Daten ist wichtig, um die Funktion verschiedener Methoden zu verstehen. In der zweiten Studie wurde mit Hilfe dieser neuen Evaluationstechnik ein neues k-means Clusterungsverfahren zur Clusterung von Items getestet. Die zwei Verfahren, die vorgeschlagen wurden, sind: k-means skaliertes Distanzmaß (k-means SDM) und k-means cor. In den Analysen zeigte sich, dass sich die neuen Verfahren besser eignen, Items zu Konstrukten zuzuordnen als die EFA. Lediglich bei der Bestimmung der Anzahl der zugrundeliegenden Konstrukte, waren die EFA-Verfahren genauso gut. Aus diesem Grund wird vorgeschlagen eine Kombination dieser beiden Verfahren zu verwenden. Ein großer Vorteil der neuen Methoden ist, dass sie das Problem der Unbestimmtheit der Faktorwerte in der EFA lösen können, da die Clusterwerte der Personen auf den Clustern eindeutig bestimmt werden können. Am Ende der Arbeit wird auf die unterschiedlichen Evaluierungs- bzw. Validierungstechniken für modellbasierte und nicht-modellbasierte Verfahren eingegangen. Für die Zukunft wird vorgeschlagen, für die Evaluation des neuen k-means CA Verfahrens zur Clusterung von Items, Real World Simulationen sowie Validierungen der Clusterwerte mit Außenkriterien anzuwenden.

Modellansatz
Systembiologie

Modellansatz

Play Episode Listen Later Nov 27, 2014 93:01


Auf den Vorschlag von Henning Krause verbreiteten viele Forschende unter dem Hashtag #1TweetForschung ihr Forschungsthema in Kurzform. So auch Lorenz Adlung, der in der Abteilung Systembiologie der Signaltransduktion am Deutschen Krebsforschungszentrum in Heidelberg die mathematische Modellbildung für biologische Prozesse erforscht. Bei der Anwendung einer Chemotherapie leiden Krebspatienten oft unter Blutarmut. Hier kann neben der Bluttransfusion das Hormon Erythropoetin, kurz EPO, helfen, da es die körpereigene Erzeugung von roten Blutkörperchen (Erythrozyten) unterstützt. Leider ist EPO als Dopingmittel bekannt, und um dem Doping noch deutlicher Einhalt zu gebieten, wurde im November 2014 in Deutschland ein Entwurf eines Anti-Doping-Gesetz vorgelegt. Trotz gängigem Einsatz und erprobter Wirkung von EPO ist die genaue Wirkung von EPO auf Krebszellen nicht bekannt. Daher verfolgt Lorenz Adlung den Ansatz der Systembiologie, um im Zusammenwirken von Modellbildung und Mathematik, Biologie und Simulationen sowohl qualitativ und quantitativ analysieren und bewerten zu können. Vereinfacht sind rote Blutkörperchen kleine Sauerstoff-transportierende Säckchen aus Hämoglobin, die auch die rote Farbe des Bluts verursachen. Sie stammen ursprünglich aus Stammzellen, aus denen sich im Differenzierungs-Prozess Vorläuferzellen bzw. Progenitorzellen bilden, die wiederum durch weitere Spezialisierung zu roten Blutkörperchen werden. Da es nur wenige Stammzellen gibt, aus denen eine unglaubliche große Anzahl von Trillionen von Blutkörperchen werden müssen, gibt es verschiedene Teilungs- bzw. Proliferationsprozesse. Das Ganze ergibt einen sehr komplexen Prozess, dessen Verständnis zu neuen Methoden zur Vermehrung von roten Blutkörperchen führen können. Den durch Differenzierung und Proliferation gekennzeichnete Prozess kann man mathematisch beschreiben. Eine zentrale Ansichtsweise in der Systembiologie der Signaltransduktion ist, Zellen als informationsverarbeitende Objekte zu verstehen, die zum Beispiel auf die Information einer höheren EPO-Konzentration in der Umgebung reagieren. Von diesem Ansatz werden durch Messungen Modelle und Parameter bestimmt, die das Verhalten angemessen beschreiben können. Diese Modelle werden in Einklang mit bekannten Prozessen auf molekularer Ebene gebracht, um mehr über die Abläufe zu lernen. Die erforderlichen quantitativen Messungen basieren sowohl auf manuellem Abzählen unter dem Mikroskop, als auch der Durchflusszytometrie, bei der durch Streuung von Laserlicht an Zellen durch Verwendung von Markern sogar Aussagen über die Zelloberflächen getroffen werden können. Zusätzlich kann mit der Massenspektrometrie auch das Innere von Zellen ausgemessen werden. In diesem Anwendungsfall werden die mathematischen Modelle in der Regel durch gekoppelte gewöhnliche Differenzialgleichungen beschrieben, die Zell- oder Proteinkonzentrationen über die Zeit beschreiben. Die Differenzialgleichungen und deren Parameter werden dabei sowohl mit Messungen kalibriert, als auch mit den Kenntnissen in der Molekularbiologie in Einklang gebracht. Die Anzahl der Parameter ist aber oft zu hoch, um naiv auf geeignete zu den Messungen passende Werte zu gelangen. Daher wird unter anderem das Latin Hypercube Sampling verwendet, um schnell nahe sinnvollen Parameterwerten zu gelangen, die durch gradienten-basierte Optimierungsverfahren verbessert werden können. Die Basis für diese Art von Optimierungsverfahren ist das Newton-Verfahren, mit dem man Nullstellen von Funktionen finden kann. Ein wichtiger Aspekt im Umgang mit Messergebnissen ist die Berücksichtigung von Messfehlern, die auch vom Wert der Messung abhängig verstanden werden muss- denn nahe der Messgenauigkeit oder der Sättigung können die relativen Fehler extrem groß werden. Die Bestimmung der Modellparameter ist schließlich auch ein Parameteridentifikationsproblem, wo insbesondere durch eine Sensitivitätsanalyse auch der Einfluss der geschätzten Parameter bestimmt werden kann. Sowohl die Parameter als auch die Sensitivitäten werden mit den biologischen Prozessen analysiert, ob die Ergebnisse stimmig sind, oder vielleicht auf neue Zusammenhänge gedeuten werden können. Hier ist die Hauptkomponentenanalyse ein wichtiges Werkzeug, um zentrale beeinflussende Faktoren erfassen zu können. Ein wichtiges Ziel der Modellbildung ist die numerische Simulation von Vorgängen, die als digitale Experimente sich zu einem eigenen Bereich der experimentellen Forschung entwickelt haben. Darüber hinaus ermöglicht das digitale Modell auch die optimale Planung von Experimenten, um bestimmte Fragestellungen möglichst gut untersuchen zu können. Die Umsetzung auf dem Computer erfolgt unter anderem mit Matlab, R (The R Project for Statistical Computing) und mit der spezialisierten und freien Software D2D - Data to Dynamics.Literatur und Zusatzinformationen M. Boehm, L. Adlung, M. Schilling, S. Roth, U. Klingmüller, W. Lehmann: Identification of Isoform-Specific Dynamics in Phosphorylation-Dependent STAT5 Dimerization by Quantitative Mass Spectrometry and Mathematical Modeling, Journal of Proteome Research, American Chemical Society, 2014. (PubMed) Studium der Systembiologie D2D-Software L. Adlung, C. Hopp, A. Köthe, N. Schnellbächer, O. Staufer: Tutorium Mathe für Biologen, Springer Spektrum, 2014. Science: NextGen Voices zur globalen wissenschaftlichen Zusammenarbeit- mit Lorenz Adlung Lorenz Adlung auf Twitter L. Adlung, et. al: Synbio meets Poetry, CreateSpace, 2013. Kollaborationspartner: U.a. Thomas Höfer, Heidelberg, Jens Timmer, Freiburg i. B., Fabian Theis, München Resonator-Podcast 015: DKFZ-Forscher Christof von Kalle Resonator-Podcast 014: Das DKFZ in Heidelberg Omega Tau-Podcast 069: Grundlagen der Zellbiologie Omega Tau-Podcast 072: Forschung in der Zellbiologie Konscience-Podcast 024, Kapitel 5: Das Hochlandgen aus "Wie kam das bloß durch die Ethikkommission?"

Betriebswirtschaft - Open Access LMU - Teil 02/02
Modellselektion in Finite Mixture PLS-Modellen

Betriebswirtschaft - Open Access LMU - Teil 02/02

Play Episode Listen Later Mar 1, 2007


Der folgende Beitrag befasst sich mit dem Problem der Modellselektion im Finite Mixture Partial Least Squares (FIMIX-PLS)-Ansatz. Dieser Ansatz, welcher der Methodengruppe der Mischverteilungsmodelle zuzuordnen ist, ermöglicht eine simultane Schätzung der Modellparameter bei gleichzeitiger Ermittlung von Heterogenität in der Datenstruktur. Ein wesentliches Problem bei der Anwendung ist die Bestimmung der Anzahl der zugrunde liegenden Segmente, welche a priori unbekannt ist. Neben diversen statistischen Testverfahren wird zur Handhabung dieser Modellselektionsproblematik häufig auf so genannte Informationskriterien zurückgegriffen. Ziel des vorliegenden Beitrags ist es herauszuarbeiten, welches Informationskriterium für die Modellselektion in FIMIX-PLS besonders geeignet ist. Hierzu wurde eine Simulationsstudie initiiert, welche die Performanz gebräuchlicher Kriterien vor dem Hintergrund diverser Einflussfaktoren untersucht. Im Rahmen der Studie konnte mit dem Consistent Akaike’s Information Criterion (CAIC) ein Kriterium identifiziert werden, das die übrigen Kriterien in nahezu allen Faktorstufenkombinationen dominiert.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05

In der vorliegenden Arbeit wurden die physikalische Eigenschaften aktiver galaktischer Kerne untersucht. Aktive galaktische Kerne (AGN) sind durch ihr breitbandiges Spektrum und schnelle, gewaltige Leuchtkraftvariationen charakterisiert. Beobachtungen und Analyse beider Eigenschaften koennen dazu beitragen, die zentralen Energiequelle besser zu verstehen. Als erster Schritt wurden die Roentgenbeobachtungen der Seyfert-Galaxie PKS 0558-504 betrachtet, um die Variationen des Flusses und des Spektrums zu erforschen. Mit Hilfe des spektralen zwei-Komponenten-Modells findet man, dass die Variabilitaet meistens von der niederenergetischen Komponente hervorgerufen wird, waehrend die andere Komponente relativ stabil bleibt. Die Luminositaet aendert sich staendig waehrend der gesamten Beobachtungszeit, und mit Hilfe des spektralen Modells wurde eine Korrelation zwischen dem Fluss und den physikalischen Parametern (optische Tiefe und/oder Temperatur) der Emissionsregion gefunden. Diese Korrelation weist auf einem Zusammenhang zwischen der Emissionsquelle (die die Luminositaet reguliert) und den physikalischen Bedingungen innerhalb des Streumediums (das das Roentgenspektrum bestimmt) hin. MGC-6-30-15 ist eine andere prominente Seyfert 1 Galaxie, die starke Variabilitaet im Roentgenbereich auf vielen Zeitskalen zeigt. Gleichzeitige Beobachtungen dieses Objekts im Roentgen- und Ultaviolettband wurden dazu benutzt, Korrelation der Variabilitaet zu bestimmen. Es wurde gefunden, dass die UV-Strahlung mit kleineren Amplituden und laengeren Zeitskalen als die Roentgenstrahlung variiert. Die beiden Lichkurven sind stark korreliert, wobei die Roentgen- nach der UV-Strahlung den Beobachter erreicht. Diese Korrelation wird wahrscheinlich bei der Akkretion der Materie dadurch hervorgerufen, dass Fluktuationen in der aeusseren Akkretionsscheibe entstehen und sich dann auf das Zentralenobjekt zubewegen, so dass sie erst die optische und UV-Emission der Scheibe modulieren, und erst spaeter das Roentgenlicht, das sehr nahe dem Zentrum entsteht. Diese und andere Beobachtungen sind ein starker Beweis fuer dieses Modell der propagierenden Fluktuationen, und ein wichtiger Grund fuer die weitere detaillierte Untersuchung dieses Typs von Modellen, die die Emissionsvariabilitaet der AGN erklaeren. Basierend auf der Arbeit Lyubarskiis (1997) wurde ein phaenomenologisches Modell fuer die AGN Variabilitaet entwickelt. In diesem Modell propagieren die Akkretionsratefluktuationen einwaerts durch die Akkretionsscheibe und modulieren die Emission der inneren Regionen. Das in dieser Doktorarbeit verwendete Modell wurde nur fuer die Erklaerung der Roentgenemission benutzt, da die Natur der Zusammenhaenge zwischen der Akkretionsscheibe (optische/UV-Emission) und der Korona (Roentengstrahlung) theoretisch noch nicht gut genug bekannt ist und zusaetzliche freie Parameter braucht. Wir haben das Modell verwendet um numerisch die Lichtkurven auszurechnen, die man dann mit Beobachtungen vergleichen kann. Das Modell reproduziert viele der Eigenschaften der Beobachtungen: lineare Abhaengigkeit der Amplitude vom Fluss, log-normale Verteilung der Fluesse, Potenzgesetz des Leistungsspektrums (PSD) mit einem cut-off bei hohen Frequenzen. Die Korrelationen zwischen verschiedenen spektralen Roentgenbaeandern konnten auch reproduziert werden. Das Modell bestaetigt dass, wenn die harte Strahlung mehr im Zentralbereich der Scheibe konzentriert ist als die weiche, sie auch mehr Leistung bei hohen Fourierfrequenzen zeigt und auch spaeter beim Beobachter ankommt, verglichen mit der weichen Roentgenstrahlung, wie beobachtet. Das Modell kann auch Eigenschaften der Kreuzkorrelationen erklaeren, wie z.B. Kohaerenzen. Weil diese Analysen jedoch eine hoehere Qualitaet der Daten verlangen als fuer AGN normalerweise verfuegbar sind, haben wir das Modell auch auf einen Kandidaten fuer ein galaktisches schwarzes Loch, Cyg X-1, angewandt, von dem man bessere Beobachtungsdaten hat. Das Modell propagierender Akkretionsratefluktuationen kann die Variabilitaetseigenschaften der Roentgenlichtkurven dieser Systeme in einem oder mehreren Energiebaendern gut reproduzieren. Die bessere Qualitaet der Beobachtungsdaten dieser Systeme kann die Modellparameter besser einschraenken und bietet dadurch eine komplementaere Methode fuer die Untersuchung der Akkretionsprozesse.