Podcasts about standardabweichung

  • 21PODCASTS
  • 24EPISODES
  • 49mAVG DURATION
  • ?INFREQUENT EPISODES
  • Feb 9, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about standardabweichung

Latest podcast episodes about standardabweichung

WISSEN SCHAFFT GELD - Aktien und Geldanlage. Wie Märkte und Finanzen wirklich funktionieren.

Einmalanlage oder Sparplan auf Aktienfonds. Was ist die bessere Lösung? Diese Frage wird seit Jahrzehnten diskutiert. Ich denke die Statistik kann uns da sehr hilfreiche Ansätze bieten, um eine gute Entscheidung zu treffen. Generell spricht alles für eine Einmalanlage, die wenigen Ausnahmen müssen individuell betrachtet werden. Viel Spaß beim Hören,Dein Matthias Krapp(Transkript dieser Folge weiter unten)  

man stand toronto team situation investors thema als weg euro geschichte pl erfahrungen gef rolle geld bei erfolg anfang sinn beispiel licht analysts erfahrung augen schritt neues vergangenheit antwort sache entscheidung wahl monaten chancen jeder beste herausforderung wahrheit monat analyse anf strategie personen markt konzept erkenntnisse reihe sinne emotionen zum erkl wochenende ganze zeitpunkt kollegen kosten daten beitrag ergebnisse zahlen ergebnis tisch ans zur nachteile regel methode richtige beispiele bewusstsein prozent einstieg rollen risiko mittel erkenntnis millionen faktoren zahl entt jahrzehnten funktion beratung diese frage studien eigenschaften vorteil verm hei aussage berater debatte glaubenss unabh zum beispiel effekt morningstar slang aspekt anzahl zusammenfassung leitung dunkel kurse portfolios steuer zeitraum rechts einkommen investitionen statistik betrachtung aktien statistiken einzelnen wahrscheinlichkeit unsicherheiten kapital bedenken szenarien investition summe reihenfolge ruhestand durchschnitt denke ausnahmen anlage anteile anlagen gelder aufw irr thema geld rendite sorgt geldanlage munition anleger generell angesicht summen raten promesse schwankungen endeffekt aktienmarkt mandanten renditen konzepts beratern geldanlagen volatilit risikobereitschaft zeitr aktienm anlegern bestandskunden bedauern sparpl perioden sparplan kapitalm im endeffekt risikos aktienfonds einlage excel tabellen deput unter ber zeithorizont datenpunkte prozent zinsen patentl standardabweichung einmalanlage
Chreis6
#75 Benefit Autobahnausfahrt

Chreis6

Play Episode Listen Later Nov 13, 2022 62:45


Diese zu drei viertel hundertste Folge, Standardabweichung 1 und Varianz 0.7, ist nicht nur deshalb speziell, da sie wieder einmal am Morgen aufgenommen wurde, viel wichtiger ist anzumerken, dass Fabio diese Zeilen schreibt. Kann es sein, dass unser Student Thomas seine Pflichten vernachlässigt? Deshalb müsst ihr nun Vorlieb nehmen mit den verschachtelten Sätzen von Fabio. Wie auch immer, die Folge ist einmal mehr bespickt mit einer überaus motivierten Sandra (Sie bezeichnet sich als keinen Morgenmensch) und geht das wichtige Thema Benefits am Arbeitsplatz an. Während Sandra sich von remote Work und höhenverstellbaren Pulten begeistern lässt, kann man Thomas mit gratis fancy Essen zeukeln. Auch sonst gibts wieder Insights in die Tiefen von Fabio, was wäre denn sein aktueller Traumberuf. Und ach ja, ein Dilemma gabs auch noch. Natürlich!

Nussschale
Die Standardabweichung

Nussschale

Play Episode Listen Later Oct 21, 2021 9:15


Habt ihr euch schon mal gefragt, was ein Sigma ist? Das und vieles mehr erfahrt ihr in dieser Nussschale!

habt sigma nussschale standardabweichung
TobiTalk - Aktien & Investieren
Aktien Korrelation berechnen mit Excel (+ Rendite & Standardabweichung)

TobiTalk - Aktien & Investieren

Play Episode Listen Later Jul 6, 2021 17:02


Kontakt: tobibecker1@hotmail.com TobiTalk ist inspiriert durch Dirk Kreuter, Christian Bischoff, Timothy Ferris, Sparkojote, Finanzfluss, Aktien mit Kopf

MQL5 Tutorial - Automatisch traden mit Metatrader5
MQL5 TUTORIAL GRUNDLAGEN – 92 SIMPLER DEVIATION CHANNEL

MQL5 Tutorial - Automatisch traden mit Metatrader5

Play Episode Listen Later Jan 9, 2021 8:56


  In diesem Video wollen wir uns einmal anschauen, wie man ein solches Objekt hier zeichnen kann. Es handelt sich um einen sogenannten Diviation Channel. Der zeigt uns hier grade die Trendrichtung an. Und wir wollen uns einmal anschauen, wie man so etwas in MQL5 programmieren kann. Um das zu tun, klicken Sie bitte auf dieses kleine Symbol hier oben oder drücken Sie die F4 Taste. Das ruft dann hier den Metaeditor auf. Und hier klicken wir auf Datei, Neue Datei, Expert Advisor aus Vorlage, Weiter. Ich vergebe hier mal den Namen SimplesDevChannelObjekt, klicke auf Weiter, Weiter und Fertigstellen. Jetzt kann alles oberhalb dieser OnTick Funktion hier gelöscht werden. Und auch die zwei Kommentarzeilen werden entfernt. Wir starten damit, dass wir die Anzahl der Kerzen auf dem Chart berechnen. Das geht mit der Funktion ChartGetInteger für die Chart-ID null. Und wir möchten gerne diese Eigenschaft hier ermitteln. Die nennt sich CHART_FIRST_VISIBLE_BAR. Der letzte Parameter steht für das Fenster, das ist Fenster null. Damit wird das Fenster bezeichnet, in dem sich die Kerzen befinden. Jetzt erstellen wir uns mal eine Variable für die niedrigste Kerze. Außerdem benötige ich noch ein Array für die niedrigsten Kerzenpreise. Das Ganze wiederholen wir nochmal, denn wir möchten auch die höchsten Kerzenpreise ermitteln. Mit ArraySetAsSeries werden jetzt beide Arrays von der aktuellen an abwärts sortiert. Und mit CopyLow können wir jetzt für das aktuelle Währungspaar auf dem Chart und die auf dem Chart ausgewählte Zeiteinheit, von der aktuellen Kerze null für alle Kerzen auf dem Chart, die niedrigsten Preise ermitteln. Die werden dann in unserem Array Low gespeichert. Das Gegenstück dazu heißt CopyHigh. Auch hier für das aktuelle Währungspaar auf dem Chart und die auf dem Chart ausgewählte Zeiteinheit, von der aktuellen Kerze null für alle Kerzen auf dem Chart werden die höchsten Preise ermittelt und in unserem Array mit dem Namen High gespeichert. Jetzt können wir die niedrigste Kerze auf dem Chart berechnen. Das übernimmt die Funktion ArrayMinimum. Die schaut in unserem Array mit dem Namen Low von der aktuellen Kerze null für alle Kerzen auf dem Chart nach dem minimalen Wert und speichert ihn in dieser Variable. Das gibt es natürlich dann auch noch für die höchste Kerze. Da heißt die Funktion ArrayMaximum. Die schaut in dem High Array, auch von der aktuellen Kerze null für alle Kerzen auf dem Chart nach dem höchsten Wert und speichert ihn in dieser Variable. Zusätzlich nutzen wir jetzt noch MqlRates. MqlRates speichert nämlich neben den Preisinformationen auch die Zeitinformationen. Auch dieses Array wird mit ArraySetAsSeries von der aktuellen Kerze an abwärts sortiert. Im Anschluss nutzen wir CopyRates für das aktuelle Währungspaar auf dem Chart und die aktuell ausgewählte Zeiteinheit, um von der aktuellen Kerze für alle Kerzen auf dem Chart die Preisinformationen in unserem Array zu speichern. Jetzt haben wir die grundlegenden Daten, die wir zum Zeichnen unseres Kanal Objektes benötigen. Bevor wir das aber tun, nutzen wir hier ObjectDelete, um für das aktuelle Währungspaar alle alten Objekte zu löschen, die diesen Namen hier haben. Beim allerersten Aufruf dieser Funktion gibt es noch kein Objekt. Aber danach soll immer der alte Kanal gelöscht werden, bevor ein neuer gezeichnet wird. Das machen wir mit Hilfe der Funktion ObjectCreate. Die braucht einige Informationen. Der erste Parameter steht für die Chart-ID. Das wird hier mit null angegeben. Also ändern wir das mal entsprechend. Parameter Nummer zwei steht für den Objektnamen. Ich habe dieses Objekt SimpleChannelObject genannt. Im dritten Parameter wird der Typ des Objektes angegeben. Wenn wir das mal markieren und die F1 Taste drücken, dann sehen wir, dass es unterschiedliche Objekttypen gibt, die unterschiedliche Parameter benötigen. In unserem Fall ist es ein Diviation Channel, also ein Kanal für die Abweichung, hier übersetzt mit Kanal der Standardabweichung.

Lambert-Podcast
CFA Level 1, Quantitative Methods, Skalierungen

Lambert-Podcast

Play Episode Listen Later Sep 21, 2020 3:53


In dieser Episode geht es um die Bedeutung von Skalierungen. Also um die Nominalskala, Ordinal-, Intervall- und Verhältnisskala. Was sind ihre Voraussetzungen, ihre Unterschiede und Gemeinsamkeiten? Wozu braucht man sie, insb. bei der Berechnungen von Lagemaßen (Modus, Median, arithmetisches Mittel), Streuungsmaßen (Spannweite, Standardabweichung) und Zusammenhangsmaßen (Chi-Quadrat-Koeffizient, Rangkorrelationskoeffizient von Spearman und der Bravais-Pearsonsche Korrelationskoeffizient)? Mehr zu unserem Angebot für CFA candidates auf deutsch unter www.daniel-lambert.de. Viel Spaß beim Lernen.  

Modellansatz
Monte-Carlo Simulationen

Modellansatz

Play Episode Listen Later May 2, 2019 28:59


Gudrun spricht mit Alina Sage, die gerade eine Masterarbeit am Deutschen Krebsforschungszentrum in Heidelberg (DKFZ) abgeschlossen hat. Mit Mark Bangert, dem Leiter der Arbeitsgruppe dort hatte Gudrun vo einigen Monaten über die Physik der Strahlentherapie gesprochen. Auch mit Alina gibt es schon eine Folge im Modellansatz, denn sie hat über ihre Erfahrungen als Studienbotschafterin berichtet. In der Masterarbeit von Alina geht es darum, die Unsicherheiten beim Bestrahlungsvorgang besser zu modellieren. In der Fachsprache heißt das noch recht junge Forschungsgebiet Uncertainty Quantification. Es gibt natürlich unterschiedliche Ursachen, die zu einer nicht punktgenauen Umsetzung des Bestrahlungsplanes für Patienten führen. Alina wählte daraus zwei, die ihr besonders wichtig erschienen: dass der Strahl nicht aus einer Punktquelle kommt, sondern die Quelle um ein Zentrum herum streut dass der Patient nicht ganz exakt an dem Ort liegt, wie er in der Simulation angenommen wird, sondern etwas verschoben dazu. Beide Prozesse lassen sich recht gut mit einer Normalverteilung beschreiben. Eine Normalverteilung wird durch eine glockenförmige Kurve dargestellt. Das Maximum ist der Wert, der als der wahrscheinlichste angenommen wird. Er heißt Erwartungswert. Wie stark die Prozesse von diesem Wert abweichen, ist in der Glockenkurve dadurch ausgedrückt, ob die Kurve steil zu diesem Maximum hin anssteigt und anschließend wieder fällt (dann weicht sie wenig ab) oder eher breit aussieht. Das wird im Parameter Varianz (oder Standardabweichung) ausgedrückt. Um mit Hilfe von Simulationen die Unsicherheit zu beziffern, verwendet Alina das Instrument der Monte-Carlo-Simulation. Sie benutzt die Open source software TOPAS. Insbesondere heißt Monte-Carlo-Simulation, dass sie eine riesige Anzahl von möglichen Pfaden der Strahlungspartikel simulieren lässt, um dann aus Tausenden von solchen Verläufen eine Näherung für den Erwartungswert der im Gewebe deponierten Bestrahlungsdosis zu errechnen. Die Partikel folgen dabei jeweils einem Random Walk. Im Prinzip muss man diese Simulationen für beide Prozesse machen, die mit ihrer Unsicherheit betrachtet werden. Hier kommt Alina jedoch eine Eigenschaft der Normalverteilung zu Gute: wenn zwei normal verteilte Prozesse unabhängig voneinander einwirken, lässt sich die Summe ihrer Wirkungen in einem einzigen normal verteilten Prozess ausdrücken. D.h. hier, dass Alina für diesen Prozess nur einmal die Monte-Carlo-Simulation durchführen muss. Das spart extrem viel Rechenleistung ein. Im Prozess der unabsichtlichen Verschiebung des Patienten um kleine Längen ist es insbesondere von Belang, wenn z.B. in der Nähe der Lunge bestrahlt wird. Fast alle Organe und Gewebe im Körper haben eine Dichte, die der von Wasser entspricht. Damit kann man den Weg der Partikel in Wechselwirkung mit dem Körper recht einfach modellieren. Wenn jedoch die Luft gefüllte Lunge auf dem Partikelweg ist, wird viel weniger Energie deponiert und das Partikel landet an einem Ort, der viel weiter von der Strahlungsquelle entfernt ist als für normales Gewebe. In diesem Fall kann man in der Bestrahlung z.B. den Hinweis geben, besonders auf Verschiebungsvermeidung in bestimmt gefährdete Richtungen zu achten. Literatur und weiterführende Informationen H. Paganetti: Range uncertainties in proton therapy and the role of Monte Carlo simulation. Phys. Med. Biol. 7.06.2012 57(11). A.E. Feiguin: Monte Carlos error analysis online lecture course B. Bednarz, M. Engelsman, and H. Paganetti: Uncertainties and correction methods when modeling passive scattering proton therapy treatment heads with Monte Carlo. Phys Med Biol. 2011;56:2837–2854. Podcasts M. Bangert, G. Thäter: Bestrahlungstherapie, Gespräch im Modellansatz Podcast, Folge 201, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.

LMU Statistik I für Studierende der Wirtschaftswissenschaften
Statistik I - WiSe 2012 Vorlesung 3: Kapitel 4 Streuungsmaße & Kapitel 5 Konzentrationsmaße

LMU Statistik I für Studierende der Wirtschaftswissenschaften

Play Episode Listen Later Apr 20, 2019 56:22


Der Podcast "Einführung in die deskriptive Statistik" richtet sich an Studierende der Wirtschaftswissenschaften in den ersten Semestern.In der dritten Vorlesung des Wintersemesters 2011/12 behandelt Dr. Heumann folgende Themengebiete: Streungsmaße,Quantilsabstand,Varianz,Standardabweichung;Konzentrationsmaße,Lorenzkurve und Gini-Koeffizient

LMU Statistik I für Studierende der Wirtschaftswissenschaften
Statistik I - Folge 4: Streuungsmaße (Wdh.); Konzentrationsmaße;

LMU Statistik I für Studierende der Wirtschaftswissenschaften

Play Episode Listen Later Apr 20, 2019 72:28


In Folge 4 wiederholt Dr. Heumann das Thema Varianz des 4. Kapitels der letzten Vorlesung und behandelt Themen aus dem 5. Kapitel. Wdh.: Kapitel 4 - Streuungsmaße: Varianz: Berechnung Varianz aus gruppierten Daten; Standardabweichung; Variationskoeffizient; Kapitel 5 - Konzentrationsmaße: Lorenzkurve; Gini-Koeffizient;

Modellansatz
Metallschaum

Modellansatz

Play Episode Listen Later Nov 13, 2014 99:52


In den Materialwissenschaften ist man immer auf der Suche nach neuen Werkstoffen und Materialien. Sehr vielversprechend sind dabei Metallschäume, dessen Wärmeleitungseigenschaften Anastasia August am Institut für angewandte Materialien erforscht und über die sie uns im Gespräch mit Sebastian Ritterbusch erzählt.Zu den besonderen Eigenschaften von Metallschäumen gehören unter anderem die große Oberfläche bzw. Grenzfläche im Verhältnis zum Volumen wie bei Lungenbläschen und die hohe Wärmeleitungsfähigkeit im Verhältnis zum Gewicht. Gleichzeitig können Metallschäume mit Luft oder anderen Materialien wie Paraffin gefüllt werden, um besondere Eigenschaften zu erhalten. Neben Bierschaum ist auch der Badeschaum eine Möglichkeit Schäume mit ihrem außergewöhnlichem Verhalten kennenzulernen. Das geschäumte Materialgemisch erhält dabei aber typischerweise nicht durchschnittliche Materialeigenschaften, sondern es können Eigenschaften der einzelnen Materialien teilweise kombiniert werden; z.B. erhält ein Metall-Paraffinschaum eine recht hohe Wärmeleitfähigkeit vom Metall gepaart mit einer hohen Wärmekapazität und vor Allem mit einem günstigen Schmelzpunkt (45-80°C) vom Paraffin und ist damit ein sehr effizienter Latentwärmespeicher.In der Natur finden sich Schaumstrukturen zum Beispiel in Knochen, die bei hoher Stabilität ein deutlich geringeres Gewicht als ein massives Material haben. Aber auch für Knochenimplantate sind Metallschäume aus Titan durch die hohe Stabilität bei geringem Gewicht und guter Verträglichkeit sehr interessant.Problematisch ist für den Einsatz von Metallschäumen, dass noch viele quantitative Messgrößen fehlen, die Herstellung noch recht teuer ist, und insbesondere nur in kleinen Größen produziert werden kann. Als Unterscheidungsmerkmal hat sich neben der Unterscheidung in offen oder geschlossen porigen Schaum die ppi-Zahl als Maß für die Porendichte etabliert, dabei zählt man die Poren pro Inch (Zoll, entspricht 2,54 cm). Dazu erfasst man auch die mittlere Porengröße (Durchmesser), ihre Standardabweichung, die Porosität, die mittlere Stegdicke und deren Form. Weiterhin können sich Größen in verschiedenen Richtungen im Material unterscheiden, und dadurch merklich deren Eigenschaften verändern.Für die Herstellung von Metallschäumen gibt es unterschiedliche Verfahren: Zwei typische Vertreter sind das Pressen mit dem anschließenden Schmelzen von gemischtem Metall- und Metallhybridpulvern für geschlossen porige feste Schäume oder Gießverfahren, wo der Metallschaum für offen porige Materialien durch keramische Negativabbildungen von Polyurethan-Schäumen nachempfunden wird.Schon früh waren Schäume als möglichst dichte Packungen ein Forschungsfeld in der Mathematik. Im Jahr 1994 haben Weaire-Phelan eine noch optimalere regelmäßige Schaumstruktur veröffentlicht, die in der Architektur des zu den olympischen Sommerspielen 2008 in Peking errichteten Nationalen Schwimmzentrums verewigt wurde. Das ebenfalls zu den Sommerspielen errichtete Vogelnest hat im Gegenteil eine zufälligere Struktur. Lange hatte man keine verlässlichen Aussagen über die Wärmeleitfähigkeit von Metallschäumen. Bei einer Leitfähigkeit von etwa 200 W/(mK) von Aluminium erreicht ein Metallschaum Leitfähigkeiten zwischen 5-13 W/(mK) während man bei Luft von einer Leitfähigkeit von etwa 0.025 W/(mK) ausgehen kann. Außerdem haben Metallschäume einen hohen Oberflächenanteil, dies bezeichnet die vorhandene Oberfläche im Verhältnis zum Volumen. Während ein voller Metallwürfel ein Verhältnis von etwa hat, kann ein Schaum ein Verhältnis von bis zu erreichen.Eine interessante Fragestellung ist auch, ab welcher Porengröße die natürliche Konvektion in mit Luft gefüllten Metallschäumen eine Rolle gegenüber der Wärmeleitung spielt. Die relevante Größe ist hier die Rayleigh-Zahl, die für Metallschäume typischer Porengrößen ergibt, dass die natürliche Konvektion zu vernachlässigen ist.Für die Simulation wird der komplette Raum des Metallschaums diskretisiert, und es gibt eine Funktion, die als Indikatorfunktion anzeigt, ob an diesem Punkt Metall oder Luft vorliegt. Hier können sowohl aus an der Hochschule Pforzheim durchgeführten Schnitten rekonstruierte Schaumstrukturen abgebildet werden, aber auch künstlich mit Algorithmen erzeugte Schäume für die Simulation abgebildet werden. Bei der künstlichen Erzeugung von Schäumen ist die Voronoi-Zerlegung ein wichtiger Algorithmus zur Bestimmung der Poren.Den eigentlichen Wärmetransport im Metallschaum wird durch die Wärmeleitungsgleichung modelliert. Sie leitet sich aus dem Energieerhaltungssatz und dem Fourierschen Satz ab. Dieses Modell stimmt aber in dieser Form nur für homogene Materialien mit konstantem Koeffizienten . Daher müssen die Sprünge in Materialeigenschaften (etwas im Übergang Luft-Metall) zusätzlich berücksichtigt werden. Dies kann über die Phasenfeldmethode realisiert werden, wo eine künstliche, diffuse Übergangsschicht zwischen den Materialien eingeführt wird. Dies ist im Prinzip eine Art von Mollifikation, wo ein Sprung durch eine glatte monotone Funktion angenähert wird. Wenn dies zusätzlich mit der Berücksichtung der anisotropen Eigenschaften der Übergangsschicht ergänzt wird, erhält man eine Basis für die in PACE 3D implementierte Simulationsmethode, die mit verschiedenen analytischen Ergebnissen und kommerziellen Softwareprodukten erfolgreich validiert werden konnte.Die Phasenfeldmethode und die Software Pace3D stammt ursprünglich aus der Simulation von Erstarrungs- und Schmelzvorgängen auf der Mikrometerskala. Metalle erstarren in Form von sogenannten Dendriten. Das sind Kristalle, die eine gewisse Ähnlichkeit mit Schneeflocken aufweisen.Eine interessante Anwendung von Metallschäumen bietet das mutige Silent Power PC Projekt, in dem ein Metallschaum den einen Rechner effizient kühlen soll. Aus den bisherigen Erkenntnissen der Arbeitsgruppe ist anzunehmen, dass ein Großteil der Kühlleistung in einem solchen System auf der Wärmeleitung liegt - für einen Einfluss der natürlichen Konvektion scheint die Porengröße zu klein zu sein.Die Faszination für Wissenschaft inspiriert Anastasia August nicht nur in der Forschung, sondern sie demonstriert sie auch auf Science Slams und im FameLab. Sie hielt dort Vorträge über ihr Forschungsgebiet und auch über das sehr unterschätzte Thema der Stetigkeit und die Anwendung auf Temperaturen auf der Erdkugel. Mit dem Vortrag auf dem Science Slam Vorentscheid in Esslingen zu Metallschäumen hat sie sich für die Meisterschaft am 6. Dezember qualifiziert.Literatur und Zusatzinformationen A. August, B. Nestler, F. Wendler, M. Selzer, A. Kneer, E. Martens: Efficiency Study of Metal Foams for Heat Storage and Heat Exchange, CELLMAT 2010 Dresden Conference Proceedings, 148-151, 2010, Fraunhofer IFAM Dresden, 2010. A. August, B. Nestler, A. Kneer, F. Wendler, M. Rölle, M. Selzer: Offenporige metallische Schäume, Werkstoffe in der Fertigung, Ausgabe 6/ November 2011, S. 45-46, 2011. M. Rölle, A. August, M. Selzer, B. Nestler: Generierung offenporiger metallischer Schaumstrukturen zur Simulation der Wärmeübertragungseigenschaften, Forschung aktuell 2011, 21-23 Hochschule Karlsruhe Technik und Wirtschaft, S. 21-23, 2011. A. Vondrous, B. Nestler, A. August, E. Wesner, A. Choudhury, J. Hötzer: Metallic foam structures, dendrites and implementation optimizations for phase-field modelling, High Performance Computing in Science and Engineering, Transactions of the High Performance Computing Center, Stuttgart (HLRS), Pages 595-605, 2011. E. Wesner, A. August, B. Nestler: Metallische Schneeflocken, horizonte, Nr. 43, März 2014. J. Ettrich, A. Choudhury, O. Tschukin, E. Schoof, A. August, B. Nestler: Modelling of Transient Heat Conduction with Diffuse Interface Methods, Modelling and Simulation in Materials Science and Engineering, 2014. J. Ettrich, A. August, B. Nestler: Open Cell Metal Foams: Measurement and Numerical Modelling of Fluid Flow and Heat Transfer, CELLMAT 2014 Dresden Conference Proceedings, 2014. J. Ettrich, A. August, M. Rölle, B. Nestler: Digital Representation of Complex Cellular Sructures for Numerical Simulations, CELLMAT 2014 Dresden Conference Proceedings, 2014. Forschungsgruppen am KIT-ZBS Institute of Materials and Processes an der Hochschule Karlsruhe - Technik und Wirtschaft Das Institut für Werkstoffe und Werkstofftechnologien (IWWT) an der Hochschule Pforzheim

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19
Vergleich von intravitrealem Dexamethason-Implantat mit intravitrealem Ranibizumab zur Behandlung des Makulaödems bei retinalen venösen Gefäßverschlüssen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19

Play Episode Listen Later Oct 23, 2014


Retinale venöse Gefäßverschlüsse (RVV) sind eine der Hauptursachen für einen Visusverlust in den westlichen Industriestaaten. Venenastverschlüsse (VAV) treten häufiger als Zentralvenenverschlüsse (ZVV) auf. Bei beiden Typen ist das Makulaödem der entscheidende Parameter für die funktionelle Einbuße. Zusätzliche Ischämien und Neovaskularisationen, gerade bei ZVV, führen am gesamten Auge zu teils schwerwiegenden Komplikationen, deren es, neben der Makulaödem-behandlung, vorzubeugen gilt. Mittlerweile sind Lucentis® als Anti-VEGF-Inhibitor sowie Ozurdex® als Steroid-Implantat (Dexamethason) zur Behandlung des Makulaödems bei venösen Gefäßverschlüssen zugelassen und stellen in der Therapie von RVV neben der konventionellen Laserbehandlung eine wesentliche Hauptsäule dar. Die vorliegende Arbeit untersucht den Vergleich der intravitrealen Therapie mit Dexamethason-Implantat (Ozurdex®, Gruppe 1) und Anti-VEGF-Injektion (Lucentis®, Gruppe 2) zur Behandlung des Makulaödems bei retinalen venösen Gefäßverschlüssen in einer retrospektiven, nicht randomisierten Fallserie. Gruppe 1 enthielt 60 Patienten (31 mit ZVV und 29 mit VAV) und Gruppe 2 inkludierte 52 Patienten (27 mit ZVV und 25 mit VAV). Im Falle eines Rezidivs wurden beide Gruppen jeweils weiter behandelt. Präoperativ und monatlich wurden die bestkorrigierte Sehschärfe (BKSS) und der intraokulare Druck (IOD) bestimmt, die zentrale Netzhautdicke mittels Spectralis-OCT erhoben, sowie eine Biomikroskopie und Fundusfotodokumentation durchgeführt. Primärer klinischer Endpunkt war die Visusentwicklung 12 Monate nach der ersten intravitrealen Therapie, sekundäre Endpunkte waren die zentrale Netzhautdicke und die Sicherheit der Therapie. Nach 12 Monaten wurde in der Gruppe 1 bei den ZVV-Patienten ein Anstieg der BKSS (± eine Standardabweichung) von 8,4 (± 1,9) Buchstaben, bei den VAV- Patienten ein Gewinn von 10,7 (± 3,8) Buchstaben beobachtet. In Gruppe 2 zeigten die ZVV-Patienten eine Zunahme der BKSS von 6,9 (± 1,9) Buchstaben nach 12 Monaten im Vergleich zu 12,5 (± 3,7) Buchstaben bei den VAV-Patienten. In beiden Gruppen konnte eine signifikante Reduktion der zentralen Netzhautdicke erreicht werden. Der IOD zeigte in knapp der Hälfte aller Fälle in Gruppe 1 einen Anstieg über 5 mmHg, konnte aber durch konservative antiglaukomatöse Therapie in den Fällen mit einem IOD über 21 mmHg (obere Normgrenze) in der Behandlungsphase gut reguliert werden. Allerdings zeigte sich bereits nach zweimaliger Ozurdex®-Injektion (Gruppe 1) in ca. 50% der Fälle eine Progression einer Linsentrübung. Eine Behandlung mit Ozurdex® führt bei den ZVV im Vergleich zu Lucentis® zu einem besseren Sehschärfenanstieg nach 12 Monaten, allerdings nicht signifikant. Bei den VAV ist der Sehschärfengewinn bei beiden Behandlungsformen ähnlich. Unabhängig von den Ergebnissen muss für Ozurdex® der Linsenstatus und das Alter des Patienten berücksichtigt werden.

Psychotalk
PSYT010 PsychoKaraoke

Psychotalk

Play Episode Listen Later Apr 17, 2013 161:56


Fast wäre unsere Folge zu Musik eine Folge ohne Musik geworden, aber dann hat Sebastian doch noch gesungen, und Sven hat ausgeholfen. Aber alles der Reihe nach. Bei unserem psychologischen Einstiegsthema geht es diesmal um Diagnostik: Wie werden ordentliche Fragebögen und psychologische Tests entwickelt? Was sagen Intelligenztests eigentlich aus? Und wie gut macht sich ein Azubi-Test bei der Vorhersage des Berufserfolgs? Und weiß Alexander, wie viel Prozent einer Normalverteilung eine Standardabweichung um den Mittelwert herum liegen? In den folgenden zwei Stunden widmen wir uns der Frage, wie Musik beim Menschen wohl entstanden ist, und welche soziale Funktion sie erfüllt. Warum nicht jede harte Musik mit Aggressionsabbau verbunden ist. Wo Musik helfen kann, und wann Musik nervig und ablenkend wird. Zu unserem Hauptthema Musik haben wir diskussionskräftige Unterstützung von Dr. Daniela Rudloff *. Daniela hat sich erst vor einigen Jahren entschieden, noch einmal Klavierspielen zu lernen, und beschäftigt sich seitdem privat und beruflich mit Musik und Musikpsychologie. Wir erfahren, welche Musikerfahrungen und -vorlieben jeder einzelne unserer Psychologen so hat, und wer von ihnen lange Zeit als Alleinunterhalter durch Weltstädte wir Bad Salzuflen zog. Dass Bobby McFerrin mehr kann als "Dont't Worry Be Happy". Was Ohrwürmer und Mainstream ausmacht. Wie toll TV-Titelmusiken sind und dass Aufnahmetechnik unsere Musikwahrnehmung ruiniert hat. Und dass Musik Kinder weder intelligenter werden lässt (Mozarteffekt) noch Menschen in den Selbstmord treibt (Werthereffekt). Die Musik-Einspieler beim Live-Stream haben leider nicht gleich funktioniert. Stattdessen hat Sebastian zwischendurch gesungen, und Sven hat die Werbeeinblendungen gefahren. Davon bekommt der geneigte Podcast-Hörer im Zusammenschnitt aber nicht viel mit. [*] Zur Klarstellung: Daniela und Sven waren bereits vor der Sendung geschiedene Leute.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Remote sensing of the diurnal cycle of optically thin cirrus clouds

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later Nov 19, 2012


Eiswolken und insbesondere hohe Zirruswolken bedecken im globalen jährlichen Mittel bis zu 30 % der Erde und haben deshalb einen signifikanten Einfluß auf das Klima. Eine Besonderheit hoher Eiswolken ist, dass sie einen wärmenden Effekt auf das System Erde und Atmosphäre besitzen können. Dieser wärmende Effekt wird u. a. durch tägliche und saisonale Variationen der optischen Eigenschaften beeinflußt. Um genaue Messungen der optischen Eigenschaften von Aerosolen und Zirruswolken zu erhalten, wurde 2006 die "Cloud-Aerosol Lidar and Infrared Pathfinder Satellite Observations" (CALIPSO) Mission in einen polaren Orbit gestartet. Mit Hilfe des Hauptinstrumentes, des "Cloud- Aerosol Lidar with Orthogonal Polarization" (CALIOP), können nun optische Eigenschaften von Aerosol- und dünnen Wolkenschichten mit bisher unerreichter Genauigkeit und Sensitivität bestimmt werden. Allerdings erlaubt dieser Orbit mit einer Wiederkehrdauer von mehr als zwei Wochen keine Ableitung von Tagesgängen der optischen Eigenschaften und des Bedeckungsgrades von Zirruswolken, weshalb in dieser Arbeit der Wolkensensor "Spinning Enhanced Visible and Infrared Imager" (SEVIRI) auf dem geostationären "METEOSAT Second Generation" (MSG) Satelliten benutzt wird. SEVIRI deckt mit seinen Messungen fast ein Drittel der Erde ab und reicht von 80 N bis 80 S und von 80 W bis 80 E bei einer räumlichen Auflösung von bis zu 3 km x 3 km im Nadir und einer zeitlichen Auflösung von 15 Minuten. Im Rahmen dieser Arbeit wurde ein gänzlich neuer Ansatz verfolgt, um die Vorteile beider Instrumente (die hohe Sensitivität und Genauigkeit von CALIOP und die hohe zeitliche und räumliche Auflösung von SEVIRI) miteinander zu verbinden: Der "Cirrus Optical properties derived from CALIOP and SEVIRI during day and night" (COCS) Algorithmus basiert auf dem Prinzip künstlicher Neuronaler Netze und leitet die optischen Dicken von Zirruswolken und deren Oberkantenhöhen aus Messungen der Infrarotkanäle des Instrumentes SEVIRI ab, was Beobachtungen sowohl in der Nacht als auch am Tage ermöglicht. Dieses Neuronale Netz wurde mit gleichzeitigen Messungen der optischen Dicken und Höhen der Wolkenoberkante von CALIOP trainiert. In dieser Arbeit wird die Entwicklung von COCS und die Validierung mit zwei unterschiedlichen Lidar-Messungen beschrieben, mit denen von CALIOP und mit denen des flugzeuggetragenen "High Spectral Resolution Lidar" (HSRL). Die Validierungen zeigen die hohe Genauigkeit des hier entwickelten Algorithmus in der Ableitung der optischen Dicken und Höhen der Wolkenoberkante von Zirruswolken. Zusätzlich wurden auch Vergleiche der COCS-Ergebnisse mit zwei weiteren auf SEVIRI basierenden Algorithmen durchgeführt: Zum einen mit dem "METEOSAT Cirrus Detection Algorithm 2" (MECiDA-2), welcher ebenfalls die thermischen Infrarotkanäle benutzt, zum anderen mit dem "Algorithm for the Physical Investigation of Clouds with SEVIRI" (APICS), welcher zur Ableitung der optischen Eigenschaften von Wolken sowohl auf den Infrarotkanälen als auch auf Kanälen im sichtbaren Spektralbereich basiert. Die Validierung zeigt hervorragende Ergebnisse für die Erkennung von Zirruswolken mit einer Fehldetektionsrate von unter 5 % und einer Detektionseffizienz von bis zu 99 % ab einer optischen Dicke von 0.1. Ebenfalls wird eine Standardabweichung von 0.25 für die optische Dicke und 0.75 km für die Höhe der Wolkenoberkante nachgewiesen. Basierend auf fünf Jahren prozessierter COCS-Daten werden die Tagesgänge von Zirruswolken in verschiedenen Regionen der Erde analysiert und diskutiert. Die Ergebnisse zeigen ausgeprägte Tagesgänge des Zirrusbedeckungsgrades und der optischen Dicke, welche sich von den Vorhersagen des "European Centre for Medium-range Weather Forecasts" (ECMWF) unterscheiden. Eine Betrachtung des Bedeckungsgrades hoher Wolken, vorhergesagt durch das ECMWF, und der Ergebnisse des COCS Algorithmus zeigt gut übereinstimmende Tagesgänge in konvektiven Regionen, während Unterschiede in nichtkonvektiven Regionen über dem Nord- (NAR) und Südatlantik (SAR) sichtbar werden. Generell wird vor allem in diesen Regionen ein höherer Bedeckungsgrad mit Unterschieden von 3-10 % durch COCS errechnet. Abschließend werden die Unterschiede der NAR und SAR diskutiert, da im Nordatlantik einer der meist frequentierten ozeanischen Flugkorridore liegt. Hier mischen sich die heißen Flugzeugabgase mit kalten Luftmassen und führen zur Bildung von Kondensstreifen. Diese Kondensstreifen verlieren mit der Zeit ihre lineare Form und können anschließend nicht mehr von natürlich entstandenen Zirruswolken unterschieden werden. Grundsätzlich zeigt sich hier eine starke Korrelation des Tagesganges von Bedeckungsgrad und optischer Dicke der Zirruswolken mit der Luftverkehrsdichte. Es werden Unterschiede von bis zu 3 % im Bedeckungsgrad zwischen NAR und SAR detektiert.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 12/19
Studie zur Erstellung und Evaluierung eines Tierversuch sparenden, videobasierten chirurgischen Lehrprogramms für mikrochirurgische Gefäßnahttechniken

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 12/19

Play Episode Listen Later Oct 7, 2010


Ziel der Studie Das Erlernen der Anfertigung von Mikrogefäßanastomosen stellt in der Ausbildung von Chirurgen ein Problem dar, da auf der der einen Seite am Patienten für die Erzielung eines hohen Qualitätsniveaus nur geübte Kollegen tätig sein können, auf der anderen Seite tierexperimentelle Ausbildungsmethoden nur in begrenztem Umfang eingesetzt werden können und sollten. Das Übungsniveau, das ein Chirurg in seiner Ausbildung zum Beginn des Einsatzes am Patienten erreicht haben sollte, konnte bislang nicht quantifizierbar vorgegeben werden. Daraus ergab sich die Entwicklung und Etablierung eines videobasierten Lehrprogramms für das Erlernen der Grundlagen praktischen mikrochirurgischen Arbeitens. Die Verwendung des erstellten Lehrprogramms soll zu einer bedeutenden Reduzierung von Experimenten am narkotisierten Tier führen, anstelle der Versuchtiere dient ein rechnergestütztes Messsystem zur Beurteilung der im Kurs angefertigten Anastomosen. Methodik Der Studie liegen drei wichtige Zielvorgaben zugrunde: 1. Erstellung eines mikrochirurgischen Ausbildungsprogramms für einen drei Tage umfassenden Kurs. Schrittweise werden mikrochirurgische Nahttechniken von Anastomosen erlernt, zunächst anhand von Lehrvideosequenzen, unterstützt durch animierte Grafiken. Im Anschluss erfolgen praktische Übungen am Ex-vivo-Modell. Als Übungsmaterial dienen Gefäße von Hühnerschenkeln aus dem Lebensmittelhandel. 2. Aufbau eines Messsystems zur Bestimmung der Durchflusseigenschaften der genähten Gefäße. Der Messaufbau ermöglicht die optische Beurteilung wie im lebenden Situs und die physikalische Qualitätskontrolle der Anastomosen. 3. Messung der Qualität der erstellten Anastomosen mit dem neuen objektiven Messsystem in einem Pilotkurs (n= 6) und in einem Ausbildungskurs (n=13). Die Daten dienen zum einen der Beurteilung des Lernfortschritts für jeden Teilnehmer, zum anderen bei nachgewiesenem Lernfortschritt als Bestätigung für diese neuartige Kursform. Ergebnisse Die Teilnehmer erstellten zu Übungszwecken insgesamt je fünf bis sieben Anastomosen. Bei allen Kursteilnehmern konnten deutliche Verbesserung der mikrochirurgischen Fähigkeiten beobachtet werden. Während des I. Münchner Mikrochirurgischen Operationskurses führte im Mittel die Anlage der ersten Anastomose zu einer Erhöhung des Durchflusswiderstands (5,18 Prozent). Es wurden im Mittel 32,76 Minuten benötigt. Die mittlere Standardabweichung lag bei 136,08 Mikrometern. Im Laufe der ersten Übungen zeigte sich durch Qualitätsverbesserung und erhöhte Schnelligkeit eine deutlich ansteigende Lernkurve der Teilnehmer. Während der 6. und 7. Übung stellte sich bei den Kursteilnehmern ein individuelles Plateau ein. Die Zunahme des genähten Gefäßes betrug nun im Durchschnitt nur noch 0,81 Prozent, bei einer Nahtdauer von nur noch 23,66 Minuten. Die mittlere Standardabweichung lag nur noch bei 118,33 Mikrometern. Schlussfolgerung Während der Lehreinheiten wurde eine enorme Verbesserung der Fähigkeiten der Kursteilnehmer erreicht. Die mikrochirurgische Fähigkeit zur Anastomosenanlage war bei allen Teilnehmern nach Absolvieren des Kurses für die klinische Anwendung ausreichend. Die Qualität der im Kurs erstellten Anastomosen ist erstmals anhand von klinisch kritischen Parametern quantitativ evaluierbar, somit ist der Lernerfolg objektiv darstellbar. Hieraus ergab sich ein gutes Feedback und eine Motivationssteigerung für die Kursteilnehmer. Ein Ausbildungskurs, der eine Reduzierung von Tierexperimenten mit einem hohen Motivationsniveau durch quantifizierbare Lernerfolge verbindet, wurde bislang im Bereich der Mikrogefäßchirurgie nicht angeboten. Das hier vorgestellte videobasierte Lehrprogramm eignet sich auch nach Absolvieren des Kurses zur Aufrechterhaltung der mikrochirurgischen Fähigkeiten durch regelmäßiges Training mit Hühnerschenkeln aus dem Lebensmittelhandel in Verbindung mit der Lehr-DVD.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 04/07
Vergleichende Untersuchung klinisch gesunder und mit Escherichia coli infizierter Euterviertel von Kühen mittels Infrarotthermographie

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 04/07

Play Episode Listen Later Jul 18, 2008


Ziel dieser Studie ist es, Temperaturverläufe an gesunden und künstlich infizierten (E. coli) Eutervierteln von Milchkühen mithilfe eines infrarotthermographischen Messsystems zu beurteilen. Material und Methodik: Fünf zunächst eutergesunde Milchkühe werden während 48 Stunden ca. alle zwei Stunden infrarotthermographisch untersucht. 24 Stunden nach Beginn des Versuchs wird das jeweils rechte hintere Euterviertel (HR) mittels Injektion einer NaCl-Lösung (2 ml) mit Escherichia coli (250 CFU) infiziert (Infektionsgruppe). Diese Versuche dienen der Ermittlung der Temperaturverläufe an der Euterhaut vor und nach der Infektion, der Detektion thermischer Veränderungen an der Haut eines infizierten Euterviertels im Vergleich zur Oberfläche eines nicht infizierten, kontralateralen Viertels und im Vergleich zur Wärmeverteilung am Referenztag, als das Euter noch gesund war. Weitere 16 eutergesunde Tiere (Kontrollgruppe) werden über einen Zeitraum von 24 Stunden in den gleichen Messintervallen infrarotthermographisch untersucht. Diese Untersuchungen dienen zur Feststellung des physiologischen Verlaufs der Euteroberflächentemperatur im Verlauf eines Tages und etwaigen tageszeitlichen Schwankungen. Ferner soll für beide Gruppen ermittelt werden, inwiefern maschineller Milchentzug die Temperatur der Euterhaut beeinflusst und welche Zusammenhänge zwischen der Rektaltemperatur sowie der Umwelt und der Temperatur der Euteroberfläche bestehen. Verwendet wird eine Infrarotkamera der Serie ThermaCAM® B20 HS (FLIR Systems®) und andere Messinstrumente. Jeweils drei Infrarotbilder pro Messzeitpunkt werden mittels verschiedener Software-Tools (Polygone, Rechtecke, Linien) ausgewertet. Im Zuge der Präzisionsberechnungen wird die Polygon-Methode favorisiert, mit der die Flächen-Minimal- (Fl-Min), -Maximal- (Fl-Max), Differenz zwischen Minimal- und Maximaltemperatur (Fl-Max-Min) und -Durchschnittstemperatur (Fl-DsT) der Messfelder ermittelt werden. Ergebnisse: Beim Vergleich der durchschnittlichen Variationskoeffizienten (± Standardabweichung) der 3er Bildserien der Infektions- und Kontrolltiere (n = 544) zu jedem Messzeitpunkt weisen die Fl-DsT-Werte (0,12 % ± 0,09) die geringste Variation auf (Fl-Max: 0,19 % ± 0,14 und Fl-Min: 0,29 % ± 0,21). Darum werden nur Fl-Max- und Fl-DsT-Werte für weitere Berechnungen verwendet. Die Auswertungsmethode Polygone besitzt die beste Präzision und geringste Standardabweichung, weshalb sie gegenüber den Rechtecken und Linien favorisiert wird. Die Daten sind nicht normalverteilt, weshalb nicht parametrische Tests verwendet werden. Eutergesunde Tiere: Bei eutergesunden Tieren (n = 272) existieren im Durchschnitt nur geringste Temperaturunterschiede zwischen beiden Vierteln während 24 Stunden (Fl-Max 0,12 ± 0,12 °C und Fl-DsT 0,17 ± 0,13 °C). Im Tagesverlauf zeigen einige Tiere morgens niedrigere und abends höhere Temperaturen (v.a. in den Fl-DsT-Werten) mit einem Minimum von -0,42 ± 0,39 °C um 6:30 Uhr und einem Maximum von +0,45 ± 0,58 °C um 21:30 Uhr (im Vergleich zur tierindividuellen mittleren Tagestemperatur). Dies legt die Existenz eines zirkadianen Rhythmus der Eutertemperatur nahe. Durch den morgendlichen maschinellen Milchentzug wird die Temperatur am Euter zum Teil signifikant gesenkt, beim Melken am Abend steigt die Temperatur leicht an. Die Reaktion ist allerdings individuell sehr unterschiedlich. In einem gemischten Modell weist die Rektaltemperatur einen engeren Bezug zur Euterhaut-Temperatur auf als die Umgebungstemperatur. Dabei werden beide Viertel in gleichem Ausmaß von der Rektal- und in ähnlichem Maß von der Umgebungstemperatur beeinflusst. Die Luftfeuchtigkeit ist nicht relevant. Tiere mit induzierter Mastitis: Nach Infektion (p.i.) des Euterviertels HR zeigen beide Viertel einen signifikanten Temperaturanstieg zwischen 13 bis 17 Stunden p.i., im Vergleich zu den Referenzwerten am Vortag, als das Euter noch gesund ist: Durchschnittliche Maximaltemperatur der Fl-Max 13 Stunden p.i.: HR (E. coli) = 1,98 ± 0,59 °C und HL (Placebo) = 1,93 ± 0,62 °C (p = 0,04 für beide). Die Fl-Max-Werte beider Viertel unterscheiden sich auch nach der Infektion nicht signifikant. Die Verläufe der Fl-DsT-Messwerte nach der Infektion differieren: Die Oberfläche des infizierten Viertels (HR) ist zwischen 11 und 19 Stunden p.i. (mitunter signifikant) kühler als die des gesunden, kontralateralen Viertels; der Höhepunkt der Differenz wird 13 Stunden p.i. erreicht (-0,89 ± 0,64 °C). Die obere Toleranzgrenze der Fl-Max-Werte beträgt 38,77 °C, die der Fl-DsT-Werte 37,53 °C im Vergleich zum Referenztag (Sensitivität 87 % und 60 %). Das Toleranzintervall reicht für Differenzen zwischen HR und HL für Fl-Max-Werte von -0,46 bis 0,29 °C, für Fl-DsT-Werte von -0,7 bis 0,49 °C (Sensitivität 27 und 40 %). Melken verändert die Eutertemperatur nach der Infektion ähnlich wie bei den eutergesunden Tieren, jedoch nicht signifikant. Allerdings existieren auch hier individuelle Unterschiede. Die Luftfeuchtigkeit hat auch nach der Infektion keinen Bezug zur Euterhaut (gemischtes Modell). Die Rektaltemperatur weist einen engeren Bezug zur Euterhauttemperatur auf als die Umgebungstemperatur auf. Fazit: Nach experimenteller Infektion eines Euterviertels mit Escherichia coli können entzündungsbedingte, signifikante Temperaturänderungen mittels Infrarot-thermographie gemessen werden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Quantitative Analyse der Diffusions-Tensor-Bildqualität (DTI) unter Verwendung von paralleler Bildgebung in der Hochfeld-MRT bei 1,5 und 3 Tesla

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19

Play Episode Listen Later Nov 22, 2007


Das Ziel unserer Studie war die Entwicklung eines methodischen Ansatzes zur quantitativen Evaluierung und Analyse der Bildqualität diagnostischer Diffusions-Tensor-Bildgebung (DTI) unter Verwendung paralleler Bildgebung (PAT) bei 1.5 T und 3.0 T MR-Tomographen. Im Rahmen einer prospektiven Studie wurden 26 gesunde Probanden (14 w, 12 m, mittleres Alter 33 J) an einem 1.5 T MRT-Gerät und einem 3.0 T MRT-Scanner des gleichen Herstellers untersucht. Es wurden standardisierte diffusionsgewichtete Aufnahmen mittels einer Spin-Echo EPI-Sequenz angefertigt, unter Verwendung zweier verschiedener Voxel-Größen (1.8×1.8×3.6 = 11.7 mm³ und 2×2×2 = 8 mm³) sowie dreier verschiedener Averages mit 8, 4 und 2 Mittelungen bei vergleichbaren Sequenparametern bei beiden Magnetfeldstärken. Eine parallele Bildgebung mittels eines GRAPPA-Rekonstruktionsalgorithmus mit Beschleunigungsfaktoren von 2 und 3 wurde eingesetzt. Nach Wiederholung der Bildakquisitionen wurde das Signal-zu-Rausch-Verhältnis (SNR) anhand von Differenz-Bildern ermittelt. Die Region-of-Interest-basierte (ROI) quantitative Analyse wurde mittels am Scanner implementierter Software durch Positionierung der ROIs in drei verschiedenen Hirnarealen bestimmt. Für jede ROI wurden Mittelwert, Standardabweichung und Pixelanzahl bestimmt. Um die inhomogene Verteilung des Rauschens bei Einsatz paralleler Bildgebung zu berücksichtigen, wurden SNR-Verhältnisse anhand der Standardabweichung in den Differenz-Aufnahmen berechnet. Nach Normalisierung der Ergebnisse auf das SNR-Verhältnis der anisotropen 11.7-mm³ Messungen mit 8 Mittelungen bei 1.5 T, konnte ein SNR-Verhältnis von 178,2% für die gleiche Sequenz bei 3.0 T gemessen werden. Die SNR-Verhältnisse der Messungen mit 2 Mittelungen unterschieden sich deutlich mit 50,8% für Messungen bei 1,5 T bzw. 94,1% bei 3.0 T. Für Messungen bei isotroper Auflösung und 4 Mittelungen betrugen die entsprechenden Werte 49,9% bei 1,5 T und 95,2% bei 3.0 T. Die DTI-Bildgebung bei 3.0 T erzielt bessere Bildqualität bezüglich des Signal-zu-Rausch-Verhätnisses im Vergleich zu 1.5 T. Das gleiche SNR wie bei 1.5 T kann bei 3.0 T erreicht werden, hier jedoch mit erhöhter isotroper Auflösung und reduzierter Messzeit (4 Mittelungen anstelle von 8 Mittelungen). Damit sind die notwendigen Voraussetzungen gegeben, um höher aufgelöste Darstellungen von morphologisch veränderten Hirnveränderungen anzufertigen und gleichzeitig die Untersuchungszeit zu verkürzen. Desweiteren ist zu erwarten, dass auch die Darstellung von Hirnbahnen der weißen Substanz (Fibertracking) durch diese Erkenntnisse weiter verbessert werden kann. Um eine genauere Quantifizierung und eine exaktere Erfassung von Veränderungen mittels DTI zu erzielen, sollte diese Untersuchung, soweit verfügbar, bei 3 Tesla durchgeführt werden.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Messung von CO2-Säulengehalten in der Atmosphäre mit Lidar-Methoden

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05

Play Episode Listen Later May 16, 2007


Eine der fundamentalen Fragen der aktuellen Wissenschaft ist die Entschlüsselung des globalen Kohlenstoff-Kreislaufs insbesondere vor dem Hintergrund des anthropogenen Einflusses durch die Emission großer Mengen von CO2 in die Atmosphäre. Aktuell gibt es keine Messsysteme, die die nötige Messgenauigkeit zur Bestimmung von Quellen, Senken und Flüssen atmosphärischen Kohlendioxids erreichen. Im Rahmen der vorliegenden Arbeit wurde die Methode der aktiven Fernerkundung atmosphärischen Kohlendioxids mittels Lidar theoretisch und experimentell untersucht. Im Vordergrund stand dabei die Entwicklung eines Differential-Absorptions-Lidars (DIAL). Der Aufbau und die Charakterisierung einer geeigneten Laserlichtquelle sowie einer präzisen Wellenlängen-Stabilisierung stellten zentrale Aspekte dar. Für ein einsetzbares System mussten darüber hinaus ein Empfangssystem, eine Steuerung und Datenerfassung sowie Systeme zur Analyse der Strahlqualität aufgebaut werden. Da die atmosphärische Rückstreuung im verwendeten Wellenlängenbereich bei 1,57 µm gering ist, wurde das System in der DIAL-Variante IPDA (Integrated Path Differential Absorption) verwirklicht, das statt der atmosphärischen Rückstreuung den Laser-Reflex einer festen Oberfläche verwendet, womit der CO2-Säulengehalt entlang der Messstrecke bestimmt wird. Als Laserlichtquelle wurde ein Nd:YAG-gepumptes KTP-OPO-System mit alternierendem Injection Seeding durch zwei DFB-Laserdioden verwirklicht. Sensitivitätsstudien anhand von numerischen Simulationen lieferten Informationen über geeignete Messwellenlängen, über die maximal erreichbare Messgenauigkeit und über Anforderungen an das Messsystem. Es ergab sich, dass sich im Hinblick auf die untersuchten Aspekte die geforderte Genauigkeit im Subprozent-Bereich erreichen lässt, wobei höchste Anforderungen an die spektralen Eigenschaften der Laserlichtquelle gestellt werden. In Testmessungen wurde die erreichbare Messgenauigkeit des entwickelten Labor-Prototypen untersucht. Es wurden Stärken und Schwächen des aufgebauten Systems und der Messmethode herausgearbeitet. So zeigte sich insbesondere, dass die beim IPDA-Messprinzip notwendige Leistungsreferenz-Messung sowie die räumliche Laserstrahl-Qualität als kritisch zu betrachten sind. Bei direkten Vergleichsmessungen mit einem In-situ-Gerät erreichte der Prototyp auf Anhieb eine Standardabweichung von 2 % bei einem Bias von unter 10 %. Die erreichte spektrale Qualität der Laserstrahlung übertraf die aufgestellten Anforderungen. Diese Arbeit liefert einen Beitrag zum Fortschritt auf dem Gebiet der Entwicklung aktiver Systeme zur Fernerkundung atmosphärischen Kohlendioxids.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
In-vitro-Untersuchung zur Korrelation von Präparationsdesign und klinischer Haltbarkeit CAD/CAM-gefertigter Zirkondioxidkronen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Mar 7, 2007


Das Ziel dieser In-vitro-Studie war es, die Bruchfestigkeit von Kronengerüsten aus Y-TZP-Zirkondioxid unter Berücksichtigung unterschiedlicher Präparationsgeometrien zu untersuchen. Die Prüfstümpfe aus einer CoCr-Legierung wurden hierzu mit fünf unterschiedlichen Präparationsformen versehen: Tangentiale Präparation, starke Hohlkehle, dezente Hohlkehle, Stufenpräparation und Stufenpräparation mit Abschrägung. Die Kronengerüste für die fünf unterschiedlichen Präparationsformen wurden über das CAD/CAM-Verfahren CerconÒ von DeguDent (Hanau) hergestellt. Insgesamt wurden für jede Präparationsfom 10 Prüfkäppchen gefräst und aufgepasst. Es wurde auf eine gleich bleibende Wandstärke der Zirkondioxidkäppchen von 0,4mm geachtet. Vor dem Bruchtest wurden die Gerüste mit Glasionomer-Zement unter Zuhilfenahme einer Zementiervorrichtung mit 50 N auf den Prüfstümpfen befestigt. In der Universalprüfmaschine wurde die Zirkondioxidkeramik bis zum Eintreten des Bruches belastet. Bei der anschließenden Auswertung der Ergebnisse stellte sich heraus, dass sich die Stufenpräparation mit einer mittleren Belastbarkeit von 2453 N signifikant von den übrigen Präparationsformen abhob. Trotzdem diese Präparationsform auch die größte Streuung mit einer Standardabweichung von ±628 N aufwies, blieb sie dennoch über den geforderten Belastungswerten. Die Tangentialpräparation ereichte einen Mittelwert von 1555 N, die starke Hohlkehle 1508 N, die dezente Hohlkehle m1430 N und die Stufenpräparation mit Abschrägung 1245 N. Als Ergebnis dieser Untersuchung stellte sich heraus, dass alle Präparationsformen die im Seitenzahnbereich geforderte minimale Bruchfestigkeit von 1000 N erreicht haben, wobei sich jedoch die Stufenpräparation noch signifikant nach oben hin absetzen konnte.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Evaluierung der Genauigkeit eines Norland XR26 DXA-Systems im Vergleich zu einem GE Lunar DPX-IQ unter Verwendung eines modifizierten Variable Composition Phantoms

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07

Play Episode Listen Later Feb 9, 2007


Inhalt dieser Arbeit sind die Fettgehaltsmessungen zweier Röntgenabsorptionsmessgeräte verschiedener Hersteller unter Verwendung eines „Variable Composition Phantoms“ (VCP) in der Kombination mit einem Wirbelsäulenphantom. Im Rahmen dieser Messungen kamen das GE Lunar DPX-IQ des Lehr- und Versuchsgutes der Tierärztlichen Fakultät der Ludwig-Maximilians-Universität München sowie das Norland XR26 des Forschungsinstitutes für die Biologie landwirtschaftlicher Nutztiere (FBN) in Dummerstorf zum Einsatz. Das Ziel der Arbeit war die Eröffnung der Möglichkeit des Vergleiches von Fettgehaltsmessungen zweier DXA-Geräte unterschiedlicher Hersteller. Dies erfolgte durch die Erfassung der Messgenauigkeit und Präzision der Einzelgeräte durch den Vergleich mit dem angegebenen, standardisierten Fettgehalt des Phantoms. Außerdem wurde die Variation der Ergebnisse durch die Verknüpfung des VCP mit dem Wirbelsäulenphantom beim GE Lunar DPX-IQ und damit die Zweckmäßigkeit der eingesetzten Phantomkombination untersucht. Ferner sollte festgestellt werden, ob eine statistische Signifikanz zwischen den Abweichungen beider Röntgenabsorptionsmessgeräte vorliegt. Bei den Untersuchungen wurde als Versuchsobjekt ein Bio-Imaging-VCP, bestehend aus 4 Acrylblöcken mit dünnen Auflagen aus Acryl und Vinyl und einem Aluminiumkopf verwandt. Durch die Kombination der Acrylblöcke mit den dünnen Auflagen können drei verschiedene Weichgewebekompositionen (Herstellerangabe 8,3 [%-Fett], 22,3[%-Fett], 43,5[%-Fett]) simuliert werden. Die Versuchsmessungen wurden durch die Verknüpfung des VCP mit einem Wirbelsäulenphantom des Herstellers GE Lunar, welches den typischen Bereich der Größe und Dichte einer menschlichen Wirbelsäule imitiert, erweitert. Bei diesem Versuch wurde die beschriebene Phantom-Kombination unter geeigneter Positionierung mit beiden DXA-Geräten eingescant und entsprechend analysiert. Die Versuchsreihen wurden jeweils in den verschiedenen Scanmodi der Röntgenabsorptionsmessgeräte durchgeführt. Während beim Norland XR26 ausschließlich unter Einbeziehung des Wirbelsäulenphantoms gearbeitet wurde, kam das VCP beim GE Lunar DPX-IQ auch ohne Wirbelsäulenphantom zum Einsatz. Die Messergebnisse wurden gemäß der eingestellten Fettkonfiguration des VCP und des gewählten Scanmodus der DXA-Geräte nach ihrer Genauigkeit und Präzision ausgewertet. Beim GE Lunar DPX-IQ wurden sowohl mit als auch ohne Wirbelsäulenphantom genaue und präzise Messergebnisse ermittelt. Angesichts der unter anderem in der vorliegenden Arbeit ermittelten Messergebnisse des VCP beim GE Lunar DPX-IQ eignet sich das VCP daher für die Kalibrierung des Fettgehaltes bei DXA-Geräten dieser Art. Allerdings existieren große Abweichungen von der Herstellerangabe der Messergebnisse des VCP mit dem „Kleintiermodus“ des GE Lunar DPX-IQ (maximal 51,7 [%-Fett]). Ausgehend von diesen Messergebnissen der vorliegenden Studie erscheint die Anwendung der Kleintiersoftware beim GE Lunar DPX-IQ als nicht geeignet. Die größte Präzision wurde in der Kombination des VCP mit dem Wirbelsäulenphantom beim GE Lunar DPX-IQ mit den Scanmodi „Adult normal“ sowie „Pediatric large“ erzielt (maximale Standardabweichung 0,51). Aufgrund der Beeinflussung der Genauigkeit und Präzision der Fettgehaltsmessung durch den gewählten Scanmodus, ist dieser beim Vergleich von Messergebnissen zu beachten, bzw. bei Langzeitstudien die oben genannten Scanmodi mit der größten Präzision beim GE Lunar DPX-IQ zu verwenden. Die Kombination aus VCP und Wirbelsäulenphantom ist auch beim Norland XR26 einsetzbar. Denn mit der Phantom-Kombination wurden beim Norland XR26 ebenso genaue und präzise Messergebnisse erzielt. Da beim Norland XR26 der Forschungsmodus mit hoher Auflösung und geringer Scangeschwindigkeit die präzisesten Messergebnisse (maximale Standardabweichung 0,32) erbrachte, ist diese Geräteeinstellung für wiederholte Messungen sinnvoll. Weiterhin wurde der Einfluss des Wirbelsäulenphantoms als Knochenäquivalent auf die Fettgehaltsmessung beim GE Lunar DPX-IQ analysiert. Das Wirbelsäulenphantom führte zu einer erwarteten Reduktion des gemessenen Fettgehaltes. Diese wird durch eine Parallelverschiebung der Regressionsgeraden unter Verwendung des Wirbelsäulenphantoms gegenüber den Geraden ohne Knochenäquivalent ersichtlich. Mittels t-Test konnte zumindest teilweise eine signifikante Differenz zum Niveau α = 0,05 zwischen den Mittelwerten der Messergebnisse mit und ohne Wirbelsäulenphantom nachgewiesen werden. Daher erscheint die im vorliegenden Versuch eingesetzte Kombination zwischen einem VCP und einem Wirbelsäulenphantom zweckmäßig, denn das hinzugefügte Knochenäquivalent beeinflusste teilweise signifikant die Weichgewebeergebnisse. Darüber hinaus wurden bei beiden DXA-Geräten mit der hier verwendeten Phantomkombination sinnvolle Messergebnisse erzielt. Des Weiteren wurde mittels Regressionsanalyse eine vergleichende Betrachtung der Versuchsreihen beider Messgeräte durchgeführt. Es wurden vor allem die in beiden Instituten maßgeblich genutzten Scanmodi der Geräte miteinander verglichen. Eine direkte Übertragung von Messergebnissen zwischen beiden DXA-Geräten ist ausschließlich bei einem geringen Fettgehalt zwischen den Scanmodi „Pediatric large“ (GE Lunar) und „Ganzkörper“ (Norland) möglich. Ferner wurden für beide DXA-Geräte unterschiedliche Kurvenanstiege der Regressionsgeraden ermittelt. Mit dem Student t-Test konnte zum Teil eine signifikante Differenz (Signifikanzniveau α = 0,05) zwischen vergleichbaren Scanmodi beider DXA-Geräte nachgewiesen werden. Angesichts dieser Geräteabweichungen ist ein direkter Vergleich von Messergebnissen zwischen den eingesetzten DXA-Scannern der Hersteller GE Lunar und Norland nicht möglich. Aus diesem Grunde sind gerade beim Vergleich von Messungen mit hohem Fettgehalt die in der vorliegenden Arbeit ermittelten Korrekturfaktoren erforderlich. Durch diese Faktoren wird die Möglichkeit eröffnet, Fettgehaltsmessungen zweier DXA-Geräte unterschiedlicher Hersteller (GE Lunar und Norland) miteinander zu vergleichen. Dennoch müsste in weiterführenden Untersuchungen geklärt werden, inwieweit sich die mit der Phantomkombination bestimmten Regressionsgeraden für den Abgleich von Fettgehaltsmessungen zwischen dem GE Lunar DPX-IQ und dem Norland XR26 durch die homogene Weichgewebeverteilung von In-vivo-Messungen unterscheiden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Mikrozirkulatorisches Monitoring mittels Orthogonal Polarisation Spektral (OPS) Imaging bei Frühgeborenen während der ersten 30 Lebenstage

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Nov 9, 2006


Zusammenfassung Veränderungen der Mikrozirkulation spielen eine entscheidende Rolle bei der Entstehung von Organversagen. Bis jetzt werden in der medizinischen Diagnostik vor allem makrozirkulatorische Parameter wie z.B. Blutdruck, Herzzeitvolumen und Sauerstoffsättigung verwendet. Die orthogonale polarisierte spektrale Bildgebung, auch OPS Imaging genannt, ermöglicht eine transdermale Visualisierung der Mikrozirkulation. Diese Studie soll die Mikrozirkulation von Frühgeborenen mit ihren Veränderungen im Verlauf des ersten Lebensmonats beschreiben und eine Grundlage für weitere Studien bilden. Mit OPS Imaging kann die Hautperfusion durch reflektiertes Licht im Absorptionsspektrum des Hämoglobins ohne Kontrastmittel dargestellt werden. Sie bietet daher eine einfache und sichere Möglichkeit für ein nicht invasives Monitoring von Frühgeborenen. Durch OPS Imaging können die mikrozirkulatorischen Parameter funktionelle Kapillardichte (FCD), Erythrozyten-Fliessgeschwindigkeit (RBC vel) und Gefäßdurchmesser (Diam) erfasst werden. OPS Bildsequenzen werden kontinuierlich per Video aufgenommen und offline mit der Bildanalysesoftware CapiScope ausgewertet. Diese Parameter wurden täglich vom 3. bis zum 30. Lebenstag bei Frühgeborenen mit einem Gestationsalter von kleiner 30. Schwangerschaftswoche am Oberarm in der Nähe der Axilla gemessen. Im Rahmen dieser Arbeit wurde die Anwendbarkeit von OPS Imaging im klinischen Alltag und Praktikabilität für den Untersucher betrachtet. Im Mittelpunkt standen die Beurteilbarkeit der Bildsequenzen von OPS Imaging und der Verlauf der mikrozirkulatorischen Parameter. Bis jetzt ist wenig bekannt über die Veränderungen und die Entwicklung der Hautdurchblutung bei Frühgeborenen. Uns ist es gelungen die Mikrozirkulation von Frühgeborenen während des ersten Lebensmonats darzustellen, auszuwerten und zu beurteilen. Es wurden 25 Frühgeborenen untersucht mit einem durchschnittlichen Gestationsalter von 28 Schwangerschaftswochen und einem durchschnittlichen Geburtsgewicht von 900 g. Die mikrozirkulatorischen Parameter funktionelle Kapillardichte (FCD) und die Erythrozyten-Fliessgeschwindigkeit (RBC vel) wiesen eine hohe intra- und interindividuelle Variabilität auf. Bei der RBC vel, die sich im Messbereich von 171,8 bis 726,3 µm/s befand, konnten keine signifikanten Unterschiede im Verlauf des ersten Lebensmonats aufgezeigt werden. Die FCD bewegte sich zwischen 88 und 308 cm/cm², mit einem Mittelwert von 220,0 cm/cm² und einer Standardabweichung von 11,6 cm/cm². Sie fiel signifikant von 236 cm/cm² an Lebenstag 7 auf 207 cm/cm² an Lebenstag 28 ab (p = 0,003). Beide Parameter korrelierten direkt mit der Hämoglobinkonzentration (FCD: r = 0,76, p < 0,0001; RBC vel: r = 0,5, p = 0,008) und invers mit dem systolischen Blutdruck (FCD: r = -0,57, p = 0,002; RBC vel: r = -0,6, p = 0,0009). Die FCD zeigte zusätzlich eine Korrelation mit der Herzfrequenz (r = -0,62, p = 0,0005). Der Diam, der von 7 bis 24 µm reichte, und die klinischen Parametern, wie zum Beispiel Blutdruck, Herzfrequenz und Körpertemperatur zeigten keine signifikanten Veränderungen. Des Weiteren wurden die mikrozirkulatorischen Parameter von Frühgeborenen mit einem Gestationsalter von 23 bis 26 Wochen (= Gruppe 1, n = 7) und Frühgeborenen mit einem Gestationsalter von 28 bis 30 Wochen (= Gruppe 2, n = 7) verglichen. Es konnten keine signifikanten Unterschiede dargestellt werden. OPS Imaging war bei allen Patienten problemlos zu verwenden. Es konnten qualitativ hochwertige Bilder der Hautdurchblutung von Frühgeborenen erhoben werden. Probleme zeigten sich bei der Anwendung durch Bewegungs- und Druckartefakte, die mehr Zeit bei der Auswahl von geeigneten Sequenzen in Anspruch nahmen und die Auswertung einiger Bildsequenzen einschränkten. Die Weiterentwicklung von OPS Imaging und die Vermeidung von systematischen Fehlern macht OPS Imaging zu einer zukunftsträchtigen Technologie, deren diagnostisches Potential von großer Bedeutung sein könnte. OPS Imaging kann genutzt werden, um die Mikrozirkulation der Frühgeborenen zu messen und die Qualität der Hautdurchblutung zu beurteilen. Mit OPS Imaging steht eine neue, nicht invasive Untersuchungsmethode zur Verfügung, mit der es z.B. möglich ist den Therapieerfolg nach Transfusionen 17 zu messen. In Zukunft könnte OPS Imaging die Beurteilung des Gesundheitszustandes von Frühgeborenen ermöglichen, wie z.B. bei der Diagnostik einer Sepsis, hierbei könnte eine Infektion aufgrund von Veränderungen der Mikrozirkulation frühzeitig erkannt werden.

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 02/06
Anordnung und Struktur von Chromosomenterritorien in Mauszellen: Zelltypspezifische Unterschiede und Gemeinsamkeiten

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 02/06

Play Episode Listen Later Jul 12, 2006


Der Aufbau des Zellkerns und die höheren Organisationsmuster von Chromosomen gehorchen Regeln, die bisher in menschlichen Zellen und Zellen einiger Primaten bestätigt werden konnten. In dieser Arbeit sollte an einem anderen Säuger, der Maus, untersucht werden, in wie weit sich die bisher gewonnenen Erkenntnisse auch auf den molekularbiologisch intensiv studierten Modellorganismus der modernen Genomforschung übertragen lassen. Besonders interessant ist die Frage, weil der Karyotyp der Maus nur akrozentrische Chromosomen enthält und viel homogener in Bezug auf Chromosomengröße und Gendichte ist, als der Karyotyp des Menschen oder verschiedener Primaten. Die letzten gemeinsamen Vorfahren von Mäusen und Menschen lebten vor über 80 Mio. Jahren, in dieser Zeitspanne fanden die zahlreichen Veränderungen am Genom der Maus statt. Die vorliegende Arbeit untersucht, ob Gemeinsamkeiten in Bezug auf die Organisation des Chromatins nachzuweisen sind und ob evolutionär konservierte Organisationsmuster zu finden sind. Die quantitative Untersuchung der Topologie von Chromosomenterritorien und Zentromerregionen erfolgte mit Fluoreszenz-in-situ-Hybridisierung auf Zellkernen von vier Zelltypen der Maus. Auf Kerne von Lymphozyten, Fibroblasten, ES-Zellen und Makrophagen wurden die Territorien von sechs Chromosomen mittels Chromosomen-Paint-Sonden hybridisiert. Das ausgewählte Chromosomenset enthielt genreiche, genarme, große und kleine Chromosomen in verschiedenen Kombinationen. Bilddaten wurden mit einem konfokalen Laser-Scanning-Mikroskop aufgenommen und einer digitalen quantitativen Bildanalyse unterzogen. In allen Mauszelltypen zeigten sich klare Korrelationen zwischen sowohl Gengehalt als auch Größe und radialer Verteilung von Chromosomenterritorien. Bei kugeligen Lymphozytenkernen korreliert die Gendichte stärker mit der radialen Verteilung als es die Chromosomengrößen tun. In Fibroblasten sind beide Korrelationen schwächer, aber nachweisbar, in ES-Zellen sind die Korrelationskoeffizienten wieder etwas höher und für beide Verteilungsmodelle gleich, in Makrophagen überwiegt die größenabhängige Verteilung der Chromosomenterritorien. Das genreichste Chromosom MMU 11 zeigt in den Lymphozyten die meisten Unterschiede zu anderen Chromosomenterritorien, während sich das genarme MMU X in den untersuchten männlichen ES Zellen durch seine extreme Randlage von den anderen unterscheidet. Innerhalb der Fibroblasten und Makrophagen gibt es vergleichsweise wenig signifikante Unterschiede zwischen den radialen Positionen der untersuchten Chromosomenterritorien. Zelltypspezifische Verlagerungen von Chromosomenterritorien zeigten sich auch nach einem Differenzierungsschritt von ES-Zellen zu Makrophagen. Die Lage der Chromozentren ist zelltypspezifisch. Im Gegensatz zu den untersuchten Chromosomenterritorien liegen die Chromozentren in Fibroblasten und Makrophagen in relativ zentralen Positionen. In Lymphozyten sind die Chromozentren am weitesten nach außen zum Zellkernrand gelangt, gefolgt von den ES-Zellen. Die Anzahl der Chromozentren ist ebenfalls zelltypspezifisch. Ausgehend von der Chromozentrenzahl in ES Zellen nimmt die Zahl der Chromozentren in differenzierteren Zellen zu (Lymphozyten, Fibroblasten) oder bleibt gleich (Makrophagen). Aufgrund der Ergebnisse lässt sich ausschließen, dass die äußere Form des Zellkerns alleine für die beobachteten Verteilungsunterschiede verantwortlich ist. Allerdings waren die beobachteten Unterschiede kleiner als bei vergleichbaren menschlichen Zelltypen. Mit ein Grund dafür ist sicher die geringere Variabilität der Chromosomengröße und Gendichte im Genom der Maus. Zellkernvolumina lagen zwischen 470 und 650 µm3. Lymphozyten besitzen im Durchschnitt die kleinsten Kerne der zyklierenden Zelltypen, ES-Zellen die größten. Makrophagen befanden sich in der G0-Phase, ihre Zellkerne waren am kleinsten und wiesen die geringste Standardabweichung auf. Die Analyse der Winkel und Abstände innerhalb der Chromosomenterritorien zeigte eine sehr flexible Positionierung innerhalb der Grenzen radialer Ordnungsprinzipien. Diese Resultate sind unvereinbar mit einem früher vorgeschlagenen Modell der Trennung des parentalen Genoms. Es gibt keine Hinweise für eine Abweichung von einer zufälligen Verteilung, von einer Häufung nahe beieinanderliegender MMU 1 Homologen in Makrophagen abgesehen. Zur Untersuchung der Struktur von Chromosomenterritorien wurden Programme angewandt, bei denen steigende Schwellwerte zu Zerfällen von Objekten führten, die analysiert wurden. Zwei unabgängige Methoden zur Berechnung von Objektzahlen in Bildstapeln führten zu gleichen Ergebnissen. Mit dem Programm OC-2 konnten Unterschiede in der Textur von Chromosomenterritorien bei der Maus innerhalb eines Zelltyps, als auch zwischen Zelltypen festgestellt werden. Dabei wurden die individuellen Chromosomengrößen mit berücksichtigt. Es konnte kein allgemeiner Zusammenhang zwischen den durchschnittlichen maximalen Objektzahlen und dem Gengehalt der entsprechenden Chromosomen festgestellt werden, vielmehr scheint die Textur des Chromatins von noch unbekannten, zelltypspezifischen Faktoren beeinflusst zu sein. Die Analyse der Chromatinstruktur in normalen menschlichen Zelltypen und in Tumorzelllinien mit dem Objektzählprogramm OC-2 ergab allgemein erhöhte Objektzahlen in Tumorzellen, verglichen mit normalen Zelltypen. Davon unabhängig waren auch immer die genreichen HSA 19 durch höhere Objektzahlen charakterisiert als die etwas größeren genarmen HSA 18 in den selben Zell-typen. Vergleiche zwischen den Objektzahlen eines Chromosoms in normalen Zelltypen und Tumorzelllinien ergaben mehr Unterschiede, als Vergleiche nur innerhalb der normalen Zelltypen. Die hier untersuchten Tumorzelllinien weisen eine objektreichere Chromatinstruktur auf, als die ihnen gegenübergestellten normalen Zelltypen.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Bestimmung von "Brain Natriuretic Peptide"(BNP) bei gesunden Hunden

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07

Play Episode Listen Later Jul 23, 2004


Zur Familie der natriuretischen Peptide gehören drei Peptide: Atrial Natriuretic Peptide (ANP), Brain Natriuretic Peptide (BNP) und C-type Natriuretic Peptide (CNP). BNP wurde ursprünglich im Gehirn von Schweinen isoliert, bald stellte sich heraus, dass eine wesentlich höhere Konzentration im Herz vorliegt. Plasma-BNP ist bei verschiedenen Herzerkrankungen vieler Spezies erhöht. Das Ziel der Studie war es, Referenzwerte für BNP im kaninen Plasma zu erstellen. Zur Messung von Plasma BNP wurde ein kommerzieller Radioimmunoassay verwendet. Eine Validierung des Testkits mit der Untersuchung von Präzision, Richtigkeit, Sensitivität, Spezifität und Stabilität wurde zuvor durchgeführt. Als Studienteilnehmer dienten 79 gesunde Hunde (41 Rüden, 38 Hündinnen) im Alter von 3 Monaten bis 15 Jahren. Dabei waren 23 Hunde Mischlingshunde und 56 Rassehunde. Anhand ihres Gewichtes wurden sie in 3 verschiedene Gruppen eingeteilt (K: 25 kg). Der untersuchte Radioimmunoassay wies eine gute Präzision mit einer Intraassay-Präzision von 10,57 % und einer Interassay-Präzision von 12,64 % auf. Bei Zugabe von synthetischem kaninem BNP zu einem Plasma mit niedrigem BNP-Wert ergab sich eine Wiederfindungsrate von 80,8 %. Die Wiederfindungsrate bei Zugabe zu einem Plasma mit hoher BNP-Konzentration lag bei 90,9 %. Der nierigste Standard war 1 pg/Röhrchen. Zur Bestimmung der Spezifität wurde eine serienweise Verdünnung von Hundeplasma mit der Standardkurve verglichen und zeigte einen parallelen Verlauf. Bei Lagerung bei -70 Grad zeigte sich eine gute Langzeitstabilität, auch nach 17 Monaten konnte keine Degradation von BNP beobachtet werden. Mittelwert, Median, Standardabweichung und Varianz der BNP-Werte wurden getrennt für Alter, Geschlecht, Kastration/Ovariohysterektomie, Größe und Rasse berechnet. Um einen möglichen Zusammenhang des BNP-Wertes mit Geschlecht, Kastration/Ovariohysterektomie, Größe und Rasse festzustellen, wurde eine Varianzanalyse durchgeführt. Mit einer einfachen Regressionsanalyse wurde auf einen Zusammenhang von Alter und BNP-Wert getestet. Es bestand kein Zusammenhang der BNP-Werte mit Alter, Geschlecht, Kastration/Ovariohysterektomie und Größe (p > 0,05). Die BNP-Konzentration war jedoch in signifikantem Maße (p < 0,017) von der Rasse abhängig. Parameterschätzungen wurden für jede Rasse erstellt. Ein Kolmogorov-Smirnov Test zeigte, dass die vorliegenden Daten normalverteilt waren. Referenzwerte für die gesamte Studienpopulation (oberer Referenzbereich: 53,69 pg/ml), Deutsche Schäferhunde (oberer Referenzbereich: 42,97 pg/ml), Golden Retriever (oberer Referenzbereich: 49,78 pg/ml) und Mischlinge (oberer Referenzbereich: 59,34 pg/ml) etabliert.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Untersuchung der Lautstärkeempfindung von Schwerhörigen mit der "Methode der Linienlänge"

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19

Play Episode Listen Later Mar 11, 2004


Ziel der Arbeit war es, den Verlauf der Lautheitsfunktion schwerhöriger Menschen aufzudecken, um die Hörgeräte-Anpassung zu verbessern. Hierzu wurde von uns eine neu entwickelte Lautheitsskalierung nach der "Methode der Linienlänge" eingesetzt. Der Vorteil dieses neuen Verfahrens liegt in einer freien und direkten Bewertung präsentierter Schallsignale in Form von Linienlängenangaben an einer kontinuierlichen Skala zwischen den zwei Kardinalpunkten "extrem leise" und "extrem laut". Da die meisten unserer schwerhörigen Patienten eine asymetrische Schwerhörigkeit aufwiesen, war es erforderlich in einem Vorversuch den Unterschied zwischen monauralem und binauralem Lautheitseindruck zu untersuchen. Es nahmen sechs normalhörende Probanden, zuerst ohne Ohrverschluss, dann mit einseitigem und schließlich mit beidseitigem Ohrverschluss durch eine Silikonabdruckmasse, an der Untersuchung bei dreimaliger Wiederholung teil. Die Ergebnisse zeigten hinsichtlich der Lautheitswahrnehmung eine sehr geringe Differenz ohne und mit einseitigem Ohrverschluss bis 40 dB Hörverlust. Das neue Verfahren zeigt eine hohe Reproduzierbarkeit auf, wie durch viermaliges Wiederholen an Schwerhörigen geprüft wurde. Die ermittelte Standardabweichung der vier Versuchsdurchgänge war nie größer als 30 mm Linienlänge bezogen auf eine Gesamtlinenlänge von 270 mm. Damit zeigt die "Methode der Linienlänge" eine sehr gute Reproduzierbarkeit. In 120 Versuchsdurchläufen wurde an 75 Schwerhörigen die Lautheitsfunktion verschiedener Arten von Schwerhöigkeit untersucht. Diese gliederten sich in Patienen mit Innenohrhochtonschwerhörigkeit, pancochleärer Innenohrschwerhörigkeit, Schallleitungsschwerhörigkeit und Patienten mit Tinnitus ohne Hörverlust. In Abhängigkeit von der Art der Schwerhörigkeit zeigten die Pegellautheisfunktionen unterschiedliche Verläufe. Die Innenohrschwerhörigen Patienten zeigten einen deutlich eingeschränkten Restdynamikbereich, aber auch interindividuelle Unterschiede bei gleichem Hörverlust. Man kann aus den Pegellautheitsfunktionen direkt ablesen, welche Hörgeräteverstärkung bei den einzelnen Frequenzbereichen ab einer gewissen Lautstärke erforderlich ist. Auch die Kompression kann in den einzelnen Frequenzen individuell eingestellt werden. Die beim Tinnitus immer wieder beklagte Hyperakusis konnten wir nicht feststellen. Die einfache Durchführung der Untersuchung, der geringe Zeitaufwand und die hohe Reproduzierbarkeit der "Methode der Linienlänge" machen sie zu einer attraktiven Ergänzung in der modernen Hörgeräteanpassung und Überprüfung.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Validierung einer neuartigen, automatisierten Methode zur venösen Kompressionsplethysmographie

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19

Play Episode Listen Later Jan 16, 2003


Die zentrale Rolle der Mikrozirkulation in der Pathogenese und Pathophysiologie von chronischen und akuten Krankheitsbildern ist allgemein akzeptiert und Gegenstand vieler tierexperimenteller und klinischer Untersuchungen. Störungen der Organperfusion führen hierbei häufig zu Veränderungen der mikrovaskulären Gefäßpermeabilität. Auf zellulärer Ebene, aber auch makroskopisch sichtbar, entstehen Ödeme, die die Gewebeperfusion verschlechtern können. Messungen der Permeabilitätsänderungen sind am Patienten häufig aufgrund der Invasivität der Untersuchungsmethoden nicht möglich. Andererseits steigt mit der Weiterentwicklung der operativen und Intensivmedizin der Bedarf an Methoden zur Früherkennung und zum Monitoring von mikrozirkulatorischen Perfusionsstörungen. Nicht invasive Messverfahren, die Veränderungen der endothelialen Integrität frühzeitig erfassen, könnten die Diagnose und Therapie von Krankheiten verbessern. Wir entwickelten in unserer Forschungsgruppe in Zusammenarbeit mit der DOMED Medizintechnik und dem mikrozirkulatorischen Labor des Imperial College in London einen neuen venösen Kompressionsplethysmographen (filtrass 2001) zur nicht invasiven Messung von mikrozirkulatorischen Parametern wie Flüssigkeitsfiltrationskapazität, isovolumetrischem venösen Druck, vaskulärer Compliance, venösem Druck und arteriellen Blutfluss. Dazu wird mit einer Blutdruckmanschette der venöse Druck in einer Extremität stufenweise erhöht, und die resultierende Volumenänderung distal der Manschette mit einem hochsensitiven Dehnungsmessstreifen erfasst. Eine „off-line“-Analyse dieser Volumenänderung ermöglicht die Berechnung der Flüssigkeitsfiltrationskapazität, einem Maß der Gefäßpermeabilität und des isovolumetrischen venösen Drucks, der das Gleichgewicht der STARLING-Kräfte und des Lymphflusses in der Extremität widerspiegelt. In der vorliegenden Arbeit wurde die Funktionsweise von filtrass zunächst vorgestellt und dieser neue Plethysmographen validiert. filtrass wurde hierbei mit einem herkömmlichen, von unserer Arbeitsgruppe seit mehreren Jahren verwendeten, quecksilbergefüllten Plethysmographen („Mercury in rubber Strain Gauge“ = MSG) verglichen. Es konnte gezeigt werden, dass filtrass eine höhere Reproduzierbarkeit des Messsignals aufwies. Die mittlere Standardabweichung wiederholter gleichförmiger Dehnungen während der Kalibrationen an einem Modellbein lag bei filtrass mit 3,4 µm [2-25µm] deutlich unter den Werten des MSG-Plethysmographen 36,2 µm [8-160 µm]. Bei insgesamt 240 Kalibrationen der beiden Plethysmographen an Unterschenkeln von sieben Probanden zeigte auch hier der filtrass-Plethysmograph niedrigere Abweichungen der wiederholten Messungen (56 µm [29-109 µm] vs. 132 µm [37-251µm]). Zudem wurde eine nicht-lineare Beziehung zwischen Dehnung des Quecksilber-gefüllten Messstreifens und der resultierenden Spannungsänderung beobachtet. Vergleichende Untersuchungen an jungen gesunden Probanden zeigten signifikante Unterschiede der Werte der Gefäßpermeabilität der beiden Geräten. Mit MSG wurden die Flüssigkeitsfiltrationskapazität mit 4,6 ± 2,0 x 10-3 ml 100 ml-1 min-1 mmHg-1 (= FFKU) signifikant (P