Podcasts about mittelwerte

  • 22PODCASTS
  • 24EPISODES
  • 34mAVG DURATION
  • ?INFREQUENT EPISODES
  • Jan 26, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about mittelwerte

Latest podcast episodes about mittelwerte

Eat Right - Not Less
Kalorienzählen ohne Stress | 5 Tipps zum Zeit sparen

Eat Right - Not Less

Play Episode Listen Later Jan 26, 2025 19:55


Folge 14  Project Me Daily Podcast Ich zeig dir, wie du mit nur 5 Minuten am Tag alles trackst! In dieser Folge verrate ich dir meine besten Tipps und Tricks, wie du Kalorienzählen easy in deinen Alltag integrierst - ohne stundenlanges Abwiegen und Rechnen. Mit meinen Hacks sparst du Zeit und Nerven! Hier kannst du dich für die Challenge anmelden: 28 Tage Abnehm Challenge: Project Me (00:00) Intro (02:15) Kalorienzählen nach der Challenge (03:15) Tipp 1 - Kalorienzähler App verwenden (05:36) Tipp 2 - Barcode Scanner benutzen (07:51) Tipp 3 - Rezepte anlegen (09:23) Tipp 4 - Mittelwerte verwenden (12:20) Tipp 5 - nur Wesentliches tracken (14:05) Bonus Tipp - gesunder Menschenverstand (17:19) Blick in den Wochenplan (18:57) Outro

Die Zwei von der Talkstelle
DZVDT #215 - Quo vadis Selfpublishing? Melissa Ratsch über die Selfpublisher-Umfrage

Die Zwei von der Talkstelle

Play Episode Listen Later May 9, 2024 71:07 Transcription Available


Der Selfpublisher-Verband hat kürzlich mit einer brandneuen Umfrage zum Thema Selfpublishing jede Menge Zahlen und Mittelwerte rund um Verdienst, Ausgaben, Erfolgskonzepte und Arbeitsaufwand im verlagsunabhängigen Veröffentlichen geliefert. Finanzvorstand Melissa Ratsch hat das Projekt federführend betreut und diskutiert heute die Ergebnisse mit Vera und Tamara. Besonders spannend waren dabei die Daten von professionellen Selfpublishern, die monatlich mit ihren Büchern 2.000 Euro oder mehr verdienen. Verpasst also nicht diese Folge voller Einblicke ins Schreiben sowohl als Hobby wie auch als Haupt- oder Nebenberuf!

Zukunft Denken – Podcast
094 — Systemisches Denken und gesellschaftliche Verwundbarkeit, ein Gespräch mit Herbert Saurugg

Zukunft Denken – Podcast

Play Episode Listen Later Apr 3, 2024 66:13


Vor ziemlich genau drei Jahren habe ich die erste Episode mit Herbert Saurugg aufgenommen. Der Titel der Episode 42 war Gesellschaftliche Verwundbarkeit, ein Blick hinter die Kulissen. In dieser Episode reflektiere ich mit Herbert, was seit damals geschehen ist. Zwar haben wir Covid mit vielen Schäden hinter uns gelassen, aber eine ganze Reihe von neuen Krisen ist hinzugekommen. Haben wir als Gesellschaft dazugelernt? Wo stecken die größten Risiken, besonders was Energie und Krisensicherheit und Logistik betrifft? Herbert Saurugg ist internationaler Blackout- und Krisenvorsorgeexperte, Präsident der Gesellschaft für Krisenvorsorge, Autor zahlreicher Fachpublikationen sowie gefragter Keynote-Speaker und Interviewpartner zum Thema „überregionaler Strom-, Infrastruktur- und Versorgungsausfall (‚Blackout‘)“. Der ehemalige Berufsoffizier beschäftigt sich seit 2011 mit der zunehmenden Verwundbarkeit der Gesellschaft und der Frage, wie wir diese wieder reduzieren können. Er betreibt dazu einen umfangreichen Fachblog und unterstützt Kommunen, Unternehmen und Organisationen bei einer ganzheitlichen Blackout-Vorsorge. Auch das Brettspiel »Neustart« muss unbedingt erwähnt werden, das als Blackout Simulation für Gemeinden, Krisenstäbe entwickelt wurde, mittlerweile aber auch für ein breiteres Publikum empfohlen werden kann. Auf unterhaltsame Weise kann man eine realistische und ganzheitliche Blackout-Bewältigung simulieren. Wie haben wir die Pandemie überwunden? Warum war eine Rückkehr zur vor-Pandemie Zeit nicht möglich? Was haben wir über Resilienz von Logistik und Lieferketten gelernt, begonnen mit Blockade des Suez-Kanals bis zum Ukraine-Krieg? Was hat es mit den Energiepreisen auf sich; was ist passiert, was sind die Ursachen? Die (geo)politischen und ökonomischen Unsicherheit haben nicht abgenommen, eher das Gegenteil. Was ist hier falsch gelaufen? In diesem Jahr erwarten uns noch US-Wahlen, das Ganze mit Vereinigten Staaten, die unter einem völlig erdrückenden Budgetdefizit leiden, und unter massiver Polarisierung der Gesellschaft, ausgelöst auch durch dysfunktionale Medien. Welche Rolle spielt China und der Rest der Welt in dieser Gemengelage? Stehen wir vor globalem Chaos? Was ist die positive Aussicht? Neuordnung, Neuanfang, aber in welche Richtung? Immerhin erleben wir immer mehr führende Manager, die endlich nicht mehr nur auf Linie des politischen Narrativs sprechen, sondern sich näher an der Wahrheit äußern: »Die Reserven, die unsere Großmütter und Großväter in das System eingebaut haben, sind aufgebraucht. Wir müssen jetzt handeln, damit wir die Ziele der Energiewende erreichen und die Elektrifizierung von Gesellschaft, Wirtschaft und Industrie umgesetzt werden kann.«, Gerhard Christiner, Vorstand Austrian Power Grid AG oder Leonhard Birnbaum, der zwar vergisst den ungeheuren Ressourcenverbrauch zu nennen, aber dennoch relativ offen spricht: »Erneuerbare verbrauchen zwei Dinge: Fläche und Geld«, Leonhard Birnbaum, CEO von EON Deutschland Warum bereiten Erneuerbare solche Probleme im Stromnetz? Was war mit den Prognosen der Vergangenheit? Was ist eingetreten, was ist nicht eingetreten? Haben wir das notwendige Backup für den aus Netzsicht qualitativ minderwertigen Strom der Erneuerbaren? Mittelwerte sind keine Basis für eine ernsthafte Energiestrategie. Was folgt daraus aus der Sicht systemischer gegenüber einzelteiliger Strategie und Förderung. Welche zeitlichen Dimensionen müssen bei Stromspeichern bedacht werden? Warum ist die Angabe installierter Leistung irreführend und vergleichsweise irrelevant? Welche Rolle spielt Digitalisierung beim Steuerungsbedarf und der Komplexität der Netze? Was sind dezentrale funktionale Einheiten und Energiezellen? Können diese das Problem verringern? Wie können Simulationen helfen? »Im Stromnetz zählt jede Sekunde« Funktioniert die deutsche »Energiewende« nur, weil der Rest Europas die Probleme des deutschen Netzes behebt? Was ist die Momentanreserve und warum ist diese so wesentlich? Stoßdämpfer des Netzes Wie sieht die Situation weltweit aus? Gibt es einen Kipppunkt im System, wo liegt der? Stehen wir in vielen Industrienationen vor einer »Nigerianisierung« der Netze? Naive Effizienzmaßnahmen stehen meist im Gegensatz zu Redundanz: “Most modern efficiencies are deferred punishment.”, Nassim Taleb Bauen wir die Reserven der Vergangenheit auf (wie auch das Zitat von Christiner nahelegt) — was machen wir dann in der Zukunft? Das scheint keine nachhaltige und schon gar nicht resiliente Idee zu sein. Wie gehen wir etwa mit dem steigenden Wartungsbedarf immer größerer Infrastruktur um, die sich ergibt, wenn man Energie mit geringer Energiedichte produziert? Welche Rolle spielt der Mangel an Fachpersonal? Bilden wir die Leute richtig aus? Der Wettbewerb ist heute international. Beim Kampf ums Überleben und der Notwendigkeit, immer neue Auflagen zu erfüllen, bleibt die Strategie und das langfristige Denken oft auf der Strecke. Dazu kommt, dass Bürokratie zur Selbstverstärkung neigt. Warum werden Energieanbieter nicht gleichwertig behandelt? Die Allgemeinheit zahlt die Gewinne und nimmt die Risiken, die etwa Erneuerbaren-Anbieter ökonomisch schaffen. Was ist die globale Perspektive — besonders, wenn man an Nationen wie China oder Indien und deren Nutzung von Kohle denkt? War die Abschaltung der Kernkraftwerke in Deutschland eine gute Idee? Was ist die verdeckte Agenda? Geht es manchen politischen Akteuren nicht um eine ökonomisch und ökologisch sinnvolle Strategie, sondern um ideologische Erfolge, wie das Schrumpfen der Wirtschaft? Warum wird das dann nicht ehrlich kommuniziert? Welche Rolle spielt Energieintensität? Fossile Energie und Kernkraft kann nicht mit Energieformen wie vor zweitausend Jahren ersetzt werden, ohne dramatische Einschränkungen für die Gesellschaft, die in der Regel die Schwächsten trifft — sowohl national, besonders aber auch global. “Fossil fuels now supply about 83% of the world's commercial energy, compared to 86% in the year 2000. The new renewables (wind and solar) now provide (after some two decades of development) still less than 6% of the world's primary energy, still less than hydroelectricity.” “Four Pillars of Modern Civilization: ammonia, plastics, steel and concrete.” “Making just these four materials requires nearly 20% of the world's total energy supply generating about 25% of all greenhouse gas emissions. Alternative, non-carbon, ways of making these materials are known — but none is available for immediate large-scale commercial deployment.”, Vaclav Smil Verstehen Aktivisten und Politik die großen Zusammenhänge und Dimensionen moderner Zivilisation? »Wer Just Stop Oil operativ ernst nimmt, nimmt den Tod von Milliarden Menschen in Kauf.« Es gibt einen wesentlichen Unterschied zwischen vermeintlich guten Ideen und deren Umsetzung, Smart Metering als Beispiel für den Unterschied zwischen Ambition und Umsetzung. Es wird regelmäßig der zweite Schritt vor dem ersten gemacht, mit fatalen Konsequenzen.  “The world you see everywhere around you, could never have been built by the people you see now living within it”, Erik Weinstein, Tweet (2023) Was ist Chestertons Fence, und was können wir davon lernen? Was passiert bei einem Stromausfall? Wir sehen massive Abhängigkeit von Logistik — was sind die Folgen? Haben wir im Bereich des Zivilschutzes seit dem letzten Gesprächs Fortschritte gemacht? Gibt es einen Unterschied zwischen Österreich und Deutschland? »Die persönliche Ebene ist durch nichts zu ersetzen« Referenzen Andere Episoden Episode 90: Unintended Consequences (Unerwartete Folgen) Episode 82: Smart Communities, ein Gespräch mit Ulrich Ahle Episode 81: Energie und Ressourcen, ein Gespräch mit Dr. Lars Schernikau Episode 79: Escape from Model Land, a Conversation with Dr. Erica Thompson Episode 76: Existentielle Risiken Episode 74: Apocalype Always Episode 73: Ökorealismus, ein Gespräch mit Björn Peters Episode 72: Scheitern an komplexen Problemen? Wissenschaft, Sprache und Gesellschaft — Ein Gespräch mit Jan David Zimmermann Episode 65: Getting Nothing Done — Teil 2 Episode 64: Getting Nothing Done — Teil 1 Episode 62: Wirtschaft und Umwelt, ein Gespräch mit Prof. Hans-Werner Sinn Episode 51: Vorbereiten auf die Disruption? Ein Gespräch mit Herbert Saurugg und John Haas Episode 46: Activism, a Conversation with Zion Lights Episode 45: Mit »Reboot« oder Rebellion aus der Krise? Episode 42: Gesellschaftliche Verwundbarkeit, ein Blick hinter die Kulissen: Gespräch mit Herbert Saurugg Episode 36: Energiewende und Kernkraft, ein Gespräch mit Anna Veronika Wendland Herbert Saurugg Gesellschaft für Krisenvorsorge Fachblog Brettspiel: »Neustart« Initiative »Mach mit! Österreich wird krisenfit!« Initiative »Schritt für Schritt krisenfit« Leitfäden für die Vorsorge Leitfaden für die Blackout-Vorsorge in Unternehmen und Organisationen - Blackout-Vorsorgeplan Fachliche Referenzen Ray Dalio, Principles for Dealing with the Changing World Order: Why Nations Succeed and Fail, Simon and Schuster (2021) Weltordnung im Wandel: Vom Aufstieg und Fall von Nationen (Blog Herbert Saurugg) Gerhard Christiner, Zitat auf LinkenId (2024) Leonhard Birnbaum, CEO von EON Deutschland, Zitat aus Interview (2024) Nassim Taleb, Efficiency Quotation (Twitter) Vaclav Smil, The energy historian who says rapid decarbonization is a fantasy, Los Angeles Times (2022) Chestertons Fence Das europäische Stromversorgungssystem im Umbruch (2024) Unbequeme Wahrheiten über Strom und die Energie der Zukunft (Blog Herbert Saurugg) Shorting the Grid: The Hidden Fragility of Our Electric Grid (Blog Herbert Saurugg) Die Zerbrechlichkeit der Welt: Kollaps oder Wende. Wir haben es in der Hand. (Blog Herbert Saurugg) Energy Storage and Civilization: A Systems Approach (Blog Herbert Saurugg) Scale – Die universalen Gesetze des Lebens von Organismen, Städten und Unternehmen (Blog Herbert Saurugg) How Everything Can Collapse: A Manual for our Times (Blog Herbert Saurugg) Die Grenzen des Denkens (Blog Herbert Saurugg) Nassim Taleb, Skin in the Game, Hidden Asymmetries in Daily Life, Penguin (2018) Der Seneca-Effekt. Warum Systeme kollabieren und wie wir damit umgehen können (Blog Herbert Saurugg)

covid-19 ceo game conversations china interview pr fall war chaos system er situation fail prof escape welt thema principles skin zukunft deutschland blick geld rebellions idee activism ambition gro bj wo probleme autor lebens gibt dazu gesellschaft energie beispiel ideen disruption politik sicht unternehmen schritt ziele vergangenheit weise basis medien tod backup welche krise leute unterschied sprache bereich pandemie wahrheit penguin strategie denken reihe perspektive schw keynote speakers blackout kulissen ganze herbert los angeles times richtung wirtschaft umsetzung digitalisierung wissenschaft problemen krisen erfolge umwelt regel publikum leistung indien konsequenzen risiken strom ebene schuster gegenteil kauf industrie scheitern welche rolle ursachen ressourcen daily life linie unsicherheit nutzung mangel selbstverst abh organisationen einschr ein gespr zusammenh zwar stehen resilienz notwendigkeit gesetze fossil strecke aussicht wende neuanfang infrastruktur gegensatz blockades fortschritte zitat prognosen immerhin sto four pillars kohle komplexit gewinne energiewende umbruch dimensionen ukraine krieg gemeinden der titel nationen kommunen logistik vereinigten staaten interviewpartner auflagen zivilisation einheiten lieferketten nassim taleb vorbereiten us wahlen bilden netze akteuren polarisierung stromausfall milliarden menschen weltordnung kernkraft gesellschaftliche stromnetz reserven fachpersonal angabe gemengelage organismen elektrifizierung simulationen energiepreisen neuordnung industrienationen abschaltung netzes kernkraftwerke schrumpfen verwundbarkeit pandemiezeit der wettbewerb leitf rest europas energieformen modern civilization energiestrategie krisenvorsorge smart communities beim kampf energiedichte mittelwerte
UnterBlog
Bundestagswahl 2021 - Umfragewerte - Schwarz-Rot - Schwarz-Grün - Ampel oder R2G?

UnterBlog

Play Episode Listen Later Mar 24, 2021 32:49


✘ Werbung: https://www.Whisky.de/shop/ Die #Koalition der #Regierung macht gerade ein sehr schlechtes Bild. Kopflos, körperlos, uneinig, auf den eigenen #Vorteil bedacht und vor allem wenig regierungsfähig. Ich habe mir mal drei Umfragen vom 18.3.21 und 20.3.21 heraus gesucht und mal Mittelwerte und mögliche Koalitionen gerechnet. Die höchsten Wahrscheinlichkeiten liegen derzeit auf zwei möglichen Koalitionen. Quelle Umfragen ► https://www.wahlrecht.de/umfragen/index.htm Prof. Rieck zur Wahl ► https://youtu.be/wHoVSnE7VSk Wahlprognosen ► https://youtu.be/D6KTNmAoCrc Linke Medien ► https://youtu.be/4pKLioN_J14

Springtribe - Motivation, Comedy, Marketing

Diversity Management und ein Geniestreich von Friedrich Nietzsche bis Oliver Kahn. Das ist kein Poetry Slam. Das ist Statistik. Median. Mittelwerte. Sonst nichts.

Daily Dueck BlogCast
DD 342: Betriebsklima ist nicht Betriebswetter

Daily Dueck BlogCast

Play Episode Listen Later Jun 24, 2019 4:22


Immer, wenn es kalt ist, gibt es Leute wie etwa amerikanische Präsidenten, die sofort twittern: „Ich kann keinen Klimawandel erkennen.“ Dann hagelt es Belehrungen: „Wetter bedeutet etwas anderes als Klima!“ Das Klima macht eine generelle Aussage aus dem täglichen Wetter der letzten mindestens, glaube ich, dreißig Jahre. Das Wetter ist jeden Tag anders, mal für die Jahreszeit zu kalt, mal zu warm, aber statistisch gesehen hält es sich insgesamt um die langjährigen Mittelwerte herum. Wir sprechen von einer Klimaveränderung, wenn sich die langjährigen Mittelwerte verändern. Eine Wetteränderung können wir noch am gleichen Tag haben.

Modellansatz
Kointegrierte Prozesse

Modellansatz

Play Episode Listen Later Jul 7, 2016 25:22


Markus Scholz hat gerade seine Dissertation Estimation of Cointegrated Multivariate Continuous-Time Autoregressive Moving Average Processes an der KIT-Fakultät für Mathematik verteidigt. Gudrun ergriff die Gelegenheit, mit ihm über die Idee und Anwendungsmöglichkeiten von Zeitreihen-Modellen zu sprechen. Prinzipiell stehen Zeitreihen einerseits für zeitlich geordnete (Mess-)Daten, die z.B. durch Abtasten (wiederholtes Messen) eines Vorgangs in der Realität entstehen. Andererseits werden sie in der Statistik als Ergebnis eines Stochastischen Prozesses interpretiert, der diese Zeitreihe als eine seiner Realisierungen erzeugt. Der stochastische Prozess ist hierbei ein Modell und soll die wichtigsten Eigenschaften der Daten erfassen. Er soll auch dazu dienen, zuverlässige Schätzungen zu liefern, wie sich die Zeitreihe wahrscheinlich in die Zukunft fortsetzt. Mitunter interessieren hier sogar nur so oberflächliche Informationen wie Saisonalität und Trends. Ein Aspekt, der im Titel der Arbeit von Markus Scholz als "Moving Average" beschrieben ist, ist die Eigenschaft, dass die Werte der Zeitreihe vor allem durch die letzten davor liegenden Meßpunkte beeinflusst sind und die "Erinnerung" an weiter in der Vergangenheit liegende Zustände abklingt. Im Modell ist hier stets eine Zufallsquelle integriert, die man sich wie ein Auswürfeln pro Zeitpunkt vorstellen kann. Wie erfolgt hier die Zuordnung zwischen Datenreihe und stochastischem Modell? In der Regel basiert die Wahl auf der Erfahrung über zuvor benutzte Modelle in ähnlichen Zusammenhängen und auf den bekannten Eigenschaften der Modelle. Anschließend müssen jedoch stochastische Tests belegen, dass die Zuordnung tatsächlich korrekt ist. Markus Scholz hat sich mit stochastischen Prozessen beschäftigt, die kontinuierlich in der Zeit sind statt - wie bisher beschrieben - diskret. Sie eignen sich z.B. zur Modellierung von Temperaturverläufen. Prinzipiell nimmt man dabei an, dass eine hoch genug gewählte Abtastrate den Übergang von diskreten Messungen zu einem als stetig angesehenen Prozess unkritisch macht. Der Aspekt, der ihn hier vor allem beschäftigt hat, war die Erweiterung bekannter Modelle um die Eigenschaft der Nicht-Stationarität. Das heißt kurz gesagt, die Grundeigenschaften des Prozesses können sich über die Zeit ändern. Das kennen wir ja auch von der Temperatur: Einerseitzs durchlaufen tägliche Tiefst-, Höchst- oder Mittelwerte der Temperatur im Jahresverlauf eine typische Kurve für eine betrachtete Region. Andererseits kann im konkreten Jahr ein untypischer Verlauf vorliegen und es ist gar nicht so leicht zu quantifizieren, ob es sich um eine untypische Beobachtung handelt oder sich z.B. die Mittelwerte tatsächlich statistisch signifikant ändern. Anders gesagt führt die Nicht-Stationarität im Modell auf Probleme bei zugehörigen Schätzungen, die in der Regel schwer zu lösen sind. Deshalb hat Markus Scholz zunächst einen handhabbaren Spezialfall ausgewählt, die sogenannten kointegrierte Prozesse. Als stochastische Quelle - dienen ihm Lévy-Prozesse, die Sprünge zulassen. Die einfachste Zufallsquelle wären Brownsche Bewegungen, die aber nur stetig (d.h. ohne Sprünge) möglich sind. Lévy- Prozesse sind flexibel haben jedoch nützliche Eigenschaften, die ihre Behandlung erleichtern, wie z.B. stationäre Inkremente. Grundidee der Arbeit war es, vorhandene Resultate für zeitdiskrete nicht-stationäre Modelle und zeitstetige stationäre Modelle so zu vereinen, dass ein neues zeitstetiges und nicht-stationäres Modell mit gut studierbaren Eigenschaften entsteht. Hierbei wurden Zustandsraummodelle verwendet, welche durch Matrizen charakterisiert werden, die die Eigenschaften des Modells bestimmen. Eine entscheidende Beweisidee beruht darauf, dass die Matrizen so transformiert werden können, dass ein Entkopplung in stationäre und nicht-stationäre Anteile erfolgt und die Benutzung der jeweils bekannten Resultate auf den zusammengesetzten Prozess möglich wird. Besonders wertvoll sind hier die entwickelten Schätzverfahren für kointegrierte Prozesse. In der Praxis haben die Zeitreihen meist einen ungefähren Gleichlauf über die Zeit, damit sind sie gemeinsam integriert, also kointegriert. Der Begriff Integration bedeutet, dass die nicht-stationären Zeitreihen durch Differenzenbildung auf neue stationäre Zeitreihen zurückgeführt werden können. Die Schätzmethode baut auf derMaximum-Likelihood-Schätzung auf, welches anschließend mit Hilfe eines numerisches Optimierungsverfahren gelöst wird. Für die Schätzmethode konnte die Konsistenz nachgewiesen werden, d.h. Schätzfolgen mit immer mehr Daten werden immer besser (Konvergenz in Wahrscheinlichkeit gegen wahren Wert). Referenzen C. Granger: Nobel Prize Lecture, 2003. R. Stelzer: CARMA Processes driven by Non-Gaussian Noise, TUM-IAS Primary Sources - Essays in Technology and Science, 1 no.1, 2012. E. Schlemm and R. Stelzer: Quasi maximum likelihood estimation for strongly mixing state space models and multivariate Lévy-driven CARMA processes, arXiv, 2012.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 19/19
Bedeutung der 68Ga-DOTATATE PET/CT in der Primär- und Rezidivdiagnostik neuroendokriner Tumoren

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 19/19

Play Episode Listen Later Mar 17, 2016


Neuroendokrine Tumoren sind eine Entität heterogener Neoplasien, welche sich von neuroendokrinen Zellen herleiten. Ihre Inzidenz in der Allgemeinbevölkerung ist mit etwa 1:100.000 gering, und das obwohl sie innerhalb der letzten Jahrzehnte durch verbesserte Diagnostik und ein verstärktes Bewusstsein zugenommen hat. Die verbesserte Diagnostik bedeutet eine Vielfalt von Möglichkeiten in der Bildgebung. Es gilt, diese Möglichkeiten auf ihre diagnostischen Fähigkeiten hin zu untersuchen. Ziel dieser Arbeit war es, aus dem Patientengut der nuklearmedizinischen Kliniken der LMU Großhadern und Innenstadt die diagnostischen Fähigkeiten des Tracers 68Ga – DOTATATE für die Primär – und Rezidivdiagnostik neuroendokriner Tumoren retrospektiv zu evaluieren. 173 Patienten, welche zwischen den Jahren 2006 und 2011 in mindestens einer der beiden Kliniken eine 68Ga – DOTATATE PET/CT – Untersuchung erhalten haben, wurden ausgewählt. 104 Patienten stellten sich wegen Verdacht auf einen neuroendokrinen Tumor vor, bei 69 wurde ein Rezidiv eines neuroendokrinen Tumors vermutet. Alle Vor – und Nachuntersuchungen der Patienten wurden genau analysiert, histologische Befunde wurden berücksichtigt und im Zweifelsfall oder zum Follow – up wurde der jeweilige Hausarzt oder der Patient selbst kontaktiert. Falls vorhanden, wurden die Werte für Chromogranin A und NSE erfasst und ausgewertet. In Zusammenschau aller Ergebnisse zeigt der Tracer 68Ga – DOTATATE in der Primärdiagnostik eine Sensitivität von 80% und eine Spezifität von 88,4%. Der Positiv Prädiktive Wert ist 77,8% und der Negativ Prädiktive Wert 89,7%. Für die Rezidivdiagnostik gelten folgende Zahlen: Sensitivität = 89,7%, Spezifität = 80,0%, PPW = 76,5%, NPW = 91,4%. Die Werte für Chromogranin A waren in der Primärdiagnostik und im Gesamtkollektiv in der Gruppe der NET – Patienten signifikant erhöht (PD: 2087,14 ng/ml vs. 315,95 ng/ml, p

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Untersuchungen zu Risikofaktoren für das Auftreten von Federpicken und Kannibalismus bei nicht-schnabelgekürzten Legehennen in Praxisbetrieben

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Feb 6, 2016


Ziel dieser Arbeit war es Faktoren zu erkennen, die bei Legehennen zu Federpicken und Kannibalismus führen können, um zukünftig beides in alternativen Haltungssystemen bei nicht schnabelgestutzten Legehennen zu mindern oder zu vermeiden. Die vorliegende Dissertation wurde im Rahmen des Projektes „Maßnahmen zur Verbesserung des Tierschutzes bei Legehennen in Praxisbetrieben“ angefertigt. Das Projekt wurde durch das Bayerische Staatsministerium für Umwelt und Verbraucherschutz über das Bayerische Landesamt für Gesundheit und Lebensmittelsicherheit (LGL) und das Bayerische Staatsministerium für Ernährung, Landwirtschaft und Forsten gefördert. Die Erfassung der Daten des hier dargestellten zweiten Legedurchgangs erfolgte bei Legehennen mit nicht-kupierten (= Versuchsherden) und mit kupierten Schnäbeln (= Kontrollherden) in 14 konventionellen Praxisbetrieben (Bodenhaltung und Freiland) in Bayern und den dazugehörigen Aufzuchten. Bei den Besuchen in der Aufzucht (zweimal pro Betrieb) und den Legebetrieben (dreimal pro Betrieb) wurden Daten zum Stallklima (Temperatur, Luftfeuchtigkeit, Ammoniak, Lichtintensität, Staub und Luftströmung) sowie zu Haltungs- und Managementbedingungen (Besatzdichte, Ressourcenangebot, Verluste, Legeleistung, Einstreu- und Beschäftigungsmaterial) erhoben. Zudem wurden bei allen Betriebsbesuchen der Gefiederzustand und Verletzungen der Jung- und Legehennen durch standardisierte Einzeltierbeurteilungen (30 Tiere/ Herde) erfasst. Für die Varianzanalyse wurden die Daten aus dem 1. und 2. Legedurchgang herangezogen. Somit wurde durch die Wiederholung eine Erhöhung der Stichprobenanzahl erreicht. Bei den Junghennen traten bei fast allen Herden Gefiederschäden durch Federpicken auf. Die Versuchsherden hatten hierbei einen höheren Anteil an prozentualen Schäden als die Kontrollherden (bis 97 % bzw. bis 60 %). Generell fanden sich in den Aufzuchten kaum Kannibalismusverletzungen (bis 0,3 %). In der Varianzanalyse zeigte sich für den Faktor „Besatzdichte“ und „Einstreuqualität“ ein signifikanter Einfluss auf die Gefiederschäden (p = 0,002 bzw. p = 0,005). Die Mittelwerte der Verluste waren bei den Versuchsherden niedriger als bei den Kontrollherden (2,41 % bzw. 2,85 %). Es bestand ein signifikanter Zusammenhang zwischen dem Auftreten von Federpicken in der Aufzucht und den schweren Gefiederschäden durch Federpicken im Legebetrieb (Varianzanalyse: zweiter Besuch, p = 0,004 und dritter Besuch, p = 0,017). In Bezug auf Kannibalismusverletzungen fand sich ein signifikanter Zusammenhang beim zweiten Besuch (p = 0,05). Bei den Legehennen nahmen die Gefiederschäden und Pickverletzungen im Verlauf der Legeperiode stark zu. Insgesamt blieben hier drei Herden (zwei Versuchsherden und eine Kontrollherde) gänzlich frei von schweren Gefiederschäden durch Federpicken, welche ansonsten mit einem Anteil von bis zu knapp 100 % auftraten. Bei acht von 14 Versuchsherden und zwei von acht Kontrollherden trat Kannibalismus auf. In den Betrieben mit den meisten schweren Gefiederschäden durch Federpicken gab es auch die meisten Kannibalismusverletzungen (Rücken/ Stoß/ Bauch) und Kloakenkannibalismus. Bei den Weißlegern traten mehr hochgradige Läsionen an den Fußballen auf, als bei den Braunlegern (5,7 % bzw. 1,6 %). Die Varianzanalyse zeigte für die Faktoren „Einstreuqualität“ (zweiter Besuch, p = 0,021; dritter Besuch, p = 0,015) und „Freiland“ (dritter Besuch, p = 0,02) einen signifikanten Einfluss auf die Gefiederschäden. Ebenso zeigten die Faktoren „Anzahl Hennen pro Betreuungsperson“ (erster Besuch, p = 0,003; zweiter Besuch, p = 0,031) und „Gruppengröße“ (erster Besuch, p = 0,005; zweiter Besuch, p = 0,02) einen signifikanten Einfluss auf die Kloakenverletzungen. Bei den Versuchsherden waren die Mittelwerte der Verluste bis zum 330. Legetag höher als bei den Kontrollherden (12,51 % bzw. 8,18 %) und lagen über den Vorgaben der Zuchtfirmen. Die angestrebte Legekurve und Legespitze wurde nicht bei allen Betrieben erreicht. Sowohl in der Aufzucht, als auch beim Legebetrieb konnten keine signifikanten Zusammenhänge der Gefiederschäden und/ oder Kannibalismusverletzungen mit den gemessenen Stallklimafaktoren gefunden werden. Es fanden sich generell hohe Staubkonzentrationen in den Ställen. Die Junghennen wurden teilweise bei sehr geringen Lichtintensitäten und zu hohen Ammoniakkonzentrationen aufgezogen. Bei manchen Legebetrieben wurde die Lichtintensität im Verlauf der Legeperiode stark reduziert, und es lag eine für den Gefiederzustand zu niedrige Stalltemperatur vor. Es fanden sich bei allen untersuchten Daten große Unterschiede zwischen den einzelnen Betrieben. Es bleibt anzumerken, dass gesetzliche Vorgaben für die Junghennenaufzucht dringend notwendig sind, da die Aufzucht einen großen Einfluss auf das Verhalten der späteren Legehennen hat. Zudem sind ein Freilandzugang mit tiergerechter Gestaltung sowie gutes Einstreumaterial von großer Bedeutung. Das optimale Management eines Betriebes ist letztendlich ausschlaggebend für die Vermeidung von Federpicken und Kannibalismus. Es bleibt zu beachten, dass die Ergebnisse dieser Feldstudie mit Praxisbetrieben nicht generalisiert werden können und anhand einer größeren Anzahl untersuchter Herden validiert werden sollten.

Telekolleg Mathematik
#01 Statistik - Arithmetisches Mittel, Modalwert und Zentralwert

Telekolleg Mathematik

Play Episode Listen Later Mar 13, 2015 29:44


Eine Menschengruppe eignet sich hervorragend als Statistik-Übung: Wir können sie ordnen nach Alter oder Größe - und dann Mittelwerte berechnen. Die Grundlagen dafür lernen Sie hier. Im Quiz können Sie Ihr Wissen testen.

mittel statistik die grundlagen mittelwerte sie ihr wissen
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Retrospektive Studie zum Energiebedarf von privat gehaltenen Hunden und Katzen im Erhaltungsstoffwechsel

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07

Play Episode Listen Later Jul 12, 2014


In dieser retrospektiven Studie über den energetischen Erhaltungsbedarf von Hund und Katze aus der Privattierhaltung wurden Daten aus der Ernährungsberatung des Lehrstuhls für Tierernährung und Diätetik in Oberschleißheim aus den Jahren 2007 bis 2011 ausgewertet, um feststellen zu können, ob die Ergebnisse von den aktuellen Empfehlungen zum Energieerhaltungsbedarf von Hund und Katze (NRC 2006) abweichen. Zur Rationsberechnung wurden ein standardisierter Fragebogen und die Software Dietcheck Munich® verwendet. Die umsetzbare Energie der Futtermittel wurde nach NRC (2006) geschätzt. Energiebedarf des Hundes im Erhaltungsstoffwechsel Es lagen für die Studie Daten von 586 ausgewachsenen Hunden (medianes Alter 5,5 Jahre, mediane Abweichung vom Idealgewicht 0,0 %, 58 % kastriert) zur Verfügung, es handelte sich ausschließlich um Tiere im Erhaltungsstoffwechsel. 9% der Hunde waren vollkommen gesund, die anderen wiesen verschiedene chronische Erkrankungen auf. Es wurde untersucht, welche Faktoren den Energiebedarf bezogen auf das metabolische Körpergewicht beeinflussen könnten. Dabei wurde die Abweichung vom Idealgewicht, die Rasse und die Größe des Hundes, das Alter, das Geschlecht und der Kastrationsstatus, chronische Erkrankungen und die Art der Fütterung (Fertigfutter, selbstzubereitete Ration) im Bezug zur Energieaufnahme der Hunde pro kg W0,75 gesetzt. Eine Abweichung vom Idealgewicht von mehr als 10 % bei den Hunden galt als Unter-, bzw. Übergewicht. Die mittlere Energieaufnahme der Hunde lag bei 98 ± 29 kcal/ kg W0,75. Weder die Körpergröße noch chronische Erkrankungen zeigten einen Einfluss auf den Energieerhaltungsbedarf der Hunde. Auch die Art der Fütterung hatte keine Auswirkung auf den Energiebedarf. Die Einschätzung des Idealgewichts durch die Tierbesitzer stimmte gut mit dem Rassestandard nach Krämer (2002) überein. Es waren nur 11 % der Hunde übergewichtig, 9 % waren untergewichtig und 80 % der Hunde normalgewichtig. Es wurde ein signifikanter Unterschied zwischen der Energieaufnahme übergewichtiger, untergewichtiger und normalgewichtiger Hunde festgestellt (Tabelle 3). Tabelle 3: Effekt von Über- und Untergewicht auf den Energieerhaltungsbedarf des Hundes Gewichtsgruppe N medianes Alter in Jahren mediane prozentuale Abweichung vom Idealgewicht (Angabe des Besitzers) ME-Energiebedarf kcal/ kg W0.75 Mittelwert ± SD Übergewicht 62 7 15,2 86 ± 29a Normalgewicht 478 5 0 98 ± 28b Untergewicht 46 5,5 -14,5 119 ± 38c Mittelwerte aus der gleichen Spalte, die nicht den gleichen hochgestellten Buchstaben aufweisen, sind signifikant unterschiedlich zueinander (ANOVA, Holm-Sidak-Test, p < 0,05) Hunde in einem Alter von mehr als sieben Jahren (n= 149) hatten eine Energieaufnahme, die mit 93 kcal/ kg W0,75 niedriger lag als die Energieaufnahme jüngerer Hunde in einem Alter von weniger als sieben Jahren (n= 313, 100 kcal/ kg W0,75). Intakte Rüden wiesen im Vergleich zu den anderen Hunden einen überdurchschnittlichen Energiebedarf auf (p < 0,001). Es lag ein Unterschied in der Energieaufnahme bestimmter Hunderassen vor. So zeigten Jack Russel Terrier, Dalmatiner, kleine Münsterländer und der Magyar Viszla, sowie der Bearded Collie, Windhunde, der Deutsche Boxer, der Englische Foxhound, der Rhodesian Ridgeback sowie der Flat Coated Retriever einen überdurchschnittlich hohen Energiebedarf, die mittlere Energieaufnahme dieser Rassen lag bei 113 kcal/ kg W0,75. Dackel, sowie Schoßhunde, der Westhighland White Terrier, alle Collie Rassen außer der Bearded Collie, der Airedale Terrier und American Staffordshire Terrier, und auch der Golden Retriever wiesen dagegen eine unterdurchschnittliche mittlere Energieaufnahme von 82 kcal/ kg W0,75 auf. Dies muss nicht unbedingt auf einen tatsächlichen Rasseeffekt hinweisen, sondern kann auch den Lebensstil der Besitzer, die diese Rassen bevorzugen, reflektieren. Der mittlere Energieerhaltungsbedarf von Haushunden ist vergleichbar mit dem Energiebedarf von Laborhunden, die eine geringe spontane Aktivität aufweisen, sowie alten Laborhunden. Dieses Ergebnis lässt vermuten, dass die Möglichkeit und der Anreiz zur Bewegung bei Haushunden, die mit dem Menschen in einem Haushalt leben, niedriger ist als bei Laborhunden. Eine reduzierte Aktivität könnte auch einen nivellierenden Effekt auf mögliche Faktoren wie Alter, Grunderkrankung oder Rasse haben, die in dieser Studie den Energieerhaltungsbedarf der Hunde weniger stark beeinflussten als zu Studienbeginn erwartet. Energiebedarf der Katze im Erhaltungsstoffwechsel In dieser Studie wurden die Daten von 80 ausgewachsenen Katzen im Erhaltungsstoffwechsel (medianes Alter 9,0 Jahre, mediane Abweichung vom Idealgewicht: + 22.5 %, die meisten kastriert) ausgewertet. 6 % der Katzen waren vollkommen gesund, die anderen wiesen verschiedene chronische Erkrankungen auf. Es wurde dabei die Abweichung vom Idealgewicht, das Alter, das Geschlecht, chronische Erkrankungen und die Art der Fütterung (Fertigfutter, selbstzubereitete Ration) auf die Energieaufnahme pro kg W0,67 bezogen. Über- und Untergewicht wurde definiert bei einer Abweichung vom Idealgewicht von mehr als 15 %. Die Angabe des Idealgewichts laut Besitzer wurde mit den Daten aus der Studie von Kienzle und Moik (2011) verglichen. Im Gegensatz zu den Hundebesitzern überschätzten die Katzenbesitzer das Idealgewicht ihres Tieres deutlich. Auf Basis der Daten von Kienzle und Moik (2011) waren 26,3% der Katzen normalgewichtig und 63,7% übergewichtig, während nach Schätzung der Besitzer nur 26% übergewichtig waren. Daher wurde zur weiteren Beurteilung das Idealgewicht der Katzen nach Kienzle und Moik (2011) festgelegt. Die mittlere Energieaufnahme der Katzen lag bei 96 ± 33 kcal/ kg W0.67. Bei den Katzen konnte kein signifikanter Unterschied zwischen der Energieaufnahme kranker und gesunder Katzen festgestellt werden. Des Weiteren hatte das Alter, das Geschlecht oder die Art der Fütterung keinen Einfluss auf die Energieaufnahme der Katzen. Übergewichtige Katzen fraßen nach der aktuellen Studie signifikant weniger als normal- oder untergewichtige Katzen (Tabelle 4). Tabelle 4: Effekt von Über- und Untergewicht auf den Energieerhaltungsbedarf der Katze Normalgewicht Übergewicht Untergewicht kcal ME/ kg W0.67 (n) 110 ± 36X (21) 86 ± 29Y (51) 117 ± 43X (8) Mittelwerte aus der gleichen Zeile, die nicht den gleichen hochgestellten Buchstaben aufweisen, sind signifikant unterschiedlich zueinander (ANOVA, Holm-Sidak-Test, p < 0,05). Der Energieerhaltungsbedarf einer normalgewichtigen Katze entspricht den aktuellen Empfehlungen (NRC 2006), vorausgesetzt das Idealgewicht wird auf Basis der Daten von Kienzle und Moik (2011) festgelegt.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Theoretical stellar atmosphere models for cool stars

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later May 14, 2014


In kühlen Sternen wie der Sonne wird die nuklear erzeugte Energie aus dem Inneren an die Oberfläche transportiert. Diese kann dann in den freien Weltraum entfliehen, und so können wir das Sternenlicht letztlich beobachten. Die theoretische Modellierung des photosphärischen Übergangsbereiches – vom konvektiven zum radiativen Energietransport – ist aufgrund der inhärenten dreidimensionalen (3D) Natur der Konvektion und der komplexen, nicht-linearen und nicht-lokalen Interaktionen des Strahlungsfelds mit dem stellaren Plasma sehr anspruchsvoll. Theoretische Atmosphärenmodelle stellen die fundamentale Basis für die Untersuchung von Sternen dar, daher sind Astronomen für ihr Verständnis der Sterne auf diese letztlich angewiesen. Die üblicherweise verwendeten eindimensionalen (1D) Atmosphärenmodelle beinhalten verschiedene Vereinfachungen. Insbesondere wird die Konvektion für gewöhnlich mit der Mischungswegtheorie berechnet, trotz ihrer wohlbekannten Fehler, da derzeit keine deutlich besseren Alternativen vorhanden sind. Der einzige Ausweg, um dieses Problem zu überwinden ist, die zeitabhängigen, dreidimensionalen, hydrodynamischen Gleichungen, welche mit einem realistischen Strahlungstransport gekoppelt sind, zu lösen. Aufgrund der in den vergangenen Jahrzehnten rasch gestiegenen Rechenleistung wurden bedeutende Fortschritte mit Simulationen für 3D Strahlungshydrodynamik (RHD) von Atmosphären erzielt. Diese Modelle sind außerordentlich leistungsfähig, und besitzen eine enorme Vorhersagekraft, wie präzise Vergleiche mit Sonnenbeobachtungen wiederholt beweisen konnten. Ausgestattet mit diesen ausgereiften Methoden möchte ich als Ziel meiner Dissertation die drei folgenden Fragen näher untersuchen: Was sind die Eigenschaften der Atmosphären von kühlen Sternen? Welche Unterschiede sind zwischen den 1D und 3D Modellen vorhanden? Wie verändern sich die Vorhersagen für die Sternstrukturen und Spektrallinien? Um mich dieser Aufgabenstellung systematisch anzunehmen, habe ich das Stagger-Gitter berechnet. Das Stagger-Gitter ist ein umfangreiches Gitter aus 3D RHD Atmosphärenmodellen von kühlen Sternen, welches einen großen stellaren Parameterbereich abdeckt. In der vorliegenden Dissertation beschreibe ich die Methoden, welche angewendet wurden, um die vielen Atmosphärenmodelle zu berechnen. Zudem werden die allgemeinen Eigenschaften der resultierenden 3D Modelle, auch deren zeitliche und räumliche Mittelwerte detailliert dargestellt und diskutiert. Die Unterschiede zwischen den 1D und 3D Schichtungen, sowie die Details der stellaren Granulation (die Manifestation der Konvektion unterhalb der Sternoberfläche) werden ebenfalls umfangreich erläutert und beschrieben. Des Weiteren habe ich folgende Anwendungen für die 3D Atmosphärenmodelle untersucht: Berechnung theoretischer Spektrallinien, wichtig für die Bestimmung von Sternparametern, Spektroskopie und Häufigkeiten-Analyse; die sogenannte Randverdunkelung, notwendig für die Analyse interferometrischer Beobachtungen und Suche nach extrasolaren Planeten; und die Kalibrierung der Mischungsweglänge, womit 1D-Sternmodelle verbessert werden können. Die Qualität der hochauflösenden Beobachtungen hat inzwischen die der theoretischen 1D Atmosphärenmodelle aufgrund der technischen Entwicklungen in den vergangenen Jahren überschritten. Daher hat sich der Bedarf an besseren Simulationen für Atmosphärenmodelle erhöht. Durch die Bereitstellung eines umfangreichen Gitters aus 3D RHD Atmosphärenmodellen wurde dazu ein erheblicher Beitrag geleistet. Damit werden wir den Anforderungen an die Theorie für die derzeitigen und zukünftigen Beobachtungen gerecht werden, und können somit zu einem besseren Verständnis der kühlen Sterne beitragen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19
Reparatur methacrylatbasierter dentaler Restaurationskomposite unter Einsatz von Schallaktivierung

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19

Play Episode Listen Later Apr 17, 2014


Mit der Etablierung der adhäsiv befestigten Komposite in der Zahnheilkunde wurde ein Weg hin zu minimalinvasiven Therapieansätzen eingeschlagen. Die Schonung der Zahnhartsubstanz rückte in den Mittelpunkt (Tyas et al. 2000). Allerdings weisen auch diese modernen zahnärztlichen Werkstoffe nur eine begrenzte Lebensdauer auf. Zahnärzte verbringen einen Großteil ihrer Behandlungszeit mit der Erneuerung defekter oder insuffizienter Füllungen (Fernández et al. 2011). Mit jeder Re-Restauration geht jedoch wertvolle Zahnhartsubstanz verloren, was zur Gefährdung der Integrität der Pulpa und somit zur Notwendigkeit weiterer zeitintensiver und für den Patienten ökonomisch sowie psychisch belastender Therapiemaßnahmen führen kann. Eine Möglichkeit, diese Entwicklung aufzuhalten oder zumindest zu verlangsamen ist, partiell insuffiziente Restaurationen nicht sofort zu erneuern, sondern, wenn möglich, zu reparieren (Kamann & Gängler 2000). Die vorliegende Arbeit soll zum bisherigen Wissensstand über die Kompatibilität verschiedener (methacrylatbasierter) Komposite beitragen und eine Entscheidungshilfe für oder gegen bestimmte Reparaturmaterialien- und Methoden darstellen. Als neuer Ansatzpunkt wurde der Einsatz von Schallaktivierung zur Reduzierung der Viskosität und Veränderung des Fließverhaltens der Reparaturkunststoffe untersucht. Die fünf methacrylatbasierten Komposite Grandioso Flow (Voco), Clearfil Majesty Posterior (Kuraray), Clearfil Majesty Esthetic (Kuraray), Estelite Sigma Quick (Tokuyama) und SonicFill (Kerr) fanden jeweils als Substrat- und Reparaturmaterial Verwendung. Sie wurden sowohl mit sich selbst als auch mit jedem der vier anderen Kunststoffe kombiniert. Eine Hälfte der zylinderförmigen Proben wurde auf konventionelle Art mithilfe von Handinstrumenten hergestellt, bei der anderen Hälfte kam das Handstück SonicFill zur schallaktivierten Applikation des Reparaturmaterials zum Einsatz. Als Haftvermittler dienten ein Silane Primer und ein Adhäsiv (Optibond FL, beide Kerr). Vor der Reparatur wurden die Proben zwei Monate in bidestilliertem Wasser bei 37°C einem artifiziellen Alterungsprozess unterworfen. Anschließend wurden die Oberflächen mit Siliziumkarbidpapier der Körnung 400 angeraut und mit Phosphorsäure gereinigt. Nach Auftragen der Haftvermittler und der neuen Kompositschichten erfolgte erneut eine Lagerung über zwei Monate in bidestilliertem Wasser. Um vergleichende Aussagen treffen zu können, wurden positive Kontrollgruppen für alle Restaurationsmaterialien hergestellt. Zur Evaluierung der Haftfestigkeit des Verbundes wurde ein Makro-Scherversuch durchgeführt. Es stellte sich heraus, dass verschiedene Materialkombinationen zu sehr unterschiedlichen Haftfestigkeitswerten führten. Mehrere Kombinationen überschritten den in der Literatur genannten Richtwert von 18-20 Megapascal (Puckett et al. 1991) und könnten möglicherweise somit intraoral erfolgreich für Reparaturen eingesetzt werden. Der Einfluss des Reparaturmaterials auf die Scherhaftfestigkeit (partielles Eta-Quadrat = 0,219) war höher als der des Substratmaterials (partielles Eta-Quadrat = 0,126) und des Schalleinsatzes bei der Verarbeitung des Reparaturwerkstoffes (partielles Eta-Quadrat = 0,015). Dies bedeutet für den behandelnden Zahnarzt die Möglichkeit, den Erfolg einer Reparatur selbst beeinflussen zu können. Insgesamt erwies sich Clearfil Majesty Posterior als das Reparaturmaterial, welches sowohl relativ zur Kontrollgruppe gesehen als auch in absoluten Zahlen die höchsten Werte erzielte. Es war gleichzeitig das am höchsten gefüllte der untersuchten Materialien. Diese Beobachtung steht in Widerspruch zu den Ergebnissen einer früheren Studie, wonach hochgefüllte Komposite aufgrund schlechterer Benetzungsfähigkeit zu niedrigeren Haftfestigkeiten führten (Baur & Ilie 2012), jedoch in Übereinstimmung mit der Untersuchung von Boyer et al. (Boyer et al. 1984). Betrachtet man die Frakturmuster der abgescherten Proben, fällt auf, dass es hauptsächlich zu adhäsiven Brüchen kam. Gemischte und kohäsive Brüche traten vor allem in Zusammenhang mit hohen Haftfestigkeitswerten auf. Sie häuften sich bei den Proben der positiven Kontrollgruppen. Außerdem fiel auf, dass gleich hohe Haftfestigkeitswerte nicht immer auch zu identischen Frakturverläufen führten, wie auch Maneenut et al. schon beobachtet hatten (Maneenut et al. 2011). Im Einklang mit den Ergebnissen anderer Autoren (Gregory et al. 1990; Maneenut et al. 2011) schnitten in der vorliegenden Untersuchung homotype Reparaturen insgesamt nicht besser ab als heterotype. Die bei homotypen Reparaturen erzielten Haftfestigkeitswerte variierten zwischen 41,6 % und 72,5 % der kohäsiven Mittelwerte. Bei der Verarbeitung der Materialien ließ sich feststellen, dass nicht alle Materialien gleichermaßen durch die Schallaktivierung beeinflusst wurden. Clearfil Majesty Posterior zeigte kaum eine Veränderung der Viskosität. Da sich SonicFill von Clearfil Majesty Posterior den Füllstoffgehalt nach Herstellerangaben betreffend im Vergleich mit den anderen drei Materialien am meisten unterscheidet, könnte der Füllstoffgehalt eines Komposits bei der Verwendung von Schall zur Viskositätsveränderung eine größere Rolle spielen als die Zusammensetzung und Gestalt der Füllkörper. Nur Estelite Sigma Quick zeigte als Reparaturmaterial insgesamt bessere Ergebnisse nach schallaktiviert durchgeführter Reparatur. Möglicherweise lässt sich diese Beobachtung auf den Aufbau der Füllerfraktion zurückführen. Die Füllkörper wiesen eine nahezu einheitliche Größe und kugelrunde Form auf, wodurch sich Estelite Sigma Quick stark von den anderen Materialien unterschied. Auch SonicFill, ein Material, das für den Einsatz mit dem SonicFill-Handstück entwickelt wurde, lieferte höhere Haftfestigkeitswerte bei konventioneller Verarbeitung. Dies lässt sich eventuell darauf zurückführen, dass für die vorliegende Studie eine plan geschliffene Substratoberfläche ohne Möglichkeit zur Makroretention verwendet wurde. Andererseits reicht die manuelle Bearbeitung eines Komposits durch Edelstahlinstrumente möglicherweise bereits aus, um die thixotropen Eigenschaften des Materials schon in ausreichendem Maße zu aktivieren und die Fließeigenschaften sowie die Benetzung der Oberfläche optimal zu modifizieren. Zusammenfassend lässt sich sagen, dass einige Komposite das Potential zur Viskositätsverringerung durch den Einsatz eines Schallhandstücks aufweisen. Die Empfehlung, diese Methode zur Reparatur einzusetzen, kann jedoch nur eingeschränkt und teilweise für das Material Estelite Sigma Quick oder die schallaktivierte Reparatur von Füllungen aus Estelite Sigma Quick und SonicFill mit Clearfil Majesty Posterior erfolgen. In den meisten Fällen ist Clearfil Majesty Posterior (konventionell verarbeitet) als Reparaturmaterial zu empfehlen. Weitere Studien an Zahnhartsubstanz und Kavitäten, die die Möglichkeit zur Makroretention aufweisen und bessere Fließeigenschaften des Reparaturmaterials verlangen, sollten folgen. Ebenso sollte näher untersucht werden, welche physikalischen und chemischen Auswirkungen die Schallaktivierung auf Dentalkunststoffe hat.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19
Mehr als 85% aller Granularzellen im menschlichen Kleinhirn entstehen postnatal - ohne Unterschied zwischen plötzlichem Kindstod und Kontrollfällen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 15/19

Play Episode Listen Later May 21, 2013


Ziel der Hauptuntersuchung der vorliegenden Arbeit war die Überprüfung der Hypothese, dass sich beim plötzlichen Kindstod („sudden infant death syndrome“; SIDS) im Vergleich zu alters- und geschlechtsgematchten Kontrollen (d.h. bei Kindern, die innerhalb des ersten Lebensjahres nicht an SIDS verstorben waren), im Kleinhirn veränderte Gesamtzahlen von Purkinjezellen und Granularzellen finden. Hintergrund dieser Hypothese waren (i) Spekulationen in der Literatur über eine mögliche Rolle des Kleinhirns in der Pathogenese von SIDS sowie (ii) wiederholte Berichte in der neuropathologischen Literatur über mögliche Veränderungen der oben genannten Parameter bei SIDS. Diese neuropathologischen Berichte widersprechen sich jedoch gegenseitig teilweise erheblich, d.h. manche dieser Studien berichteten Veränderungen der oben genannten Parameter bei SIDS, andere Studien hingegen nicht. Wichtig ist dabei, dass keine dieser Untersuchungen in der Literatur mit „design-based“ stereologischen Methoden (d.h. dem „state of the art“ der quantitativen Histologie) durchgeführt wurde. Dementsprechend muss unklar bleiben, ob (und wenn ja, in welchem Ausmaß) die beschriebenen Widersprüche in der neuropathologischen Literatur zur Beteiligung des Kleinhirns an der Pathogenese von SIDS auf die verwendeten Methoden zurückzuführen sind. Dies machte eine Neuauswertung der genannten Parameter im Kleinhirn bei SIDS mit design-based stereologischen Methoden notwendig. Darüber hinaus wurde in einer Nebenuntersuchung der Frage nachgegangen, ob im menschlichen Kleinhirn von den Purkinjezellen im ersten Lebensjahr Sonic hedgehog exprimiert wird, dem bei Labortieren (Maus, Ratte, Huhn) bei der Entstehung der inneren Granularzellschicht im Kleinhirn eine zentrale Steuerfunktion zukommt. Die Beantwortung dieser Frage bezog sich auf einen Bericht in der jüngeren Literatur, nach dem dies bei der Entwicklung des menschlichen Kleinhirns anders sein sollte. Für die Hauptuntersuchung wurden insgesamt n=23 Kleinhirnhälften (je eine Kleinhirnhälfte pro Fall) von Kindern untersucht, die im ersten Lebensjahr verstorben waren. Von diesen n=23 Kleinhirnhälften stammten n=9 von SIDS-Fällen (im Alter zwischen zwei und zehn Monaten verstorben), n=9 von alters- und geschlechtsgematchten Kontrollen, sowie n=5 weitere von Kontrollen, die entweder in einem früheren oder einem späteren Alter als die SIDS-Fälle gestorben waren (sowie ein Kind, das im Alter von 8 Monaten gestorben war). Die Nebenuntersuchung erfolgte an insgesamt n=6 Kleinhirnhälften (davon n=4 SIDS-Fälle und n=2 Kontrollen, die im Alter zwischen einem und zehn Monaten gestorben waren). Alle Kleinhirnhälften stammten aus einer Sammlung des Instituts für Rechtsmedizin der Ludwig-Maximilians-Universität München und wurden dort in den Jahren 1999 bis 2001 durch Herrn Univ.Prof. Dr.med. Andreas Büttner (heute: Direktor des Instituts für Rechtsmedizin, Universitätsklinikum Rostock) im Rahmen von Autopsien gesammelt. Die Verwendung dieser Kleinhirnhälften für die vorliegende Arbeit wurde von der Ethikkommission der Medizinischen Fakultät der Universität Rostock unter der Nummer A2012-0053 genehmigt. Bei der Hauptuntersuchung wurden für jede Kleinhirnhälfte an mit Nissl gefärbten 100 µm dicken parasagittalen Serienschnitten die folgenden Parameter mittels „high-precision design-based stereology“ bestimmt: (i) Volumen der Molekularschicht; (ii) Volumen der inneren Granularzellschicht (einschliesslich der Purkinjezellschicht); (iii) Volumen der weißen Substanz; (iv) Gesamtzahl von Purkinjezellen; (v) Gesamtzahl von Granularzellen (in der inneren Granularzellschicht); und (vi) Anzahl von Granularzellen pro Purkinjezelle. Die Bestimmung der Volumina erfolgte mit dem sogenannten Cavalieri-Prinzip, und die Bestimmung der Gesamtzahlen von Purkinjezellen und Granularzellen mit dem sogenannten „optical fractionator“. Bei der Nebenuntersuchung erfolgte ein immunhistochemischer Nachweis von Sonic hedgehog und Calbindin in den Purkinjezellen. Keiner der beschriebenen Parameter zeigte in der Hauptuntersuchung einen statistisch signifikanten (p

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19
Einschätzung von Umweltrisiken durch Medizinstudierende

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19

Play Episode Listen Later Feb 11, 2010


Umwelt- und Gesundheitsrisiken werden in der Gesellschaft kontrovers diskutiert. Einige Risiken werden in ihrer gesundheitlichen Relevanz überschätzt (z.B. elektro-magnetische Felder), andere werden eher unterschätzt (z.B. Passivrauch), weshalb sie beide im Fokus der Arbeit standen. Ziel dieser Studie war es, bei Medizinstudierenden die Wahrnehmung von Umwelt- und Gesundheitsrisiken für Kinder zu untersuchen und mit Experteneinschätzungen zu vergleichen. Darüber hinaus sollten Interventionsmaßnahmen konzipiert werden, um die Gesundheit späterer Patienten zu schützen und übertriebene Sorgen zu relativieren. Hierzu wurden nach der Klausur für Klinische Umweltmedizin 130 Medizinstudierende gebeten, mittels eines Fragebogens, 40 Umwelt- und Gesundheitsrisiken auf einer fünfstufige Skala („kein Einfluss“ bis „lebensbedrohlich“) einzuschätzen. Die Response betrug 89%. Ihre Antworten wurden mit Einschätzungen von 50 Experten verglichen. Als größte Risiken wurden Kopfverletzung beim Radfahren ohne Helm(Mittelwert 4,4), Verletzungen bei Verkehrsunfällen(4,0), Passivrauch(3,9), Meningitis(3,9) und Bewegungsarmut/ -mangel(3,8) gewertet, als geringste Risiken Impfungen(2,1), Mobil-telefon(2,1), natürliche Strahlung (2,0), Mobilfunkbasisstation(1,9) und Wetterfühlig-keit(1,9). Im Expertenvergleich wurden die meisten Risiken, darunter elektro-magnetische Felder (z.B. Atomkraft(Differenz der Mittelwerte Δ=1,4), Mobilfunk-basisstation(Δ=0,7), Mobiltelefon(Δ=0,4)) und Passivrauch(Δ=0,4) überschätzt, lediglich die Risiken Treibhauseffekt und Allergene wurden eher unterschätzt. Hinsichtlich der Ergebnisse und der Bedeutung der Umweltrisiken Passivrauch und elektromagnetische Felder waren Interventionsmaßnahmen indiziert, weshalb in einem zweiten Schritt unter Einsatz des CASUS®-Systems Computerlernfälle zu den beiden Themen erstellt wurden. Die Fälle wurden im Online-Kurs Klinische Umweltmedizin eingesetzt und im Sommersemester 2008 von 91 Studierenden (Teilnahmebereitschaft 44%) evaluiert. Die Qualität des Falls Umweltbedingte Mittelohrentzündung wurde von einem Großteil der Studierenden als hoch eingeschätzt. Auch die Motivation für das Fach Umweltmedizin wurde deutlich gesteigert. Das Gesamturteil war mit einem Median von 12 Punkten (Skala von 1 bis 15 Punkte) äußerst zufriedenstellend. Folglich stellen computergestützte Lernprogramme, speziell die fallbasierten Systeme eine ausgezeichnete Ergänzung zum konventionellen Kurs Klinische Umweltmedizin dar. Sie ermöglichen eine effiziente und breit akzeptierte Vermittlung von Fachwissen zu umweltmedizinischen Themen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19
Kann die Diagnostik des Anstrengungsasthmas durch eine ergänzende Kaltluftprovokation verbessert werden?

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19

Play Episode Listen Later Jul 10, 2008


Diese Arbeit beschäftigt sich mit Diagnostik der im Kindes- und Jugendalter häufig vor-kommenden Form der belastungsinduzierten Asthmaerkrankung. Dabei haben wir uns die Frage gestellt, ob eine Ergänzung der bislang routinemäßig durchgeführten Diagnostik in Form eines Lauftests in freier Ebene oder auf dem Laufband durch eine ergänzende Diagnostik in Form einer Kaltluftprovokation zu einer Verbesse-rung der Identifikation der Anstrengunsasthmatiker führen kann. Der Grund dieser Überlegung war die Feststellung der erheblichen Diskrepanz der in der Literatur gemachten Angaben der diagnostizierten Anstrengunsasthmatiker unter den an Asthma bronchiale leidenden Kinder. Nach Lemke J (1998) ist diese Diskrepanz auf die Unterschiede im Schweregrad der Erkrankung bei den untersuchten Kindern, unterschied-lich eingesetzte Belastungstests und verschiedene Diagnosekriterien zurückzuführen. Die Infragestellung einer adäquaten Diagnostik ist aber dann angebracht, wenn man unter anderem die Aussage eines Berichtes des Deutschen Ärzteblatts (Ausgabe 19 vom 09.05.2003) berücksichtigt, nach der immer noch etwa ein Drittel der asthmakranken Kin-der und Jugendlichen dauerhaft vom Schulsport befreit sind. Das Unterbleiben einer solchen Diagnostik hat insofern eine hohe Relevanz, weil eine dadurch entstehende ausbleibende oder inadäquate Therapie zu Angst vor körperlicher Belastung führt, die eine entsprechende Vermeidungsstrategie nach sich zieht, was zu ei-ner Fehlentwicklung des betroffenen Kindes führt. Dabei ist nicht zuletzt an die zuneh-mend auftretende Adipositas mit ihren Nachteilen für das heranwachsende Kind und ihre Folgeerkrankungen zu denken. Letztendlich soll die verbesserte Diagnostik dazu führen, dass die betroffenen Kinder eine adäquate Therapie bekommen, so dass sie am Schulsport teilnehmen und sich physisch und psychisch normal entwickeln können. Um die eingangs gestellte Frage zu beantworten haben wir 41 Patienten mit bereits durch das freie Laufen in der Ebene nachgewiesenem Anstrengensasthma untersucht. Als Kon-trolle wurde eine Gruppe von 27 Patienten mit anderen Asthmaformen, in der Regel aller-gisch bedingtes Asthma bronchiale, herangezogen. Bei diesen wurde ein Anstrengungs-asthma durch einen davor stattgefundenen Lauftest in der Ebene ausgeschlossen. Die Patienten waren Kinder bzw. Jugendliche zwischen 10 und 18 Jahre. Zur Diagnostizierung eines Anstrengungsasthmas wurde eine von den meisten Autoren favorisierte Grenze des FEV1-Abfalls bezogen auf den jeweiligen Ausgangswert mit ei-nem Abfall von 15% nach der Laufbelastung auf dem Laufband und von 9% nach der Kaltluftprovokation herangezogen. Die Messungen erfolgten vor Beginn sowie unmittel-bar, fünf, zehn und fünfzehn Minuten nach der jeweiligen Belastung. Zieht man beide Belastungsarten zur Bewertung der Ergebnisse heran, dann zeigten in der Gruppe der 41 Kinder mit Belastungsasthma lediglich 15 Patienten in beiden Fällen ein positives Ergebnis, 9 Patienten zeigten eine positive Reaktion lediglich nach der Laufbandbelastung, dagegen nicht nach der Kaltluft, 10 Patienten sind als positiv nur nach der Kaltluftprovokation, jedoch nicht nach dem Laufen diagnostiziert worden und 7 Patienten zeigten in beiden Fällen keine positive Reaktion. Somit hatten 34 Patienten (83%) mindestens ein positives Ergebnis. In der Kontrollgruppe der 27 Kinder mit anderen Asthmaformen wurde ein Patient nach beiden Belastungen als positiv diagnostiziert, zwei Patienten zeigten lediglich nach der Laufbandbelastung eine positive Reaktion, 7 nur nach der Kaltluftbelastung und bei den restlichen 17 Patienten kam es in beiden Fällen zu einem negativen Ergebnis. 10 Patien-ten der Kontrollgruppe hatten fälschlicherweise mindestens ein positives Ergebnis und 17 Patienten (63%) waren richtig negativ. Hervorzuheben ist, dass von den 17 als negativ diagnostizierten Patienten durch das Lau-fen auf dem Laufband 7 durch die Kaltluftprovokation als positiv erfasst worden sind. Daraus ergibt sich nach den oben genannten Grenzwerten von 15 bzw. 9% eine Sensitivi-tät von 59% nach der Lauftestbelastung und 61% nach der Kaltluftprovokation. Der Wert der Spezifität betrug nach der Laufbelastung 89% und nach der Kaltluftprovokation 70%. Demnach ist die Provokation durch den Lauftest spezifischer, die durch die Kaltluft sensi-tiver. Unter Berücksichtigung der Spezifität und Sensitivität ist von einer deutlich niedrigeren optimalen Grenze des FEV1-Abfalls nach der jeweiligen Belastung auszugehen. Sie würde nach der Laufbandbelastung 9,7% (statt 15%) und nach der Kaltluftprovokation 7,5% (statt 9%) betragen. Obwohl sich die Mittelwerte der FEV1-Messungen zwischen den zwei Belastungstests nicht signifikant voneinander unterscheiden, konnte beim Vergleich der Werte der einzel-nen Patienten keine Korrelation nachgewiesen werden. Eine multiple lineare Regression zeigte jedoch in diesem Patientenkollektiv, dass die Iden-tifikation eines Anstrengungsasthmatiker unter den an sonstiger Asthma bronchiale er-krankten Kinder anhand der FEV1-Werte nach Laufband-Belastung durch die FEV1-Messung nach Kälteprovokation signifikant verbessert werden konnte. Welche Schlussfolgerungen sind daraus abzuleiten? Die ergänzende Kaltluftprovokation, die üblicherweise bei positiver Anamnese und nega-tivem Ergebnis nach Lauftestbelastung ergänzend durchgeführt wird, sollte bei jedem Asthmatiker stattfinden. Denn wenn man im Falle vorliegender Ergebnisse berücksichtigt, dass 10 von 41 Kinder mit vordiagnostiziertem Anstrengunsasthma durch Laufen in freier Ebene nach dem Lau-fen auf dem Laufband als negativ jedoch nach der Kaltluftprovokation als positiv einge-stuft wurden und andererseits auch bei 8 von 27 Kindern aus der Kontrollgruppe, bei de-nen kein Anstrengunsasthma nach dem standardisiertem Laufen in der Ebene nachgewie-sen werden konnte, ähnliche Ergebnisse vorlagen, kann die eingangs gestellte Frage nach dem Sinn einer ergänzenden Diagnostik durch Kaltluftprovokation bejaht werden. Vor allem, wenn viele Autoren darauf hinweisen, dass bei den meisten an sonstigem Asthma bronchiale Erkrankten Patienten eine Belastungskomponente vorliegt. Der Nachweis der besseren Identifizierung der Anstrengunsasthmatiker unter den betrof-fenen Patienten durch die ergänzende Kaltluftprovokation gilt nach vorliegenden durchge-führten Berechnungen als statistisch signifikant. Des Weiteren ist bei der Diagnosestellung des Anstrengungsasthmas durch den Lauftest an eine niedrigere Grenze des FEV1-Abfalls zu denken. Die meisten Autoren orientieren sich nach einem FEV1-Abfall nach Laufbelastung in freier Ebene oder auf dem Laufband von 15%. Nach unseren Ergebnissen gilt jedoch diese Grenze bei einem Abfall von 9,7% als optimal. Auch nach neuen Arbeiten von John M. Weiler et al (2007) reicht zur Festlegung der Diagnose Anstrengungsasthma eine Grenze von 10% des FEF1-Abfalls nach Laufbe-lastung aus. Auch kann der zusätzliche Einsatz der Kaltluftprovokation außer der Sicherstellung auch dem Ausschluss der Diagnose Anstrengungsasthma dienen. Ein durchaus akzeptables Ergebnis ist bei der Durchführung beider Tests bei einer Be-schränkung auf zwei Messzeiten zu erzielen, so dass diese bei der Kaltluftprovokation auf die Zeit unmittelbar nach Belastung und bei der Laufbelastung auf die Zeit 10 Minuten nach Belastung stattfinden. Damit könnte Zeit und Arbeit eingespart werden.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Zweidimensionales Speckle Tracking im Vergleich zu dopplerbasierten Ultraschallmethoden zur Bestimmung der myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07

Play Episode Listen Later Jul 20, 2007


Ultraschalltechnisch können die myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain auf verschiedene Arten berechnet werden. Es besteht die Möglichkeit, die Parameter mittels Gewebedoppler zu analysieren. Neue Techniken sind die Methode des Speckle Tracking und Kombinationen beider Methoden. Der Gewebedoppler ist in der Human- und beginnend auch in der Tiermedizin bereits untersucht und etabliert. Limitiert ist diese Technologie vor allem durch den Winkelfehler und aufwendiges manuelles Tissue Tracking. Das Speckle Tracking ist dopplerunabhängig und berechnet die Funktions¬parameter durch die Bewegung von Graubildpixeln von Bild zu Bild. In der Theorie ist das Speckle Tracking unabhängig vom Anschallwinkel und das Tracking erfolgt automatisch. Auch diese neue Untersuchungstechnik beginnt in der Humanmedizin Fuß zu fassen und wird in klinischen Studien bereits eingesetzt. Für die Tiermedizin existieren zu dieser Technologie noch keine Veröffentlichungen. Ziel der Arbeit „Zweidimensionales Speckle Tracking im Vergleich zu dopplerbasierten Ultraschallmethoden zur Bestimmung der myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain beim Hund“ war es, an einer Population von 116 herzgesunden Hunden verschiedener Rassen (Alter 1 bis 15 Jahre, Gewicht 2 bis 72 kg) Referenzwerte zu erstellen. Gewebegeschwindigkeit, Strain Rate und Strain wurden mit (1) Speckle Tracking, (2) einer kombinierte Methode aus Speckle Tracking und Gewebedoppler, (3) einer Methode, die automatisches Tracking verwendet, jedoch zur Analyse der Parameter auf Dopplerdaten zurückgreift sowie (4) der konventionellen Gewebedoppler-Echokardiographie mit manuellem Tracking evaluiert. Die Datenakquirierung erfolgte mit einem Vivid 7® System, die offline-Analyse mit den Programmen EchoPac Q-Analyse® und EchoPac 2D Strain® (Versionen BT 04 und BT 05) der Firma GE (Horten, Norwegen). Bei der Untersuchung der neuen Methoden – auch im Vergleich mit der konven¬tionellen Gewebedopplertechnologie – und bei der Erstellung von Referenz¬werten, wurde auf Mittelwerte innerhalb von Myokardsegmenten zurückgegriffen. Die verglichenen Analysemethoden korrelierten gut miteinander, wobei die neuen Techniken teilweise niedrigere Messwerte als die konventionelle Gewebe¬dopplertechnologie lieferten. Im Vergleich von Myokardsegmenten innerhalb einzelner Herzwände zeigte die Tissue Velocity einen Gradienten von basal nach apikal. Strain Rate und Strain dagegen waren homogen verteilt. Mit der konventionellen Gewebedoppler¬technologie konnte diese homogene Verteilung von Strain Rate und Strain in der Tiermedizin bisher nicht gezeigt werden. Eine Ursache für die durch den Gewebedoppler ermittelte inhomogene Verteilung von Strain Rate und Strain kann die Winkelabhängigkeit der Messungen sein. Das Fehlen eines Gradienten in Strain Rate und Strain weist darauf hin, dass eine Winkelabhängigkeit der neuen Methoden nicht vorhanden ist. Im Vergleich der Herzwände zeigte die rechte Wand mit den neuen Methoden bei der Messung der meisten Parameter die höchsten Werte. Die Messung der Parameter in der Einzelwanddarstellung lieferte aufgrund höherer Bildraten größere Messwerte als im Vierkammerblick. Einige der Parameter zeigten eine Abhängigkeit von physiologischen Einfluss¬faktoren wie Alter, Gewicht, Geschlecht, Rasse und Herzfrequenz. Klinisch relevant war vor allem der Einfluss des Gewichts. Dies macht die Erstellung von Referenzwerten für einzelne Gewichtsgruppen notwendig. Die Reproduzierbarkeit des Speckle Tracking und der Dopplerdatenanalyse mit automatischem Tracking war für die meisten Parameter gut und teilweise war sie besser, als mit der konventionellen Gewebedoppleranalyse. Die kombinierte Analysemethode zeigte eine schlechtere Reproduzierbarkeit als die anderen Methoden. Diese relativ schlechte Reproduzierbarkeit der kombinierten Analyse¬methode und die Tatsache, dass diese Methode teilweise nicht erklärbare, von den anderen Methoden abweichende Untersuchungsergebnisse lieferte, lässt sie für den Hund als wenig geeignet erscheinen. Die vorliegenden Untersuchungsergebnisse können als Grundlage für weiter¬führende Untersuchungen dienen. Hier sind das Verhalten der myokardialen Funktionsparameter bei Herzerkrankungen oder der Einfluss von Medikamenten mögliche Fragestellungen für zukünftige Studien. Zudem können die erzielten Ergebnisse teilweise in die Humanmedizin übernommen werden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Untersuchungen zu Persönlichkeitsvariablen und suizidalem Verhalten

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Jan 11, 2007


Eines der größten Probleme bei der Behandlung suizidaler Patienten ist die mangelnde Vorhersehbarkeit und Kontrolle sui-zidaler Handlungen. Ziel dieser Dissertation war es, spezifische, von psychiatrischen Diagnosen unabhängige Persönlichkeitseigenschaften zu identifizieren, die mit suizidalem Verhalten assoziiert sind. Dabei kann die Erfassung solcher Persönlichkeitsvariablen sowohl bei der Suche nach einer genetischen Prädisposition suizidalen Verhaltens, als auch zur Risikoabschätzung und Suizidprävention von klinischem Interesse sein. Im Rahmen der Studie wurden 61 Patienten der Psychiatrischen Klinik der Ludwig-Maximilians Universität München, die im Verlauf ihrer Krankengeschichte mindestens einen Suizidversuch durchgeführt hatten, mit 167 psychiatrisch gesunden Kontrollprobanden aus der Bevölkerung Münchens verglichen. Für eine einheitliche und vergleichbare Datenerhebung der suizidalen Handlungen, wurde die Intent Score Scale (Pierce, 1981) und die Basisdokumentation suizidalen Verhaltens (Kulessa et al., 1987) eingesetzt. Soziodemographische Daten der Studienteilnehmer wurden mit spezifischen Anamnesebögen erhoben. Die Persönlichkeitsmerkmale der Studienteilnehmer wurden mit Hilfe des NEO-Persönlichkeitsinventar-R (NEO-PI-R), des Brown-Goodwin Assessment for History of Lifetime Aggression (BGA-HLA) des Buss-Durkee Hostility Inventory (BDHI) und der Barratt Impulsiveness Scale (BIS-5) erfasst. Der soziodemographische Vergleich von Kontroll- und Suizidgruppe zeigte entsprechend der epidemiologischen Datenlage früherer Suizidstudien (Möller et al., 2003) ein jüngeres Durchschnittsalter und einen höheren Anteil Lediger unter den Probanden der Suizidgruppe. Bei der Auswertung der Ergebnisse des NEO-PI-R zeigten sich in der Testdimension Neurotizismus einschließlich der dazugehörigen Unterskalen hochsignifikant höhere, in den Testdimensionen Extraversion und Gewissenhaftigkeit signifikant niedrigere Mittelwerte bei den Probanden der Suizidgruppe. Unter den Probanden der Suizidgruppe zeichneten sich wiederum diejenigen mit einer positiven Suizidfamilienanamnese durch signifikant höhere Neurotizismuswerte aus. Trotz der Einschränkung dieser Ergebnisse durch die Untersuchung von Griens et al. (2002), scheint Neurotizismus eine Persönlichkeitseigenschaft zu sein, die in mit Suizidalität belasteten Familien gehäuft auftritt und entweder ein gemeinsames genetisches Korrelat vermuten lässt oder einem erlernten Verhaltensmuster dieser Familien entspricht. In umgekehrter Weise könnte eine hohe Ausprägung des Persönlichkeitsmerkmals der Gewissenhaftigkeit einen protektiven Faktor für suizidales Verhaltens darstellen, zumal die Auswertung der Ergebnisse des Brown-Goodwin Assessment for History of Lifetime Aggression (BGA-HLA), wonach Probanden der Suizidgruppe eine signifikant höhere Konfliktbereitschaft und häufiger konfrontative Verhaltensweisen zeigen, und somit weniger diszipliniert und angepasst sind, in eine ähnliche Richtung weist. Ebenso lässt sich auch die Auswertung des Buss-Durkee Hostility Inventory (BDHI) einordnen, die unter den Probanden der Suizidgruppe eine höhere Bereitschaft zu körperlichen Auseinandersetzungen (Tätlichkeit) und eine Neigung mit unkontrollierten negativen Affekten zu reagieren (Reizbarkeit), nachweisen konnte. Die vielfach postulierte These, dass Suizidalität mit impulsivem Verhalten oder einer Störung der Impulskontrolle einhergeht, konnten wir nach Auswertung der Daten der Barratt Impulsiveness Scale nicht bestätigten. Somit scheint die Neigung einer Person zu suizidalem Verhalten im Rahmen psychiatrischer Erkrankungen entsprechend dieser Studie weniger die Folge unreflektierten, impulsiven Verhaltens, sondern eher das Ergebnis gesteigerter Konfliktbereitschaft und Reizbarkeit, beziehungsweise die Folge einer mangelnden Fähigkeit Konflikte lösen zu können, vor dem Hintergrund eingeschränkter Gewissenhaftigkeit und mangelnder Selbstdisziplin zu sein.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Die Cochlea-Implantatversorgung Erwachsener der HNO-Abteilung im Klinikum Großhadern - Retrospektive Auswertung der Ergebnisse

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19

Play Episode Listen Later Jul 18, 2006


Die Cochlea-Implantatversorgung ist eine erfolgreiche und risikoarme Rehabilitationsmaßnahme stark hörgeschädigter Patienten. In der vorliegenden retrospektiven Studie sind die Daten von 95 erwachsenen Patienten der HNO-Abteilung des Klinikums Großhadern der Universität München ausgewertet worden. Diese Patienten sind nach eingehender präoperativer Diagnostik operiert worden. Der im späteren, postoperativen Verlauf erzielte Hörerfolg wurde in festgelegten Zeitintervallen durch Sprachtests überprüft. Ein Zugewinn im Sprachverstehen wird besonders an den Langzeitergebnissen deutlich (Mittelwerte des Sprachverstehens nach 72 Monaten: 100,0% im Freiburger-Zahlentest, 70,0% im Freiburger-Einsilbertest und 90,2% im Innsbruckersatztest). Der große, durch die Cochlea-Implantatversorgung erzielte Erfolg zeigt sich auch am Deckelungseffekt, der bereits zwischen dem 6. und 12. Monat nach Erstanpassung im Freiburger-Zahlentest festgestellt werden konnte. Es konnte nachgewiesen werden, dass der postoperative Erfolg positiv durch das präoperative Sprachverstehen, durch ein höheres Ertaubungsalter und durch eine frühzeitige Implantation beeinflusst wird. An den Ergebnissen im HSM-Satztest (12. Monat postoperativ) wird folgender Unterschied deutlich: Ohne Störgeräusch wurde von Patienten mit Implantaten der Firma Med-el im Mittel 73,5% und von Patienten mit Modellen der Firma Cochlear im Mittel 70,0% verstanden; im Störgeräusch dagegen (gleicher Pegel von Störgeräusch und Testsätzen) wurde von Patienten mit Med-el Implantaten im Mittel 6,7% und von Patienten mit Modellen der Firma Cochlear 45,4% verstanden (möglicher Grund: Richtmikrofon im Sprachprozessor bei Cochlear). Innerhalb des Auswertungszeitraums traten 4 Defekte im Implantatsystem auf, davon betroffen waren ausschließlich Systeme der Firma Med-el. In der Mehrzahl der vorliegenden Fälle konnte ein guter bis sehr guter Erfolg der Cochlea-Implantatversorgung bei Erwachsenen dokumentiert werden. Jedoch zeigte sich in 6 Fällen ein Akzeptanzproblem, welches nicht eindeutig auf bestimmte Ursachen zurückgeführt werden konnte. Eine Auswertung von prä- und postoperativen Fragebögen konnte die große Zunahme an Lebensqualität aufzeigen, da die Patienten nach der Implantation ihre soziale und psychische Gesamtsituation deutlich positiver einschätzten.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Untersuchungen über die normale Konstellation der Kupfer- und Coeruloplasmin-Konzentrationen im Serum des Menschen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19

Play Episode Listen Later Mar 23, 2006


Kupfer im Serum des Menschen lässt sich zwei Kompartimenten zuordnen: dem Coeruloplasmin-Kupferkompartiment, welches das meiste Kupfer des Serums gebunden an das Cuproprotein Coeruloplasmin enthält, und dem Nicht-Coeruloplasmin-Kupferkompartiment, dem alles übrige Kupfer gebunden vorwiegend an Albumin und Aminosäuren zugerechnet wird. Über die Kupfermengen in den beiden Kompartimenten gibt es sehr widersprüchliche Meinungen. So werden die Zahl der Kupferatome im Cpl-Molekül mit 6 bis 8 und der Anteil des nichtCplCu am gesamten Serumkupfer mit 1 bis 40% angegeben. Von einzelnen Untersuchergruppen durchgeführte Berechnungen und Messungen haben jedoch ergeben, dass das Cpl-Molekül sechs Kupferbindungsstellen besitzt, die unter normalen Bedingungen immer besetzt sind, und dass mit hochempfindlichen Nachweismethoden selbst geringe Kupfermengen wie 0,1 µmol/l in coeruloplasminfreien Seren nicht gefunden werden. Wegen dieser widersprüchlichen Angaben ist eine sinnvolle Bewertung von Cu- und Cpl-Messungen bei Patienten nicht möglich. Es gibt zwar jeweils Normbereiche für Cu und für Cpl im Serum. Diese erlauben jedoch lediglich eine getrennte Einstufung der Messwerte beider Faktoren und lassen die Abhängigkeit der Cu- von der Cpl-Konzentration unberücksichtigt. Störungen im Kupferhaushalt bleiben deshalb häufig unerkannt. In dieser Arbeit wird versucht, die Gründe für die widersprüchlichen Angaben in der Literatur aufzudecken, in dem nach Gesetzmäßigkeiten zwischen den Konzentrationen von Cu und Cpl im Serum von gesunden Menschen und von Patienten mit verschiedenen Erkrankungen gesucht wird. Denn erst wenn die Gesetzmäßigkeiten bekannt sind, können normale und pathologische Verhältnisse von Cu und Cpl im Serum des Menschen von einander abgegrenzt und Störungen im Kupferhaushalt aufgedeckt werden. Überprüft werden in dieser Arbeit die folgenden drei Hypothesen. Hypothese I: „Nahezu das gesamte Cu des Serums ist Cpl gebunden“ oder „Unter normalen Bedingungen lassen sich im Serum des Menschen keine signifikanten Konzentrationen von nichtCplCu nachweisen.“ Hypothese II: „Die Cu- und Cpl- Konzentrationen im Serum des Menschen stehen in einem festen, positiven linearen Verhältnis zueinander.“ Hypothese III: „Das Coeruloplasminmolekül im Serum des Menschen enthält konstant sechs Atome Kupfer.“ Dem Dokumentationszentrum für Kupfervergiftungen im Dr. von Haunerschen Kinderspital wurden von fünf Klinisch-chemischen Instituten in fünf Städten Deutschlands Serien (Datensätze) von Cu- und Cpl-Messwerten aus den Jahren 1988 bis 2004 für weitere Berechnungen überlassen. Aus den Datensätzen wurden in dieser Arbeit alle Parallelmessungen von Cu und Cpl in jeweils ein und derselben Serumprobe (sog. CuundCpl-Messungen) mit Hilfe der linearen Regressionsanalyse (OSL) untersucht und entsprechend der Formel „Y = a + b * X“ die Mittelwerte für „a“ = intercept = (hier:) das nichtCplCu und für „b“ = Steigung der Regressionsgeraden = (hier:) der Cu/Cpl-Koeffizient = Zahl Cu-Atome pro Cpl-Molekül berechnet. Die Regressionsformel lautet dann: „Cu = nichtCplCu + Cu/Cpl-Koeffizient * Cpl“; das Produkt „Cu/Cpl-Koeffizient * Cpl“ repräsentiert das CplCu. Analysiert wurden insgesamt 1239 CuundCpl-Messwertepaare. Das aus methodischer Sicht wichtigste Ergebnis der Untersuchung war, dass eine gemeinsame Analyse aller Datensätze zu nicht plausiblen Ergebnissen führt, weil – bei nahezu identischen mittleren Messwerten für Cu – die mittleren Cpl-Messwerte der einzelnen Institute, aber auch ein und desselben Institutes aus verschiedenen Jahren erheblich von einander abweichen. Diese offensichtlich systematische Abweichung der Cpl-Messungen hatte zur Folge, dass sich für die Datensätze unterschiedliche Cu/Cpl-Koeffizienten und damit unterschiedliche Zahlen von Cu-Atomen pro Cpl-Molekül errechneten. Getrennte Regressionsanalysen der Datensätze ergaben dann übereinstimmend für die überwiegende Zahl (mehr als 90%) der Messungen in den Seren keine statistisch signifikanten Cu-Konzentrationen im nichtCplCu-Kompartiment (mittlere Konzentrationen unter 0,2 µmol/l) und für die einzelnen Datensätze (also für jedes Labor für bestimmte Zeitabschnitte) konstante Cu/Cpl-Koeffizienten zwischen 6,0 und 8,8. Bei einer mittleren GesCu-Konzentrationen von ca. 20 µmol/l im Serum errechnet sich somit für das nichtCplCu ein Anteil von weniger 1%. Das Ergebnis bestätigt die Hypothese I dieser Arbeit und die Mittelung von Evans et al. (1989) die bei direkten Messungen in Seren von Menschen kein nichtCplCu (untere Nachweisgrenze: 0,1 µmol/l) nachweisen konnten. Die für jedes Labor (und für bestimmte Zeitperioden) als Konstante zu errechnenden Cu/Cpl-Koeffizienten (Bestätigung der Hypothese II dieser Arbeit) weisen daraufhin, dass die Cpl-Messmethoden nicht ausreichend standardisiert und ihre Ergebnisse deshalb nicht geeignet sind, die Hypothese III dieser Arbeit zu überprüfen: nur in einem der fünf Datensätze konnte der erwartete Cu/Cpl-Koeffizient von 6 gefunden werden. Im Verlauf der Untersuchungen dieser Arbeit erwies sich die Ermittlung des Cu/Cpl-Koeffizienten mittels Regressionsanalyse (OLS) als immer dann nicht möglich ist, wenn sich unter den CuundCpl-Messwertepaaren stark abweichende Messungen, wie solche mit einem Kupferüberschuss, befanden. Die Arbeit zeigt jedoch Verfahren auf, wie diese Messungen im Datensatz erkannt und entfernt werden können. Ein solches Vorgehen erwies sich jedoch als überflüssig, weil sich herausstellte, dass der nach Berechnung des Cu/Cpl-Quotienten für alle Serumproben eines Datensatzes ermittelte Median der Quotienten (MedianCu/Cpl-Q) immer nahezu identisch ist mit dem zugehörigen Cu/Cpl-Koeffizienten. Der MedianCu/Cpl-Q kann in praxi in jedem Labor z. B. täglich oder wöchentlich anhand von Routinemessungen bei Patienten ermittelt und dann anstelle des Cu/Cpl-Koeffizienten verwendet werden. Ist der Cu/Cpl-Koeffizient oder der (hier als gleichwertig gefundene) Median der Cu/Cpl-Quotienten eines Laboratoriums bekannt, lässt sich aus den Messwerten Cu und Cpl der CuSOLL-Wert der Probe ermitteln und ein Überschuss an Cu, wie er z.B. bei Patienten mit Morbus Wilson oder mit einer Kupfervergiftung vorkommt, ermitteln. Die entsprechenden Formeln lauten: „deltaCu = CuIST- Cu/Cpl-Koeff. * CplIST“ bzw. „deltaCu = CuIST- MedianCu/Cpl-Q * CplIST“. Auf diese Weise lässt sich eine „echte“ Hypercuprämie (die hypercupraemia vera), die auf ein Missverhältnis zwischen Cu und Cpl im Serum hinweist, unterscheiden von der einfachen Hypercuprämie (der hypercupraemia simplex), die immer dann auftritt, wenn Cpl im Serum z.B. bei entzündlichen oder malignen Prozessen oder unter hormonellem Einfluss bei Schwangerschaft oder Antikonzeption, erhöht ist. Ausblick: Die in dieser Arbeit ermittelten Gesetzmäßigkeiten zwischen den Konzentrationen von Cu und Cpl im Serum gesunder und kranker Menschen erlaubt eine gezielte Suche nach Patienten/Krankheiten mit Störungen im Kupferhaushalt; sie ermöglicht insbesondere eine quantitative Bestimmung des Kupferüberschusses im Serum von Menschen mit Morbus Wilson und den Kupfervergiftungen als einen zur Diagnose führenden Befund.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Untersuchungen zur Mutagensensitivität und Reparaturkapazität der Erbinformation von Lymphozyten nierentransplantierter Patienten anhand des Comet Assays und des Mikrokerntests

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19

Play Episode Listen Later Nov 11, 2004


Die Transplantation gesunder Organe, insbesondere der Nieren, zur Therapie unheilbarer Erkrankungen stellt eine der bedeutendsten Errungenschaften der modernen Medizin dar. Die zur Vermeidung der Organabstoßung erforderliche langzeitige Immunsuppression bein-haltet jedoch auch ein gegenüber der Normalbevölkerung erhöhtes Risiko für die Entstehung maligner Erkrankungen, so vor allem von Plattenepithelkarzinomen der Haut und malignen Lymphomen. Auffällig ist weiterhin auch die vermehrte Aggressivität dieser Malignomerkran-kungen, die sich in rascher Progredienz und Metastasierung und damit verbundener erhöhter Letalität äußert. Als mögliche Ursache dieser Phänomene kommen eine erhöhte Mutagen-sensitivität der DNS, wie auch eine reduzierte Reparaturkapazität der DNS-Reparaturmechanismen durch die chronische Behandlung mit immunsuppressiven Medika-menten in Betracht. Ziel dieser Arbeit sollte es daher sein, anhand der etablierten Verfahren Comet Assay und Mikrokerntest, Aussagen über die Reparaturkapazität und die Genomstabilität bei nieren-transplantierten Patienten zu ermöglichen. Untersucht wurde ein Kollektiv von 40 nierentransplantierten Patienten, darunter 21 Männer und 19 Frauen, denen ein Kontrollkollektiv von ebenfalls 21 Männern und 19 Frauen zum Vergleich gegenübergestellt wurde. Als zu untersuchendes Zellmaterial dienten Lymphozy-ten des peripheren Blutes. Der Comet Assay wurde als quantitatives Verfahren zur Bestimmung fremdstoffinduzierter DNS-Schäden an einzelnen, nicht proliferierenden Zellen eingesetzt. Die Untersuchung von DNS-Reparaturereignissen über einen definierten Zeitraum wurde hierdurch ermöglicht. Nach Induktion eines DNS-Schadens durch Zugabe eines mutagenen Agens wurden über einen Zeitraum von 60 Minuten Reparaturereignisse an der DNS von Lymphozyten quantitativ erfasst. Der Mikrokerntest wurde als quantitatives Verfahren zur Untersuchung erhöhter Genomin-stabilität sowohl aufgrund individueller Disposition als auch als Folge der Einwirkung muta-gener Substanzen verwendet. Eine erhöhte Genominstabilität, wie sie in der Bildung von Mikrokernen zum Ausdruck kommt, kann ihre Ursache sowohl in einer erhöhten Mutagen-sensitivität als auch in einem Defizit der DNS-Reparaturmechanismen haben. In der vorliegenden Arbeit wurde der Mikrokerntest an unbehandelten Lymphozyten der Pa-tienten- und der Kontrollgruppe durchgeführt, um Aussagen über die spontane Brüchigkeit des Genoms in beiden Gruppen zu erlauben. Die Ergebnisse der mit der Methode des Comet Assays durchgeführten Lymphozytenrepara-turversuche zeigten bei Nierentransplantierten weder eine erhöhte Sensitivität gegenüber Mutagenen noch eine dem Normalkollektiv gegenüber reduzierte DNS-Reparaturkapazität. Vielmehr wurden beim Vergleich der Mediane der DNS-Migrationen mitunter signifikant ver-minderte Reparaturaktivitäten der Lymphozyten-DNS des Kontrollkollektivs beobachtet. Beim Vergleich der Mittelwerte dagegen ergab sich zu den meisten Versuchszeitpunkten kein sig-nifikanter Unterschied zwischen Nierentransplantierten und Kontrollpersonen. Bei der Durchführung des Mikrokerntests wurden bei Nierentransplantierten wie auch bei Kontrollpersonen keine signifikanten Unterschiede der Mikrokernfrequenzen verzeichnet. Bei den weiblichen Studienteilnehmern fanden sich insgesamt signifikant höhere Mikrokernraten als bei den männlichen, unabhängig davon, ob diese zum Patienten- oder Kontrollkollektiv gehörten. Somit konnte die Hypothese, dass bei Nierentransplantierten mit einer erhöhten Sensitivität der DNS gegenüber schädigenden Substanzen oder mit einer Reduktion der DNS-Reparaturfähigkeit zu rechnen sei, durch die Ergebnisse dieser Studie nicht gestützt werden. Da es sich bei der Karzinogenese jedoch um einen komplexen Prozess handelt, bei dem zahlreiche Faktoren beteiligt sind, kommt auch in Zukunft der Forschung nach möglichen Ursachen große Bedeutung zu. Nur durch Kenntnis der beteiligten Mechanismen und durch die Einschränkung der damit verbundenen Risiken ist ein verbessertes Langzeitüberleben organtransplantierter Patienten möglich.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Auswirkungen einer prophylaktischen Verabreichung der Präparate Carduus compositum, Coenzyme compositum, Lachesis compositum und Traumeel QP auf die Eutergesundheit von Milchkühen

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07

Play Episode Listen Later Jul 23, 2004


In dieser Studie wurde geprüft, ob die Anwendung homöopathischer Komplexmittel einen positiven Einfluss auf die unspezifischen Abwehrmechanismen des Euters gesunder Kühe im peripartalen Zeitraum hat. Der Versuch wurde an insgesamt 39 Tieren der Landesanstalt für Landwirtschaft Grub und des Staatsguts Hirschau als Doppelblindstudie durchgeführt. Das Behandlungsschema umfasste 6 Behandlungszeitpunkte. Zeitpunkt A war am Tag des Trockenstellens, Zeitpunkt B mit Beginn der Euteranbildung, Zeitpunkt C am Tag der Geburt innerhalb der ersten 12 Stunden p.p., die Zeitpunkte D, E und F 7 ± 1 Tage p.p., 14 ± 1 Tage p.p. und 21 ± 1 Tage p.p.. Den Tieren der Versuchsgruppe (VG) wurden zu den Behandlungszeitpunkten verschiedene Komplexmittel subkutan verabreicht. Die Tiere der Kontrollgruppe (KG) erhielten das gleiche Volumen 0,9%ige NaCl-Lösung. Untersucht wurden Blut- und Milchproben. Zusätzlich zu den 6 Behandlungen wurde 28 ± 1 Tage p.p. eine Abschlussuntersuchung (Zeitpunkt G) durchgeführt. In den Blutproben wurden die Konzentrationen von Gesamtbilirubin, Aspartat-Amino-Transferase, Glutamat-Dehydrogenase, Gesamtprotein und Beta-Hydroxy-Buttersäure (BHB) bestimmt und ein Differentialblutbild erstellt. Zur Beurteilung der Selenversorgung der Tiere wurden die Serumproben gepoolt und untersucht. In den Milchproben wurden die Konzentrationen somatischer Zellen, die Phagozytoseaktivitäten der Milchzellen und die Lysozymkonzentrationen der Milchseren bestimmt und Viertelgemelksproben bakteriologisch untersucht. Zur Auswertung der Untersuchungen wurden sowohl die Ergebnisse gleicher Zeitpunkte von VG und KG miteinander verglichen, als auch innerhalb jeder Gruppe die Ergebnisse der verschiedenen Zeitpunkte. Beim Vergleich von VG und KG ergaben sich mehrere signifikante Unterschiede: Der Mittelwert der Gesamtproteinkonzentrationen zum Zeitpunkt B war in der VG signifikant höher als in der KG (p < 0,05), der Mittelwert der BHB-Konzentrationen war zum Zeitpunkt F in der VG signifikant geringer als in der KG (p < 0,05), der Mittelwert der Konzentrationen somatischer Zellen in der Milch war zum Zeitpunkt D in der VG signifikant geringer als in der KG (p < 0,01) und der Mittelwert der Phagozytoseaktivitäten der Milchzellen war zum Zeitpunkt D in der VG signifikant geringer als in der KG (p < 0,01). Die Mittelwerte der BHB-Konzentrationen, der Konzentrationen somatischer Zellen und der Phagozytoseaktivitäten waren in der VG zu allen postpartalen Zeitpunkten niedriger als in der KG. Zu den Zeitpunkten, an welchen die Mittelwerte der Phagozytoseaktivitäten der Milchzellen in der VG deutlich niedriger waren als in der KG waren auch die prozentualen Anteile der bakteriologisch positiven Befunde der untersuchten Milchproben in der VG geringer als in der KG. Die Ergebnisse führten zu der Schlussfolgerung, dass die durchgeführte Komplexmittelanwendung zu einer Verbesserung der Eutergesundheit post partum führte und einen positiven Einfluss auf den Energiestoffwechsel hatte. Die Komplexmittel bewirkten eine Modulation des Niveaus der unspezifischen Abwehrmechanismen des Euters und des Energiestoffwechsels bei gesunden Tieren. Die Ergebnisse fordern dazu auf, weitere exakte Untersuchungen zur klinischen Wirksamkeit homöopathischer Arzneimittel durchzuführen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Klinisch-genetische Definition des Hyper-IgE-Syndroms (HIES)

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19

Play Episode Listen Later Mar 21, 2002


Das Hyper-IgE-Syndrom (HIES) ist ein seltener primärer Immundefekt, charakterisiert durch die klinische Trias: chronisches Ekzem mit einem Gesamt-IgE über 2000 IU/ml im Serum, rezidivierende Infektionen (insbesondere Abszesse, Infektionen des Respirationstraktes wie Pneumonien mit Pneumatozelenbildung und Candidainfektionen) und skelettbezogene Symptome (vergröberte Gesichtszüge, Milchzahnpersistenz, Skoliose, Spontanfrakturen und Überstreckbarkeit der Gelenke). Durch das Auftreten von skelettbezogenen Symptomen neben der klassischen immunologischen Trias (rezidivierende Abszesse, rezidivierende Pneumonien und erhöhtes Gesamt-IgE) wird das HIES nach Grimbacher et al. heute als Multisystemerkrankung bezeichnet (Grimbacher et al. 1999a). Zum gegenwärtigen Zeitpunkt sind Ätiologie und Pathogenese noch unbekannt, so dass Definition und Diagnosestellung nur anhand klinischer Parameter zu stellen sind. Ziel einer Kooperation mit einer Arbeitsgruppe der National Institutes of Health (NIH) in Bethesda, USA, war es einen molekulargenetischer Nachweis eines Gendefektes zu finden. In dieser Arbeit wurden 68 Patienten mit Anfangsverdacht auf ein HIES analysiert. Bei 13 Patienten konnte ein HIES diagnostiziert werden. Bei 12 dieser Patienten fand sich ausnahmslos ein chronisches Ekzem (bei 75% bereits vor der vierten Lebenswoche manifest), Staphylokokken-Abszesse der Haut (bei 83% auch Organabszesse), rezidivierende Infektionen des HNO-Bereiches, eine Candidose der Mundschleimhaut sowie der Finger- und Fußnägel, ein Gesamt-IgE über 2000 IU/ml und einer Vergröberung der Gesichtszüge (HIES-typische Fazies). Bei 11 von 12 Patienten traten rezidivierende Pneumonien auf, die in 25% mit einer Pneumatozelenbildung einhergingen. Bei der Hälfte der HIES-Patienten fand sich eine IgD-Erhöhung über 100 IU/ml. 50% der Patienten hatten Spontanfrakturen, 67% eine Überstreckbarkeit der Gelenke und 60% der über sechzehnjährigen eine Skoliose. Eine Milchzahnpersistenz, ein erstmals von Grimbacher et al. beschriebener Befund, konnte mit einem Auftreten bei 73% unserer über sechsjährigen Patienten bestätigt werden (Grimbacher et al. 1999a). Der Vergleich von anthropometrischen Daten des Gesichtes mit Standardwerten der Literatur (Farkas LG 1994) ergab signifikant erhöhte Mittelwerte für die Nasenflügelbreite (z-Score=4), den äußeren (z-Score=6) und inneren Augenabstand (z- Score=2) und Normwerte für den Kopfumfang. Ein Patient hatte eine Craniosynostose. Zusätzlich traten bei jeweils einem weiteren Patienten eine zweifache Non-Hodgkin- Lymphom-Erkrankung (T- und B-Zelltyp), ein juveniler arterieller Hypertonus, eine beidseitig operationsbedürftige Katarakt, eine Echinococcus alveolaris-Infektion der Leber und eine Hämophilie A auf. Familiarität könnte bei diesen 12 Patienten nicht beobachtet werden. Eine vergleichbare infektions-immunologische Symptomatik (Ekzem, rezidivierende Infektionen der Haut und des Respirationstraktes und erhöhtes IgE) wie Patienten mit klassischem HIES zeigten 5 Patienten aus 5 konsanguinen Familien türkischer Abstammung. Abgesehen von einer milden Überstreckbarkeit der Gelenke bei einer Patientin konnten keine weiteren zahn- und skelettbezogenen Symptome festgestellt werden. Zusätzlich fanden sich bei diesen Patienten eine extreme Eosinophilie (bis 16000 Eosinophile per µl; vgl. Abb. 14), ungewöhnlich starker Molluscum contagiosum Befall und cerebrale Gefäß- und Blutungsprobleme, die zu einer hohen Letalität führten. Retrospektiv konnte in 4 der Familien ein weiteres bereits verstorbenes Geschwisterkind mit HIES diagnostiziert werden. Aufgrund von Konsanguinität und familiärem Auftreten der Symptome in einer Generation wird bei diesen Familien ein autosomalrezessiver Erbgang vermutet. Dieses Krankheitsbild ist bisher nicht in der Literatur erwähnt und soll als autosomal rezessive Variante der HIES beschrieben werden. Mit diesen Familien wird aktuell eine Genom-weite Kopplungsanalyse durchgeführt. Sieben weitere Patienten zeigten durch eine geringere Ausprägung der Symptome eine milde Unterform des klassischen HIES. Differentialdiagnostisch ist eine andere Grunderkrankung wie z.B. eine schwere atopische Dermatitis nicht völlig auszuschließen. Aufgrund der klinischen Einschätzung wurden die 68 Patienten mit Anfangsverdacht auf ein HIES in vier Diagnosegruppen eingeteilt: „klinisch-gesichert HIES“, „HIESVariante“, „Verdacht auf HIES“, „kein HIES“. Wesentliche differentialdiagnostische Kriterien waren hierbei: Ekzemmanifestation vor der 6. Lebenswoche, infiltrierende Abszesse (Organabszesse), Nagelcandidose, Spontanfrakturen, Überstreckbarkeit der Gelenke und, als besonders spezifisches Merkmal, die Milchzahnpersistenz. Ein wichtiges weiteres Charakteristikum ist die HIES-typische Fazies, die nur bei den von uns persönlich gesehenen Patienten ausgewertet werden konnte. Der Vergleich der Mittelwerte für das Gesamt-IgE (95%-Konfidenzintervall) ergab keinen signifikanten Unterschied der verschiedenen Diagnosegruppen untereinander, so dass die Höhe des Gesamt-IgE zwar für HIES meist über 2000 IU/ml liegt, aber nicht als spezifisch für diese Erkrankung anzusehen ist. Diese klinischen Diagnosegruppen wurden mit dem Ergebnis eines Algorithmus, der zur Veranschaulichung des Entscheidungsprozesses bezüglich des HIES entwickelt wurde und in sechs Stufen Symptome bzw. Symptomenkomplexe des HIES auf ihr Vorhandensein getestet, verglichen. Ein vom NIH entwickeltes Scoresystem wurde auf seine Aussagefähigkeit zur Diagnosestellung überprüft (vgl. Tab. 3). Es ergab sich daraus, dass bei einem Scorewert von über 40 Punkten mit großer Wahrscheinlichkeit ein HIES vorliegt und bei einem Wert unter 20 Punkten die Diagnose verworfen werden konnte. Das NIH-Scoresystem und der Algorithmus ließen somit eine Aufspaltung zwischen den Patienten mit klinisch-gesichertem HIES und keinem HIES zu. Aus unserer klinischen Studie konnten somit konkrete Entscheidungshilfen zur Diagnosestellung gegeben werden, die es ermöglichen, das HIES früher zu erkennen, um so Lebensqualität und Prognose dieser chronischen Krankheit durch frühzeitige intensive antimykotische-antibiotische Therapie und Abszessspaltung weiter zu verbessern und assoziierte Merkmale (Milchzahnpersistenz, pathologische Frakturen, Skoliose und Lymphome) in die Therapie bzw. Prophylaxe einzubeziehen. Es wird vermutet, dass das klassische HIES einem monogenen, autosomal-dominanten Erbgang mit variabler Expressivität folgt. Mittels Linkage-Studie konnte ein signifikanter LOD score in der Region 4q21 bestimmt werden (Grimbacher et al. 1999b). Die Suche nach dem Gendefekt für das HIES ist bisher noch nicht abgeschlossen. Kopplungsanalysen von familiärem HIES am NIH und unsere klinische Studie legen nahe, dass es nicht nur unterschiedliche Phänotypen des HIES gibt, sondern auch unterschiedliche Gendefekte anzunehmen sind (Grimbacher 1999b). Sollte für das HIES ein Gendefekt nachgewiesen werden, so bestünde die Hoffnung, über die daraus resultierende biologische Störung (z.B. Proteindefekt) entscheidende Erkenntnisse zur Ätiologie und Pathogenese des HIES zu erlangen. Davon hängt schließlich die Möglichkeit einer kausalen Therapie, eventuell einer somatischen Gentherapie, ab, aber ebenso die genetische Beratung betroffener Familien und vielleicht auch Erkenntnisse für Erkrankungen des atopischen Formenkreises.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Simulation des Einflusses von Bewölkung auf die UV-Strahlung mittels Neuronaler Netze

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05

Play Episode Listen Later Jun 29, 1999


Erklärtes Ziel der Modellierung der UV-Strahlung ist die Bereitstellung von Werten für Zeiten und Orte, an denen nicht gemessen werden kann, sowie zur Prognose. Im wolkenfreien Fall lassen sich die UV-Strahlungsgrößen hinreichend genau modellieren. Die Fehler resultieren im Wesentlichen aus der unpräzisen Kenntnis der relevanten atmosphärischen Parameter. Demgegenüber ist die Modellierung der UV-Strahlung bei Bewölkung bisher nur unzureichend gelöst. Die diesbezüglichen Problematiken sind vielfältig. Für eine exakte Berechnung der Strahlungswerte ist ein drei-dimensionales Strahlungsmodell erforderlich, da Wolken weder horizontal, noch vertikal homogen sind. Die detaillierte Kenntnis der mikro- und makrophysikalischen Wolkeneigenschaften ist aber im Einzelfall kaum, für die Prognose nie verfügbar. Zudem weisen die aufwendigen drei-dimensionalen Strahlungsmodelle sehr lange Rechenzeiten auf. Aus diesen Gründen wurde bisher vielfach der Weg beschritten, ein-dimensionale Modelle, wie sie für den wolkenlosen Fall benutzt werden, auch für den bewölkten Fall anwendbar zu machen. Hierzu wird der Einfluß der Wolken auf das UV-Strahlungsfeld nicht mehr exakt physikalisch, sondern statistisch beschrieben. In dieser Arbeit wird der Einfluß von Bewölkung auf die bodennahe UV-Globalstrahlung untersucht. Die Beschreibung der Wirkung von Wolken auf die UV-Globalstrahlung erfolgt mit sogenannten Wolkenmodifikationsfaktoren µ. Diese geben den Quotienten zwischen der UV-Globalstrahlung bei Wolken und derjenigen UV-Globalstrahlung ohne Wolken, bei sonst identischer Atmosphäre, an. In der Vergangenheit wurden die µ-Werte aus Meßreihen der integralen UV-Strahlung an verschiedenen Orten gewonnen. Die Herleitung der µ aus Messungen ist aber mit dem Problem behaftet, für eine beliebige Messung bei Wolkeneinfluß eine dazu vergleichbare Messung bei wolkenlosen Bedingungen zu finden. Dies bedeutet, daß Sonnenzenitwinkel, Ozongesamtgehalt, Aerosol- und Albedobedingungen identisch sein müssen. Dies ist in der Praxis auch bei mehrjährigen Meßreihen nicht gegeben. Meist werden, unter Vernachlässigung von Aerosol und Albedo, Messungen mit ähnlichem Sonnenzenitwinkel verwendet, die auf gleichen Ozongesamtgehalt angepaßt werden. Dementsprechend werden nur grobe Mittelwerte von µ ohne deren Abhängigkeit von anderen Atmosphärenparametern bestimmt. Darüberhinaus sind Untersuchungen hinsichtlich der spektralen Abhängigkeit von µ nicht möglich. Im Rahmen dieser Arbeit wurde ein umfangreiches Datenmaterial an µ-Werten bereitgestellt und mittels der Analysetechnik der Neuronalen Netz systematisch untersucht. Der große Datenumfang wurde dadurch gewährleistet, daß zu jedem gemessenen UVSpektrum bei Wolken das entsprechende UV-Spektrum für wolkenlose Bedingungen, sonst aber gleichen Atmosphäreneigenschaften, nicht innerhalb der UV-Meßreihe gesucht, sondern mit einem Strahlungsübertragungsmodell simuliert wurde. Die Verwendung hochwertiger, spektraler UV-Messungen ermöglichte einerseits eine größtmögliche Genauigkeit bei der Übereinstimmung von Simulation und Meßsignal innerhalb von ca. ± 5% Abweichung, andererseits auch eine Analyse der spektralen Abhängigkeit der µ-Werte. Die Neuronalen Netze dienten der Untersuchung der systematischen Abhängigkeiten dieser µ-Werte von einer adäquaten Wolkenbeschreibung und anderen relevanten Atmosphärenparametern (Sonnenzenitwinkel und Bodenalbedo). Die diesbezüglichen Auswertungen vertiefen das Verständnis über die Strahlungswirkung von Wolken auf die UV-Strahlung, gerade bei durchbrochener Bewölkung. Neben diesen Sensitivitätsstudien wurden mit Hilfe der Neuronalen Netze Algorithmen gewonnen, die, in Kombination mit einem Strahlungsübertragungsmodell, in der Lage sind, die UV-Strahlung bei jeder Art von Bewölkung zu simulieren. Neben der Simulation mittlerer Bedingungen, bzw. der Prognose, wurden auch die Möglichkeiten zur Simulation des aktuellen Falles entscheidend verbessert. Durch die Hinzunahme einfacher integraler Globalstrahlungsmessungen als Wolkenbeschreibung reduziert sich der Fehler der einzelnen Modellierung um mehr als einen Faktor 2. Bei Nutzung jener Algorithmen ist auch die Modellierung signifikanter Erhöhungen der UV-Globalstrahlung bei durchbrochener Bewölkung im Vergleich zum wolkenlosen Fall möglich. Im Rahmen dieser Arbeit konnte damit die UV-Strahlung bei beliebiger Bewölkung für µ-Werte größer als 0.5 in 90% aller Fälle mit einem Fehler von kleiner als ± 15% modelliert werden.