Podcasts about vorhersagekraft

  • 14PODCASTS
  • 15EPISODES
  • 23mAVG DURATION
  • ?INFREQUENT EPISODES
  • Oct 11, 2023LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about vorhersagekraft

Latest podcast episodes about vorhersagekraft

Zuhören, Karriere machen
Sternzeichen & Horoskope: Alles nur Quatsch?

Zuhören, Karriere machen

Play Episode Listen Later Oct 11, 2023 14:35


Menschen lieben Sternzeichen und Horoskope. Nicht alle geben es zu, aber wohl jeder hat schon mal nachgeschaut, was die Sterne ihm oder ihr so versprechen. Und viele glauben auch, dass da zumindest ein bisschen was dran ist. Ja, aber, gute Frage: Ist da was dran? Oder ist das alles nur Quatsch? Wir klären, warum Menschen von Horoskopen fasziniert sind, was die Wissenschaft zur Vorhersagekraft sagt – und ob es okay ist, an Horoskope zu glauben. Shownotes: YouGov-Umfrage zu Horoskopen: https://yougov.de/entertainment/articles/38890-ihr-tagliches-horoskop-was-die-deutschen-uber-ster Tinder Future of Dating-Report: https://de.tinderpressroom.com/fod-report-2023 "Nature"-Studie zum Zusammenhang Geburtshoroskop & Persönlichkeit: https://psycnet.apa.org/record/1986-30007-001 Studie zum Forer-Effekt: http://apsychoserver.psych.arizona.edu/JJBAReprints/PSYC621/Forer_The%20fallacy%20of%20personal%20validation_1949.pdf Never Mind – Psychologie in 15 Minuten ist ein Podcast von Business Insider. Wir freuen uns über eure Ideen und Fragen an podcast@businessinsider.de. Oder ihr schickt uns eine Sprachnachricht an die Nummer 0170-3753084. Redaktion/Moderation: Fanny Jimenez/Derman Deniz, Produktion: Wake Word GmbH Impressum: https://www.businessinsider.de/informationen/impressum/ Datenschutz: https://www.businessinsider.de/informationen/datenschutz/ Learn more about your ad choices. Visit megaphone.fm/adchoices

Jetzt wird´s Random
SCHAMANEN & WAHRSAGER | JWR Podcast #13

Jetzt wird´s Random

Play Episode Listen Later May 23, 2023 33:22


Willkommen zum JWR Podcast, Ausgabe 13! In dieser Folge tauchen wir ein in die faszinierende Welt der Schamanen und Wahrsager. Gibt es wirklich Menschen, die eine besondere Fähigkeit entwickelt haben, in die Zukunft zu blicken? Wir erkunden die Magie der alten Schamanen und entdecken die verschiedenen Methoden der Wahrsagerei, die seit Jahrhunderten Volksglauben und Neugierde anziehen. Außerdem werfen wir einen Blick auf die Macht der Schamanen in der heutigen Zeit. Die Frage, ob Menschen in der Lage sind, in die Zukunft zu sehen, hat die Menschheit schon immer fasziniert. In diesem Podcast versuchen wir, dieser Frage näher zu kommen. Dabei werden wir auf einige bemerkenswerte Geschichten und Beispiele stoßen, die das Phänomen der Vorhersagekraft aufzeigen. Die Schamanen stehen im Mittelpunkt dieser Folge. Diese spirituellen Führer und Heiler verschiedener Kulturen haben über Generationen hinweg die Fähigkeit entwickelt, Zugang zu anderen Bewusstseinsebenen zu erlangen. Wir tauchen ein in ihre mystische Welt und entdecken ihre Rituale, Trancezustände und die Verbindung zur Natur und den Geistern. Eine der faszinierenden Methoden, die Schamanen verwenden, um Einblicke in die Zukunft zu gewinnen, ist die Wahrsagerei mit Hilfe von Sand oder Würfeln. Durch das Interpretieren von Mustern und Symbolen können sie mögliche Ereignisse und Entwicklungen vorhersagen. Diese traditionellen Praktiken sind bis heute in vielen Kulturen lebendig und werden von Menschen auf der ganzen Welt genutzt. Wir werfen auch einen Blick auf die volkstümlichen Methoden der Wahrsagerei, die in verschiedenen Kulturen praktiziert werden. Ihre Beliebtheit zeigt, dass die Menschen nach Antworten suchen und einen Blick in die Zukunft erhaschen wollen. Schließlich betrachten wir die Macht der Schamanen in der modernen Gesellschaft. Obwohl ihre Rolle in einigen Kulturen abgenommen hat, gibt es dennoch Menschen, die ihre Dienste suchen und von ihrer spirituellen Führung profitieren. Wir diskutieren die möglichen Gründe für das anhaltende Interesse an schamanischen Praktiken und die Bedeutung, die sie für Einzelpersonen und Gemeinschaften haben können. In dieser Ausgabe des JWR Podcasts haben wir einen Einblick in die Welt der Schamanen und Wahrsager gewonnen. Von den faszinierenden Fähigkeiten, in die Zukunft zu blicken, bis hin zu den vielfältigen Methoden der Wahrsagerei - es bleibt eine Frage des persönlichen Glaubens und der Offenheit für das Unerklärliche. Tauchen Sie ein in diese spannende Reise und lassen Sie sich von der Magie der alten Praktiken verzaubern! JWR Podcast findet ihr unter: YouTube: https://tinyurl.com/5n7xak7x Spotify: https://tinyurl.com/5aksk6z3 TikTok: https://tinyurl.com/mrxzxraz Instagram: https://tinyurl.com/2p9x2hc8 Twitter: https://tinyurl.com/4wr3mu3e Schreibt uns gerne eine Email an jwrpodcast@mail.de --- Send in a voice message: https://podcasters.spotify.com/pod/show/jwrpodcast/message

Psychologie für den Alltag
Psychologie für den Alltag - Ist Disziplin noch zeitgemäß?

Psychologie für den Alltag

Play Episode Listen Later Nov 7, 2021 17:05


Wo auch immer wir uns in unserem Alltag befinden, im familiären Bereich, in der Freizeit oder im Bereich der Arbeit, wir sind fortlaufend konfrontiert mit den Inhalten dieses Begriffs Disziplin. Auf der Straße, im Straßenverkehr, beim Einkaufen im Einkaufszentrum, beim Sport im Freizeitbereich, beim Zusammensein mit Bekannten, Freunden oder der Familie; stets befinden wir uns in Situationen, die mit den Inhalten dieses Begriffs in Verbindung stehen. Wir können viele Eigenschaften, Fähigkeiten und Begabungen aufzählen, von denen wir aufgrund zahlreich vorliegender Unter-suchungen wissen, dass sie eine wichtige Rolle spielen für privaten und beruflichen Erfolg. Diese beziehen sich auf geistige, seelische und auch körperliche Anteile. In vielen von Ihnen finden sich sowohl genetische Anlagen als auch soziale und kulturelle Aspekte, die ihr Vorliegen begünstigen bzw. benachteiligen. Verschiedene Langzeitstudien aus den letzten Jahrzehnten, haben wiederholt auf eine Eigenschaft hingewiesen, der ein sicheres und hohes Maß an Vorhersagekraft für vielfältigen Erfolg im späteren Leben zukommt. Bei dieser Eigenschaft handelt es sich tatsächlich um die Fähigkeit zur Disziplin (i. S. einer Selbstdisziplin). Diese ist meist positiv korreliert mit den damit verbundenen Eigenschaften – der Entschiedenheit und Ausdauer.

Zukunft Denken – Podcast
010 - Komplizierte Komplexität

Zukunft Denken – Podcast

Play Episode Listen Later Aug 26, 2019 29:59


  ”Wie alles sich zum Ganzen webt, Eins in dem andern wirkt und lebt“, Goethe, Faust, erste Szene  Ich habe in vorigen Episoden immer wieder den Begriff der »Komplexität« verwendet. Es ist daher höchst an der Zeit dass wir uns eine erste Episode mit diesem Begriff auseinandersetzen. In dieser Episode stelle ich drei Fragen: Ist Komplexität und Kompliziertheit dasselbe? Was ist Komplexität, genauer: wo finden wir komplexe Systeme und wie verhalten sie sich Was bedeutet das für die wissenschaftliche und rationale Betrachtung der Welt, vor allem auch für die Herausforderungen der Zukunft? Am Anfang steht die Frage: wie verhalten sich eigentlich die wichtigen Systeme, die unser Leben ermöglichen? »Die Natur macht keine Sprünge«, Carl von Linné Ist das so? Einfache mechanische und simple Systeme zeigen einfache Ursachen/Wirkungszusammenhänge – im Gegensatz zu komplexen Systemen: Wieso wird die Sahara nach langer Zeit mit stabilem Bewuchs in kurzer Zeit zu einer Wüste?  Warum kollabieren Seen oder Korallenriffe  Wie sieht es mit der Vorhersagekraft von technischen und sozialen Systemen aus?  Wer hat den Fall der Berliner Mauer, Flash-Crashs an der Börse oder Donald Trump als Präsidenten korrekt vorhergesagt? ”In der großen Verkettung der Ursachen und Wirkungen darf kein Stoff, keine Thätigkeit, isoliert betrachtet werden.“, Alexander von Humboldt im 18. Jahrhundert  Wir leben also nicht in einer Welt der simplen, sondern der wicked problems. Wie kommt das? Fragen wir konkreter nach Was ist ein System? Was sind Systemgrenzen? …und dann noch Skaleneffekte? Kompliziert oder komplex? Fassen wir einfach nochmals zusammen: was ist jetzt der Unterschied? Warum interessiert uns das alles? Heute und in der Zukunft? Wir kämpfen nicht nur mit dem drohenden Kollaps lebenswichtiger natürlicher Systeme, heute werden auch die »künstlichen«, die technischen und sozialen Systeme immer komplexer. So ist es extrem wichtig zu unterscheiden ob wir es mit komplexen Systemen, komplexen Problemen zu tun haben denn sie verhalten sich sehr unterschiedlich müssen mit unterschiedlichen Methoden untersucht werden Management, Kontrolle und Fehlersuche in solchen Systeme erfordert ebenfalls sehr unterschiedliche Strategien  Was ist daher größte Problem unserer Zeit? Das größte Problem ist es, wenn Menschen fragen, welches das größte Problem unserer Zeit ist. Denn fast alle Herausforderungen die unsere Zukunft bestimmen sind in komplexer Weise miteinander verbunden. Wir lösen sie also mehr oder weniger gemeinsam, oder gar nicht Und wie immer, sehen wir nach dieser Episode betroffen, den Vorhang zu und alle Fragen offen. Referenzen Rich Hickey: Simple made easy Donella Meadows, Thinking in Systems, Chelsea Green Publishing (2008) Warren Weaver, Science and Complexity, American Scientist, 36: 536 (1948) Andrea Wulf, Alexander Humboldt G. Cumming, Unifying Research on Social-Ecological Resilience and Collapse (2017) Chris Clearfield, Meltdown: Why our systems fail and what we can do about it Charles Perrow, Normale Katastrophen Rupert Riedl, Strukturen der Komplexität (2000) Nassim Taleb, Skin in the Game Peter Kruse, next practice. Erfolgreiches Management von Instabilität

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19
Pathologische Ergebnisse der radikalen Prostatektomie bei Patienten mit vermeintlich klinisch insignifikantem Prostatakarzinom

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19

Play Episode Listen Later Jul 24, 2014


Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Die Diagnostik umfasst immer die Kontrolle des PSA-Wertes und eine repräsentative Gewebeprobe aus der Prostata. Mit den so erhobenen Befunden kann die Erkrankung und deren Prognose eingeschätzt werden. Als Therapieoptionen für ein lokalisiertes Prostatakarzinom geben die EAU-Leitlinien drei Therapievarianten vor: Die radikale Prostatektomie, eine perkutane Strahlentherapie oder Brachytherapie sowie eine Überwachung mit gegebenenfalls verzögerter Therapie. Für diese letzte Therapievariante – als Active Surveillance bezeichnet – werden strenge Einschlusskriterien angegeben. Der Reiz der aktiven Überwachung liegt darin, dass nur die Patienten einer radikalen Therapie zugeführt werden, die ein Fortschreiten des Prostatakarzinoms zeigen. Patienten mit einer stabilen Erkrankung werden weiter überwacht und müssen somit auch nicht mit den Nebenwirkungen der radikalen Therapie leben. Der zugrundeliegende Gedanke ist, dass manche Prostatakarzinompatienten bis zum Tode keinen Tumorprogress erleben und somit auch keiner Therapie bedürfen. Ziel der vorliegenden Arbeit war es nun festzustellen, wie verlässlich die präoperativen diagnostischen Parameter zur Einschätzung des Progressionsrisikos sind. Die untersuchten Patienten erfüllten alle die aktuell gültigen Einschlusskriterien für eine Active Surveillance. Retrospektiv wurde mithilfe der präoperativen bzw. postoperativen histopathologischen Befunde analysiert, wie viele Patienten mit einem vermeintlich klinisch insignifikanten Prostatakarzinom anhand der präoperativen Diagnostik korrekt eingeschätzt wurden und tatsächlich an einem klinisch insignifikanten Prostatakarzinom erkrankt waren. Des Weiteren wurde untersucht, welche präoperativen Parameter die besten Prädiktoren mit der höchsten Vorhersagekraft für ein insignifikantes Prostatakarzinom sind. Die vorliegenden Ergebnisse zeigen eindrucksvoll, dass die Einschlusskriterien für Active Surveillance aktuell noch zu unsicher sind. Für viele Patienten (24% - 82%) verzögert sich dadurch der Zeitpunkt einer nötigen radikalen Therapie. Laut unseren Daten haben das Prostatavolumen, der präoperative Gleason-Score und die Zahl der positiven Stanzbiopsien der Prostata die höchste Vorhersagekraft bezüglich der Aggressivität und Ausbreitung des Tumors. Trotz Berücksichtigung dieser präoperativen Parameter wurde jedoch die Differenzierung des Prostatakarzinoms in einem Drittel der Fälle unterschätzt (Undergrading). Die Ausbreitung des Tumors im Organ wurde sogar in einem Dreiviertel der Fälle unterschätzt (Understaging). Die Überwachungsstrategie hat ohne Zweifel einen Stellenwert in der Behandlung des Prostatakarzinoms, jedoch fehlen derzeit noch zuverlässige Prädiktoren für eine sichere Prognoseabschätzung. Daher müssen die Patienten über die jeweiligen Vorteile und Nachteile der aktiven Überwachung informiert und aufgeklärt werden. Ideal für eine optimierte Diagnostik wären molekulare Marker wie sie Gegenstand zahlreicher laufender Studien sind.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19
Vergleich verschiedener Komorbiditäts-Scores in Routinedaten der stationären Versorgung

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19

Play Episode Listen Later Jul 3, 2014


Der zuverlässigen Quantifizierung von Komorbidität kommt eine hohe Bedeutung zu. In dieser Arbeit werden verschiedene Komorbiditäts-Scores verglichen. Neben den international gebräuchlichen Verfahren Charlson Index, Elixhauser Comorbidity Score, Updated Charlson Index und Combined Comorbidity Score werden zwei zuletzt neu entwickelte Ansätze geprüft. Diese als Strukturmodelle der ICD-Systematik bezeichneten Instrumente basieren auf den Gliederungsebenen der ICD-10 mit Kapiteln und Gruppen. Zusätzlich werden hier von ihnen ausgehend ganzzahlige Scores entwickelt und evaluiert. Betrachtet werden auch der patientenbezogene Gesamtschweregrad PCCL des deutschen DRG-Systems und als einfachstes Verfahren die reine Zählung der Nebendiagnosen. Die Arbeit bestätigt im großen Datenbestand von 36 Krankenhäusern aus 2010 mit 435.076 Behandlungsfällen und 2.439.010 Diagnosen die Anwendbarkeit der international etablierten Scores in deutschen Routinedaten. Für die zuletzt entwickelten Strukturmodelle der ICD-10-Systematik und die daraus abgeleiteten Scores kann Überlegenheit gegenüber allen anderen Verfahren gezeigt werden. Sie dominieren in allen Bereichen: in der Breite der bewerteten Diagnosen, in der Anzahl der berechneten Werte ungleich Null und in der Vorhersagekraft ausgedrückt durch die AUC der ROC-Kurve. Die Berechnung mit Berücksichtigung der Hauptdiagnose, was eine Bewertung der Gesamt-Morbidität bedeutet, verbessert die Ergebnisse stets. Bei den Strukturmodellen der ICD-10-Systematik werden ohne den Einschluss weiterer Ko-Variablen wie beispielsweise Geschlecht oder Alter exzellente Ergebnisse erreicht. Zukünftige Verbesserungen sind durch Kombination verschiedener Verfahren und auch durch feingliedrigere Datenauswertung in der ICD vorstellbar. Besonders geeignet wird der Zusammenschluss von Methoden eingeschätzt, die geringe Korrelationen aufweisen. Weitere Forschungen hierzu und zu den neuen Strukturmodellen der ICD-Systematik sind wünschenswert.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Theoretical stellar atmosphere models for cool stars

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later May 14, 2014


In kühlen Sternen wie der Sonne wird die nuklear erzeugte Energie aus dem Inneren an die Oberfläche transportiert. Diese kann dann in den freien Weltraum entfliehen, und so können wir das Sternenlicht letztlich beobachten. Die theoretische Modellierung des photosphärischen Übergangsbereiches – vom konvektiven zum radiativen Energietransport – ist aufgrund der inhärenten dreidimensionalen (3D) Natur der Konvektion und der komplexen, nicht-linearen und nicht-lokalen Interaktionen des Strahlungsfelds mit dem stellaren Plasma sehr anspruchsvoll. Theoretische Atmosphärenmodelle stellen die fundamentale Basis für die Untersuchung von Sternen dar, daher sind Astronomen für ihr Verständnis der Sterne auf diese letztlich angewiesen. Die üblicherweise verwendeten eindimensionalen (1D) Atmosphärenmodelle beinhalten verschiedene Vereinfachungen. Insbesondere wird die Konvektion für gewöhnlich mit der Mischungswegtheorie berechnet, trotz ihrer wohlbekannten Fehler, da derzeit keine deutlich besseren Alternativen vorhanden sind. Der einzige Ausweg, um dieses Problem zu überwinden ist, die zeitabhängigen, dreidimensionalen, hydrodynamischen Gleichungen, welche mit einem realistischen Strahlungstransport gekoppelt sind, zu lösen. Aufgrund der in den vergangenen Jahrzehnten rasch gestiegenen Rechenleistung wurden bedeutende Fortschritte mit Simulationen für 3D Strahlungshydrodynamik (RHD) von Atmosphären erzielt. Diese Modelle sind außerordentlich leistungsfähig, und besitzen eine enorme Vorhersagekraft, wie präzise Vergleiche mit Sonnenbeobachtungen wiederholt beweisen konnten. Ausgestattet mit diesen ausgereiften Methoden möchte ich als Ziel meiner Dissertation die drei folgenden Fragen näher untersuchen: Was sind die Eigenschaften der Atmosphären von kühlen Sternen? Welche Unterschiede sind zwischen den 1D und 3D Modellen vorhanden? Wie verändern sich die Vorhersagen für die Sternstrukturen und Spektrallinien? Um mich dieser Aufgabenstellung systematisch anzunehmen, habe ich das Stagger-Gitter berechnet. Das Stagger-Gitter ist ein umfangreiches Gitter aus 3D RHD Atmosphärenmodellen von kühlen Sternen, welches einen großen stellaren Parameterbereich abdeckt. In der vorliegenden Dissertation beschreibe ich die Methoden, welche angewendet wurden, um die vielen Atmosphärenmodelle zu berechnen. Zudem werden die allgemeinen Eigenschaften der resultierenden 3D Modelle, auch deren zeitliche und räumliche Mittelwerte detailliert dargestellt und diskutiert. Die Unterschiede zwischen den 1D und 3D Schichtungen, sowie die Details der stellaren Granulation (die Manifestation der Konvektion unterhalb der Sternoberfläche) werden ebenfalls umfangreich erläutert und beschrieben. Des Weiteren habe ich folgende Anwendungen für die 3D Atmosphärenmodelle untersucht: Berechnung theoretischer Spektrallinien, wichtig für die Bestimmung von Sternparametern, Spektroskopie und Häufigkeiten-Analyse; die sogenannte Randverdunkelung, notwendig für die Analyse interferometrischer Beobachtungen und Suche nach extrasolaren Planeten; und die Kalibrierung der Mischungsweglänge, womit 1D-Sternmodelle verbessert werden können. Die Qualität der hochauflösenden Beobachtungen hat inzwischen die der theoretischen 1D Atmosphärenmodelle aufgrund der technischen Entwicklungen in den vergangenen Jahren überschritten. Daher hat sich der Bedarf an besseren Simulationen für Atmosphärenmodelle erhöht. Durch die Bereitstellung eines umfangreichen Gitters aus 3D RHD Atmosphärenmodellen wurde dazu ein erheblicher Beitrag geleistet. Damit werden wir den Anforderungen an die Theorie für die derzeitigen und zukünftigen Beobachtungen gerecht werden, und können somit zu einem besseren Verständnis der kühlen Sterne beitragen.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 06/07

In der vorliegenden Studie wurde untersucht, wie sich Laborhunde nach der Vermittlung in ein neues Zuhause entwickelten, welche Verhaltensprobleme auftraten und ob ein vorher durchgeführter Verhaltenstest eine Vorhersage über das Verhalten im neuen Zuhause liefern konnte. Zudem wurde untersucht, welche Faktoren die Entwicklung beeinflussten. Die Studie begann mit einem Verhaltenstest an 145 Beaglen unterschiedlichen Alters und Geschlechts in einer Versuchseinrichtung. Die Hunde wurden danach an zwei Tierschutzorganisationen übergeben, die sie in Privathand vermittelten. Mittels zweier Telefoninterviews wurden die neuen Besitzer nach einer und nach zwölf Wochen nach der Vermittlung befragt. Diese Besitzerbefragung wurde mit insgesamt 143 (1. Telefoninterview) bzw. 125 (2. Telefoninterview) Hundehaltern durchgeführt. Sechs Wochen nach Vermittlung fand bei 74 Hundehaltern ein Hausbesuch statt, in dem der Verhaltenstest bei 68 Hunden wiederholt und anschließend ein Alltagstest bei 74 Hunden durchgeführt wurde. Bei sechs besonders ängstlichen Hunden konnte der 2. Verhaltenstest nicht durchgeführt werden. Der Verhaltenstest, das Telefoninterview und der Alltagstest wurden so aufeinander abgestimmt, dass man das in den Tests gefilmte Verhalten der Hunde mit dem von den Besitzern beobachteten Verhalten anhand der telefonischen Befragung vergleichen konnte. Das Verhalten der Hunde wurde deskriptiv und mit Hilfe eines Scoresystems bewertet und statistisch analysiert. Es fand eine signifikant positive Entwicklung der Hunde vom 1. zum 2. Telefoninterview statt. Laut des 1. Telefoninterviews in der ersten Woche im neuen Zuhause waren die Hunde ängstlich und schreckhaft gegenüber der belebten und unbelebten Umgebung. Nach sechs Wochen im neuen Zuhause zeigte die Mehrheit der Hunde, z.B. während des Alltagstests, dass sie gelernt hatten, vielen Situationen gelassen zu begegnen. Das oft vorsichtige oder ängstliche Verhalten der Hunde, wenn sie in der ersten Woche fremden Menschen begegneten, wich zunehmend einem freudigen oder neutralen Verhalten. Die Persönlichkeit der Hunde wurde durch das Alter, die Herkunft und die Tage im Tierheim signifikant beeinflusst. Die Weiterentwicklung der Hunde im neuen Zuhause wurde signifikant von der Wohnsituation beeinflusst. Auch die Familiensituation beeinflusste signifikant das Einleben der Hunde. Bei den Faktoren Alter, Geschlecht oder Zweithund konnte kein signifikanter Einfluss auf die Entwicklung der Hunde im neuen Zuhause nachgewiesen werden. Zudem hatte die Belohnungshäufigkeit der Besitzer einen signifikanten Einfluss auf die positive Entwicklung des Hundes. Bei den außerdem untersuchten Kovariablen im Zusammenhang mit dem Hundebesitzer wie Hundeerfahrung, Belohnungsart und Bestrafungshäufigkeit konnte kein signifikanter Einfluss festgestellt werden. Bei der Korrelationsprüfung der Testteile der vorliegenden Untersuchung fiel auf, dass der Grad der Übereinstimmung in der Regel zwar positiv, aber häufig eher niedrig war. Der Verhaltenstest hatte somit nur eine mäßige Vorhersagekraft. Die große Mehrheit der Besitzer zeigte sich zufrieden mit der Entscheidung und die Rückgabequote war zudem mit 4,8 % (n=145) niedrig.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19

In der vorliegenden Arbeit wurde versucht, Konzepte für die Evaluation der Behandlungskosten von Intensivpatienten zu erstellen. Die so gewonnenen Erkenntnisse fanden Eingang in Ansätze für eine Optimierung der Ausgaben. Abschließend wurden alternative, vom DRG-System unabhängige Modelle für die Erlösberechnung untersucht. Hierfür wurden bei 390 Patienten die Behandlungskosten für ihren Intensivaufenthalt erhoben und mit aus DRG Datensätzen errechneten, durchschnittlichen Behandlungskosten, hier als „Fallwert“ bezeichnet, verglichen. Zusätzlich wurden die Ausgaben für Labordiagnostik, eventuell erwirtschaftete Zusatzentgelte (ZE), Liegedauer, Beatmungsstunden und die erreichte Anzahl an TISS28 und Intensivkomplexbehandlungspunkten (IKB) eines jeden Falles bestimmt. Die summierten Kosten aller betrachteten Fälle beliefen sich auf 5.594.345,89€ und lagen damit 389.541,65€ über dem errechneten Fallwert von 5.204.804,24€. Erst durch die ZE ergab sich eine positive Kostendeckung von 327.044,87€. Die 139 prä MDC Fälle des betrachteten Kollektivs verursachten Kosten von 4.794.728,03€ (4.060.487,28€ abzüglich ZE) und lagen damit 766.822,68€ (51.317,58€) über dem Fallwert. 55% der prä MDC Ausgaben entfielen auf die Personalkosten (PK) für ärztlichen Dienst (ÄD), Pflege (PD) und medizinisch-technischen Dienst (MTD). Sowohl bei den PK ÄD als auch den PK PD wiesen Fälle mit nichtgedeckten PK signifikant höhere Liegezeiten und PK pro Stunde auf. Die Kalkulation der PK basiert auf der aufwandsgewichteten Liegedauer, somit bilden die Kosten pro ungewichteter Stunde indirekt die Komplexität eines Falls ab. Eine lineare Regressionsfunktion zeigte jedoch, dass dieser Faktor im Vergleich zu der Liegedauer nur einen geringen Einfluss auf die Abweichung der Personalkosten vom geschätzten Fallwert hatte. Die Kosten der 251 nicht-prä MDC Fälle lagen bei 799.617,86€ und damit 377.281,02€ unterhalb des errechneten Fallwertes von 1.176.898,88€. Die ZE beliefen sich auf nur 1.081€. Die Personalkosten verursachen in diesem Kollektiv 61% der Gesamtkosten, und auch hier wiesen Fälle mit nicht gedeckten PK signifikant höhere Liegezeiten und Kosten pro Stunde auf, wobei der erstgenannte Faktor wiederum den größten Einfluss auf die Abweichung der Kosten vom Fallwert hatte. Verlässt man die Aufteilung nach MDC, so verursachten Pneumoniepatienten mit median 28.082,43€ die höchsten Kosten, gefolgt von Fällen mit Organersatztherapie mit 25.088,12€. Beide Male führte auch die Berücksichtigung von ZE nicht zu einer Deckung der medianen Ausgaben. Bei den Patienten mit Organersatztherapie lagen jedoch die summierten Kosten nach Abzug der ZE unterhalb des Fallwertes. Bei Aufnahmen aus externen Kliniken waren die mediane Kosten auch mit ZE über dem medianen Fallwert angesiedelt (14.728,89€ vs. 12.415,49€), die summierten Kosten wiesen hier von allen betrachteten Kollektiven die größte Abweichung vom summierten Fallwert auf (1.227.248,42€ bzw. abzüglich ZE 975.405,76€ vs. 789.660,45€). Die medianen Kosten der 30 Nonsurvivor waren selbst mit den ZE nicht gedeckt. Aufgrund von Ausreißern bei den Erlösen aus ZE lagen die summierten Kosten dieses Kollektivs jedoch 233.988,43€ unterhalb des Fallwertes. Somit erzielte diese Gruppe einen positiven Erlös, der über dem alle übrigen Fälle (93.056,44€) lag. Die medianen Ausgaben bei Transplantationspatienten lagen bereits ohne ZE unterhalb des geschätzten medianen Fallwertes (9.501,64€ vs. 18.735,66€). Der in einem nächsten Schritt durchgeführte Versuch, Fallkosten nicht anhand von vordefinierten Fallwerten, sondern alleine über die Kosten pro TISS28, IKB, Beatmungsstunde oder Behandlungsstunde zu evaluieren, erwies sich als wenig erfolgreich. Legte man die aus den DRG Daten errechneten Fallwerte zugrunde, so konnte nur für die Kosten pro TISS28 und nur im Kollektiv der prä MDC Patienten eine suffiziente Vorhersagekraft bezüglich der Kostendeckung festgestellt werden (AUC=0,797). Die Sachkosten Arzneimittel (SK AM) beliefen sich auf insgesamt 1.185.556,65€ und lagen damit 577.937,51€ über dem errechneten Wert. Von den Gesamtkosten entfielen 555.220,06€ auf den Ist-Verbrauch von teuren Antibiotika, Antimykotika und bestimmten Blutprodukten (SK AM mit Einzelkosten). Dies wurde als Ansatzpunkt für eine Überlegung zur Ausgabensenkung gewählt. In der Literatur besteht der Konsens, dass durch zielgerichtete Pharmakotherapie Kosten gesenkt werden können. Hiervon ausgehend wurde überprüft, ob in dem betrachteten Datensatz ein statistischer Zusammenhang zwischen den Ausgaben für Labordiagnostik und Arzneimittel bestand. Eine lineare Regressionsanalyse zeigte einen negativen Einfluss der Laborausgaben auf die SK AM mit Einzelkosten. Eine getrennte Betrachtung der mikrobiologischen Diagnostik und der klinischen Chemie ergab nur für letztere ein negatives Einfließen in die Regressionsfunktion. Ausgehend von den erhobenen Daten scheinen Mehrausgaben für einen bestimmten Bereich der Labordiagnostik somit eine Kostenersparnis bei Arzneimitteln zu ermöglichen. Abschließend wurde die Problematik der Kostendeckung bei hochkomplexen Fällen zum Anlass genommen, alternative, vom DRG-System unabhängige Methoden für die Erlösberechnung zu untersuchen. Es sollte gezeigt werden, dass aus klinischen Daten die tatsächlichen Behandlungskoten suffizient berechnet werden und diese Werte damit auch als Grundlage für die Erlösbestimmung dienen können. Von den vier untersuchten Variablen (TISS28, IKB, Beatmungsdauer und Liegedauer) zeigten der TISS28 und die Liegedauer die höchste Kostenkorrelation (R²=0,964 und R²=0,944). Bei Patienten mit einer Aufenthaltsdauer von unter 48 Stunden korrelierte von allen Variablen jedoch nur noch der TISS28 suffizient mit den Ausgaben (R²=0,884). Nach Randomisierung der betrachteten Fälle auf zwei Gruppen wurde an Kollektiv 1 für jede Variable eine Regressionsfunktion erstellt, welche bei Kollektiv 2 die Behandlungskosten vorhersagen sollte. Zuvor durchgeführte Überlegungen kamen zu dem Schluss, dass eine kubische Funktion das Verhältnis von Kosten zu Variable am besten abbildet. Die mit dem TISS28 geschätzten Kosten wichen bei den prä MDC um median -1,76%, beim Gesamtkollektiv um median -1,78% von den tatsächlichen Kosten ab. Die Schätzung anhand der Liegedauer erreichte Abweichungen von median -6,75% und -1,30%. Die mit der IKB erzielten Werte divergierten dagegen stark von den tatsächlichen Kosten (-9,57% und 16,02%). Die Kosten pro IKB Punkt wiesen jedoch eine hohe Varianz auf, was zusammen mit einer geringen Fallzahl zu einem ungenauen Regressionsmodell und damit einer eingeschränkten Beurteilbarkeit der Ergebnisse führte. Durch den Vergleich mit definierten Fallwerten ist es folglich möglich, die intensivmedizinischen Kosten von verschiedenen Patientenkollektiven zu evaluieren und Ansätze für die Optimierung der Ausgaben zu entwickeln. Auch wäre ein von Fallpauschalen losgelöstes System der Erlösberechnung, welches auf relativ simplen, klinischen Parametern basiert, denkbar.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19
Verbesserte Abschätzung des Hüftfrakturrisikos bei Osteoporose durch Analyse der Mineralsalzverteilung in der Zweienergie-Röntgen-Absorptiometrie

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19

Play Episode Listen Later Aug 4, 2009


Zielsetzung: Ziel der Arbeit ist es, die Vorhersagekraft der Knochendichtemessung am proximalen Femur durch DXA zur Bestimmung des individuellen Frakturrisikos durch die toplogische Analyse der Mineralsalzdichteverteilung der Scan-Bilder zu steigern. Die Evaluation basiert auf den sog. Minkowski-Funktionalen (MF). Die Ergebnisse des neuen Verfahrens werden mit denen der Osteodensitometrie verglichen. Material und Methode: Untersucht wurden 30 postmenopausale Patientinnen (Alter 73,9 ± 10,3 Jahre), bei denen in 15 Fällen eine Fraktur der Hüfte vorlag. Innerhalb der ersten Woche nach dem Trauma wurde eine Knochendichtemessung durch DXA durchgeführt, im Fall der Frakturpatienten an der intakten, kontralateralen Hüfte. Die DXA-Scanbilder wurden durch die MF in 2D hinsichtlich Grauwert- bzw. Kalksalzdichteverteilung topologisch analysiert. Durch Anwendung eines optimierenden integrativen Filterverfahrens wurde eine skalare Grösse MF2D aus der Spektraldarstellung der MF jedes Bilddatensatzes extrahiert und in Beziehung zum Frakturstatus gesetzt. Die Diskriminanzanalyse und die ROC-Analyse wurden zur Erfassung der prädiktiven Wertigkeit des neuen Verfahrens im Vergleich zur konventionellen Osteodensitometrie hinsichtlich korrekter Differenzierung zwischen Patientinnen mit / ohne Hüftfraktur durchgeführt. Ergebnis: Die Knochenmineraldichte [der T-Wert] für die Patienten mit Hüftfraktur betrug 0,67 ± 0,12 g/cm2 [–2,77 ± 0,9 SD], im Vergleichskollektiv 0,77 ± 0,18 g/cm2 [–2,09 ± 1,22 SD]. Die Fläche unter der ROC-Kurve für die korrekte Differenzierung zwischen Frakturpatienten und der Kontrollgruppe durch den BMD-Wert [T-Wert] war 0,72 (p = 0,04) [0,63 (p = 0,23)]. Es lag keine statistisch relevante Beziehung zwischen der Knochendichte BMD und MF2D vor (R2 = 0,045, p = 0,262). Der mittlere MF2D-Wert lag bei den Patienten mit Hüftfraktur bei 10,04 ± 17,2 gegenüber –58,7 ± 82,29 bei den Vergleichsfällen. Die Fläche unter der ROC-Kurve für die korrekte Differenzierung zwischen Frakturpatienten und der Kontrollgruppe betrug für MF2D 0,85 (p = 0,001). Bei der Diskriminanzanalyse ergab sich im Fall der alleinigen Verwendung der Knochenmineraldichte [des Parameters MF2D] eine korrekte Klassifizierung in 63% [70%] der Fälle, mit dem Kombinationsmodell aus beiden Parametern konnten 77% der Fälle korrekt klassifiziert werden. Schlussfolgerung und Ausblick: Das vorgestellte Postprocessing-Verfahren basierend auf der topologischen Analyse der Grauwertverteilung in DXA-Scans des Hüftgelenkes mit Minkowski-Funktionalen in 2D erweist sich als gut geeignet, um Patientinnen mit einer Fraktur des proximalen Femurs zu identifizieren, im untersuchten Patientenkollektiv ist es der konventionellen Knochendensitometrie überlegen. Wegen der verhältnismäßig geringen Kollektivgröße sollte eine Validierung im Rahmen einer größeren, vorzugsweise prospektiv ausgerichteten Studie erfolgen. Hier ließe sich zudem untersuchen, ob sich das neuartige Verfahren auch zur Verlaufskontrolle z.B. unter medikamentöser Therapie eignet.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Vorhersagekraft der Versagenslast des distalen Radius mit Mikro-Computertomographie und Zweienergie-Röntgen-Absorptiometrie

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19

Play Episode Listen Later Oct 25, 2007


Die Messung des BMD mit der DXA stellt die weitverbreitetste Methode in der Osteoporosediagnostik zur Abschätzung des Frakturrisikos dar. Zur Einschätzung der mechanischen Festigkeit des distalen Radius sind jedoch verbesserte Methoden notwendig, um zum frühest möglichen Zeitpunkt einen osteoporotisch bedingten Knochenverlust zu erkennen und folgende Frakturen durch eine adäquate Therapie zu verhindern. Ziel der vorliegenden Studie war daher die Prüfung der Hypothese, dass quantitative Messungen der Knochenmikrostruktur mit der Mikro-CT eine Verbesserung der Vorhersagen der Bruchlasten des distalen Radius, verglichen mit der Bestimmung der Knochenmasse alleine, ergeben. Das Untersuchungsgut umfasste 130 Unterarme von Präparaten (66 Männer, Alter: 79,7±9,13; 64 Frauen, Alter 81,5± 8,94) aus 3 aufeinanderfolgenden Präparierkursen der Jahre 2000 bis 2002 in der Ludwig-Maximilian-Universität München. Die Unterarme der einen Seite wurden mit der Zweienergie-Röntgen-Absorptiometrie (pDEXA; Norland/ Stratec,, Pforzheim, Deutschland) sowohl an der distalen Metaphyse (1 cm Länge; proximal des Articulatio radiocarpalis) als auch am Schaft (1 cm Länge; bei ca. 33% der gesamten Knochenlänge) gemessen. Die Mikro-CT Scans der kontralateralen Radii (2 mm proximal des Gelenkspaltes) wurden an einem zylindrischen „Volume Of Interest“ von 6 mm Durchmesser und 6 mm Länge durchgeführt. Im Anschluss wurden die Versagenslasten der Radii in einer Sturzsimulation (in 80% Pronation, 70% Dorsalflexion) mittels einer Materialprüfmaschine (Firma Zwick, Zwick 1445, Ulm) ermittelt. Bei der Analyse des gesamten Untersuchungsgutes (n=130) zeigt die ROI „Distaler isolierter Radius ohne Ulna“ (bzw. Dist BMD R) die höchste Korrelation (r=0,82) mit den mechanischen Versagenslasten. Nach Ausschluss von 21 Radii, die kein radiologisch sichtbares Zeichen einer Fraktur aufwiesen (n=109), ergab sich eine Korrelation von r=0,85. Die Untergruppe der „Loco-Typico-Frakturen“ (n=79) wies eine Korrelation von 0,82 auf. Bei der Analyse der Mikro-CT Parameter des gesamten Kollektives zeigte der BV/TV die höchste Korrelation (r=0,49) mit den Versagenslasten. Den höchsten Korrelationskoeffizienten (r=0,55) aller Mikro-CT Parameter erreichte der BV/TV in der Untergruppe der radiologisch identifizierten Frakturen. In der Untergruppe der Loco-Typico-Frakturen wies der BV/TV einen Korrelationskoeffizienten von r=0,43 auf. In multiplen Regressionsanalysen konnte auf Basis der Mikro-CT keine signifikante zusätzliche Information zu der mit der DXA möglichen Vorhersage gewonnen werden. Die Befunde zeigen, dass auch bei hochauflösender Messung mit Mikro-CT die μ-Struktur des trabekulären Knochens von Biopsien der hier untersuchten Größe keinen Informationsgewinn gegenüber der Knochenmasse in Bezug auf die Strukturfestigkeit des distalen Radius ergibt. Eventuell besteht klinisch daher keine so hohe Bedeutung der Bestimmung der trabekulären μ-Struktur wie bisher angenommen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Mechanisches Versagen thorakaler und lumbaler Wirbelkörper älterer Menschen - Vorhersage mittels Zwei-Energie Röntgenabsorptiometrie (DXA)

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Oct 26, 2006


Osteoporotische Wirbelkörperfrakturen stellen ein großes sozioökonomisches Gesundheitsproblem dar. Klinisch wird derzeit zur Diagnosestellung der Osteoporose nach WHO-Empfehlung die lumbale DXA-Messung hinzugezogen. Die osteoporotischen Wirbelkörperfrakturen ereignen sich jedoch hauptsächlich in der thorakalen Wirbelsäule und im thorakolumbalen Übergangsbereich. Diese Areale sind jedoch der nicht-invasiven DXA-Messung aufgrund von Überlagerung anderer knöcherner Strukturen nicht zugänglich. In der vorliegenden Studie wurde die Hypothese untersucht, dass die auf der DXA basierende Vorhersage der Versagenslasten in der thorakalen Wirbelsäule durch a) die skelettale Heterogenität zwischen der lumbalen und thorakalen Wirbelsäule und b) durch die Artefakte bei der Bestimmung des lumbalen Knochenmineralgehaltes beeinflusst wird. Hierzu wurden die Korrelationen zwischen den in- und ex-situ erhobenen DXA-Parametern und den Versagenslasten bei älteren Individuen untersucht. Insgesamt wurden die Wirbelsäulen von 119 Präparate (76 Frauen, 82 ± 9 Jahre und 43 Männer, 77 ± 11 Jahre) untersucht. Nach der lumbalen DXA-Messung der Wirbelsäule unter In-situ Bedingungen in anterior-posteriorer (AP) Projektion erfolgte die Ex-situ – Messung in AP und in laterater Projektion. Anschließend wurden in einem axialen Kompressionsversuch, nach der Dreisegment-Methode, die Versagenslasten der Brustwirbelkörpersegmente (BWK) 5–7, 9–11 und dem Lendenwirbelkörpersegment (LWK) 2–4 bestimmt. Der Korrelationskoeffizient zwischen den Versagenslasten der beiden thorakalen Segmente betrug r = 0,85, die Versagenslasten der beiden thorakalen Segmente korrelierte mit dem lumbalen Segment nur moderat (BWK 6 vs. LWK 3 r = 0,61; BWK 10 vs. LWK 3 r = 0,68). Die laterale Ex-situ – DXA-Messung erbrachte signifikant höhere Korrelationen (p < 0,05) mit den Versagenslasten der lumbalen Wirbelsäule als die In-situ – DXA-Messung in AP-Projektion (r = 0,85 vs. 0,71). Die Korrelationen der thorakalen Versagenslasten mit der lateralen Ex-situ – DXA-Messung und der In-situ – DXA-Messung in AP-Projektion waren jedoch gleich (r = 0,69 vs. 0,67 für BWK 10 und r = 0,61 vs. 0,65 für BWK 6). Diese Ergebnisse demonstrieren eine substantielle Heterogenität der mechanischen Kompetenz innerhalb der Wirbelsäule älterer Individuen. Das mechanische Versagen der Lendenwirbelsäule kann am besten aus der lateralen DXA-Messung an explantierten Knochen vorhergesagt werden, somit scheint die lumbale In-situ – AP-Messung einer nicht unbedeutenden Beeinflussung durch die posterioren Element zu unterliegen, die die Vorhersagekraft der Messung reduzieren. Für die Vorhersage der Versagenslasten in der thorakalen Wirbelsäule und den thorakolumbalen Übergangsbereich ist die klinische In-situ – Messung der Lendenwirbelsäule in anterior-posteriorer Projektion der Ex-situ – Messung in beiden Projektionen jedoch nicht unterlegen. Somit scheint die lumbale In-situ – DXA in anterior-posteriorer Projektion ein mechanisch bedingtes Frakturrisiko für die thorakale und lumbale Wirbelsäule in gleicher Weise vorhersagen zu können. Die Artefaktbeeinflussung der lumbalen In-situ – AP-Messung scheint für die Vorhersage eines Frakturrisikos in der thorakalen Wirbelsäule eine eher untergeordnete Rolle zu spielen. Die klinische DXA-Messung der Lendenwirbelsäule in anterior-posteriorer Projektion kann daher als nicht-invasive Methode Aussagen über ein mögliches Frakturrisiko treffen und dazu beitragen Risikopatienten zu diagnostizieren und einer adäquaten, antiresorptiven Therapie zu unterziehen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
HIV (Human Immunodeficiency Virus)Typ1: Subtypenverteilung, Mehrfachinfektionen und Charakterisierung der Viruspopulationen in einer Hochrisikokohorte in Tansania

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19

Play Episode Listen Later Feb 16, 2006


Die hohe genetische Variabilität von HIV stellt ein großes biologisches Hindernis für die Entwicklung erfolgreicher Medikamente und Impfstoffe dar. Im Laufe seiner Evolution hat HIV eine Vielzahl von Untergruppen und Subtypen entwickelt, die in unterschiedlichen geographischen Regionen und Bevölkerungsgruppen eigenständige Epidemien geschaffen haben, aus denen sich die weltweite Pandemie zusammensetzt. Die hohe Evolutionsrate von HIV wird verursacht durch seine Fähigkeit, schnell zu mutieren, zu rekombinieren und sich mit einer sehr kurzen Generationszeit zu replizieren. Während die kontinuierliche Akkumulation von Punktmutationen eher zu allmählichen Veränderungen der biologischen Eigenschaften des Virus führt, können durch Rekombinationsereignisse zwischen verschiedenen Virusisolaten plötzlich größere Genomabschnitte ausgetauscht und damit eventuell fittere Varianten generiert und selektiert werden. Eine rasche Bildung von Fluchtmutanten oder Resistenzen gegen antiretrovirale Therapie sind die Konsequenz. Voraussetzung für die Bildung derartiger Mosaikgenome ist zum einen die zeitgleiche Infektion einer Zielzelle mit mehreren Virionen und zum anderen die Koinfektion eines Individuums mit mehr als einer HIV-Variante. Koinfektionen und Rekombinationen mit verschiedenen HIV-1 Subtypen sind besonders wahrscheinlich in Regionen, in denen mehrere Virusvarianten kozirkulieren, wie in Tansania, wo man die HIV-1 Subtypen A, C und D nebeneinander findet. Zur Untersuchung der genauen Subtypenverteilung mit besonderem Fokus auf rekombinante Formen und Mehrfachinfektionen wurde in der Region Mbeya im Südwesten Tansanias eine Hochrisikokohorte von 600 Barfrauen gebildet, die alle drei Monate über einen Zeitraum von vier Jahren nachuntersucht wurden (HISIS-Studie). Die initiale HIV-1 Prävalenz in dieser Kohorte betrug 67,8%. 75 zufällig aus dieser Studie ausgewählte HIV-1 positive Frauen wurden in dreimonatigen Intervallen mit dem Multiregion-Hybridisation-Assay (MHAACD) auf ihren HIV-1 Subtyp hin getestet. Dieser sensitive und durchsatzstarke Subtypisierungstest beruht auf dem Prinzip einer real-time PCR mit subtypenspezifischen Hybridisierungssonden, die an die HIV-DNA in fünf Genomregionen binden. Neben reinen Subtypen kann der MHAACD auch rekombinante Viren und Doppelinfektionen mit hoher Vorhersagekraft nachweisen. Die Verteilung der reinen (nichtrekombinanten) Subtypen zu Beginn der Studie wurde dominiert von C mit 34%, gefolgt von A mit 9% bzw. D mit nur 5%. Damit wird der größere Einfluß der südlichen Nachbarn, in denen ebenfalls der Subtyp C überwiegt, auf die Region Mbeya im Vergleich zu den nördlich angrenzenden vor allem von Sutyp A und D dominierten Staaten deutlich. 52% aller Infektionen sind entweder verursacht durch rekombinante Viren (32%) oder Mehrfachinfektionen mit Beteiligung von Rekombinanten (20%). Dieser Prozentsatz liegt sehr viel höher als in der Allgemeinbevölkerung dieser Region und impliziert daher eine Korrelation zwischen dem Risikoverhalten der Infizierten und der Wahrscheinlichkeit einer HIV-1 Mehrfachinfektion und dem Auftreten von rekombinanten Formen. Die Mehrheit der Koinfektionen schienen nicht auf einer simultanen, sondern einer sequentiellen (Superinfektion) Transmission verschiedener Virusvarianten zu beruhen, was durch den Vergleich zweier Gruppen von Barfrauen belegt wird. Erstere befanden sich in einem mittleren Infektionsstadium der HIV-1 Infektion und wiesen eine signifikant geringere Prävalenz an Mehrfachinfektionen (9%) auf als die zweite Gruppe der Teilnehmerinnen, die sich zu Beginn der Studie schon in einem Spätstadium bzw. im AIDS-Stadium befand und mit 30% einen deutlich höheren Anteil an Mehrfachinfektionen zeigte. Aus den durch den MHAACD detektierten Mehrfachinfektionen wurde eine Studienteilnehmerin mit einer fortgeschrittenen HIV-1 Infektion zur detaillierten Analyse der viralen Populationen ausgewählt. Sie entwickelte innerhalb von 12 Monaten nach Eintritt in die Studie AIDS definierende Symptome und verstarb kurz darauf an den Folgen der Immunschwäche. Der an fünf aufeinanderfolgenden Zeitpunkten (0, 3, 6, 9, 12 Monate) durchgeführte MHAACD-Test enthüllte eine AC-Doppelinfektion in der vpu-Region. Diese konnte durch die Amplifikation, Klonierung und Sequenzierung von drei Genomfragmenten (gag/pol, vpu/GP120, GP41/nef) bestätigt werden. Eine detaillierte phylogenetische Sequenzanalyse der Region 2 (vpu/GP120) enthüllte eine zweite A-Variante, weshalb von einer Dreifachinfektion der Patientin ausgegangen werden kann. Zusätzlich wurden in allen drei untersuchten Genomregionen eine Reihe von aus den Elternformen gebildeten rekombinanten Viren identifiziert. Die komplexeste virale quasispecies mit mindestens acht verschiedenen molekularen Formen wurde in der Region 2 (vpu/GP120) gefunden. Die Anteile der verschiedenen viralen Varianten in den analysierten Regionen fluktierten sehr stark über den Untersuchungszeitraum von einem Jahr, weshalb eine longitudinale einer cross-sektionalen Analyse zur zuverlässigen Detektion von Koinfektionen vorzuziehen ist. Eine eindeutige Tendenz zu stärkerer Homogenisierung bzw. Diversifizierung der quasispecies mit der Manifestierung von AIDS und damit sinkendem Immundruck konnte nicht festgestellt werden. Für die Amplifikation der drei untersuchten Genomfragmente im Rahmen einer verschachtelten PCR wurden jeweils vier verschiedene Primerkombinationen verwendet. Es konnte gezeigt werden, dass der Einsatz multipler Primerpaare eine Selektion bestimmter Virusvarianten während der PCR verringern und damit die Wahrscheinlichkeit der Detektion einer Mehrfachinfektion im Vergleich zu einer konventionellen PCR erhöhen kann. Eine weitere Sensitivitätssteigerung der Methodik wäre zukünftig durch zusätzliche Primerpaare denkbar. Die detaillierte Untersuchung der viralen Formen spielt eine bedeutende Rolle vor allem im Hinblick auf zukünftige Studien zur Evaluierung von HIV-Vakzinen, wie sie unter anderem in der Region Mbeya in Tansania stattfinden werden. Ein unvollständiges Bild der zirkulierenden HIV-Varianten kann zu einer falschen Interpretation der Ergebnisse solcher Studien und in der Folge zu einer falschen Einschätzung der Wirksamkeit von Impfstoffkandidaten führen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Ursachen unterschiedlicher Ergebnisse bei serologischer und genetischer Subtypisierung von HIV-1-Proben

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19

Play Episode Listen Later Oct 7, 2004


Ziel der vorliegenden Studie war es, abzuklären, wie verlässlich die Serotypisierung von HIV-1 die in einem ostafrikanschen Land vorkommenden, seit Jahren nebeneinander existierenden, unterschiedlichen Genotypen bestimmen kann. Hierzu wurden die genetischen Subtypen von 86 AIDS-Patienten aus Mbeya-Stadt im südwestlichen Tansania durch die Nukleinsäuresequenzierung eines env-Abschnitts bestimmt. Die Daten wurden mit den Ergebnissen der V3-Serotypisierung verglichen, welche durch 4 verschiedene Testverfahren erhoben wurden. In den zur Verfügung stehenden Patientenproben konnten 4 genetische Subtypen identifiziert werden: A (25,29%), C (47,55%), D (13,15%) und G (1,1%). Im Vergleich der serologischen Tests untereinander konnte gezeigt werden, dass die Sensitivität und Spezifität der verwendeten ELISAs beträchtlich variierte. Weiterhin konnten verschiedene Aminosäurereste im V3-loop identifiziert werden, die größte Bedeutung für eine erfolgreiche und gleichzeitig spezifische Antikörperbindung haben. Abweichungen hiervon waren in hohem Maße mit einer serologischen Fehlklassifizierung verbundn. Die Ergebnisse haben gezeigt, dass die Tests zumindest auf Populationsebene die Subtypenverteilung in den richtigen Proportionen vorharsagen. Auf individueller Ebene ist die Vorhersagekraft jedoch nicht ausreichend. Die Schuld dafür ist in den extrem ähnlichen Aminosäuresequenzen der prävalenten genetischen Subtypen zu suchen, die eine Unterscheidung von A und C bzw. D und C in vielen Fällen unmöglich machten. Um in groß angelegten Studien die genetischen HIV-1-Subtypen untersuchen zu können, sind modifizierte Algorithmen nötig, mit deren Hilfe die durch regionale Besonderheiten der Viren verursachten Schwierigkeiten der serologischen Tests erkannt und korrigiert werden können.

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Optimierung des Chemosensitivitätstests ChemoSelect und Untersuchung der Möglichkeit des Nachweises einer Wirkung des monoklonalen Antikörpers Herceptin in diesem diagnostischen Testverfahren

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06

Play Episode Listen Later Jul 30, 2004


Krebs stellt heute in den Industrieländern die zweithäufigste Todesursache dar. In der Therapie von Krebserkrankungen spielt die Chemotherapie neben der operativen Entfernung und der Bestrahlung als systemische Behandlungsform eine wichtige Rolle. Forscher unternehmen große Bemühungen, neue und verbesserte Therapieformen gegen Krebs zu entwickeln. Diese Aktivität hat dazu geführt, dass heute zahlreiche Medikationen erhältlich sind, die gegen Krebs einsetzbar sind. In Folge dieser Entwicklungen ist die Therapiewahl schwieriger geworden. Obwohl pathologisch diagnostizierte Charakteristika eine gewisse Selektion erlauben, gehen diese Klassifizierungen nicht weit genug, um auf die individuellen Bedürfnisse des Krebspatienten einzugehen. Prätherapeutische in vitro Chemosensitivitätstests bieten die Möglichkeit, Behandlungserfolge durch eine Individualisierung der Chemotherapie für Krebspatienten zu vergrößern. Für diese Untersuchungen werden dem Patienten Tumorzellen entnommen, und ex vivo mit in Frage kommenden Therapeutika in Kontakt gebracht. Dabei lässt sich herausgefunden, welche Therapeutika eine Wirkung auf die individuellen Tumorzellen zeigen. Bis heute sind solche Testverfahren unter Onkologen umstritten und eine Integration dieser Verfahren in den medizinischen Alltag ist noch nicht realisiert. Unterschiedliche methodische Herangehensweisen existieren in der Chemosensitivitätstestung. In dieser Arbeit wurde der bestehende ChemoSelect®-Test grundlegend untersucht und optimiert. Die Optimierung diente dazu, Durchführbarkeit und Vorhersagekraft des Verfahrens zu vergrößern und eine breite Anwendbarkeit des Tests zu ermöglichen. Es konnte gezeigt werden, dass Chemosensitivitäten in bestimmten Grenzen unabhängig von der Zellzahl reproduzierbar im Test nachzuweisen sind. Mit Hilfe eines optimierten Mediums konnte der Einsatzbereich des Tests mittels einer Reduktion der erforderlichen Zellzahl vergrößert werden. Ferner konnte gezeigt werden, dass die im ChemoSelect®-Test gemessene Ansäuerungsrate mit der Proliferation der Zellen korreliert. Untersuchungen ergaben eine gute Vergleichbarkeit des Tests mit verschiedenen Proliferationstests. Für Vertreter der wichtigsten Chemotherapeutikaklassen ließen sich in vitro spezifische Wirkungen nachweisen. Basierend auf den Erkenntnissen der vorliegenden Arbeit wurde ein grundlegendes Konzept für eine klinische Validierungsstudie aufgesetzt, mit welchem innerhalb von zwei Jahren überprüft werden kann, wie hoch der prädiktive Wert des Tests ist. Ferner wurde die Möglichkeit untersucht, im Test Sensitivitäten gegenüber neuartigen, spezifisch gegen Tumorzellen gerichteten Therapeutika nachzuweisen. Als Beispiel für eine solches Therapeutikum wurde der monoklonale Antikörper Herceptin verwendet, der gegen den Her2/neu Rezeptor gerichtet ist. Im Testsystem ließ sich eine Wirkung des monoklonalen Antikörpers sowohl als Monotherapeutikum als auch in Kombination mit Chemotherapie nachweisen. Dieser Effekt war spezifisch bei Zellen zu beobachten, die sich durch eine Überexpression des Her2/neu Rezeptors auszeichneten.