POPULARITY
In der heutigen Folge geht es um die neue Leitlinie Sedierung. Andrea Riphaus beleuchtet die Vorteile einer Sedierung für Untersucher*innen und Patienten und erläutert, wie und nach welchen Kriterien sie gut und sicher durchgeführt werden kann. Auch um die Teamarbeit wird es gehen und welche Möglichkeiten der Qualifizierung zur Verfügung stehen.
MS-Perspektive - der Multiple Sklerose Podcast mit Nele Handwerker
In Folge #130 vom MS-Perspektive-Podcast spreche ich mit Dr. Anja Dillenseger vom MS-Zentrum in Dresden über relevante digitale Biomarker für MS-Patienten. Es geht darum, was Biomarker sind? Wie sie eine bessere Beurteilung des Ist-Zustandes ermöglichen, was wiederum eine bessere Behandlung ermöglicht. Welche Rolle dabei Smart Phones, Apps und Fitness Tracker spielen? Außerdem sprechen wir ganz konkret darüber, wie Sehstörungen erfasst werden und die Aussagekraft der Ergebnisse. Und es geht darum, wie Technik objektiv vergleichende Verlaufsdaten zeigen kann, selbst wenn andere Symptome wie Fatigue beim Messen von beispielsweise Sprechstörungen reinspielen. Hier geht es zum Blogartikel: https://ms-perspektive.de/dr-anja-dillenseger-digitale-biomarker/ Inhaltsverzeichnis Vorstellung Digitale Biomarker Überblick Detailfragen digitale Biomarker Zusammenfassung Biomarker Blitzlicht-Runde Verabschiedung Vorstellung Anja Dillenseger ist wissenschaftliche Mitarbeiterin mit akademischem Abschluss beim Multiple Sklerose Zentrum Dresden. Sie arbeitete zunächst im Groß- und Außenhandel und war Chefsekretärin bei RENO-Schuhimport. Es folgte ein BWL-Studium. Dann ging sie für 10 Monate in eine Tierarztpraxis und studierte anschließend Veterinärmedizin. Bis 2014 arbeitete sie in einer Praxis in Chemnitz, wechselte dann nach Dresden wo sie in den Jahren 2015/2016 in einer Tierarztpraxis tätig war. Und seit 2016 gehört sie zum Team des MS-Zentrum in Dresden. Digitale Biomarker Überblick Was sind Biomarker und wofür werden sie genutzt? Biomarker sind objektiv messbare Indikatoren physiologischer oder pathologischer Prozesse oder pharmakologischer Antworten auf therapeutische Interventionen. Im Rahmen der MS kann man diese Biomarker unterteilen in: diagnostische (d.h., sie helfen bei der Unterscheidung zwischen verschiedenen Erkrankungen, z.B. oligoklonale Banden), prognostische (diese unterstützen Ärzte dabei abzuschätzen, wie sich eine diagnostizierte Erkrankung entwickelt; z.B. Neurofilament) prädiktive/“vorhersagende“ (geben eine „Vorhersage“, wie die Antwort auf eine Therapie sein wird; welcher Patient profitiert von welcher Therapie? Hier ist zum Beispiel die Genotypisierung vor Siponimod-Therapie zu nennen.) Krankheitsaktivität (messen die Entzündung oder Neurodegeneration, z.B. MRT, Klinik) und Biomarker bezüglich der Therapie-Antwort (hilft zu unterscheiden, ob ein Patient auf eine Therapie anspricht). Was ist das Besondere an digitalen Biomarkern und warum sind sie so wichtig? Klassisch mussten und müssen diese Biomarker durch Ärzte oder medizinisches Personal erhoben und dokumentiert werden. Dafür fehlt leider häufig die Zeit oder das Personal oder beides (von Räumlichkeiten, um zum Beispiel Funktionstests durchzuführen, mal ganz zu schweigen). Daher ist der Gedanke, dass durch die zunehmende Digitalisierung im Gesundheitswesen zum einen diese Informationen gleich digital aufgenommen, dokumentiert und zur Verfügung gestellt werden können. Aber die Digitalisierung bietet auch die Chance, dass Patienten selbst diese Daten generieren und mit ihrem Behandlungsteam teilen. Wir hatten 2019 einmal eine Umfrage bei knapp über 200 Patienten gemacht, welche digitale Technologie sie am häufigsten verwenden. Das Smartphone war da ganz vorne mit dabei mit einer Nutzung mehrmals täglich. Smartphones bieten im Grunde alles, was man braucht: Kamera (z.B. zur Stimmungserhebung anhand des Gesichtsausdruckes), Mikrofon (zur Dokumentation der Sprache und eventuellen Auffälligkeiten), GPS und Gyroskop (zur Messung von Mobilität und Rotationsbewegungen des Körpers) etc. Also: warum dies sich nicht zunutze machen? Oder Fitness-Tracker? Wie können digitale Biomarker das Leben von Menschen mit MS verbessern in Bezug auf Behandlung und Prognose? Bei MS heißt es, frühzeitig auf Progressionen zu reagieren. Aber natürlich auch die Kontrolle der Therapie-Aktivität oder das Hinzukommen von neuen Symptomen. Normalerweise sehen wir Patienten alle 3 Monate, manchmal auch nur alle 6 Monate. Mal ehrlich, ich könnte mich nicht erinnern, wenn du mich jetzt fragen würdest, wie oft ich in den letzten 3 Monaten z.B. unter Kopfschmerzen gelitten habe. Das Gedächtnis eines jeden erinnert vielleicht die letzten 5 Tage ganz konkret, je nachdem natürlich, wie gravierend das Ereignis war. Aber im Grunde geht wohl viel Information verloren. Oder wird nicht ernst genug genommen. Wenn jetzt aber der Patient sich zum Beispiel hinsichtlich bestimmter Symptome selbst in seiner Häuslichkeit messen kann oder regelmäßig digitale Fragebögen zu den wichtigsten Symptomen zugeschickt bekommt, die Veränderung bestehender Symptome von ihm/ihr selbst über ein digitales Programm dokumentiert werden kann oder auch Schübe im Rahmen eines Tagebuches, dann unterstützt dies auch bei Visiten das Arztgespräch. Noch besser natürlich, wenn der Arzt ebenfalls (nach Zustimmung des/der Patient*in natürlich) direkt Zugriff zu diesen Informationen in Echtzeit hätte. Und da geht die Reise hin. Welche krankheitsbedingten Veränderungen bei MS-Patienten können bereits gut und effizient mit Hilfe von digitalen Biomarker erfasst werden? Die Bekanntesten hier sind wohl das MRT sowie die Untersuchung des Augenhintergrundes mittels der optischen Kohärenztomographie. Da ist dann aber noch lange nicht Schluss. Patienten an unserem Zentrum kennen hier zusätzlich die Ganganalyse, die bei uns mithilfe digitaler Technologie (z.B. ein mit Drucksensoren ausgestatteter Teppich), Opal-Sensoren, die am Körper befestigt werden und die Rotation des Körpers während verschiedener Aufgaben dokumentieren, digitale Fragebögen (Selbsteinschätzung der Mobilität) und vieles mehr. Zusätzlich gibt es bereits die Möglichkeit, Funktionstest tablet-basiert durchzuführen, ohne dass Patienten hier durch medizinisches Personal unterstützt werden müssen. Diese Funktionstests fokussieren sich hierbei auf die am häufigsten betroffenen Beeinträchtigungen im Rahmen der MS: das Gehen, das Kontrastsehen, die Kognition (also Konzentration und Verarbeitungsgeschwindigkeit) sowie die Funktion der oberen Extremitäten. Studien haben hier belegt, dass diese den papierbasierten Funktionstests in nichts nachstehen. Bisher waren solche digitalen Funktionstestungen häufig nur im Rahmen von Studien einsetzbar, aber die Überprüfung des Nutzens in der klinischen Routine nimmt gerade sehr an Fahrt auf. Apps, die Funktionstests von zuhause aus ermöglichen gibt es bereits. Im Bereich der Alzheimer-Erkrankung werden Sprach- bzw. Sprech-Aufgaben mit Erfolg eingesetzt, um Hinweise auf depressive Verstimmungen, kognitive Beeinträchtigungen und Fatigue zu erhalten. Bei MS muss dies noch überprüft werden. Da startet im April bei uns ein Projekt dazu. Wie man erkennen kann, ist die Erfassung dieser digitalen Biomarker nicht überall verfügbar. Das wird sich in Zukunft hoffentlich ändern. Welche Rolle spielen Apps, Smartphones und Fitnesstracker beim Erfassen der Daten und wie viel wird beim Arzt gemessen? Diese Tools bieten die Möglichkeit der Erfassung digitaler Biomarker! Ein Smartphone hat doch jeder. Tablets sind mittlerweile auch so erschwinglich, dass man die sich in die Praxis oder Klinik legen kann, um Testungen oder digitale Fragebögen darauf durchzuführen. Fitness-Tracker sind eher nicht so ganz verbreitet, könnten aber bei bestimmten Patienten zur Verfügung gestellt werden, was derzeit nur im Rahmen von Studien der Fall ist. Aber in diesen digitalen Werkzeugen liegt die Zukunft. Was derzeit mit Hilfe von Apps, Smartphones und Tablets gemacht werden kann bewegt sich zum Großteil auch im Bereich der Forschung. Beispiel der Einsatz von digitalen Funktionstests (Kontrastsehen, Stäbchen-Steck-Test, 7,61-Meter-Gehtest, Verarbeitungsgeschwindigkeit), wobei hier gerade auch ein Zulassungsverfahren für eine DiGA (digitale Gesundheitsanwendung auf Rezept) läuft, die Funktionstest beinhaltet, Tagebuchfunktion und noch mehr. Auch werden immer mehr Apps, sogenannte DiGAs zur Unterstützung bei bestimmten Symptomen, wie Fatigue (basierend auf etablierten psychotherapeutischen Ansätzen und Verfahren insbesondere der kognitiven Verhaltenstherapie) und demnächst auch zur Unterstützung bei depressiven Verstimmungen. Da ist viel in der Entwicklung. Auch bei uns im Zentrum ist da einiges im Gange, wie die Testung einer App für das Selbstmonitoring (auch über digitale Funktionstests), Sprachanalyse, unsere multimodale Ganganalyse und vieles mehr, an dem geforscht und entwickelt wird. Wie kompliziert ist die Auswertung der erfassten Daten? Das ist ein wichtiges Thema. Durch die digitale Erfassung und des immer umfangreicher werden Spektrums, was alles erfasst werden kann, nimmt natürlich die Datenmenge extrem zu. Die Verwendung digitaler Biomarker stellt andere Anforderungen an die Datenanalyse als die herkömmliche Verarbeitung von Daten im klinischen Alltag und sogar als die aufwändigere Verarbeitung in klinischen Studien. Um den prädiktiven Zweck eines Biomarkers zu erfüllen, ist die Datenübertragung und Datenanalyse in Echtzeit das Ziel. Dies erfordert eine Unabhängigkeit von Ort und Situation der Datenerhebung, d. h. eine Datenverarbeitung, die in der klinischen Praxis stattfinden kann, aber nicht auf die Räumlichkeiten des Neurologen beschränkt ist, und die Besuche, die in größeren Abständen stattfinden. Dazu müssen Daten aus unterschiedlichsten Quellen über standardisierte, sichere Schnittstellen digital aggregiert werden – eine Aufgabe, die weit über die Möglichkeiten einzelner Apps hinausgeht. Die allgemeine Anforderung an (automatisierte) Informationsverarbeitungssysteme besteht auch darin, dass sie zuverlässig nützliche Informationen (echte medizinische Bedürfnisse) von Rauschen unterscheiden können, z. B. durch Anwendung festgelegter Grenzwerte. Auch ist es wichtig zu überlegen, welche Daten denn Sinn machen und überhaupt wichtig sind für die Therapie und Verlaufskontrolle. Wo liegen aktuell die größten Hürden, um digitale Biomarker breitflächig einzusetzen? Grundsätzlich einmal in der Validierung der digitalen Biomarker, das heißt, messen diese auch, was man messen möchte und sind diese Messwerte auch repräsentativ und aussagekräftig? Die Privatsphäre (vor allem z.B. bei passiver Dokumentation über GPS des Smartphones) und Datenschutz sind hier besonders wichtig. Wo werden die Daten gespeichert und wer ist dafür (auch hinsichtlich des Datenschutzes) verantwortlich? Über die Datenauswertung hatten wir ja bereits gesprochen. Und hinsichtlich der Adhärenz, das heißt, der Nutzung dieser Technologie, Tests und Apps, muss der Patient ebenfalls mitarbeiten. Detailfragen digitale Biomarker Wie gut können Sehstörungen mit digitalen Biomarkern gemessen werden und welche Arten gibt es? Das Sehvermögen ist eines der am stärksten betroffenen Funktionssysteme bei Patient*innen mit MS und äußert sich häufig in Form einer Sehnervenentzündung. Die klinischen Anzeichen können von Veränderungen des Farbsehens, verminderter Sehschärfe bis hin zum vollständigen Verlust des Sehvermögens reichen. Das am häufigsten eingesetzte digitale Untersuchungsverfahren ist das OCT, die optische Kohärenz-Tomographie. Mit OCT können die Dicke der peripapillären Netzhautnervenschicht (pRNFL) und das Makulavolumen (Makula = Bereich des scharfen Sehens) gemessen werden, um nach Netzhautatrophie zu suchen. Es wurden im Bereich der Forschung Modelle entwickelt, um die Assoziation von OCT-basierten Metriken mit dem Grad der Behinderung zu bestimmen. Diese umfassten kontinuierliche Variablen wie die pRNFL-Dicke und das Makulavolumen, um die Wirkung (Zunahme oder Abnahme) auf das Risiko einer Verschlechterung der Behinderung zu quantifizieren. Die Ergebnisse legen nahe, dass die regelmäßige Überwachung der peripapillären retinalen Nervenfaserschicht ein nützlicher digitaler Biomarker zur Überwachung der Verschlechterung der Behinderung bei MS sein könnte, zumal er mit klinischen und paraklinischen Parametern des Sehvermögens, der Behinderung und der MRT korreliert. Ein weiterer digitaler Biomarker, der zur Überwachung von Sehbehinderungen verwendet werden kann, ist das Kontrastsehen. Die Prüfung der Sehschärfe bei niedrigen Kontrastverhältnissen ist von Bedeutung, da bei Menschen mit Behinderung die Schwelle, bei der ein Buchstabe noch vom Hintergrund unterschieden werden kann, deutlich höher ist als bei gesunden Personen. Digital wird diese Untersuchung derzeit allerdings nur im Rahmen der Forschung durchgeführt. Ein Bereich der noch erforscht wird, sind die okulomotorischen Störungen, die ebenfalls auftreten können, also Störungen der Augenbewegung. Die am häufigsten beobachteten Augenbewegungsstörungen sind zum Beispiel überschießende oder zu kurz erfolgende schnelle, ruckartige Augenbewegungen beim Wechsel eines Fixpunktes), gestörte horizontale Augenbeweglichkeit, und Nystagmus (unwillkürliche Augenbewegung).] Welche Sprachstörungen können MS-Patienten bekommen und wie können digitale Biomarker diese testen? Sprach- und Sprechprobleme kommen bei 40-50 % aller MS-Patienten vor. Dazu zählt vor allem die Dysarthrie, das heißt eine neurologisch bedingte Sprechstörung, die durch eine Schädigung des zentralen oder des peripheren Nervensystems verursacht wird. Dabei kann die Lautbildung bzw. Artikulation gestört sein, aber auch die Atemkapazität, die Sprechmelodie (also eher ein monotones Sprechen), dass vermehrt Pausen gemacht werden oder die Stimme sehr angespannt ist. Und das kann man sich für die Untersuchung mittels digitalen Biomarkern auch zunutze machen. Da diese Beeinträchtigungen auch nur ganz leicht auftreten können, ist es für das menschliche Ohr (also den Untersucher) manchmal schwierig zu erkennen. Nutzt man Applikationen (Apps), anhand derer Patienten Sprach-Aufgaben durchführen und diese gespeichert und analysiert wird, hat man zum einen eine objektive Erkennung von Veränderungen, die aber auch standardisiert ist. Das heißt, bei Verlaufskontrollen wird sich immer auf das gleiche „Normal“ bezogen. Menschliche Unterschiede bei Beurteilungen und der Wahrnehmung (2 Untersucher können zu unterschiedlichen Ergebnissen kommen) fallen also weg. Das Gleiche gilt für alle digitalen Biomarker. Sie sind standardisiert. Ein Problem könnten allerdings verschiedene Akzente oder Dialekte darstellen. Auch das Alter, die Komplexität der durchzuführenden Sprachaufgaben und die individuellen kognitiven Fähigkeiten müssen berücksichtigt werden. Der Vorteil von digitalen Sprachanalysen ist, dass diese auch zum Beispiel während der Visite, bei Telefonaten oder Videosprechstunden mit durchgeführt werden können, also passiv. Warum sind Untersuchungen von Sprache/des Sprechens wichtig? Neben der frühzeitigen Erfassung von Beeinträchtigungen darf man nicht vergessen, dass Sprach- bzw. Sprechbeeinträchtigungen durchaus negative Effekte hinsichtlich Berufstätigkeit und sozialer Einbindung haben, mit daraus resultierenden Einflüssen auf die Lebensqualität! Welche Auswirkungen haben Depression und Fatigue auf die Sprache und andere Symptome der MS und ist es möglich, trotz verschiedener Einflussfaktoren ein klares Bild über den Ist-Zustand eines Patienten zu gewinnen? Die Fatigue kann die Konzentrationsfähigkeit sowie die Sprech-Geschwindigkeit beeinflussen. Depressive Verstimmungen zum Beispiel zu monotoner Stimme, einer leisen Stimme oder zu negativen Einflüssen bei der Sprachanalyse führen, wenn zum Beispiel ein positives Erlebnis der vergangenen zwei Wochen berichtet werden soll, der/die Patient*in aber ein negatives Erlebnis erzählt. Anzeichen von Müdigkeit und Depression sind bereits bei gesunden Personen oder Patienten ohne neurologische Erkrankung nachweisbar. Da Müdigkeit, Depressionen und kognitive Beeinträchtigungen bei MS häufig vorkommen, könnten sie durch Sprachanalysen erfasst werden. Testbatterien können so konzipiert werden, dass sie exekutive Funktionen und Verarbeitungsgeschwindigkeit (z. B. phonematische und semantische Wortflüssigkeit), Gedächtnis (z. B. Wechsler Memory Scale und California Verbal Learning Test), Affekt und Müdigkeit (z. B. Storytelling), Sprache (Bildbeschreibung) und motorische Funktionen (Pa-ta-ka-Aufgabe) erfassen. Bislang ist die Durchführung solcher Sprach- und Sprachtests auf Studien beschränkt (bei uns am MS Zentrum Dresden wie gesagt ab April), doch kann man sich vorstellen, dass sie in Zukunft bei klinischen Besuchen von Menschen mit Behinderung oder sogar zu Hause durch den Einsatz spezieller Apps oder Aufzeichnungen bei telemedizinischen Besuchen eingesetzt werden können. Wie vielfältig sind die Ursachen für einen schlechten Gang und wie viele Tests werden benötigt, um sich ein umfassendes Bild zu machen? Beeinträchtigungen des Gehens sind mit ca. 85 % die häufigsten Symptome bei MS. Mehrere Faktoren tragen dabei zur Gangstörung bei Patient*innen mit MS bei. Sensorische Veränderungen und das daraus resultierende Ungleichgewicht, die Schwäche der unteren Extremitäten oder das Vorliegen einer Spastik sowie Kleinhirn-Ataxien haben hier wohl die größten Auswirkungen. Der in der Routine am häufigsten durchgeführte Test ist der 7,61-Meter-Gehtest. Wie der Name schon verrät, geht der/die Patient*in hier lediglich 7,61 Meter so schnell und sicher wie möglich, ohne zu rennen. Eine Schwester/Pfleger misst die dafür notwendige Zeit. Das Problem mit diesem Test ist aber, dass hier Auffälligkeiten bei Patient*innen beobachtet werden, bei denen augenscheinlich Beeinträchtigungen vorliegen. Was man nicht damit erfasst, sind Gehbeeinträchtigungen, die erst nach mehreren Minuten oder einigen zurückgelegten Metern auftreten. Auch Faktoren wie die Schrittlänge, Spurbreiten, wie fußt der Patient*in, muss mit dem Körper ausbalanciert werden, wie verändert sich das Gehen, wenn noch eine zweite Aufgabe hinzukommt, werden nicht erfasst. Diese Informationen sind aber essentiell und müssen dokumentiert und im Zeitverlauf verfolgt werden. Es ist also komplexer. Wir haben daher bei uns im Zentrum die multimodale Ganganalyse, die meine geschätzte Kollegin Frau Katrin Trentzsch etabliert hat. Hier werden neben dem 7,61-Meter-Gehtest auch ein 2-Minuten-Gehtest, die Erfassung des Ganges über das GaitRITE (ein Teppich, der über Sensoren Auskunft über die Schrittlänge, Spurbreite, Geschwindigkeit des Ganges gibt) mit und ohne Dual-Task (also eine zweite Aufgabe, die während des Gehens absolviert werden muss, um so mögliche Veränderung im Gangbild hervorzurufen) sowie den Romberg Stehtest und beobachten zusätzlich bei all diesen Tests die Rotationsbewegung des Körpers mittels am Körper befestigter Opalsensoren. Hinzu kommen Fragebögen, um subjektive Angaben über die Mobilität zu erhalten. Die Kraftmessplatte kam neu dazu, die bereits frühe Veränderungen detektieren kann. Aber das ist nur ein Teil, was das Mobilitätszentrum von Frau Trentzsch macht und machen kann. Aber es ist das, was wir jedem/r Patient*in bei uns im MS-Zentrum mindestens 1x pro Jahr anbieten. Was man nicht vergessen darf: Grundsätzlich ist es wichtig, Beeinträchtigungen des Gehens im Speziellen und der Mobilität im Allgemeinen in der täglichen Routine der Patienten zu betrachten. Das ist leider derzeit nicht vollumfänglich möglich. Die Technologie gibt es schon, aber eben allenfalls im Rahmen von Studien, noch nicht für die Routine. Fitness-Tracker oder Smartphones bieten hier gute Einsatzmöglichkeiten. Das Problem ist aber noch für die Routine-Nutzung: wo die Daten speichern, so dass Arzt und Patient diese nutzen können. Datenschutz? Wie werden aktuell die Einschränkungen durch MS auf Arme und Hände gemessen und was ist hier zukünftig realistisch? Derzeit ist der hauptsächlich verwendete Test der sogenannte 9-Hole-Peg-Test oder Stäbchen-steck-Test. Hierbei sollen jeweils mit einer Hand 9 Stäbchen in vorgebohrte Löcher auf eine Platte nacheinander eingesetzt und wieder entfernt werden. Dabei wird von einer Schwester oder Pfleger die Zeit erfasst, die dazu benötigt wird. Diese Zeit wird in Bezug gesetzt zu einer Kontroll-Kohorte (Menschen ohne Einschränkung). Wenn dieser Test regelmäßig gemacht wird, können Veränderungen sehr gut erkannt werden. Natürlich gibt es Schwankungen. Aber wenn beispielsweise eine Verschlechterung um 20 % über mindestens 3 Monate bestehen bleibt, ist dies klinisch signifikant. Diesen Test gibt es auch in etwas abgewandelter Form digital. Dazu müssen Tomaten oder Ballons zerquetscht werden, die auf dem Smartphone-Display an unterschiedlichen Stellen und in unterschiedlicher Größe erscheinen. Studien belegten bereits eine Korrelation dieses digitalen Tests mit der „herkömmlichen“ Version. Was hier aber noch weitere Vorteile bringt, ist, dass neben der Standardisierung und der Vermeidung, dass das Personal mal zu früh oder zu spät die Stopp-Uhr betätigt, zum Beispiel auch die Möglichkeit der Erfassung des Druckes, den die Finger auf dem Display ausüben. Oder die Zielgenauigkeit. Das sind alles Daten, die kann man mit dem herkömmlichen Test nicht erfassen. Diese sind aber wichtig! Und, nicht zu vergessen, diese Tests können zuhause durchgeführt werden, auch und vor allem dann, wenn Patienten Verschlechterungen bemerken und messen wollen. Auf welche Art können kognitive Probleme festgestellt werden? Kognitive Probleme beeinträchtigen häufig das Arbeitsgedächtnis, die Wortflüssigkeit, die Geschwindigkeit der Informationsverarbeitung, das verbale und visuelle Gedächtnis sowie die exekutiven Funktionen und – nach neuen Erkenntnissen – der Bereich der „Theory of Mind“ (die Fähigkeit, auf der Grundlage nonverbaler und verbalen Hinweisen auf die Emotionen anderer Menschen zu schließen). Das wären dann auch die Ansatzpunkte für mögliche Testungen. Der bisher eingesetzte Test ist der SDMT, bei dem Zahlen zu Symbolen innerhalb von 90 Sekunden zugeordnet werden müssen. Dieser Test adressiert das Arbeitsgedächtnis. Das Problem bei diesem Test ist, dass eigentlich auch die schulische Ausbildung mit zur Beurteilung des Ergebnisses herangezogen werden müsste, da das gleiche Ergebnis bei einem eine Auffälligkeit ist, während sie bei dem anderen völlig normal ist. Hinzu kommt natürlich, dass dieser Test auch beeinflusst werden kann durch andere Beeinträchtigungen, wie das Sehen oder der oberen Extremitäten. Trotzdem bleibt dieser Test auch bei der Digitalisierung der Test der Wahl und ist bereits auch als solcher verfügbar. Er ist schnell durchführbar und wenn regelmäßig absolviert, ermöglicht er im Monitoring doch das Erkennen von Veränderungen. Für den klinischen Einsatz wurde eine Reihe von vereinfachten Tests für die Kognition bei MS entwickelt, darunter Testbatterien wie der BICAMS (Brief Repeatable International Cognitive Assessment for MS), die Brief Repeatable Battery of Neuropsychological Tests und der Minimal Bewertung der kognitiven Funktion bei MS. Deren Einsatz scheitert aber an zeitlichen und personellen Engpässen (abgesehen von der Umsetzung in eine digitale Form). Aber sollte in dem Symbol-Zahlen-Test eine klinisch relevante Verschlechterung auftreten, kann eine eingehendere neuropsychologische Testung dann angeordnet werden. Zusammenfassung Biomarker Welche Entwicklungen im Bereich der digitalen Biomarker wünschst Du Dir in den kommenden 5 Jahren? Im Bereich der MS würde ich mir die Weiterentwicklung digitale Biomarker wünschen, die bereits frühe Progressionen erkennen können. Darüber hinaus wäre es wünschenswert, dass alle Patienten die Möglichkeit erhalten, von digitalen Biomarkern zu profitieren und nicht nur in ausgewählten Zentren oder im Rahmen von Studien. Wie können Patienten dabei helfen, dass digitale Biomarker schneller Verbreitung finden, um möglichst bald von den gewonnenen Ergebnissen zu profitieren? Es werden derzeit sehr viele Apps oder digitale Testmöglichkeiten sowie DiGAs (digitale Gesundheitsanwendungen auf Rezept) entwickelt. Aber häufig ist es ja so, dass der Entwickler seine Vorstellung hat, der Arzt ebenfalls, aber der „End-Nutzer“, also der Patient, diese aus den unterschiedlichsten Gründen nicht nutzt. Um dies zu vermeiden geht man dazu über, diese Innovationen durch Patienten testen zu lassen, zumindest ist es unsere Empfehlung dies zu tun. Das bieten wir auch Unternehmen mit guten Ideen im Bereich der MS an, diese durch Patienten unseres Zentrums beurteilen zu lassen. Patienten sind da sehr ehrlich und auch wahnsinnig kreativ, was Verbesserungen angeht! Da bin ich immer wieder erstaunt. Wenn aber dann solche digitalen Möglichkeiten, die auch eine qualitativ gute Datenerfassung und Bereitstellung an den Arzt ermöglichen, existieren und funktionieren, müssen sie von Patienten konsequent genutzt werden und nicht nur zu Beginn, wenn die Begeisterung groß ist. Adhärenz ist da ein großes Problem. Wir schauen auch im Rahmen eines anderen Projektes an unserem Zentrum derzeit, wie die Adhärenz bei einer App ist, die Funktionstests zuhause ermöglicht und was die Ursachen mangelnder Adhärenz sind. Wir sind gespannt auf das Ergebnis! Blitzlicht-Runde Vervollständige den Satz: „Für mich ist die Multiple Sklerose... “ … der Antrieb, möglichst hochwertige und patientenorientierte Versorgung anzubieten und weiterzuentwickeln. Wie lautet Dein aktuelles Lebensmotto? Wenn du es eilig hast, gehe langsam. Sowie: Bitte mehr Life in der Work-Life-Balance. Das Leben kann sich so schnell ändern, man hat es eben nicht in der Hand… Mit welcher Person würdest Du gern ein Kamingespräch führen und zu welchem Thema? Wenn es um Prominente geht: Martin Luther King jr.; wobei es mir schwer fällt, mich auf eine Person festzulegen. Es gab und gibt viele interessante Menschen, mit denen ein Kamingespräch bestimmt nicht langweilig werden würde. Ansonsten: meine Oma, die gestorben ist, als ich noch zu unreif war, ihr zuzuhören. Welches Buch oder Hörbuch, das Du kürzlich gelesen hast, kannst Du empfehlen und worum geht es darin? Als Hörbuch kann ich „Die Purpurnen Flüsse“ (Jean-Christophe Grange) empfehlen! Sehr gut! Höre ich immer wieder.
* Interessiert? Alle erwähnten und vertiefenden Informationen zum Thema Narzissmus findest du in der Textbeschreibung! In dieser Podcastfolge habe ich einen echten Narzissmus-Experten eingeladen und wir reden gemeinsam, netter Narzisst zu netter Narzisst, über gesunden und destruktiven Narzissmus. Ich freue mich sehr, dir Dr. med. Pablo Hagemeyer vorstellen zu dürfen. Er ist Arzt, Facharzt für Psychiatrie und Psychotherapie, SPIEGEL Bestsellerautor und bekennender Narzisst. Du erfährst... * Was ist eigentlich Narzissmus und was steckt dahinter? * Woran erkennt man eine*n Narzisst*in? * Wie können wir mit Narzissmus in uns selbst und anderen umgehen? * Worin liegt der Unterschied zwischen toxischem und gesundem Narzissmus? * Ab wann wird Narzissmus wirklich gefährlich? Ich hoffe, dass diese Folge den Menschen, die von destruktivem, bösem Narzissmus betroffen sind, hilft, sich besser abzugrenzen und gleichzeitig den Umgang mit diesem Wort entschärft. Ich wünsche dir spannende, wertvolle Erkenntnisse und den Mut zur Umsetzung. In Verbundenheit, Veit * Alles zu Dr. med. T. Pablo Hagemeyer: https://www.neurodoctor.de/ * Zu seinem Buch | »Gestatten, ich bin ein Arschloch.«: Ein netter Narzisst und Psychiater erklärt, wie Sie Narzissten entlarven und ihnen Paroli bieten: https://amzn.to/37R76QM * Zu seinem neuen Buch | erhältlich ab 01.10.2021! | Die perfiden Spiele der Narzissten: Der nette Narzissmus-Doc klärt auf: https://amzn.to/2UyKJwA * Englischer Narzissmus Selbsttest: https://go.veitlindau.com/narzissmus-selbsttest * SCID-5-PD Narzissmus Test, einsetzbar mit einer*m Untersucher*in, die*der das Interview führt: https://go.veitlindau.com/narzissmus-interview-test * PSSI Narzissmus Test: https://go.veitlindau.com/narzissmus-pssi-test * Lust auf mehr? Entdecke jetzt homodea: http://go.homodea.com/hd191 * Alles zu Veit Lindau: https://go.veitlindau.com/bold-impact * Du kannst dir den Podcast überall auf Apple Podcasts, Spotify, meinem Blog, YouTube, SoundCloud und allen Podcastapps kostenlos anhören. * Kennst du echte menschliche Held*innen, jung oder alt, dann kannst du sie uns gerne als Gäst*innen vorschlagen. Schreibe uns mit einer kurzen Erklärung, warum, an podcast@veitlindau.com.
Prof. Dr. Andreas H. Grün im Gespräch mit Dr. Jens Fischer, General Manager bei Pentax Medical. Nutzung von Künstlicher Intelligenz im Bereich der Endoskopie fördert die Detektion von Entzündungsherden. Damit können Untersucher in Kliniken und Praxen noch besser Erkrankungen bei Patienten erkennen und behandeln. Die durch die KI geschaffenen Standardisierungen bei den Ärzten verbessern damit auch die Behandlung der Patienten. Entwickelt wurde das System bei Pentax in Augsburg (Deutschland) gemeinsam mit deutschen Medizinern.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
Diese Studie, eine Zusammenarbeit der Chirurgischen Kleintierklinik und der orthopädischen Klinik und Poliklinik der Ludwig-Maximilians-Universität München, stellt Langzeitergebnisse nach zementierter Totalendoprothetik des Hüftgelenks beim Hund dar. Aus einem Erhebungszeitraum von 26 Jahren, von 1988 bis 2014, wurden die Röntgenbilder von Hunden, mit einer Mindeststandzeit des Hüftgelenksersatzes von fünf Jahren, ausgewählt und radiologisch von einem Untersucher nach einem einheitlichen Schema beurteilt. Die Beurteilungen umfassten unter anderem die Position der Pfanne (Winkel der Ante- bzw. Retroversion, lateraler Öffnungsgrad), die Position des Schafts (zentriert, varus, valgus, horizontales Offset, Auflage des Prothesenkragens) und die Qualität des Zementmantels. Im Verlauf wurden Aufhellungslinien an den Grenzflächen von Pfanne und Schaft und Veränderungen der Implantatpositionen beurteilt. Ein funktionelles Ergebnis wurde, soweit es vorhanden war, erfasst. Die statistische Auswertung erfolgte mit einer binär logistischen Regressionsanalyse. Zur Auswertung gelangten 125 Totalendoprothesen bei 97 Hunden (28 bilateral versorgt), mit einer durchschnittlichen Standzeit von 6 Jahren, wobei alle Implantate von einer Chirurgin eingesetzt wurden. Unter den 125 Implantaten fanden sich 25 Richards-Canine-II Prothesen, 92 Biomécanique Prothesen und acht Porte Prothesen. Die Komplikationsrate lag bei 13,6 %, wobei die aseptische Lockerung mit 10,4 %, als klassische Langzeitkomplikation vorherrschte. Weitere Komplikationen waren eine Femurfraktur (0,8 %), ein Bruch des Pfannenimplantats (0,8 %), eine Luxation (0,8 %) sowie ein Osteosarkom (0,8 %). Die Komplikationshäufigkeiten anderer Studien, die eine Mindeststandzeit von fünf Jahren aufwiesen, reichte bei der zementlosen PCA Prothese von 8,7 % (Marcellin-Little et al. 1999a), über 50 % in einer experimentellen Studie (Kerschbaumer 1991), bis zu 63 % bei zementierten Prothesen (Frankel et al. 2004). Radiologisch-funktionelle Langzeitstudien sind in der Endoprothetik von großer Bedeutung, um einerseits den Erfolg einer Endoprothese zu belegen, als auch, um Prävalenzen der aseptischen Lockerung fest zu stellen. Zusammenfassend ist zu sagen, dass der zementierte Hüftgelenksersatz beim Hund ein gutes Langzeitresultat aufweist. Dies ist unter anderem damit zu untermauern, dass von 97 Patienten 55,7 % beidseitig ein künstliches Hüftgelenk erhalten haben. Diese Tatsache spricht für ein gutes Langzeitergebnis, als auch für eine hohe Besitzerzufriedenheit.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 07/07
In der Tiermedizin gehört die echokardiographische Untersuchung vor allem im Kleintierbereich zu den Standarduntersuchungen auf dem Gebiet der Kardiologie. Das Erlernen der Echokardiographie setzt jedoch voraus, dass Studierende der Tiermedizin und/ oder Tierärztinnen und Tierärzte die Möglichkeit haben die Echokardiographie praktisch selbst zu üben, um das korrekte Einstellen der gebräuchlichen Standardschnittebenen in der zweidimensionalen Echokardiographie zu erlernen. Im Rahmen dieser Arbeit wurde eigens für die Tiermedizin ein Echokardiographiesimulator für die Katze entwickelt. Da die elektronisch-technischen Grundlagen mit geringfügigen Modifikationen von einem humanmedizinischen Ultraschall- und Echokardiographiesimulator, dem SonoSim III der Firma Sonofit GmbH, Darmstadt, übernommen werden konnten, lag der Fokus dieser Arbeit auf der Bestückung des Simulators mit geeigneten Echokardiographiedatensätzen von herzgesunden und herzkranken Katzen, sowie dem Entwurf und der Konstruktion von realitätsnahen Katzenattrappen einerseits und Untersuchungstischen andererseits. Die Datensätze, die in den Simulator integriert wurden stammen von dreidimensionalen Echokardiographiedatensätzen verschiedener feliner Patienten. Es wurde in Abhängigkeit ihrer zugrundeliegenden Erkrankung und ihrer Relevanz sowie der Qualität des Datenmaterials die Datensätze einer gesunden und zwei herzkranker Katzen ausgewählt. Eine Jungkatze wies einen deutlichen perimembranösen Ventrikelseptumdefekt (VSD) auf, der auch ohne Doppler im B-Bild zu erkennen war. Die zweite herzkranke Katze zeigte eine asymmetrische Hypertrophie des Kammerseptums und der Papillarmuskeln (HCM), sowie eine mittelgradige Aortenklappeninsuffizienz. Der VSD und die HCM sind laut Literatur die häufigste angeborene bzw. erworbene Herzerkrankung der Katze. Die 3D-Datensätze wurden in ihre kleinsten Einheiten, die Einzelbilder, zerlegt, manuell bearbeitet, wieder zusammengefügt und der daraus entstandene Datensatz anschließend in den Simulator geladen. Die Bearbeitung diente einerseits der Verbesserung der Qualität durch Minimierung von Artefakten und andererseits der Verdeutlichung der kardialen Morphologie durch unterschiedliches Einfärben der rechten und linken Herzhälfte. Dadurch wird garantiert, dass die simulierten 2D-Echokardiogramme annähernd dem Standard heutiger realer 2D-Ultraschallbilder des Herzens entsprechen. Durch die farblich unterschiedliche Markierung der Herzhälften wird die Orientierung auch für ungeübte Untersucher erleichtert. Im Rahmen der anschließenden Umfrage, wurde die Realitätsnähe der Schnitteben von über 90% der befragten echokardiographisch vorgebildeten Studierenden als sehr gut und gut beurteilt. Auch der Wert der Kolorierung erhielt von 86 % der Studierenden sehr gute und gute Noten. Ein Untersuchungstisch wurde auf eine Art und Weise entworfen und konstruiert, dass eine praxisnahe Handhabung möglich war und gleichzeitig auf jegliches Metall als Werkstoff verzichtet werden konnte, um die Technik des Simulators nicht zu stören. Dieser Tisch wurde mit zwei austauschbaren Tischplatten, auf denen jeweils eine Katzenattrappe in linker und rechter Seitenlage fixiert war, bestückt. Das Innere der Katzenattrappen besteht aus einem Schaumstoffkern, in den Merkmale einer echten Katze, zum Beispiel Rippen zur Orientierung eingearbeitet wurden. Bezogen wurde der Schaumstoffkern mit einem maßgefertigten Kunstfell, das ebenfalls über spezifische Orientierungsmarken wie zum Beispiel die Ellbogenhautfalte verfügt. Die befragten Studierenden äußerten sich zu Design der Katzen sowie zu Funktionalität und Design des Tisches mehrheitlich überaus positiv (88 % gut oder sehr gut). Anhand der bearbeiteten Datensätze wurden drei Patientenfälle im Simulator erstellt und dazu passende Tutorials entwickelt, um auch autodidaktisches Lernen zu ermöglichen. Bei der anschließenden Evaluierung gaben 100 % der Befragten an, dass der Simulator eine sehr gute (89%) und gute (11%)Ergänzung zur echokardiographischen Untersuchung am lebenden Tier ist. Sogar 52 % der Studierenden betrachten den Simulator als sehr gute (6%) oder gute (46%) vollständige Alternative zum lebenden Tier in der Echokardiographieausbildung.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 14/19
Zielsetzung: Erstes Studienziel war ein Vergleich der Rekonstruktion des vorderen Kreuzbandes (VKB) durch die Ligamentum- patellae Einbündeltechnik (LP- EB) und Semitendinosus- gracilis Zweibündeltechnik (STG- ZB) anhand von subjektiven und/oder objektiven klinischen Ergebnissen sowie der Rotations- und Translationsstabilität ein bzw. zwei Jahre postoperativ. Als zweites Studienziel galt die Beurteilung einer möglichen Korrelation von anatomische und nicht- anatomische platzierten VKB Rekonstruktionen mit dem klinischen Outcome in beiden Techniken. Nullhypothesen: Die oben genannte Zielsetzung wurde durch folgende Nullhypothesen aufgestellt: H01: Es ergibt sich kein statistisch signifikanter Unterschied bezüglich des Tegner, IKDC und WOMAC Scores zwischen VKB Rekonstruktionen in der LP- EB versus der STG- ZB Technik H02: Es ergibt sich kein statistisch signifikanter Unterschied bezüglich der erhobenen KT 1000 Relativwerte im Vergleich zur Gegenseite zwischen VKB Rekonstruktionen in der LP- EB versus der STG- ZB Technik H03: Es ergibt sich kein statistisch signifikanter Unterschied bezüglich des Pivot- Shift Tests zwischen VKB Rekonstruktionen in der LP- EB versus der STG- ZB Technik H04: Die zweimalige radiologische Konstruktion und Beurteilung der Tunnelposition in beiden Techniken (LP- EB; STG- ZB) durch zwei unterschiedliche Untersucher ist nicht reproduzierbar und zuverlässig, was sich durch nicht adäquate inter- und intraobserver Koeffizienten zeigt. H05: Es ergibt sich keine Korrelation von anatomisch platzierten VKB Rekonstruktionen mit einem überlegeneren klinischen Outcome als nicht- anatomische VKB Rekonstruktionen in der LP- EB Technik. H06: Es ergibt sich keine Korrelation von anatomisch platzierten VKB Rekonstruktionen mit einem überlegeneren klinischen Outcome als nicht- anatomische VKB Rekonstruktionen in der STG- ZB Technik. Patienten und Methodik: Einundvierzig Patienten der LP- EB Gruppe und 51 der STG- ZB Gruppe wurden in eine prospektive Kohortenstudie aufgenommen. Die Patienten wurden präoperativ sowie ein bzw. zwei Jahre postoperativ hinsichtlich des Tegner, IKDC und WOMAC Scores evaluiert. Die präoperative Vergleichbarkeit der Gruppen bestand hinsichtlich gleicher demographischen Daten, den o.g. klinischen Scores, dem Unfallhergang, dem Zeitintervall vom Zeitpunkt des Unfalles bis zur Therapie, dem Grad der anteriorposterioren Instabilität und den Meniskusverletzungen. Beim ein Jahres Follow- up wurden die Kniegelenke anhand 53 dreidimensionaler CT Aufnahmen in anatomische und nicht- anatomische VKB Rekonstruktionen unterteilt. Anatomische und nichtanatomische Rekonstruktionen wurden mit den klinischen Outcome beim ein Jahres Follow- up in beiden Techniken korreliert. Außerdem wurden die klinischen Parameter beider Techniken beim zwei Jahres Follow- up miteinander verglichen. Ergebnisse: Beim zwei Jahres Follow- up zeigte sich zwischen den LP- EB und STG- ZB VKB Rekonstruktionen kein statistisch signifikanter Unterschied hinsichtlich der erhobenen klinischen Scores und der KT 1000 Relativwerte. Hinsichtlich des Pivot- Shift Tests und des vorderen Knieschmerzes gab es statistisch signifikante Vorteile, jeweils in der STG- ZB Technik. Durch unsere radiologische Analyse konnten wir die VKB Rekonstruktionen in anatomische und nicht- anatomische unterteilen und eine positive Korrelation von anatomisch platzierten VKB Rekonstruktionen mit dem klinischen Outcome nach einem Jahr in beiden Techniken nachweisen. Die von zwei Untersuchern durchgeführten Messungen wurden anhand des Cohen´ s cappa Koeffizienten als „fast perfekt“ hinsichtlich des inter- und intraoberserver Koeffizienten beurteilt. Schlussfolgen: Wir schlussfolgern, dass mittellangfristig beide Techniken adäquate Versorgungsmöglichkeiten bei Rupturen des vorderen Kreuzbandes darstellen. Aufgrund der unterschiedlichen Ergebnisse hinsichtlich anatomischer und nichtanatomischer VKB Rekonstruktionen folgern wir, dass in beiden Techniken zufrieden stellende Ergebnisse zu erzielen sind, sofern der Chirurg das gewählte Transplantat anatomisch korrekt positioniert.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19
Die allogene Knochenmarks- bzw. Stammzelltransplantation wird seit den späten 70er Jahren als kurativer Behandlungsansatz bei myeloproliferativen Syndromen wie Leukämien und Lymphomen etabliert. Eine schwere und häufige (25-45%) Komplikation dieser Transplantation ist die Wirt-gegen-Spender-Erkrankung bzw. Graft-versus-Host Disease (GvHD). Die Erkrankung ist mit einer hohen Letalität von etwa 30% unter moderner Therapie verbunden und manifestiert sich häufig zunächst an der Haut. Eine zuverlässige und rasche Diagnosesicherung ist für die Früherkennung und adäquate Therapie der GvHD entscheidend. Leider ist die akute, das heißt binnen 100 Tagen nach Transplantation auftretende GvHD (aGvHD) von akuten Arzneimittelreaktionen (AR) klinisch und histologisch schwer zu unterscheiden. Etablierte Kriterien für diese Differentialdiagnostik existieren nicht. Die Feststellung des histologischen Schweregrads der aGvHD ist bislang eher untersucherabhängig, die des klinischen Schweregrads ist dermatologisch sehr grob und zur Verlaufskontrolle eher ungeeignet. Diese Punkte zu optimieren und einen Beitrag zur Aufklärung der Immunpathologie der aGvHD zu leisten waren die Hauptziele der vorliegenden Dissertation. Zwanzig Patienten mit klinisch gesicherter aGvHD nach allogener Knochenmarks- oder Blutstammzelltransplantation und dreizehn Patienten mit klinisch verifizierter AR wurden in die Studie aufgenommen. Die klinischen Befunde wurden nach dem etablierten Glucksberg-Score sowie dem neu entwickelten klinischen GvHD-Schweregrad-Score (GvHSco) klassifiziert. Zusätzlich wurden Hautproben entnommen und histopathologisch sowie immunhistochemisch (Expression von CD1a, CD2, CD11c, CD20, CD25, CD34, CD68, CD197, CD206, CD207, CD 208, CD209, CD303 und S100) analysiert. Klinische und histologische Ergebnisse wurden einzeln analysiert und miteinander korreliert. Zur besseren Beschreibung des klinischen Schweregrades der kutanen GvHD wurde der klinische GvHSco a priori entwickelt. Er bietet durch die Standardisierung und die hundertteilige Skala im Vergleich zum Glucksberg Score Vorteile bezüglich der individuellen Verlaufskontrolle. Als histologische Schweregradkriterien korrelierten epidermotrope lymphozytäre Infiltration und Kontinuitätsverluste der Basalmembran (Epidermolyse) am deutlichsten mit dem klinischen Schweregrad. Aufgrund dieser Ergebnisse wurde auf der Basis des histologischen Scores nach Lerner durch Ergänzung des Kriteriums Epidermolyse und durch besondere Gewichtung des Kriteriums Lymphozyteninfiltration der Modifizierte Histologische Score zur Abschätzung des Schweregrads akuter GvHD (GvHiScore) entwickelt. Die Vorteile dieser modifizierten Klassifikation sind die genaue, Untersucher-unabhängige Definition und die feinere Stratifizierung der Schweregrade. So wird eine bessere inter- und intraindividuelle Differenzierbarkeit erreicht. Als differentialdiagnostische Parameter sprachen hohe Zahlen reifer T-Zellen (CD2+, CD45RA+) und Makrophagen (CD68+), Epidermolyse, Basalzellballonierung, junktionales lymphozytäres Infiltrat differentialdiagnostisch für aGvHD, eosinophiles Infiltrat jedoch gegen eine aGvHD. Basierend auf diesen neuen Erkenntnissen wurde der differentialdiagnostische Test DSHIG („Differentialdiagnostischer Score mittels Histopathologie und Immunhistochemie für akute Graft versus Host Disease“) entwickelt. Der Test errechnet sich aus der Addition sieben dichotomer Kriterien. Die retrospektive Analyse des DSHIG ergibt eine Testspezifität und -sensitivität von 95% für die Differentialdiagnose „Akute GvHD“ versus „Akutes Arzneiexanthem“. Der differentialdiagnostisch vielversprechende DSHIG sollte prospektiv validiert werden. Bei der Lupusband-positiven akuten GvHD zeigte sich ein histologisch besonders schweres Bild mit ausgeprägter Epidermolyse. Ein Einfluss quoad vitam oder auf den klinischen Schweregrad ließ sich nicht zeigen. Die Lupusband-positiven Fälle traten bevorzugt in der späteren Phase von aGvHD auf. Für den klinischen Schweregrad und das Ein-Jahres-Überleben bei aGvHD günstig waren hohe Zellzahlen von IDEC (CD206+/CD11c+), plasmazytoiden Dendritischen Zellen (BDCA-2+) und Mastzellen. Diese Zusammenhänge wurden bislang nicht an Hautbiopsien gezeigt und könnten klinisch bedeutsam sein. Die in dieser Arbeit an Hand einer kleineren Fallzahl retrospektiv erstellten Scores sollten in zukünftigen Untersuchungen mit höherer Patientenzahl unabhängig prospektiv validiert werden. Die Dynamik der kutanen GvHD könnte darüber hinaus mit weitern Methoden wie durchflußzytometrischer Analyse und Gewinnung von sequentiellen Hautproben im zeitlichen Verlauf analysiert werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Die fehlerhafte Imitation von Gesten ist ein wichtiges Merkmal von Apraxie. In der Studie wurde die Imitation bedeutungsloser Armgesten untersucht. Dabei wurden räumliche und zeitliche Bewegungsaspekte betrachtet und ihre Zusammenhänge zu Apraxie-Kriterien. Es wurden 11 Patienten mit Schädigungen der sprach-dominanten linken Hemisphäre und mit unterschiedlich schwerer Apraxie untersucht; des weiteren 10 Patienten mit rechtshemisphärischen Schädigungen und insgesamt 20 gesunde Kontrollpersonen. Die Probanden sollten Armgesten imitieren. Zur Standardisierung der Präsentation wurden den Probanden Videoclips der Gestendemonstration gezeigt, bei dem der Untersucher in Originalgröße wiederholt Figuren vor seinem Körper "in die Luft zeichnete". Die Bewegungen sollten jeweils nach Beendigung der Vorführung einer Figur mit der nicht-paretischen Hand imitiert werden. Die Bewegungen wurden mit einem Bewegungsmesssystem registriert und analysiert. Da die Demonstration ebenso registriert wurde, konnten die resultierenden Bewegungsparameter direkt mit der Vorgabe verglichen werden. Es zeigte sich, dass es fast allen Probanden gelang, die Figuren in ihrer Grundstruktur erkennbar zu imitieren. Jedoch wiesen linkshemisphärisch geschädigte Patienten nicht nur hypothesengemäß die größten Veränderungen der räumlichen, sondern auch der zeitlichen Bewegungsparameter auf. Die Veränderungen korrelierten nicht mit Apraxie-Kriterien. Auch rechtsseitig geschädigte Patienten agierten in moderater Form fehlerhaft. Es wird eine maßgebliche Beteiligung der linken Hemisphäre für räumliche und auch für zeitliche Bewegungsaspekte, sowie die Koordination beider Bewegungsfaktoren, vermutet. Möglicherweise kam es zu einer Kaschierung apraktischer Bewegungsstörungen, indem eine Darstellung der Figuren über das semantische Gedächtnis erfolgte. Eine mangelnde Kenntnis über die Relation der Körperglieder zueinander, die möglicherweise bei Handgesten die Bewegungsausführung beeinträchtigt, scheint bei Armgesten nicht vorrangig zu sein. Möglicherweise erleichtert die wiederholte Vorführung der Armbewegungen die Bewegungsausführung durch einen vereinfachten Aufbau im Arbeitsgedächtnis.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Zusammenfassung Veränderungen der Mikrozirkulation spielen eine entscheidende Rolle bei der Entstehung von Organversagen. Bis jetzt werden in der medizinischen Diagnostik vor allem makrozirkulatorische Parameter wie z.B. Blutdruck, Herzzeitvolumen und Sauerstoffsättigung verwendet. Die orthogonale polarisierte spektrale Bildgebung, auch OPS Imaging genannt, ermöglicht eine transdermale Visualisierung der Mikrozirkulation. Diese Studie soll die Mikrozirkulation von Frühgeborenen mit ihren Veränderungen im Verlauf des ersten Lebensmonats beschreiben und eine Grundlage für weitere Studien bilden. Mit OPS Imaging kann die Hautperfusion durch reflektiertes Licht im Absorptionsspektrum des Hämoglobins ohne Kontrastmittel dargestellt werden. Sie bietet daher eine einfache und sichere Möglichkeit für ein nicht invasives Monitoring von Frühgeborenen. Durch OPS Imaging können die mikrozirkulatorischen Parameter funktionelle Kapillardichte (FCD), Erythrozyten-Fliessgeschwindigkeit (RBC vel) und Gefäßdurchmesser (Diam) erfasst werden. OPS Bildsequenzen werden kontinuierlich per Video aufgenommen und offline mit der Bildanalysesoftware CapiScope ausgewertet. Diese Parameter wurden täglich vom 3. bis zum 30. Lebenstag bei Frühgeborenen mit einem Gestationsalter von kleiner 30. Schwangerschaftswoche am Oberarm in der Nähe der Axilla gemessen. Im Rahmen dieser Arbeit wurde die Anwendbarkeit von OPS Imaging im klinischen Alltag und Praktikabilität für den Untersucher betrachtet. Im Mittelpunkt standen die Beurteilbarkeit der Bildsequenzen von OPS Imaging und der Verlauf der mikrozirkulatorischen Parameter. Bis jetzt ist wenig bekannt über die Veränderungen und die Entwicklung der Hautdurchblutung bei Frühgeborenen. Uns ist es gelungen die Mikrozirkulation von Frühgeborenen während des ersten Lebensmonats darzustellen, auszuwerten und zu beurteilen. Es wurden 25 Frühgeborenen untersucht mit einem durchschnittlichen Gestationsalter von 28 Schwangerschaftswochen und einem durchschnittlichen Geburtsgewicht von 900 g. Die mikrozirkulatorischen Parameter funktionelle Kapillardichte (FCD) und die Erythrozyten-Fliessgeschwindigkeit (RBC vel) wiesen eine hohe intra- und interindividuelle Variabilität auf. Bei der RBC vel, die sich im Messbereich von 171,8 bis 726,3 µm/s befand, konnten keine signifikanten Unterschiede im Verlauf des ersten Lebensmonats aufgezeigt werden. Die FCD bewegte sich zwischen 88 und 308 cm/cm², mit einem Mittelwert von 220,0 cm/cm² und einer Standardabweichung von 11,6 cm/cm². Sie fiel signifikant von 236 cm/cm² an Lebenstag 7 auf 207 cm/cm² an Lebenstag 28 ab (p = 0,003). Beide Parameter korrelierten direkt mit der Hämoglobinkonzentration (FCD: r = 0,76, p < 0,0001; RBC vel: r = 0,5, p = 0,008) und invers mit dem systolischen Blutdruck (FCD: r = -0,57, p = 0,002; RBC vel: r = -0,6, p = 0,0009). Die FCD zeigte zusätzlich eine Korrelation mit der Herzfrequenz (r = -0,62, p = 0,0005). Der Diam, der von 7 bis 24 µm reichte, und die klinischen Parametern, wie zum Beispiel Blutdruck, Herzfrequenz und Körpertemperatur zeigten keine signifikanten Veränderungen. Des Weiteren wurden die mikrozirkulatorischen Parameter von Frühgeborenen mit einem Gestationsalter von 23 bis 26 Wochen (= Gruppe 1, n = 7) und Frühgeborenen mit einem Gestationsalter von 28 bis 30 Wochen (= Gruppe 2, n = 7) verglichen. Es konnten keine signifikanten Unterschiede dargestellt werden. OPS Imaging war bei allen Patienten problemlos zu verwenden. Es konnten qualitativ hochwertige Bilder der Hautdurchblutung von Frühgeborenen erhoben werden. Probleme zeigten sich bei der Anwendung durch Bewegungs- und Druckartefakte, die mehr Zeit bei der Auswahl von geeigneten Sequenzen in Anspruch nahmen und die Auswertung einiger Bildsequenzen einschränkten. Die Weiterentwicklung von OPS Imaging und die Vermeidung von systematischen Fehlern macht OPS Imaging zu einer zukunftsträchtigen Technologie, deren diagnostisches Potential von großer Bedeutung sein könnte. OPS Imaging kann genutzt werden, um die Mikrozirkulation der Frühgeborenen zu messen und die Qualität der Hautdurchblutung zu beurteilen. Mit OPS Imaging steht eine neue, nicht invasive Untersuchungsmethode zur Verfügung, mit der es z.B. möglich ist den Therapieerfolg nach Transfusionen 17 zu messen. In Zukunft könnte OPS Imaging die Beurteilung des Gesundheitszustandes von Frühgeborenen ermöglichen, wie z.B. bei der Diagnostik einer Sepsis, hierbei könnte eine Infektion aufgrund von Veränderungen der Mikrozirkulation frühzeitig erkannt werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Ziel unserer Studie war die Untersuchung der visuellen Erkennung einer Osteopenie / Osteoporose auf digitalen Röntgenbildern im Vergleich mit konventionellen Röntgenbildern. In einer retrospektiven Analyse wurden die LWS-Aufnahmen von 286 Patienten ausgewertet. 158 Patienten erhielten eine digitale, 128 Patienten eine konventionelle Röntgenaufnahme der LWS. Als Gold-Standard diente die DXA-Messung der LWS. Als Schwellenwert für die Diagnose einer Osteopenie wurde in Anlehnung an die WHO-Klassifikation (1994) T-Werte -1 SD bis -2,5 SD, für die der Osteoporose ein T-Wert > -2,5 SD festgelegt. Vier erfahrene Radiologen mit Expertise auf dem Gebiet der Osteoporose beurteilten (DXA- geblindet, sowie ohne Kenntnis von Alter und Geschlecht des Patienten) getrennt voneinander, ob es sich auf dem jeweiligen Röntgenbild um einen normalen Knochenmineralsalzgehalt oder um eine erniedrigte Knochendichte handelte. Gleichzeitig sollten die Untersucher eine weitere Unterteilung der Aufnahmen, welche sie mit „erniedrigter Knochendichte“ bezeichnet hatten, in „Osteopenie“ oder „Osteoporose“ vornehmen. Patienten/Innen mit Malignomen, ausgeprägt degenerativen Veränderungen, Osteoporose sekundärer Genese, sowie bereits aufgrund einer Osteoporose anbehandelte Patienten wurden ausgeschlossen, um eine mögliche Verfälschung der Ergebnisse zu vermeiden. Damit es nicht zu einer Reader-Bias hinsichtlich der Diagnose „Osteoporose“ kam, wurden ebenso Patienten mit bereits vorhandenen Wirbelkörperfrakturen ausgeschlossen. Die diagnostische Genauigkeit der visuellen Einschätzung der Röntgenbilder betrug hinsichtlich der dichotomen Einteilung im Mittel 68,0% für konventionelle Aufnahmen bzw. 64,3% für digitale Aufnahmen. Die Sensitivität betrug bei den konventionellen Aufnahmen im Mittel 85,6%, die Spezifität 36,4% (ppv: 70,7%, npv: 58,2%). Für die digitalen Röntgenbilder betrug die Sensitivität 72,0%, die Spezifität gemittelt 47,0%, (ppv: 74,2%, npv: 45,4%). Bei der getrennten Erfassung von Osteopenie oder Osteoporose wurden von den konventionellen Aufnahmen 29,5% (Osteopenie) und 79,8% (Osteoporose) als richtig positiv und 14,4% falsch negativ eingeschätzt. Die digitalen Röntgenbilder wurden im Mittel mit 33,8% (Osteopenie) und 60,7% (Osteoporose) richtig positiv und 28,0% falsch negativ beurteilt.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Die Diagnose der nicht-erosiven Refluxkrankheit der Speiseröhre war bislang eine Ausschlussdiagnose und basierte nicht auf endoskopischen Befunden. Die neueste und derzeit für wissenschaftliche Studien geforderte Klassifikation der Refluxösophagitis ist die 1994 vorgestellte Los Angeles Klassifikation. Bei der Erarbeitung dieser neuen Klassifikation wurden auch minimale reflux-assoziierte nicht-erosive Veränderungen des distalen Ösophagus evaluiert, aber aufgrund der hohen Interobserver-Variabilität nicht in die neue Klassifikation aufgenommen. In der vorliegenden Arbeit wird, im Licht einer während 10 Jahren deutlich verbesserten Videoendoskopie, der Frage der endoskopischen Diagnose von minimalen nicht-erosiven reflux-assoziierten Veränderungen des distalen Ösophagus erneut nachgegangen. In einem Zentrum wurden von einem erfahrenen Untersucher (> 3000 Gastroskopien) konsekutiv erwachsene Patienten im Alter von > 18 Jahren und < 80 Jahren mit reflux-verdächtigen Symptomen untersucht. Die Endoskopien wurden mit der neuesten Generation von Pentax Video-Gastroskopen der Serie EG2970K durchgeführt. Die Dokumentation der minimalen nicht-erosiven Veränderungen an der Epithelgrenze erfolgte mit einem Sony Colour Video Printer UP-2300P. Anschliessend wurden 4 Quadrantenbiopsien an der Epithelgrenze durchgeführt, die Zylinderepithel, die Z-Linie und Plattenepithel möglichst in einem Partikel erfassen sollten. Die histologische Graduierung erfolgte entsprechend den in der Arbeit von Vieth et al. (Scand J Gastroenterol 2001; 36:1123) publizierten Kriterien der Arbeitsgruppe von Prof. Stolte. Als Positiv-Kontrollen wurden Patienten mit erosiver Refluxösophagitis untersucht. Anacide Patienten, entweder mit atrophischer Autoimmungastritis im Endstadium oder mit einem Zustand nach Gastrektomie wurden als Negativ-Kontrollen verwendet. Insgesamt wurden 235 Patienten untersucht. Davon hatten 41 eine endoskopisch ’normale’ Z-Linie (= Gruppe 1). 117 Patienten mit Refluxsymptomen hatten minimale nicht-erosive Veränderungen im Bereich der Z-Linie (= Gruppe 2) und 53 hatten eine erosive Refluxösophagitis im Stadium A oder B entsprechend der Los Angeles Klassifikation (= Gruppe 3). Als anacide Kontrollen wurde 11 Patienten mit atrophischer Autoimmungastritis untersucht (= Gruppe 4) und 13 mit einem Zustand nach Gastrektomie (= Gruppe 5). Die histologischen Veränderungen im z-linien nahen Plattenepithel wurden unter dem Begriff ’hyperregeneratorische Ösophagopathie’ zusammengefasst. Ihre semi-quantitative Bewertung in gering-, mittel- und hoch-gradig ergab einen Median von 1 (= gering-gradig) für Gruppe 1, von 1 für Gruppe 2, von 2 für Gruppe 3 und von 0 für Gruppe 4 und 0 für Gruppe 5. Die Unterschiede zwischen den Negativ-Kontrollen und den Gruppen 1 bis 3 waren signifikant auf dem Level p < 0,001. Ebenfalls waren die Unterschiede zwischen der Positiv-Kontrolle und den Gruppen 1 und 2 signifikant. Die Diagnose NERD wurde insgesamt bei 113 von 158 Patienten (72.5 %) richtig gestellt. Die vorliegende Untersuchung zeigt, dass mit Hilfe der neuesten Generation Videogastroskope endoskopisch minimale Veränderungen im Bereich der Z-Linie diagnostiziert werden können, die erlauben, die Diagnose NERD positiv zu stellen. Weitere Untersuchungen sind erforderlich, um die hier formulierten Kriterien zu bestätigen und zu etablieren.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Diese retrospektive Arbeit untersucht die Sensitivität, Spezifität und Genauigkeit der Multi-Detektor-Computer-Tomographie (MDCT), für die Entdeckung und Lokalisation von tumorösen Veränderungen des Harntrakts. Material und Methoden: Native MDCT-Aufnahmen und MDCT-Aufnahmen mit Kontrastmittel (nephrographische Phase und CT-Urographie) der Nieren und des Harntrakts wurden für 27 Patienten (14 Patienten mit einem Urothelkarzinom (UC) in der Vorgeschichte und dem Verdacht auf ein Tumorrezidiv und 13 Patienten mit schmerzloser Makrohämaturie) in axialer und koronarer Ebene rekonstruiert (Alter der Patienten 72 ± 11 Jahre, 22 männlich, 5 weiblich). Die MDCT-Aufnahmen wurden von einem Facharzt für Radiologie (Untersucher 1) und einer Weiterbildungsassistentin für Urologie im letzten Ausbildungsjahr (Untersucher 2), unabhängig von einander, auf das Vorliegen einer tumorösen Veränderung hin untersucht. Der Harntrakt wurde in 17 Segmente unterteilt (rechts und links, obere, mittlere und untere Kelchgruppe, Nierenbecken, Infundibulum, oberer, mittlerer und unterer Ureter, sowie die Harnblase). Die Ergebnisse der Befundung der MDCT-Aufnahmen wurden entweder mit dem pathologischen Befund aus Operationspräparaten oder anderen invasiven Untersuchungen, sowie bildgebender Nachuntersuchungen für ein Jahr einschließlich MDCT, intravenöser Urographie und Cystographie oder Cystoskopie verglichen. Ergebnisse: Von 27 Patienten hatten 18 ein UC (TNM 2002 pTa, n=3, pT1– pT3, n = 15), bei neun Patienten konnte kein Tumor nachgewiesen werden. Beide, Untersucher 1 und Untersucher 2, erkannten einen Tumor bei 17 Patienten (Sensitivität 94 %, 95%-Konfidenzintervall 84 - 100%) und schlossen ihn bei 7 Patienten (Spezifität 78 %, 95%-Konfidenzintervall 51 – 100 %) aus und entdeckten 10 Tumore von 11 des oberen Harntrakts. Auf die einzelnen Segmente des Harntrakts bezogen ergab sich für Untersucher 1 eine Sensitivität von 78% (95%-Konfidenzintervall 66 - 90%) und eine Spezifität von 96% (95%-Konfidenzintervall 94 – 98%) Für Untersucher 2 ergab sich auf die einzelnen Segmente des Harntrakts bezogen eine Sensitivität von 57% (95%-Konfidenzintervall 42 – 71%) und eine Spezifität von 98% (95%-Konfidenzintervall 97 – 100%) Für die 35 Segmente mit und die 308 Segmente ohne UC ergab die ROC-Analyse bei Betrachtung alles MDCT-Phasen für Untersucher 1 eine Genauigkeit (aerea under the curve) von 0,910 ± 0.035 (95%- Konfidenzintervall 0,842 - 0,979) und für Untersucher 2 eine Genauigkeit von 0,749 ± 0,055 (95%-Konfidenzintervall 0,642 - 0,857). Schlussfolgerung: Mit der MDCT ist es möglich Tumore des oberen Harntrakts mit hoher Sensitivität und guter Spezifität zu entdecken. Die hohe Übereinstimmung der beiden Untersucher (Untersucher 1 und Untersucher 2) mit jeweils unterschiedlichem Ausbildungsstand legt nahe, dass die Tumore sowohl von entsprechen vorgebildeten Radiologen als auch von Urologen erkannt werden können.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Störungen der Magenfunktion mit typischen Symptomen wie Völlegefühl, Übelkeit, Erbrechen und epigastrischen Schmerzen sind im klinischen Alltag häufig. Für eine differential- und artdiagnostische Beurteilung der Störung sind Kenntnisse über zwei grundlegende Funktionsparameter wünschenswert: die Magenentleerung und die Magenperistaltik. Dies kann durch spezielle Auswertalgorithmen im Rahmen einer szintigraphischen Magenentleerungsstudie realisiert werden, wobei aktuell zwei Lösungsansätze diskutiert werden. Ziel der vorliegenden Arbeit war es, zwei Verfahren zur Motilitätsanalyse, die Phasenanalyse zweidimensionaler dynamischer Bilder mit der Methode der kondensierten Bilder, zu vergleichen. Das methodische Konzept des erstgenannten Verfahrens basiert auf der pixelweisen Analyse zweidimensionaler dynamischer Bilder. Hierbei wird die Information einer ROI („Region of Interest“) einer dynamischen Studie für jedes Einzelpixel in Form einer Zeit-Aktivitäts-Kurve gespeichert. Die Änderung der Aktivität über die Zeit wird mittels Fast-Fourier-Transformation (FFT) analysiert. Als Folge der FFT-Analyse erhält man für jedes Pixel ein Frequenz-Amplituden-Histogramm, wobei die Amplitudenwerte einer Frequenz-Reihe zugeordnet werden. Die Amplitudenhöhen werden zur Visualisierung als Grauwert (oder Farbwert) kodiert und als parametrische Amplitudenbilder in einer zweidimensionalen Matrix dargestellt. Die Amplitudenwerte werden topographisch eingeordnet, womit eine örtliche Zuordnung der Amplituden-Maxima im Magen ermöglicht wird. Zusätzlich können so genannte Phasenbilder durch eine Farbkodierung (bzw. Grauskalenkodierung) der in derselben Bewegungsphase befindlichen Areale des Magens erstellt werden. Ein typisches Streifenmuster einer geordneten Magenperistaltik kann visuell sehr einfach von einem ungeordneten, pathologisch veränderten Muster unterschieden werden. Die Referenzmethode der Analyse der Magenperistaltik erfolgt an kondensierten Bildern. Letztere werden erzeugt, indem von jedem Einzelbild einer dynamischen Studie der Informationsgehalt eines Bildausschnittes (eine ROI über dem Magen) durch zeilenweise Addition der Pixelinhalte in eine Spalte überführt wird. Chronologisch aneinandergereiht bauen die Spalten aller Bilder eine Ort-Zeit-Matrix auf, in der die X-Koordination die Zeit und die Y-Koordination die räumliche Aktivitätsänderung im Magen repräsentieren. Ein Pixel entspricht jeweils der Einzelbilddauer des Aufnahmeprotokols. Zur Verfügung standen bereits akquirierte Magenszintigraphie-Studien, die bislang nur mit der Methode der kondensierten Bilder ausgewertet worden waren. Mit Hilfe der für die vorliegende Arbeit entwickelten Software wurden die quantitativen Parameter der Peristaltik für die jeweiligen untersuchten Patienten erneut ermittelt. Für vergleichende Auswertungen lagen von allen Patienten quantitative Daten zur Entleerungsfunktion (Entleerungsrate) und Peristaltik (Amplitude und Frequenz der Magenkontraktionen), ermittelt mit der Referenzmethode, vor. Die vorliegenden Untersuchungsergebnisse zeigen, dass sich auch mit der neu entwickelten Methode die Kenngrößen der Magenperistaltik valide bestimmen lassen. Übereinstimmend mit zahlreichen Arbeiten zur Physiologie und Pathophysiologie der Magenperistaltik lag die mit unserer Methode gemessene Kontraktionsfrequenz um 3 min-1. Im Einklang mit anderen Literaturberichten wurde auch im Rahmen dieser Studie beobachtet, dass die Frequenz eine weitgehend konstante, von Art und Ausmaß diverser Magenfunktionsstörungen unabhängige Größe darstellt. Anders stellt sich der Sachverhalt für die Kontraktionsamplitude dar. Letztgenannter Parameter wies in Abhängigkeit von der zugrunde liegenden Erkrankung eine erhebliche Bandbreite auf. Dies kann als Indiz für die gute Diskriminierungseigenschaft dieses Parameters hinsichtlich der Abgrenzung normaler und pathologischer Befunde gelten, auch ist die Angabe eines Schweregrades der Erkrankung möglich. Wenngleich ein direkter Vergleich von Absolutwerten der Kontraktionsamplituden mit Literaturdaten aufgrund methodischer Unterschiede der verschiedenen Verfahren schwierig ist, stimmt doch die Relation zwischen Normalbefunden und krankheitsspezifischen Änderungen mit Literaturangaben überein. Dies kann als indirekter Beleg für die Validität dieser Bestimmungen gelten. In einem weiteren Ansatz wurden die Zusammenhänge zwischen der Entleerung und den verschiedenen Kontraktionsparametern untersucht. Bei Verwendung semisolider Testspeisen ließ sich kein direkter Zusammenhang zwischen der Kontraktionsamplitude und Entleerungsrate verifizieren. Dies könnte ein Hinweis dafür sein, dass die Passage der semisoliden Mahlzeit nicht nur von der peristaltischen Kraft, sondern von weiteren Größen (z.B. gastroduodenales Druckgefälle, Pylorotonus) mitbeeinflusst wird. Fehlende Korrelationen zwischen Entleerungsrate und Kontraktionsfrequenz der peristaltischen Welle stützen die Annahme, dass letztgenannte Parameter nur eine untergeordnete Rolle für die Magenentleerung spielen. Um die Magenperistaltik und Entleerung in Abhängigkeit von unterschiedlichen Krankheitsbildern zu beurteilen, wurden die 134 Patienten entsprechend ihrer Grunderkrankung in verschiedene Kollektive unterteilt: Patienten mit Diabetes mellitus (n = 49), Kollagenosen (n = 59), Gastritis (n = 18), Magenausgangsstenose (n = 8). Die Daten dieser vier Gruppen wiesen im Vergleich zu einem „Kontroll- Kollektiv“ deutliche Unterschiede hinsichtlich der jeweiligen Entleerungsraten und Kontraktionsamplituden auf. Bei den Patientenkollektiven „Diabetes“, „Kollagenosen“ und „Gastritis“ konnte die Konstellation einer verminderten Magenkontraktionsamplitude und einer verzögerten Magenentleerung festgestellt werden. Unter Behandlung mit einem Prokinetikum sind solche Störungen reversibel (komplett oder teilweise). Dagegen kann bei einer Magenausgangsstenose eine verzögerte Magenentleerung mit einer noch normalen Magenperistaltik einhergehen. Das vorgestellte methodische Konzept liefert in einem Untersuchungsgang Aussagen zur Magenentleerung und -peristaltik. Die Methode eignet sich zur Primärdiagnostik und differentialdiagnostischen Einordnung von Magenfunktionsstörungen. Darüber hinaus könnte sich dieses neue Verfahren auch für Verlaufs- und Therapiekontrollen und für die Objektivierung der Wirksamkeit von Motilitätsreglern als wertvoll erweisen. Eine parallele Erstellung von den Amplituden- und Phasenbildern ermöglicht nicht nur die quantitative Einschätzung der peristaltischen Bewegungen vom Mageninhalt, sondern erlaubt auch die Amplitudenmaxima entsprechend der phasischen Zugehörigkeit qualitativ einzuordnen. Eine kräftige geordnete Peristaltik kann bei der Betrachtung der Phasenbilder mit einem typischen Streifenmuster assoziiert werden. In den verschiedenen Patientenkollektiven wurde anhand der Phasenbilder nach gruppenspezifischen Mustern gesucht. Die zweidimensionalen Amplitudenbilder zeigen fehlende konfluierende Amplitudenareale und ein „Mottenfraß Muster“ als Korrelat für eine verminderte Peristaltik. Die Betrachtung der Amplituden Bilder konnte keine krankheitsspezifischen Veränderungen demonstrieren. Bei einer Betrachtung der Amplituden- und Phasenbilder im niedrigfrequenten Bereich wurde ein direkter Zusammenhang mit der Magen-Entleerungsrate festgestellt. Die homogenen phasisch zugeordneten Amplituden-Areale über Magen und Dünndarm im niedrigfrequenten Teil des Amplitudenhistogramms befinden sich in Contraphase. Diese Beobachtung ist neu und wurde in der bisherigen Literatur bisher nicht beschrieben. Es handelt sich nach unserer Hypothese um die Darstellung der Magenentleerung. Die dynamische Magen-Szintigraphie ist durch einen standardisierten Ablauf, geringe Strahlenexposition, Funktionalität und Nicht-Invasivität gekennzeichnet. Daher ist sie als eine Funktionsuntersuchung unter physiologischen Bedingungen anzusehen. Aus diesem Grunde ist diese Methode für die Primäruntersuchungen, wie auch für Verlaufs- und Therapiekontrollen geeignet. Im Vergleich zur klassischen Magen-Szintigraphie benötigt die hier beschriebene dynamische Magen-Szintigraphie eine geeignete Hardware (schnelles Rechnersystem mit großen Speicherkapazitäten) und speziell entwickelte Software. Für den Patienten und Untersucher bedingt der Einsatz der hier beschriebenen Methode keinen Zusatzaufwand, führt aber zu einem erheblichen Informationsgewinn. Im Vergleich zur Referenzmethode der kondensierten Bilder bietet die zweidimensionale dynamische Magen-Szintigraphie eine präzisere Einschätzung der Magenperistaltik, bei einer komplexen Magengeometrie. Die parallele Betrachtung der Amplituden- und Phasenbilder erlaubt es auch bei normaler peristaltischer Amplitude, eine diskoordinierte Magenperistaltik zu erkennen und zu beurteilen. Die beiden Methoden sind nicht-invasiv, mit einer geringen Strahlenexposition verbunden und unter physiologischen Bedingungen durchführbar.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Computertomographische Untersuchungsmethoden, die Magnetresonanztomographie und die Positronen-Emissionstomographie ( = CT, MRT, PET) sind heute, neben der Ultraschalltechnik, die wichtigsten nicht-invasiven bildgebenden Verfahren, die der medizinischen Diagnostik zur Verfügung stehen. Es handelt sich bei allen CT-Verfahren im Grunde um sog. Schnittbildverfahren, die zum Aufbau von für den Untersucher diagnostisch verwertbaren Bildern, einen Computer bzw. zusätzlich noch nuklearmedizinische Methoden verwenden, um pathologische Morphologien und Funktionen zu detektieren. Dabei kann bei der CT und der MRT durch die Applikation geeigneter Kontrastmittel der Informationswert in vielen Fällen noch gesteigert werden. Für den Patienten besteht jedoch bei einer CT- oder PET-Untersuchung ein gravierender Nachteil: die damit verbundene Strahlenbelastung. Deshalb werden erhebliche Anstrengungen unternommen, um durch eine Verbesserung der Methodik insbesondere zwei Ziele zu erreichen: einerseits eine Verringerung der Strahlenbelastung des Patienten, andererseits Verbesserung bei der Auflösung im Rahmen der Darstellung feingeweblicher Strukturen. Eine solche Verbesserung der Auflösung, die zu einer Verbesserung der diagnostischen Aussage beitragen kann, hat für den Patienten enorme, insbesondere therapeutische Konsequenzen, z. B. im Rahmen des Staging, bei Verdacht auf das Vorliegen einer malignen Erkrankung. In der vorliegenden Arbeit sollte deshalb untersucht werden, ob geeignete Möglichkeiten bestehen, ohne den Wert der Diagnose an sich zu schmälern, durch die Verwendung primär dickerer Schichten im Rahmen einer Spiral-CT-Untersuchung die Sensitivität bei der Untersuchung feingeweblicher Strukturen zu behalten und dadurch die Strahlenbelastung für den Patienten, sowie den zeitlichen Aufwand bei der Interpretation der Ergebnisse für den Untersucher zu verringern. Diese Untersuchungen wurden an Lymphknoten bei Spiral-CT-Aufnahmen des Thorax durchgeführt. Diesen Lymphknoten wird enorme Bedeutung im Rahmen des Staging maligner Erkrankungen, vor allem beim Staging des Bronchial-Karzinoms, aber auch der anderen Malignome des Brust- und Bauchraums, sowie deren Metastasen, zugeschrieben, insbesondere bei der Erfassung des für die Wahl der Therapie so wichtigen N0-Stadiums. In die Studie wurde ein Kollektiv von 97 Patienten (59 Männer, 38 Frauen; Altersverteilung von 9 bis 88 Jahren) aufgenommen und nach den vorliegenden Verdachtsdiagnosen in Gruppen mit malignen bzw. nicht-malignen Erkrankungen eingeteilt. Dabei wurde ihnen eine kontrastmittelunterstützte Multidetektor-Spiral-CT-Untersuchungen des Thorax durchgeführt, wobei die Untersuchungen klinisch indiziert wurden. Bei den Patienten mit malignen Erkrankungen wurden 4 Gruppen gebildet, jeweils mit abnehmender Häufigkeit (Lymphome/Leukämien, Bronchial-Karzinom, Mamma-Karzinom, sonstige Krebserkrankungen). Bei den „benignen“ Krankheitsbildern dominierten als Ursache Infektionen, sonstige externe Noxen und Krankheiten, bei denen ein allergen-bedingtes Grundleiden überwiegte. Fünf Schichtdicken, mit 1 mm, 3 mm, 5 mm, 10 mm und 20 mm, wurden evaluiert und miteinander verglichen. Als nominale Schichtdicke wurde die Schichtdicke mit 1 mm gewählt und die restlichen aus dieser rekonstruiert. Das Ergebnis dieser Studie ergab, dass es völlig ausreichend ist, eine 3 mm-Schichtdicke zu verwenden, was statistisch gesichert werden konnte. Die Statistik hat nämlich gezeigt, dass in Bezug auf die Beurteilung von mediastinalen Lymphknoten, was ihre Anzahl und Größe angeht, kein signifikanter Unterschied zwischen den Schichtdicken mit 1 mm und mit 3 mm besteht. Bei diesen Schichtdicken war auch der diagnostische Aussagewert bei der Bewertung des N0-Stadiums am größten (d. h. Lymphknotengröße < 1 cm). Im Gegensatz dazu zeigten die übrigen evaluierten Schichtdicken (5 mm, 10 mm und 20 mm) einen deutlichen Signifikanzunterschied untereinander und jeweils zu den Schichtdicken 1 mm und 3 mm.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Das Neuroblastom ist eine der häufigsten malignen Erktrankungen im Kindesalter. Mit der MIBG-Szintigraphie und der MRT stehen zwei etablierte Verfahren zu Diagnostik und Staging dieser Erkrankung zur Verfügung. Ziel der vorliegenden Arbeit war die Evaluation des Detektionspotentials beider Verfahren auf der Basis einzelner Läsionen sowie die Untersuchung der Frage, inwieweit sich dieses Potential durch kombinierte Befundung beider Verfahren steigern lässt. Dazu wurden 193 neuroblastomverdächtige Läsionen aus 50 Paaren von zeitnah durchgeführten MIBG-Szintigraphien und MRT's einer Evaluation durch je 2 erfahrene Untersucher unterzogen und anschließend systematisch kombiniert befundet. Für die Szintigraphie fand sich dabei eine Sensitivität von 69% und eine Spezifität von 85% (beides deutlich niedriger als in der Literatur beschrieben), für die MRT eine Sensitivität von 86% und eine Spezifität von 77% (ebenfalls deutlich niedriger als in der Literatur beschrieben). Durch kombinierte Befundung beider Verfahren ließ sich die Sensitivität in der Detektion von Einzelläsionen auf 99% und die Spezifität auf 95% steigern.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die vorliegende Arbeit beschäftigt sich mit der Evaluation der linksventrikulären Myokardmasse und deren Massenänderung bei Patienten mit hypertropher obstruktiver Kardiomyopathie (HOCM), die eine transkoronare Ablation der Septumhypertrophie (TASH) erhalten haben. Hierzu erfolgte ein nichtinvasives Follow-up durch Einsatz der Elektronenstrahl-Computertomographie (electron beam computed tomography = EBCT). Im Vordergrund stand hierbei die Bestimmung der linksventrikulären Myokardmasse (in g) vor der Intervention, direkt danach sowie nach sechs und zwölf Monaten. Um die Massenänderungen auch einzelnen Regionen zuordnen zu können, wurden das Septum und die linksventrikuläre laterale Wand gesondert analysiert. Auf einzelnen Schichten erfolgte jeweils eine manuelle Segmentierung durch Markierung der Epi- und Endokardgrenzen und eine Einteilung in Sektoren. Die septale Myokardmasse reduzierte sich erwartungsgemäß am stärksten unmittelbar in der ersten postinterventionellen Woche (6,8 ± 2,6 [2–12] d) um 4,4 ± 2,8 (-0,4–12,4) g. Dies ist durch den Gewebeuntergang durch Infarzierung nach Septalastokklusion zu erklären. Gleichzeitig reduzierte sich auch der die Beschwerden der Patienten verursachende Druckgradient, der über dem linksventrikulären Ausflusstrakt, bedingt durch die Septumhypertrophie, bestand. Dabei nehmen sowohl der Ruhegradient (60,3 ± 21,3 [15–100] mmHg) als auch der postextrasystolische Gradient (101,5 ± 41,9 [30–180] mmHg) signifikant ab. Neben der Reduktion der Septummasse verringerte sich auch die Masse der lateralen Ventrikelwand. Ursache dieser Massenreduktion ist der rückläufige oder verminderte Druckgradient, der als Auslöser einer druckbedingten Myokardhypertrophie gilt. Dieser Effekt wird als therapeutisches „Remodeling“ bezeichnet. Es nimmt somit auch die Masse an der lateralen Ventrikelwand und konsekutiv des gesamten linken Ventrikels ab. Die Änderungen in diesen Bereichen sind zwar auch im direkt postinterventionellen Zeitraum signifikant, im Gegensatz zur Septummasse erfolgt jedoch hier die stärkste Massenreduktion erst im Verlauf des ersten halben Jahres nach der Intervention. Zusätzlich wird der Stellenwert der EBCT in der Myokardmassenbestimmung im Vergleich zu anderen Verfahren dargestellt. Bisherige Studien bedienten sich der Echokardiographie zur Verlaufskontrolle. Sie liefert ebenso wie die EBCT Informationen über Funktion und Morphologie. Als problematisch ist hierbei jedoch insbesondere die Untersucher- und Patientenabhängigkeit herauszustellen. Zudem ist die Massenbestimmung in verschiedenen Verfahren unterschiedlich und variiert in ihren Ergebnissen. Die Unterteilung in verschiedene Regionen ist hierdurch erschwert. Neue dreidimensionale Rekonstruktionsverfahren sind bisher noch teuer und zeitaufwendig, liefern jedoch der EBCT vergleichbare Ergebnisse. Die Magnetresonanztomographie (MRT) liefert der EBCT entsprechende Massenergebnisse. Es gibt allerdings Beschränkungen in der Indikationsstellung. So sind Patienten, die schwer krank sind, durch fehlende Überwachungsmöglichkeiten oder mit implantiertem Herzschrittmacher von der Untersuchung ausgeschlossen. Dies ist besonders bei der Evaluation der HOCM-Patienten nach TASH zu beachten, da ca. 10 % der behandelten Patienten schrittmacherpflichtig werden. In dieser Studie erhielten 12,5 % der Patienten dauerhaft ein Implantat. In Zukunft wird wahrscheinlich die Multischicht-Computertomographie (MSCT) die EBCT in der kardialen Diagnostik als Alternativverfahren ablösen. Obwohl zur Zeit noch kein Algorithmus zur Massenbestimmung existiert, sind die Möglichkeiten durch das gleichzeitige Scannen großer Volumina doch gegeben. Die Limitation liegt weiterhin in den längeren Aufnahmezeiten (105–210 ms) der MSCT im Gegensatz zu 50 ms der EBCT. Die geringere zeitliche Auflösung bedingt derzeit noch die Überschätzung der Ventrikellumina. Zur Verbesserung dieses Aspektes sind weitere technische Entwicklungen im Gange. Der große Vorteil der MSCT liegt, abgesehen von der geringeren Strahlenbelastung für den Patienten, insbesondere in deren hohem Verbreitungsgrad und dem geringeren technischen Aufwand.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Der Einsatz von klinischen Scores zur Bewertung des Therapieergebnisses ist heute bei Erkrankungen der Schulter, z.B. der Tendinosis calcarea, etabliert. Nach Empfehlungen der European Society for Surgery of the Shoulder and the Elbow (ESSE, SECEC) soll insbesondere mit dem klinischen Constant-Murley-Score (KCMScore) der subjektive und objektive Schulterzustand erfasst und dieser somit gegenüber anderen Studien vergleichbar werden. Da die Erhebung des KCM-Scores aufwendig ist und nicht selten vom Patienten abgelehnt wird, wurde in der vorliegenden Arbeit der KCM-Score als Fragebogen umgearbeitet und dieser neu erstellte Score den Ergebnissen des KCM-Scores gegenübergestellt. Der KCM-Score enthält subjektive (Schmerz, Aktivitäten des täglichen Lebens, Arbeitshöhe) und objektive Parameter (Beweglichkeit, Kraft) im Verhältnis 35:65. Maximal 100 Punkte werden bei schmerzfreier, frei beweglicher und funktionstüchtiger Schulter erzielt. Von insgesamt 117 Patienten (128 Schultern), bei denen wegen einer Tendinosis calcarea der Schulter eine extrakorporale Stoßwellenbehandlung erfolgte, wurde zuerst der FBCM-Score selbst ermittelt, dann wurde von einem Untersucher der KCM-Score erhoben. Die 81 Frauen (63,3%) und 47 Männern (36,7%) waren zum Zeitpunkt der Behandlung durchschnittliche 55,8 Jahre alt, der Nachbeobachtungszeitraum betrug 48,7 Monate. Hinsichtlich der Punktmittelwerte der subjektiven Parameter Schmerz (KCM 12,7; FBCM 11,8), Aktivitäten des täglichen Lebens (KCM 8,8; FBCM 8,3) und Arbeitshöhe (KCM 9,9; FBCM 9,5) sowie den objektiven Parametern Flexion/Abduktion (KCM 19,4; FBCM 19,3), Außenrotation (KCM 9,4; FBCM 9,3) und Kraft (KCM 15,2; FBCM 16,2) fanden sich keine statistisch signifikanten Unterschiede zwischen dem KCMScore und dem FBCM-Score. Nur die Messung der Innenrotation ergab im KCMScore einen signifikant niedrigeren Wert als im FBCM-Score (8,1 vs. 8,9). MW15,2 Punkte; (Beweglichkeit, Kraft). Das Gesamtergebnis von KCM-Score und FBCMScore war nicht signifikant unterschiedlich. 53 Somit erscheint der FBCM-Score geeignet den subjektiven und objektiven Zustand bei Patienten nach extrakorporaler Stoßwellentherapie wegen Tendinosis calcarea zu erfassen. Insgesamt war der KCM-Score und der FBCM-Score vergleichbar. Unterschiede zwischen beiden Scores ergaben sich bei isolierter Analyse des Ausmaßes der Innenrotation. Diskutiert wird die Technik der Bestimmung der Innenrotation und der Kraftmessung. Eine Übertragung der vorliegenden Ergebnisse auf andere Schulterpathologien ist nicht möglich.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Die Untersuchung von Nervenbiopsien hat sich als sinnvoll ergänzende Methode für die Diagnostik von Neuropathien in der Veterinärmedizin etabliert. In Kombination mit klinischen und elektrophysiologischen Messungen stellt sie ein wertvolles Werkzeug für die Beurteilung morphologischer Veränderungen dar. Neben der Licht- und Elektronenmikroskopie, sowie dem Erstellen und Beurteilen von Nervenzupfpräparaten, ist die Morphometrie ein weiteres geeignetes Verfahren zur Erfassung pathologischer und physiologischer Variablen in Nervenfasern. Dabei hat sich für die quantitative Evaluierung von Merkmalen in den letzten Jahren die computergestützte morphoquantitative Bildanalyse und Datenerfassung durchgesetzt. Voraussetzung für die computergestützte Morphometrie ist ein korrekt aufbereitetes und gefärbtes Nervenmaterial, das ein Maximum an Bildqualität zulässt. Ziel des ersten Teils dieser Arbeit war es somit eine für die Bildanalyseeinheit optimale Färbung der Myelinscheide zu finden, um deren Detektion und Trennung von Axon und umgebendem Bindegewebe zu gewährleisten. Hierfür wurden fünf unterschiedliche Färbetechniken an 50 Nervenquerschnitten aus fünf Einzelproben eingesetzt, verglichen und auf ihre Eignung überprüft. Hier hat sich die Färbung von Semidünnschnitten mittels Paraphenylendiamin bei einer Inkubationszeit von 30 Minuten für die selektive Darstellung der Myelinscheide gegenüber allen anderen Verfahren durchgesetzt. Für die Erarbeitung und Anwendung eines sinnvollen Algorithmus der Bildanalyse wurden des Weiteren Faszikelquerschnitte von 36 peripheren Nerven untersucht. Von diesen konnten 136 Nervenquerschnitte der Spezies Pferd aus 46 unterschiedlichen Faszikeln vollständig bildanalytisch erfasst und ausgewertet werden. Für die Bereiche Bilderfassung, Bildbearbeitung sowie Merkmalsvermessung kamen drei eigens modifizierte Bildanalyseprogramme zum Einsatz. Folgende Parameter konnten zuverlässig, mit einem zu bewältigenden interaktiven Aufwand, erfasst werden: Referenzfläche, Nervenfaseranzahl, Axon-/Myelinscheiden-/Faserflächen und –Umfänge, Myelinscheidendicke. Aus diesen Daten ließen sich des Weiteren die Merkmale Faserdichte, Axon-/Faserdurchmesser, Axon-/Faserzirkularität, g-Ratio, Exceedingrate und Entropie der Faserflächen errechnen. Damit konnten die in der Literatur aufgeführten Parameter um zwei aussagekräftige Merkmale, die mittlere Myelinscheidendicke und die Exceedingrate, die einen Faserpopulationsparameter darstellt, ergänzt werden. Letztere ist insbesondere geeignet Verschiebungen innerhalb der Faserkaliber eines Nervens zu erkennen und damit fasergrößen-selektive Neuropathien aufzudecken. Für einen interindividuellen Vergleich des equinen N. accessorius haben sich sowohl Durchmesser- wie auch Flächenverteilungen von Axon und Myelinscheide als geeignet erwiesen. Durch die Darstellung dieser Messwerte in Histogrammen werden dem Untersucher bereits geringe Abweichungen visuell zugänglich gemacht. Des Weiteren wurde die Vergleichbarkeit des N. accessorius und N. fibularis communis beim Pferd untersucht. Wie auch im N. fibularis communis sind im leichter zugänglichen N. accessorius sämtliche Faserarten und damit funktionelle Subtypen in ausreichender Anzahl vertreten, wodurch er zur Erfassung von Polyneuropathien geeignet erscheint. Hinsichtlich der Repräsentativität von Nerventeilproben hat sich zur Erstellung einer Datenbank die Auswertung von fünf Faszikeln pro Nerv je Individuum als sinnvoll erwiesen. Hieraus sollten für eine longitudinale Beurteilung von einzelnen Nervenfaszikeln fünf Schnittebenen mit einem Abstand von 0,3 cm erfasst werden. Zusammenfassend kann gesagt werden, dass das hier angewandte morphometrische Verfahren für die Erkennung quantitativer Veränderungen im diagnostischen wie auch experimentellen Sinne seine Berechtigung findet. In der Implementierung ist dieses jedoch nicht gänzlich ohne Limitationen durch beispielsweise Fehldetektionen möglich.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Entsprechend der Patientenschutzrichtlinie 97/43 EURATOM (38) wurden in der vorliegenden Arbeit repräsentative Dosiswerte für die Strahlenbelastung des Patienten in bestimmten Routineuntersuchungen ermittelt. Zusätzlich wurde der Einfluss patientenspezifischer Merkmale und technischer Einstellungen auf die Exposition überprüft und eine potentielle Dosisdifferenz zwischen den analogen und digitalen Untersuchungstechniken vergleichend untersucht. Für die Bildverstärker-untersuchungen wurde die Dosisverteilung nach einzelnen Untersuchungsabschnitten aufgeschlüsselt. Als geeignete Größe wurde das Dosisflächenprodukt ausgewählt, da es im Routinebetrieb ohne großen zeitlichen und technischen Aufwand gemessen werden kann und gut reproduzierbare Ergebnisse liefert. Die vorliegende Studie ergab, dass die gemessenen Dosiswerte für die einfachen Routineuntersuchungen wie auch die komplexeren Funktionsuntersuchungen einem großen Schwankungsbereich unterliegen. Während für die Projektionsaufnahmen Dosisunterschiede vom Faktor 3,5 bis 35,2 gemessen wurden, streuten die Dosiswerte in den Bildverstärkeruntersuchungen trotz großer Abweichungen im Untersuchungsablauf zwischen dem Faktor 5,9 und 10,6. Lediglich in den Untersuchungen des Thorax und Abdomens sowie den Arteriographien am Frauenkollektiv zeigten patientencharakteristische Merkmale, wie Body Mass Index, Körpergewicht und -durchmesser, einen mäßigen bis großen Einfluss auf die Höhe der Patientenexposition. Dagegen spielte die Patientenkonstitution in den Untersuchungen der Halswirbelsäule und den Kontrastmittelpassagen des Dünndarms keine Rolle. Ein Dosisvergleich zwischen analogen und digitalen Projektionsuntersuchungen ergab einen systemunabhängigen Unterschied in der Strahlenbelastung von maximal 30%, mit einer Ausnahme: den Thoraxuntersuchungen des männlichen Patientenkollektivs. In dieser Untersuchung wurde in der konventionellen Untersuchungstechnik eine doppelt so hohe Strahlenexposition gemessen. In erster Linie beruht diese Dosisdifferenz allerdings auf der Verwendung unterschiedlicher Filmfolien- bzw. Speicherfolien-Empfindlichkeitsklassen (Filmfolien-EK 200, Speicherfolien-EK 400). Die Dosisunterschiede in den übrigen Projektionsuntersuchungen lassen sich vor allem durch kleine Fallzahlen, inhomogene Patientenkollektive und patientenorientierte Untersuchungseinstellungen, beispielsweise unterschiedliche Feldgrößen, begründen. Eine eindeutig systembedingte Dosisersparnis konnten wir in unserer Studie nicht feststellen. In der digitalen Subtraktionsangiographie der Becken-Bein-Arterien verursachte die Darstellung der abdominellen Aorta und Iliacalarterien durchschnittlich zwischen 85 % und 87 % der gesamten Strahlenbelastung, während auf die distalen Gefäßabschnitte und die Durchleuchtung jeweils 7 % entfielen. In den Dünndarmpassagen wurde unterschieden zwischen dem Dosisanteil, der allein bis zur regelrechten Platzierung der Sonde entstand (Median = 5 %), und dem Dosisanteil der gesamten Untersuchung. Die Ergebnisse dieser Arbeit sowie die veröffentlichten Resultate anderer Arbeitsgruppen zeigen, dass die gemessenen Dosiswerte der einzelnen Untersuchungsarten einem großen Streubereich unterliegen und um ein Vielfaches voneinander abweichen können. Während in den einfachen Projektionsaufnahmen des Thorax und Abdomens diese Dosisschwankungen insbesondere auf eine große Variabilität der Patienten zurückzuführen ist, spielen in der Untersuchung der Halswirbelsäule und vor allen in den komplexen Funktionsuntersuchungen eine mangelnde Standardisierbarkeit der indikationsabhängigen Untersuchungseinstellungen die ausschlaggebende Rolle, wie z. B. Unterschiede in der Feldgröße, Projektionsebene, kontrastmittelbedingten Absorption, Durchleuchtungsdauer und Anzahl der Aufnahmen. Gerade diese große Variationsbreite an Expositionswerten in den einzelnen Untersuchungen spricht dafür, dass Referenzwerte nicht als Grenzwerte sondern als Richtwerte verstanden werden und dem Untersucher in erster Linie als Orientierungshilfe dienen sollten. Zur endgültigen Festlegung von aktuellen repräsentativen Dosiswerten sind allerdings noch weitere großangelegte Patientenstudien notwendig.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Die Bedeutung der nativen Spiral-CT für die Diagnostik akuter Flankenschmerzen und speziell für die Detektion von Harnleitersteinen ist nach heutigem Kenntnisstand unbestritten. Vielfach wurden die exzellente Treffsicherheit und die differentialdiagnostischen Fähigkeiten dieser Methode bestätigt. Die Überlegenheit gegenüber den konkurrierenden Verfahren ist eindeutig. Trotz der unbestrittenen diagnostischen Vorteile gilt die verhältnismäßig hohe Strahlenexposition als bedeutender Nachteil der Spiral-CT. Dieser Sachverhalt wiegt schwer, weil die betroffenen Patienten vergleichsweise jung sind und infolge des chronischen Verlaufs des Harnsteinleidens wiederholt untersucht werden müssen. Aus diesem Grund, gibt es seit geraumer Zeit Bestrebungen, Untersuchungs-Protokolle für die Spiral-CT zu entwickeln, die mit einer minimalen Strahlenbelastung auskommen. Selbstverständlich müssen bei einem Niedrigdosis-Verfahren eine hohe Bildqualität und letztendlich eine den Standard-Protokollen mit konventioneller Dosisbelastung ebenbürtige diagnostische Aussagesicherheit gewährleistet werden. Für die native Spiral-CT der ableitenden Harnwege gibt es diesbezüglich bisher kaum Erfahrungen. Das Niedrigdosis-Verfahren wird bevorzugt zur Beurteilung von anatomischen Regionen mit ausgeprägten Unterschieden im Detailkontrast der einzelnen Strukturen eingesetzt. Eine besonders geeignete Indikation ist demnach der Nachweis von Harnleiterkonkrementen. Gegenstand der vorliegenden Untersuchung ist die Überprüfung eines eigens entwickelten Niedrigdosis-Protokolls zur Abklärung akuter Flankenschmerzen unter dem speziellen Gesichtspunkt der Aussagesicherheit des Harnstein-Nachweises. Zum besseren Verständnis dieser Fragestellung werden die Grundzüge der Spiral-CT und des Niedrigdosis-Verfahrens dargelegt. In der hier vorgelegten Studie wurde ein Kollektiv von 109 Patienten mit akuten Flankenschmerzen mit einer nativen Spiral-CT nach dem Niedrigdosis-Protokoll untersucht. In 80 Fällen (73%) lag ein akutes Harnsteinleiden vor. Die Prävalenz der Urolithiasis ist bei diesen Patienten vergleichsweise hoch. In anderen Studien zur Überprüfung des diagnostischen Stellenwerts der nativen Spiral-CT liegt sie in einem Bereich von 39%-69% (26, 59, 54, 89, 100). Dies liegt daran, dass es sich hier um ein hochselektiertes Kollektiv handelt, da die Indikation zur Durchführung der nativen Spiral-CT ausschließlich von Urologen unter dem Aspekt Urolithiasis gestellt wurde. Mit dem hier vorgestellten Niedrigdosis-Verfahren wird pro Untersuchungsgang eine Reduktion der effektiven Dosisbelastung des Patienten auf ein Drittel bzw. ein Viertel der sonst gebräuchlichen konventionellen CT-Protokolle erzielt. Der diagnostische Stellenwert des Niedrigdosis-Verfahrens wurde anhand einer Beurteilung der Sensitivität und Spezifität für den Nachweis von Harnleitersteinen bestimmt. Daher wurden für einen direkten Vergleich entsprechende Ergebnisse bewährter Standard-Protokolle mit konventioneller Dosis herangezogen. Es zeigt sich, dass die diagnostische Aussagesicherheit der nativen Spiral-CT nach dem Niedrigdosis-Verfahren bei der Beurteilung durch einen erfahrenen Untersucher im Bereich des für etablierte Standard-Protokolle üblichen Niveaus liegt. Die native Spiral-CT ist auch im Niedrigdosis-Protokoll ein hervorragendes Verfahren zur primären Untersuchung von Patienten mit akuten Flankenschmerzen. Für diese Methode konnte eine hohe Aussagesicherheit für den Nachweis von Harnleitersteinen und weitere nicht steinassoziierte pathologische Prozesse nachgewiesen werden. Der entscheidende Gewinn ist die erhebliche Reduktion der effektiven Dosisbelastung. Mit dieser Methode gelingt es, den wichtigsten Nachteil der konventionellen nativen Spiral-CT - die verhältnismäßig hohe Dosisbelastung - zu beseitigen. Die weitere Verbreitung dieses Verfahrens ist wünschenswert. Dies gilt insbesondere auch unter dem Aspekt der Zuverlässigkeit und Schnelligkeit der Methode. Sie ermöglicht eine Beschleunigung der Diagnostik und somit ein zügiges Einleiten der erforderlichen Therapie.