POPULARITY
Ja, schöne neue Welt. Illusion über Illusion... Wer hätte denn gedacht, dass es Realität wird? Nun denn, mit einem sollten wir uns dringend anfreunden: das selbstfahrende Auto kommt - die Frage ist nur noch: wann? So sehen die von Waymo jetzt ohne Sicherheitsfahrer auf die Straße geschickten Fahrzeuge aus: ERSTER! / Quelle: golem.de Es gibt sie, die Stimmen, wie Steve Woz(niak), der erst gestern sagte, dass man niemals komplett autonom fahrende Fahrzeuge haben wird. Und dann gibt es diese "Ethik-Tests" im Netz, die uns befragen, ob ein selbstfahrendes KFZ im Falle eines Falles, lieber die Oma, die Mutter, die Zwölfergruppe auf dem Rad oder das Kleinkind hinter dem Ball überfahren sollte. Und dann eben je nach Land teilweise für andere Länder unverständliche Ergebnisse bringt. Ich könnte bei dem Test immer lachen! Um die vermeintliche "Ethik" ausführen zu können, müsste das Fahrzeug einen Tomographen, ein Röntgengerät und eine radiometrische Ausstattung an Bord haben, um diese teilweise stumpfsinnigen Fragen in die Realität zu überführen: Wen würden Sie überfahren: Das vierjährige Kind mit Hirntumor, die körperbehinderte Mutter oder die 83 jährige Frau in bester Gesundheit, die sieben Kinder in die Welt gesetzt hat und monatlich (also, bis zu ihrem Tod) 200€ an Greenpeace, Brot für die Welt und SOS Kinderdörfer spendet? Oder ihren Mann, der auf den weiteren Millionen sitzt? ENTSCHEIDEN SIE JETZT, ENTSCHEIDEN SIE SCHNELL!!!! Was für ein Bullshit! Des Rätsels Lösung: Der Algorithmus, den aktuell jeder nicht schnell genug verteufeln kann, wird Strecke, Geschwindigkeit und geringsten Schaden ermitteln und dann "drauf halten", egal "was" es trifft. Wie ein normaler Fahrer, der in einem Stressmoment auf der Autobahn auch mit Scheuklappen nur noch den EINE Weg sucht, in dem er minimalen Schaden nach "Aufprall" vermutet. Aber für uns Menschen am Steuer spricht nicht mehr viel: Fahren wir doch bevorzugt den bisherigen "Robotorautos" gerne man hinten auf oder in die Seite. Und das, wo die mittlerweile gelernt haben, uns im Blick zu haben, selbst wenn wir eine rote Ampel in hoher Geschwindigkeit übersehen. Und, wie immer, ist es wahlweise Leichtsinn oder Unachtsamkeit, wie es zu diesen Unfällen kommt. Genauso wie der Unfall dieser Woche: der Wagen hat einen Zweiradfahrer vom Rad gezogen. Aber nicht, weil das Auto die steinreiche Oma am Leben lassen wollte oder das Kind mit dem Ball unbedingt für überlebensfähig eingeschätzt wurde. Nein! Weil der Sicherheitsfahrer nervös wurde und ins Lenkrad gegriffen hat! Schon wieder wir, das automobile Sicherheitsrisiko! Heute gibt es zwei Gruppen: mich und weitere, die am liebsten sofort nie wieder selber fahren wollen. Und den Rest, mit technisch-sportlichen Argumenten heftig gegen selbstfahrende Fahrzeuge wettern. Eine kleine Wette meinerseits: mit dem selbstfahrenden Fahrzeugen werden wir auch endlich auf den Autobahnen ein Tempolimit um die 130 km/h bekommen... Aber zurück zum Thema: Hier wird auch der Googe-Maps-Effekt greifen: sobald eine kritische Schwelle von "RoboCars" überschritten ist, ist die Menschheit, die selber fährt, in der Minderheit. Und dafür, man hat es bei GoogleMaps gesehen, reden wir nicht über 60 oder 80% - für die zuverlässige Stauansage bei Google reichten ACHT(!) PROZENT aller Autofahrer, die parallel GoogleMaps nutzen. Bei den automatischen Fahrzeugen (Level vier und fünf) würde ich, auch, da es sich bei den deutschen Fahrzeugen wohl zuerst um die Oberklasse handeln wird, auf einen Mehrheitsfaktor zwischen 28-39% tippen. Ja, ab diesem Moment sind die menschlichen Fahrer das größte Risiko auf der Straße - so wie heute, nur mit dem Unterschied, dass auffällt, dass wir alle nicht die superguten Fahrer sind, für die sich immer jeder hält! Also: freunden wir uns mit der Situation an. Auch wenn es nicht schon in fünf Jahren soweit sein wird - dann werden es zehn. Oder auch zwölf. Aber der Komfortgewinn und die Bequemlichkeit haben auch Jobs gekillt, als die Dampfmaschine kam. Oder das Pferd, dass gleich doppelt überflüssig wurde: durch die Bahn und durch Daimler, trotz dem von ihm selbst vermuteten Mangel an Chauffeuren, konnte die KFZ-Revolution nicht aufgehalten werden... Und so wird es auch mit der Technik für das selbstfahrende werden: aktuell ist Level zwei dabei, die Welt mit "CruiseControl" und Fahrspurassistent zu erobern. Level drei, der "Staupilot" zieht bei mehr und mehr Oberklassefahrzeugen ein. Ein-/Aus-Parken können die Teile mittlerweile besser und schneller als wir, egal ob längs oder quer! Schade nur, dass der Mensch das letzte Wort hat und die Parklücke im Kleinwagen doch wieder auf 36-Tonner mit Aufleger "verparkt". Und ab Level 4 wird es spannend. Selbstfahrend. Da werden wir dann das Backup für die Technik. Und ab Level 5? Kein Lenkrad, keine (die könnten heute schon weg sein, aber nein, Tradition verbindet!) Außenspiegel mehr. Keine Sitze die nach vorne durch eine Windschutzscheibe gucken müssen! Oder: gar niemand mehr im gesamten Auto, das schnell beim Supermarkt die Einkäufe für uns abholt! Also: freundet Euch damit an. Ihr müsst ja nicht gleich eins kaufen - oder könnt es ja noch ein paar Jahrzehnte aussitzen und Euch selbst fahren. Aber bereitet Euch darauf vor: die zuerst langsam-unsicheren Robofahrzeuge, die mit jeder Sekunde dazu lernen. Die dann plötzlich auch "schneller" und schnell werden. Die man plötzlich nicht mehr weg kennt vom "natürlichen" Fahrer - und die dann dafür sorgen, dass Parkplätze und Staus der Vergangenheit angehören - und auch nicht jeder mehr ein Auto haben muss! Ich freue mich drauf - immerhin könnte ich die letzte Generation sein, die noch mit eigenem Auto und der Illusion, bester Fahrer von Welt zu sein, groß geworden ist. Also, Waymo: her mit einer Deiner Kisten!
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Hintergrund: Die konventionelle Weiss-auf-Weiss-Perimetrie zählt zum Goldstandard der Glaukom-Diagnostik. Der Verlust achromatischer Kontrastempfindlichkeit ist aber als sensorischer Ausfall ein Spätsymptom und markiert den Beginn einer lokalen Erblindung. In diversen Studien konnte nachgewiesen werden, dass ein Verlust an chromatischer Kontrastempfindlichkeit im kurzwelligen Bereich des Farbspektrums perimetrischen Gesichtsfelddefekten vorausgehen kann. Eine quantitative Bestimmung peripherer Farbkontrastempfindlichkeit erlaubt der Arden-Computergraphik-Farbtest. Ziel dieser Querschnittsstudie war zum einen, Unterschiede in der peripheren Farbkontrast-Sensitivität zwischen einer größeren Gruppe von Glaukom-Patienten (n=50), sogenannten präperimetrischen Diagnosegruppen (Patienten mit okulärer Hypertension, Patienten mit V.a. Glaukom, n=41) und augengesunden Patienten (n=19) zu finden, und zum anderen die Bestimmung von Zusammenhängen zwischen peripheren Farbkontrast-Verlusten im kurzwelligem Bereich (Tritanachse) und zu diesem Zeitpunkt gegebenenfalls bestehenden Pathologien der Papillenmorphologie. Hierfür wurde sowohl der Mittelwert der Farbkontrastempfindlichkeit der einzelnen Quadranten, als auch die Farbkontrastempfindlichkeit eines einzelnen Quadranten (hier „Field Low Left“) mit den entsprechenden HRT II-Parametern (global oder ein einzelner Sektor) korreliert. Patienten und Methodik: Insgesamt wurden 110 Patienten in die Studie miteingeschlossen, und in die Diagnosegruppen „Glaukom“ (n=50), „V.a. Glaukom“ (n=26), „OCH“ (n=13) und „Augengesund“ (n=21) eingeteilt. Bei allen Patienten wurde eine Messung mit dem HRT II zur Erhebung quantitativer Papillen-Mekmale, und der Arden-Computergraphik-Farbtest durchgeführt. Darüber hinaus erfolgte jeweils eine Gesichtsfelduntersuchung, eine Visusbestimmung, eine allgemeine Anamnese, eine ausführliche Medikamentenanamnese und die Bestimmung der im bisherigen Krankheitsverlauf maximalen Tensiowerte. Die Papillenmorphologie wurde anhand qualitativer Merkmale von einem erfahrenen Untersucher in folgende Gruppen eingeteilt: „glaukomatöser Papillenbefund“, „grenzwertiger Papillenbefund“ und „unauffälliger Papillenbefund“. Nichtparametrische Tests: Im Kruskall-Wallis-Test zeigten die Variablen „Field mean“ und „Field LowL“ einen signifkanten Unterschied (p=0,039 bzw. p=0,023) zwischen den Diagnosegruppen. Im Mann-Whitney-Test erfüllen „Field LowL“-Werte die Kriterien einer Zusammenfassung 66 Signifikanz-Adjustierung und unterscheiden sich zwischen den Diagnosgruppen „Glaukom“ und „Augengesund“ statistisch signifkant (p=0,006). Ergebnisse der bivariaten Korrelation: Sowohl im Gesamtkollektiv, als auch in der Diagnosegruppe „Glaukom“ zeigte der Farbkontrast-Schwellenwert des unteren linken Quadranten („Field LowL“) im Unterschied zum Mittelwert der Farbkontrast-Schwellenwerte der Einzel-Quadranten („Field mean“) die stärkeren und häüfigeren Zusammenhänge zur Papillenmorphologie. In der Gruppe „Glaukom“ zeigte „Field LowL“ statistisch signifikante Zusammenhänge zu den meisten stereometrischen Parametern des HRT II: „cup area“ (r=0,547, p=0,000), „rim area“ (r=0,456, p=0,001), „cup/disc area ratio“ (r=0,525, p=0,000), „rim/disc area ratio“ (r=0,525, p=0,000), „cup volume“ (0,453, p=0,001), „rim volume“ (r=0,409, p=0,003), „height variation contour (r=0,38, p=0,006), „cup shape measure“ (r=0,345, p=0,012), „mean RNFL thickness“ (r=0,404, p=0,004) und „RNFL cross sectional area“ (r=0,381, p=0,006). In den präperimetrischen Diagnosegruppen „V.a. Glaukom“ und „OCH“ konnte nur in der „OCH“-Gruppe ein statistisch hochsignifikanter Zusammenhang (r=0,764, p=0,001) zwischen „Field LowL“ und dem stereometrischen Paramter „height variation contour“ gefunden werden. Ergebnisse der partiellen Korrelation: Bei Konstanthalten des Einflusses der Variable „age“ in der Glaukom-Gruppe zeigt „Field mean“ einen moderaten, statistisch signifikanten Zusammenhang zu den HRT-II-Parametern „height variation contour“ (r=0,348, p=0,008) und „CLM temporal-inferior“ (r=0,371, p=0,005). Bei Herauspartialisieren der Variable „disc area“ konnten alle in der bivariaten Korrelation gefundenen Zusammenhänge beibehalten werden. Bei Konstanthalten des Einflusses der mittleren Defekttiefe der Gesichtsfelduntersuchung („MD in dB“) zeigten sich keine statistisch signifikanten Zusammenhänge. Im Unterschied dazu zeigte der Quadranten-Schwellenwert „Field LowL“ in der Glaukom-Gruppe sowohl bei Konstanthalten des Einflusses des Alters, als auch der Papillengröße, als auch der mittleren Defekttiefe der Gesichtsfeld-Untersuchung statistisch signifikante Zusammenhänge zu allen auch in der Pearson-Korrelation gefundenen stereometrischen HRT-II-Parametern, wobei die Zusammenhangs-Stärke bei Herauspartialisieren von „disc area“ und „MD in dB“ schwächer ausfiel als in der bivariaten Korrelation; bezüglich der Kontrollvariable „MD in dB“ sind es: „cup area“ (r=0,457, p=0,001), „rim area“ (r=0,290, p=0,033), „cup/disc area ratio“ (r=0,419, p=0,003), „rim/disc area ratio“ (r=0,419, p=0,003), „cup volume“ (0,333, p=0,017), „rim volume“ (r=0,319, p=0,021), „height variation contour (r=0,304, p=0,027), „cup shape measure“ (r=0,260, Zusammenfassung 67 p=0,05), „mean RNFL thickness“ (r=0,411, p=0,004) und „RNFL cross sectional area“ (r=0,354, p=0,012). Der in der bivariaten Korrelation in der „OCH“-Gruppe gefundene, starke Zusammenhang zwischen „Field LowL“ und dem stereometrischen Paramter „height variation contour“ zeigte sich auch bei Herauspartialisieren des Alters und der mittlerern Defekttiefe der Gesichtsfeld-Untersuchung: r=0,686, p=0,01 bzw. r=0,794, p=0,002, jedoch nicht bei Herauspartialisieren der Variablen „disc area“ (r=0,001, p=0,499). Der überwiegende Teil der in den präperimetrischen Diagnosegruppen gefundenen Zusammenhänge zeigte sich jedoch statistisch nicht signifikant. Ergebnisse der Regressionsanalyse: Sowohl nichtstereometrische Parameter wie Alter, Augeninnendruck und Ergebnisse der Gesichtsfelduntersuchung, als auch die stereometrischen Parameter des Heidelberg-Retina-Tomographen-II zeigen einen statistisch signifikanten Einfluss auf die Ergebnisse des Computergraphik-Farbtests. Während der Einfluss von nichtstereometrischen Parametern einen stärkeren Einfluss auf die Variable „Field mean“ als auf die Variable „Field LowL“ aufweist (r2=0,445, p=0,000 versus r2=0,359, p=0,001), verhält es sich mit den stereometrischen HRT-II-Parametern umgekehrt: Sie zeigen den stärkeren Einfluss auf die Variable „Field LowL“ (r2=0,603, p=0,000 versus r2=0,188, p=0,048). Schlussfolgerung: Die Diagnose „Glaukom“ setzt sich aus den Ergebnissen unterschiedlicher Untersuchungen zusammen. Zu den Eckpfeilern der Glaukom-Diagnostik zählen Papillenveränderungen, erhöhter Augeninnendruck, Gesichtsfelddefekte und schließlich das Alter und die Familienanamnese eines Patienten. In den letzten Jahrzehnten hielt vor allem die qualitative Messung der Papillenmorphologie und umgebender Netzhaut-Strukturen (HRT, OCT, GDX, u.a.) Einzug in die Glaukom-Diagnostik. Gemeinsam mit psychophysikalischen Tests, die Gesichtfelddefekte nachweislich vor dem Verlust an Kontrastempfindlichkeit in der Weiss-auf-Weiss-Perimetrie aufzeigen, erweitert und ergänzt sie die klassische Glaukom-Diagnostik. In dieser Arbeit konnte zunächst bestätigt werden, dass sich die Ergebnisse des Arden-Computergraphik-Farbtests bei einer erstmals großen Gruppe von Glaukom-Patienten signifikant von den Ergebnissen der Kontrollgruppe augengesunder Patienten unterscheiden. Im weiteren konnte erstmals gezeigt werden, dass auch unter Berücksichtigung des Alters und der Ergebnisse der Gesichtsfelduntersuchung ein überwiegend hochsignifikanter Zusammenhang zwischen einem funktionellen Test (Arden- Computergraphik-Farbtest) und einem modernen, rein morphologischen Test (HRT II) bei Glaukompatienten besteht. Die Einzel-Quadranten-Analyse (hier der funktionell linke untere Zusammenfassung 68 Quadrant) zeigte hier die stärksten Zusammanhänge zu den Parametern „cup area“, „rim area“, cup/disc area ratio“ und „rim/disc area ratio“ und ist dem Mittelwert der Schwellenwerte aller Quadranten überlegen. Die statistisch signifikanten Veränderungen entsprechen dem temporal-superioren Bereich der Papille, in dem in frühen und in mäßig fortgeschrittenen Glaukom-Stadien erste Verluste des neuroretinalen Randsaums zu beschrieben sind (Tuulonen A & Airaksinen PJ, 1991, Jonas JB et al., 1993). Dem Arden-Computergraphik-Farbtest kommt somit ein hoher Stellenwert in der Glaukomdiagnostik zu. Die Kombination von Funktion und Morphologie erhöht die Validität in der Glaukomdiagnostik; eine Eignung als Screening-Test, der zwischen präperimetrischen Diagnosegruppen unterscheidet, konnte allerdings nicht bestätigt werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Durch den Einsatz neuer MR-Bildgebungsverfahren und durch die Realisierung von störungsfreien elektrophysiologischen Ableitungen in der MRT konnten neue Methoden und Ergebnisse im Bereich der schnellen MR-Bildgebung erarbeitet werden. Die Ergebnisse waren vor allem die Entwicklung von Methoden der digitalen Signalverarbeitung zur Entstörung von EEG-Ableitungen in der MRT, die praktische Umsetzung dieser Methoden in einer klinischen Studie zur nicht invasiven Lokalisation epileptischer Herde durch EEG-geführte funktionelle MR-Bildgebung, weiter der experimentelle Nachweis der Stimulation peripherer Nerven bei schnellen MR-Bildgebungsverfahren mittels EMG-Ableitung in der MRT und schließlich die Programmierung eines umfassenden Modells zur Abschätzung einer Stimulation peripherer Nerven und des Myokards während schneller MR-Bildgebung. Bei medikamentös nicht einstellbarer fokaler Epilepsie verbleibt als einzige Therapieform eine Resektion des anfallauslösenden Cortexareals. Eine exakte Lokalisation des zu resezierenden Areals ist von entscheidender Bedeutung für den therapeutischen Erfolg. Das EEG ist der Goldstandard zur Diagnose von Epilepsien. Eine genaue dreidimensionale Lokalisation des Ursprungs epilepsietypischer Ereignisse ist mit nicht invasiven EEG-Ableitungen jedoch unmöglich. Mit der funktionellen Magnetresonanztomographie hingegen lassen sich aktive Cortexareale unübertroffen genau lokalisieren. Ziel der Arbeit war es, ein EEG in diagnostischer Qualität in der MRT abzuleiten, epilepsietypische Ereignisse im EEG zu detektieren, nach diesen Ereignissen die funktionelle MRT zu starten und somit Cortexareale mit epilepsietypischer Aktivität dreidimensional zu lokalisieren. Das EEG ist für elektromagnetische Störungen extrem anfällig. In der Umgebung der MRT mit Hochmagnetfeldern, Radiofrequenzen und niederfrequenten Magnetfeldern war ein EEG bisher nicht auswertbar. In dieser Arbeit wurden verschiedene Störeinflüsse der MRT auf das EEG untersucht. EKG-synchrone minimale Bewegungen des Kopfes der Patienten im Hochmagnetfeld induzieren Signale im EEG, die eine Erkennung epilepsietypischer Ereignisse im EEG verhindern. Algorithmen wurden entwickelt, die Störungen im EEG durch eine Korrelation zum EKG ermitteln und dann vom EEG subtrahieren. Mit diesen Algorithmen ließ sich ein EEG in diagnostischer Qualität im Hochmagnetfeld des MR-Tomographen realisieren. Während der Bildgebung ist das EEG durch elektromagnetische Induktion und durch Vibrationen bei den Schaltvorgängen der magnetischen Gradientenfelder gestört. Es konnte gezeigt werden, dass die im EEG induzierten Störfrequenzen aus diskreten harmonischen Frequenzen bestehen, die den Programmstrukturen der Bildgebungssequenzen entsprechen. Ein digitales Signalverarbeitungsverfahren wurde entwickelt, das die Fourier-Transformationen von gestörtem und ungestörtem EEG vergleicht, Störfrequenzen automatisch erkennt und schließlich aus dem EEG entfernt. Eine kontinuierliche Korrelation funktioneller MR-Daten mit der elektrischen Aktivität des Cortex wurde mit diesem Verfahren erstmals möglich. In einer Studie mit Patienten, die an fokaler Epilepsie leiden, wurde das EEG in der MRT abgeleitet und die entwickelten Algorithmen zur Entstörung des EEG wurden angewendet. Dabei wurde die funktionelle Bildgebung unmittelbar nach dem Auftreten epilepsietypischer interiktaler Spikes im EEG gestartet. Mehrere Datensätze wurden nach einem interiktalen Spike erfasst. Durch eine Korrelation der MR-Daten mit dem entstörten EEG konnten eindeutige MR-Datensätze einer statistischen funktionellen Auswertung zur Verfügung gestellt werden. Bei Patienten, die eine angemessene Zahl interiktaler Spikes während der Untersuchungszeit aufwiesen, ließ sich das interiktal aktive Cortexareal in hoher dreidimensionaler Auflösung darstellen. Die Signalintensitätsänderungen in den MR-Datensätzen durch den BOLD-Kontrast nach interiktalen Spikes betrug durchschnittlich 15 % und übertraf damit alle Signalintensitätsänderungen, die mit anderen funktionellen MR-Studien bei gleicher Feldstärke bisher erreicht werden konnten. Dem Einsatz neuer schneller MR-Bildgebungsverfahren mit deren erweiterten diagnostischen Möglichkeiten stehen Stimulationen peripherer Nerven, ausgelöst durch schnelles Schalten magnetischer Gradientenfelder, entgegen. Schaltet man magnetische Gradientenfelder von großer Amplitude in sehr kurzer Zeit, werden dadurch Ströme im Körper des Patienten induziert, die wiederum periphere Nerven stimulieren können. Die Regulierungsbehörden mehrerer Länder, wie auch das Bundesamt für Strahlenschutz, reagierten auf diese Umstände und empfahlen Grenzwerte für geschaltete magnetische Gradientenfelder in der MRT. Schädigende Wirkungen der Stimulation peripherer Nerven waren nicht bekannt, es wurde jedoch eine mögliche Erregung des Myokard befürchtet. In einer Projektarbeit für das Bundesamt für Strahlenschutz wurden mehrere Studien durchgeführt, um die Problematik der Stimulation peripherer Nerven durch schnell geschaltete magnetische Gradientenfelder in der MRT näher zu untersuchen. Die physiologischen Vorgänge bei der Stimulation peripherer Nerven durch geschaltete magnetische Felder wurden erläutert. Die Schwelle zur Erregung peripherer Nerven durch geschaltete magnetische Felder ist für motorische Nerven am geringsten. Wird ein motorischer Nerv erregt, führt dies zu einer Kontraktion des entsprechenden Muskels. In früheren Studien wurden Stimulationsschwellen durch das Befragen der Probanden bestimmt. Dabei wurde eine weite Streuung der Stimulationsschwellen unter den Probanden beobachtet und das subjektive Empfinden der Probanden als Ursache der weiten Streuung der Stimulationsschwellen konnte nicht ausgeschlossen werden. Mittels Elektromyographie (EMG) in der MRT konnte die Stimulation peripherer Nerven erstmals messtechnisch nachgewiesen werden. Durch einen Vergleich der Stimulationsschwellen, bestimmt durch die Aussagen der Probanden, mit den Stimulationsschwellen, die durch EMG-Ableitung bestimmt wurden, ließ sich zeigen, dass die Aussagen der Probanden gut mit dem EMG übereinstimmen und dass die Streuung der Stimulationsschwellen auf unterschiedlichen konstitutionellen Parametern der Probanden beruhen muss. Die Erregung peripherer Nerven mit elektrischen Strömen wurde in zahlreichen anderen Studien bereits ausführlich untersucht und ein breites Wissen ist in internationalen Veröffentlichungen zugänglich. Das Grundgesetz der Elektrostimulation, das Weiss-Gesetz, beschreibt die Stimulationswirkung eines Strompulses mit den neurophysiologischen Konstanten Rheobase und Chronaxie. Stimulationsexperimente wurden im Magnetresonanztomographen durchgeführt, mit denen sich die Werte von Chronaxie und Rheobase der einzelnen Probanden bestimmen ließen. Die Werte stimmen mit den Werten aus Studien der Elektrostimulation überein. Ein anderes Modell aus der Elektrostimulation, das SENN-Modell, beschreibt die Stimulation von oszillierenden Strömen in Abhängigkeit von deren Frequenz. In Stimulationsexperimenten konnte gezeigt werden, dass sich auch dieses Gesetz zur Beurteilung der Stimulationswirkung oszillierender magnetischer Felder in der MRT eignet. Ergebnisse aus der Elektrostimulation lassen sich also auf die Beschreibung der Stimulation peripherer Nerven durch magnetische Felder in der MRT übertragen. Die Literatur der Elektrostimulation bietet jedoch kein umfassendes Modell an, das die Stimulation einer beliebigen Schaltung von magnetischen Feldern beschreiben kann. Auf den Kenntnissen der Elektrostimulation aufbauend wurde ein umfassendes Modell programmiert, das einer Verallgemeinerung des Weiss-Gesetzes von konstanten zu zeitlich veränderlichen Strömen entspricht und das die Stimulation einer beliebigen Gradientenschaltung vorhersagen soll. Dem Modell liegt zugrunde, dass Ströme, die durch geschaltete Magnetfelder induziert werden, eine Ladung auf der Nervenmembran aufbauen. Überschreitet diese Ladung einen bestimmten Wert, wird die Erregung des Nerven ausgelöst. Das Modell wurde in entsprechenden Algorithmen umgesetzt, die aus der Gradientenschaltung ein Stimulationspotential berechnen. In mehreren Stimulationsexperimenten, in denen verschiedene Parameter der Gradientenschaltungen variiert wurden, wurde das Modell getestet. Die Simulationen des Modells konnten stets die Ergebnisse der Experimente reproduzieren. Da in das Modell die neurophysiologischen Parameter Chronaxie und Rheobase eingehen, konnte das Modell darüber hinaus auch das Stimulationsverhalten individueller Probanden vorhersagen. Eine optimale Ausnutzung der technischen Möglichkeiten zur schnellen MR-Bildgebung bei uneingeschränktem Komfort für den Patienten wird durch den Einsatz dieses sogenannten GSF-Modells möglich. Die Parameter Chronaxie und Rheobase sind auch für das Myokard bekannt. Durch einen Austausch der Parameter für periphere Nerven mit den Parametern des Myokards im GSF-Modell konnten Stimulationsschwellen des Herzens reproduziert werden, wie sie von einer anderen Forschungsgruppe an Hunden experimentell bestimmt wurden. Mit dem GSF-Modell für das Herz ließ sich zeigen, dass selbst mit den zur Zeit leistungsfähigsten Gradientensystemen keine Gefahr der Erregung des Myokards besteht. Aus der Kombination von zwei etablierten diagnostischen Verfahren, der schnellen MR-Bildgebung und der Aufzeichung elektrophysiologischer Signale, und durch die Lösung der in der Kombination auftretenden methodischen Schwierigkeiten, ließen sich in den vorgestellten Studien aktuelle wissenschaftliche Ergebnisse im Bereich der Magnetresonanztomographie erarbeiten, die von klinischer und sicherheitstechnischer Relevanz sind.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Nach Einführung der ultraschnellen Magnetresonanz (MR)-Bildgebung in die klinische Praxis in den 90er Jahren kam es zu Berichten über Stimulationen peripherer Nerven. Die Regulierungsbehörden mehrerer Länder reagierten auf diese Umstände und empfahlen Grenzwerte für geschaltete magnetische Gradientenfelder in der Magnetresonanztomographie (MRT). Ziel der vorliegenden Dissertation ist die Untersuchung von Einflussgrößen der magnetischen Gradientenfelder in der Stimulation peripherer Nerven. Dabei konzentriert sich diese Arbeit auf fünf Parameter: Frequenz, Form (sinusförmig vs. linear), Amplitude und Orientierung des oszillierenden Magnetfeldgradienten sowie Positionierung des Probanden im Isozentrum des Tomographen. Die Erregung peripherer Nerven mit elektrischen Strömen wurde in zahlreichen Studien untersucht und es existieren Gleichungen, die dieses Phänomen beschreiben: das Weiss- und Lapicque-Gesetz, das SENN-Modell und das Grundgesetz der Magnetostimulation (FLM). Es konnte gezeigt werden, dass sich alle vier Modelle auf die Beschreibung der Stimulation peripherer Nerven durch magnetische Gradientenfelder anwenden lassen. Es wurde weiterhin gezeigt, dass sich der das Integral über B(t) zur Berechnung der Stimulationswahrscheinlichkeit verschiedener Anstiegsformen des magnetischen Feldgradienten eignet. Stimulationsschwellen sind für Gradienten mit sinusförmigem Anstieg kleiner als für Gradienten mit linearem Anstieg. In den durchgeführten Experimenten wurde ein Einfluss der Positionierung des Probanden im Isozentrum des Tomographen und der Orientierung des Magnetfeldgradienten, sowohl auf die Stimulationsschwelle, als auch auf den Stimulationsort festgestellt. Die höchste Stimulationswahrscheinlichkeit trat bei Positionierung mit dem Hals im Isozentrum auf, die niedrigste bei Positionierung mit dem oberen Abdomen im Isozentrum. Der Ort der häufigsten Stimulation fand sich in ca. 40 cm Entfernung vom Isozentrum. Stimulationsereignisse waren mit dem anteroposterioren Gradienten (y-Gradient) am wahrscheinlichsten, am unwahrscheinlichsten mit doppelt obliquen Gradienten (z.B. xyz-Gradient). Die Beobachtungen ließen sich durch Form und Achsensymmetrie des menschlichen Körpers, räumliche Ausdehnung des magnetischen Gradientenfeldes sowie Größe der Leiterschleife des induzierten elektrischen Feldes erklären. Der Einfluss der Gradientenorientierung auf den Stimulationsort konnte durch den Verlauf der stimulierten Nerven in Relation zur induzierten elektrischen Leiterschleife erklärt werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Die neuronalen Grundlagen individueller Unterschiede im Angstverhalten sowie die biologischen Ursachen pathologischer Angst sind bisher weitgehend unerforscht. Ein geeignetes Forschungsmodell stellen die Rattenlinien HAB (high anxiety-related behavior) und ihr Gegenstück LAB (low anxiety-related behavior) dar, die durch selektive Züchtung nach dem Kriterium ihres Verhaltens in einem Angsttest für Nager aus einer Normalpopulation hervorgegangen sind. Das Benzodiazepin Diazepam wirkt bei HAB-Ratten wesentlich stärker anxiolytisch als bei LAB-Ratten. Man kann daraus folgern, daß Diazepam differentiell auf Hirnregionen wirken muß, die Angstverhalten steuern. In umgekehrter Logik sollte eine Region, für die gezeigt werden kann, daß sie von Diazepam unterschiedlich angesprochen wird, eine Rolle in der extrem unterschiedlichen Regulation des Angstverhaltens bei den beiden Linien spielen. Zur Identifizierung dieser Kandidatenregionen wurde eine neue Methode zur Kartierung von Hirnaktivierungänderungen, die pharmakologische funktionelle Magnetresonanztomographie (phMRI), erstmals in einem Tomographen der Feldstärke 7 Tesla etabliert. Methodische Besonderheiten der hohen Feldstärke wurden untersucht. Durch den Vergleich der Hirnaktivierungsänderungen nach Diazepam-Gabe zwischen HAB- und LAB-Ratten gelang es, als wichtigste Kandidatenregion für die unterschiedliche Regulation des Angstverhalten den medialen präfrontalen Kortex und das vordere Zingulum (mPFC/ACC) zu identifizieren, eine Region, die von anderen Autoren als Angst-modulierende Region vorgeschlagen wurde. Basierend auf diesen Daten wurde die Hypothese einer Hypoaktivität des mPFC/ACC in hyperängstlichen Individuen entwickelt. Diese Hypothese kann im Tier- sowie Humanmodell getestet werden. Insbesondere ist die Untersuchung der Funktion des mPFC/ACC in Angstpatienten von Interesse, da die Charakterisierung der biologischen Substrate übersteigerten Angstverhaltens grundlegend für das Verständnis der affektiven Erkrankungen und die Entwicklung neuer Therapieansätze ist.