POPULARITY
Die US-Notenbank FED lässt den Leitzins unverändert. Trotz des Druckes von US-Präsident Donald Trump, der eine deutliche Senkung fordert. Ein kluger Entscheid? Und was bedeutet das für die Schweizer Notenbank SNB? Weitere Themen: Seit dem Amtsantritt von US-Präsident Donald Trump stehen die Universitäten in den USA unter Druck. Forschende überlegen sich, den USA den Rücken zu kehren und an eine europäische Universität zu wechseln. Die EU will diesen Forschenden die Hand reichen. Davon profitiert auch die Schweiz. Die Asiatische Hornisse, der Laubholzbockkäfer oder die Kirschessigfliege: Viele solcher in die Schweiz eingeschleppten Insektenarten verursachen ökologische und ökonomische Schäden. In einem Labor im Jura suchen und züchten Forscherinnen und Forscher natürliche Feinde gegen die invasiven Tierchen.
Die US-Notenbank FED lässt den Leitzins unverändert. Trotz des Druckes von US-Präsident Donald Trump, der eine deutliche Senkung fordert. Ein kluger Entscheid? Und was bedeutet das für die Schweizer Notenbank SNB?
Ein neuer Monat, eine neue Folge. Nach dem riesigen Block „Making Truth“ eröffnen Toni und Pat den regulären Mediä…WAT!?-Rhythmus mit einer spannenden Folge. Sie stellen sofort fest, wie sehr sich ihre Podcastorganisation in den letzten Monaten weiterentwickelt hat und welche Herausforderungen und Erfolge sie erlebt haben. Zu Gast ist heute Simone Hallstein, Promotionsstudentin der Universität zu Köln und Jüngerin der schwarzen Kunst. Ihr wisst nicht, was eine „Jüngerin der schwarzen Kunst“ ist? Super, wussten wir auch nicht. Also hört Toni zu wie sie Simone dazu löchert. Ganz ohne Kontext ist dieser Titel nicht, denn Simone hat sich im Rahmen ihres Promotionsprojekts „Judenfeindlichkeit und Medienwandel im Spätmittelalter“ mit vielen Druckerzeugnissen auseinandergesetzt. So gehen Passion und wissenschaftliche Forschung miteinander einher. Gemeinsam diskutieren Simone, Toni und Pat, wie sich die Wahrnehmung und Darstellung von Judenfeindlichkeit im Laufe der Zeit verändert haben und welche Rolle die Medien dabei spielten. Die Erfindung des Druckes, die Wirtschaftlichkeit von Drucken und historisch gewachsene antisemitische Motive sind nur einige Aspekte, die Simone kompetent abzudecken weiß. Da Antisemitismus [leider] wieder eine Rolle spielt, freuen wir uns besonders über Simones Beitrag und räumen mit einigen jahrhundertealten Narrativen auf. Begleitet uns auf eine Reise in das Zeitalter der Drucker und seid gespannt auf Simones Fallstudien – Mord und Intrige sind vorprogrammiert. Schaltet ein bei Mediä…WAT!? auf Spotify und allen gängigen Podcastplattformen.
Dr. Richard Prager, geboren 1883 in Hannover, war ein deutscher Astronom, der seit dem Jahre 1916 als Observator an der Sternwarte in Babelsberg arbeitete. Wegen seiner jüdischen Herkunft wurde der 1938 von den Nazis verhaftet, allerdings aufgrund des Druckes aus dem Ausland freigelassen, so dass er in die USA emigrieren konnte, wo er bis zu seinem Tod im Jahre 1945 an der Harvard-University lehrte. Seit Albert Einstein seine Relativitätstheorie veröffentlicht hatte, erlangte die Beobachtung von Sonnenfinsternissen eine gesteigerte Bedeutung, da man hier Beweise für die Richtigkeit der Theorie erlangen wollte – und konnte. Auch die deutsche Expedition zur Sonnenfinsternis vom 10. September 1923 in Mexiko, an der sich das Potsdamer und ein Hamburger Observatorium beteiligten, hatte unter anderem, wie es im vorläufigen Abschlussbericht zu lesen ist: „Aufnahmen zur Prüfung des Einstein-Effekts“ auf dem Programm. Paula Rosa Leu liest für uns den Bericht zur Expedition von Dr. Prager, der in der Wochenbeilage des Berliner Tageblattes vom 24. Januar 1924 erschien.
MS-Perspektive - der Multiple Sklerose Podcast mit Nele Handwerker
In Folge #130 vom MS-Perspektive-Podcast spreche ich mit Dr. Anja Dillenseger vom MS-Zentrum in Dresden über relevante digitale Biomarker für MS-Patienten. Es geht darum, was Biomarker sind? Wie sie eine bessere Beurteilung des Ist-Zustandes ermöglichen, was wiederum eine bessere Behandlung ermöglicht. Welche Rolle dabei Smart Phones, Apps und Fitness Tracker spielen? Außerdem sprechen wir ganz konkret darüber, wie Sehstörungen erfasst werden und die Aussagekraft der Ergebnisse. Und es geht darum, wie Technik objektiv vergleichende Verlaufsdaten zeigen kann, selbst wenn andere Symptome wie Fatigue beim Messen von beispielsweise Sprechstörungen reinspielen. Hier geht es zum Blogartikel: https://ms-perspektive.de/dr-anja-dillenseger-digitale-biomarker/ Inhaltsverzeichnis Vorstellung Digitale Biomarker Überblick Detailfragen digitale Biomarker Zusammenfassung Biomarker Blitzlicht-Runde Verabschiedung Vorstellung Anja Dillenseger ist wissenschaftliche Mitarbeiterin mit akademischem Abschluss beim Multiple Sklerose Zentrum Dresden. Sie arbeitete zunächst im Groß- und Außenhandel und war Chefsekretärin bei RENO-Schuhimport. Es folgte ein BWL-Studium. Dann ging sie für 10 Monate in eine Tierarztpraxis und studierte anschließend Veterinärmedizin. Bis 2014 arbeitete sie in einer Praxis in Chemnitz, wechselte dann nach Dresden wo sie in den Jahren 2015/2016 in einer Tierarztpraxis tätig war. Und seit 2016 gehört sie zum Team des MS-Zentrum in Dresden. Digitale Biomarker Überblick Was sind Biomarker und wofür werden sie genutzt? Biomarker sind objektiv messbare Indikatoren physiologischer oder pathologischer Prozesse oder pharmakologischer Antworten auf therapeutische Interventionen. Im Rahmen der MS kann man diese Biomarker unterteilen in: diagnostische (d.h., sie helfen bei der Unterscheidung zwischen verschiedenen Erkrankungen, z.B. oligoklonale Banden), prognostische (diese unterstützen Ärzte dabei abzuschätzen, wie sich eine diagnostizierte Erkrankung entwickelt; z.B. Neurofilament) prädiktive/“vorhersagende“ (geben eine „Vorhersage“, wie die Antwort auf eine Therapie sein wird; welcher Patient profitiert von welcher Therapie? Hier ist zum Beispiel die Genotypisierung vor Siponimod-Therapie zu nennen.) Krankheitsaktivität (messen die Entzündung oder Neurodegeneration, z.B. MRT, Klinik) und Biomarker bezüglich der Therapie-Antwort (hilft zu unterscheiden, ob ein Patient auf eine Therapie anspricht). Was ist das Besondere an digitalen Biomarkern und warum sind sie so wichtig? Klassisch mussten und müssen diese Biomarker durch Ärzte oder medizinisches Personal erhoben und dokumentiert werden. Dafür fehlt leider häufig die Zeit oder das Personal oder beides (von Räumlichkeiten, um zum Beispiel Funktionstests durchzuführen, mal ganz zu schweigen). Daher ist der Gedanke, dass durch die zunehmende Digitalisierung im Gesundheitswesen zum einen diese Informationen gleich digital aufgenommen, dokumentiert und zur Verfügung gestellt werden können. Aber die Digitalisierung bietet auch die Chance, dass Patienten selbst diese Daten generieren und mit ihrem Behandlungsteam teilen. Wir hatten 2019 einmal eine Umfrage bei knapp über 200 Patienten gemacht, welche digitale Technologie sie am häufigsten verwenden. Das Smartphone war da ganz vorne mit dabei mit einer Nutzung mehrmals täglich. Smartphones bieten im Grunde alles, was man braucht: Kamera (z.B. zur Stimmungserhebung anhand des Gesichtsausdruckes), Mikrofon (zur Dokumentation der Sprache und eventuellen Auffälligkeiten), GPS und Gyroskop (zur Messung von Mobilität und Rotationsbewegungen des Körpers) etc. Also: warum dies sich nicht zunutze machen? Oder Fitness-Tracker? Wie können digitale Biomarker das Leben von Menschen mit MS verbessern in Bezug auf Behandlung und Prognose? Bei MS heißt es, frühzeitig auf Progressionen zu reagieren. Aber natürlich auch die Kontrolle der Therapie-Aktivität oder das Hinzukommen von neuen Symptomen. Normalerweise sehen wir Patienten alle 3 Monate, manchmal auch nur alle 6 Monate. Mal ehrlich, ich könnte mich nicht erinnern, wenn du mich jetzt fragen würdest, wie oft ich in den letzten 3 Monaten z.B. unter Kopfschmerzen gelitten habe. Das Gedächtnis eines jeden erinnert vielleicht die letzten 5 Tage ganz konkret, je nachdem natürlich, wie gravierend das Ereignis war. Aber im Grunde geht wohl viel Information verloren. Oder wird nicht ernst genug genommen. Wenn jetzt aber der Patient sich zum Beispiel hinsichtlich bestimmter Symptome selbst in seiner Häuslichkeit messen kann oder regelmäßig digitale Fragebögen zu den wichtigsten Symptomen zugeschickt bekommt, die Veränderung bestehender Symptome von ihm/ihr selbst über ein digitales Programm dokumentiert werden kann oder auch Schübe im Rahmen eines Tagebuches, dann unterstützt dies auch bei Visiten das Arztgespräch. Noch besser natürlich, wenn der Arzt ebenfalls (nach Zustimmung des/der Patient*in natürlich) direkt Zugriff zu diesen Informationen in Echtzeit hätte. Und da geht die Reise hin. Welche krankheitsbedingten Veränderungen bei MS-Patienten können bereits gut und effizient mit Hilfe von digitalen Biomarker erfasst werden? Die Bekanntesten hier sind wohl das MRT sowie die Untersuchung des Augenhintergrundes mittels der optischen Kohärenztomographie. Da ist dann aber noch lange nicht Schluss. Patienten an unserem Zentrum kennen hier zusätzlich die Ganganalyse, die bei uns mithilfe digitaler Technologie (z.B. ein mit Drucksensoren ausgestatteter Teppich), Opal-Sensoren, die am Körper befestigt werden und die Rotation des Körpers während verschiedener Aufgaben dokumentieren, digitale Fragebögen (Selbsteinschätzung der Mobilität) und vieles mehr. Zusätzlich gibt es bereits die Möglichkeit, Funktionstest tablet-basiert durchzuführen, ohne dass Patienten hier durch medizinisches Personal unterstützt werden müssen. Diese Funktionstests fokussieren sich hierbei auf die am häufigsten betroffenen Beeinträchtigungen im Rahmen der MS: das Gehen, das Kontrastsehen, die Kognition (also Konzentration und Verarbeitungsgeschwindigkeit) sowie die Funktion der oberen Extremitäten. Studien haben hier belegt, dass diese den papierbasierten Funktionstests in nichts nachstehen. Bisher waren solche digitalen Funktionstestungen häufig nur im Rahmen von Studien einsetzbar, aber die Überprüfung des Nutzens in der klinischen Routine nimmt gerade sehr an Fahrt auf. Apps, die Funktionstests von zuhause aus ermöglichen gibt es bereits. Im Bereich der Alzheimer-Erkrankung werden Sprach- bzw. Sprech-Aufgaben mit Erfolg eingesetzt, um Hinweise auf depressive Verstimmungen, kognitive Beeinträchtigungen und Fatigue zu erhalten. Bei MS muss dies noch überprüft werden. Da startet im April bei uns ein Projekt dazu. Wie man erkennen kann, ist die Erfassung dieser digitalen Biomarker nicht überall verfügbar. Das wird sich in Zukunft hoffentlich ändern. Welche Rolle spielen Apps, Smartphones und Fitnesstracker beim Erfassen der Daten und wie viel wird beim Arzt gemessen? Diese Tools bieten die Möglichkeit der Erfassung digitaler Biomarker! Ein Smartphone hat doch jeder. Tablets sind mittlerweile auch so erschwinglich, dass man die sich in die Praxis oder Klinik legen kann, um Testungen oder digitale Fragebögen darauf durchzuführen. Fitness-Tracker sind eher nicht so ganz verbreitet, könnten aber bei bestimmten Patienten zur Verfügung gestellt werden, was derzeit nur im Rahmen von Studien der Fall ist. Aber in diesen digitalen Werkzeugen liegt die Zukunft. Was derzeit mit Hilfe von Apps, Smartphones und Tablets gemacht werden kann bewegt sich zum Großteil auch im Bereich der Forschung. Beispiel der Einsatz von digitalen Funktionstests (Kontrastsehen, Stäbchen-Steck-Test, 7,61-Meter-Gehtest, Verarbeitungsgeschwindigkeit), wobei hier gerade auch ein Zulassungsverfahren für eine DiGA (digitale Gesundheitsanwendung auf Rezept) läuft, die Funktionstest beinhaltet, Tagebuchfunktion und noch mehr. Auch werden immer mehr Apps, sogenannte DiGAs zur Unterstützung bei bestimmten Symptomen, wie Fatigue (basierend auf etablierten psychotherapeutischen Ansätzen und Verfahren insbesondere der kognitiven Verhaltenstherapie) und demnächst auch zur Unterstützung bei depressiven Verstimmungen. Da ist viel in der Entwicklung. Auch bei uns im Zentrum ist da einiges im Gange, wie die Testung einer App für das Selbstmonitoring (auch über digitale Funktionstests), Sprachanalyse, unsere multimodale Ganganalyse und vieles mehr, an dem geforscht und entwickelt wird. Wie kompliziert ist die Auswertung der erfassten Daten? Das ist ein wichtiges Thema. Durch die digitale Erfassung und des immer umfangreicher werden Spektrums, was alles erfasst werden kann, nimmt natürlich die Datenmenge extrem zu. Die Verwendung digitaler Biomarker stellt andere Anforderungen an die Datenanalyse als die herkömmliche Verarbeitung von Daten im klinischen Alltag und sogar als die aufwändigere Verarbeitung in klinischen Studien. Um den prädiktiven Zweck eines Biomarkers zu erfüllen, ist die Datenübertragung und Datenanalyse in Echtzeit das Ziel. Dies erfordert eine Unabhängigkeit von Ort und Situation der Datenerhebung, d. h. eine Datenverarbeitung, die in der klinischen Praxis stattfinden kann, aber nicht auf die Räumlichkeiten des Neurologen beschränkt ist, und die Besuche, die in größeren Abständen stattfinden. Dazu müssen Daten aus unterschiedlichsten Quellen über standardisierte, sichere Schnittstellen digital aggregiert werden – eine Aufgabe, die weit über die Möglichkeiten einzelner Apps hinausgeht. Die allgemeine Anforderung an (automatisierte) Informationsverarbeitungssysteme besteht auch darin, dass sie zuverlässig nützliche Informationen (echte medizinische Bedürfnisse) von Rauschen unterscheiden können, z. B. durch Anwendung festgelegter Grenzwerte. Auch ist es wichtig zu überlegen, welche Daten denn Sinn machen und überhaupt wichtig sind für die Therapie und Verlaufskontrolle. Wo liegen aktuell die größten Hürden, um digitale Biomarker breitflächig einzusetzen? Grundsätzlich einmal in der Validierung der digitalen Biomarker, das heißt, messen diese auch, was man messen möchte und sind diese Messwerte auch repräsentativ und aussagekräftig? Die Privatsphäre (vor allem z.B. bei passiver Dokumentation über GPS des Smartphones) und Datenschutz sind hier besonders wichtig. Wo werden die Daten gespeichert und wer ist dafür (auch hinsichtlich des Datenschutzes) verantwortlich? Über die Datenauswertung hatten wir ja bereits gesprochen. Und hinsichtlich der Adhärenz, das heißt, der Nutzung dieser Technologie, Tests und Apps, muss der Patient ebenfalls mitarbeiten. Detailfragen digitale Biomarker Wie gut können Sehstörungen mit digitalen Biomarkern gemessen werden und welche Arten gibt es? Das Sehvermögen ist eines der am stärksten betroffenen Funktionssysteme bei Patient*innen mit MS und äußert sich häufig in Form einer Sehnervenentzündung. Die klinischen Anzeichen können von Veränderungen des Farbsehens, verminderter Sehschärfe bis hin zum vollständigen Verlust des Sehvermögens reichen. Das am häufigsten eingesetzte digitale Untersuchungsverfahren ist das OCT, die optische Kohärenz-Tomographie. Mit OCT können die Dicke der peripapillären Netzhautnervenschicht (pRNFL) und das Makulavolumen (Makula = Bereich des scharfen Sehens) gemessen werden, um nach Netzhautatrophie zu suchen. Es wurden im Bereich der Forschung Modelle entwickelt, um die Assoziation von OCT-basierten Metriken mit dem Grad der Behinderung zu bestimmen. Diese umfassten kontinuierliche Variablen wie die pRNFL-Dicke und das Makulavolumen, um die Wirkung (Zunahme oder Abnahme) auf das Risiko einer Verschlechterung der Behinderung zu quantifizieren. Die Ergebnisse legen nahe, dass die regelmäßige Überwachung der peripapillären retinalen Nervenfaserschicht ein nützlicher digitaler Biomarker zur Überwachung der Verschlechterung der Behinderung bei MS sein könnte, zumal er mit klinischen und paraklinischen Parametern des Sehvermögens, der Behinderung und der MRT korreliert. Ein weiterer digitaler Biomarker, der zur Überwachung von Sehbehinderungen verwendet werden kann, ist das Kontrastsehen. Die Prüfung der Sehschärfe bei niedrigen Kontrastverhältnissen ist von Bedeutung, da bei Menschen mit Behinderung die Schwelle, bei der ein Buchstabe noch vom Hintergrund unterschieden werden kann, deutlich höher ist als bei gesunden Personen. Digital wird diese Untersuchung derzeit allerdings nur im Rahmen der Forschung durchgeführt. Ein Bereich der noch erforscht wird, sind die okulomotorischen Störungen, die ebenfalls auftreten können, also Störungen der Augenbewegung. Die am häufigsten beobachteten Augenbewegungsstörungen sind zum Beispiel überschießende oder zu kurz erfolgende schnelle, ruckartige Augenbewegungen beim Wechsel eines Fixpunktes), gestörte horizontale Augenbeweglichkeit, und Nystagmus (unwillkürliche Augenbewegung).] Welche Sprachstörungen können MS-Patienten bekommen und wie können digitale Biomarker diese testen? Sprach- und Sprechprobleme kommen bei 40-50 % aller MS-Patienten vor. Dazu zählt vor allem die Dysarthrie, das heißt eine neurologisch bedingte Sprechstörung, die durch eine Schädigung des zentralen oder des peripheren Nervensystems verursacht wird. Dabei kann die Lautbildung bzw. Artikulation gestört sein, aber auch die Atemkapazität, die Sprechmelodie (also eher ein monotones Sprechen), dass vermehrt Pausen gemacht werden oder die Stimme sehr angespannt ist. Und das kann man sich für die Untersuchung mittels digitalen Biomarkern auch zunutze machen. Da diese Beeinträchtigungen auch nur ganz leicht auftreten können, ist es für das menschliche Ohr (also den Untersucher) manchmal schwierig zu erkennen. Nutzt man Applikationen (Apps), anhand derer Patienten Sprach-Aufgaben durchführen und diese gespeichert und analysiert wird, hat man zum einen eine objektive Erkennung von Veränderungen, die aber auch standardisiert ist. Das heißt, bei Verlaufskontrollen wird sich immer auf das gleiche „Normal“ bezogen. Menschliche Unterschiede bei Beurteilungen und der Wahrnehmung (2 Untersucher können zu unterschiedlichen Ergebnissen kommen) fallen also weg. Das Gleiche gilt für alle digitalen Biomarker. Sie sind standardisiert. Ein Problem könnten allerdings verschiedene Akzente oder Dialekte darstellen. Auch das Alter, die Komplexität der durchzuführenden Sprachaufgaben und die individuellen kognitiven Fähigkeiten müssen berücksichtigt werden. Der Vorteil von digitalen Sprachanalysen ist, dass diese auch zum Beispiel während der Visite, bei Telefonaten oder Videosprechstunden mit durchgeführt werden können, also passiv. Warum sind Untersuchungen von Sprache/des Sprechens wichtig? Neben der frühzeitigen Erfassung von Beeinträchtigungen darf man nicht vergessen, dass Sprach- bzw. Sprechbeeinträchtigungen durchaus negative Effekte hinsichtlich Berufstätigkeit und sozialer Einbindung haben, mit daraus resultierenden Einflüssen auf die Lebensqualität! Welche Auswirkungen haben Depression und Fatigue auf die Sprache und andere Symptome der MS und ist es möglich, trotz verschiedener Einflussfaktoren ein klares Bild über den Ist-Zustand eines Patienten zu gewinnen? Die Fatigue kann die Konzentrationsfähigkeit sowie die Sprech-Geschwindigkeit beeinflussen. Depressive Verstimmungen zum Beispiel zu monotoner Stimme, einer leisen Stimme oder zu negativen Einflüssen bei der Sprachanalyse führen, wenn zum Beispiel ein positives Erlebnis der vergangenen zwei Wochen berichtet werden soll, der/die Patient*in aber ein negatives Erlebnis erzählt. Anzeichen von Müdigkeit und Depression sind bereits bei gesunden Personen oder Patienten ohne neurologische Erkrankung nachweisbar. Da Müdigkeit, Depressionen und kognitive Beeinträchtigungen bei MS häufig vorkommen, könnten sie durch Sprachanalysen erfasst werden. Testbatterien können so konzipiert werden, dass sie exekutive Funktionen und Verarbeitungsgeschwindigkeit (z. B. phonematische und semantische Wortflüssigkeit), Gedächtnis (z. B. Wechsler Memory Scale und California Verbal Learning Test), Affekt und Müdigkeit (z. B. Storytelling), Sprache (Bildbeschreibung) und motorische Funktionen (Pa-ta-ka-Aufgabe) erfassen. Bislang ist die Durchführung solcher Sprach- und Sprachtests auf Studien beschränkt (bei uns am MS Zentrum Dresden wie gesagt ab April), doch kann man sich vorstellen, dass sie in Zukunft bei klinischen Besuchen von Menschen mit Behinderung oder sogar zu Hause durch den Einsatz spezieller Apps oder Aufzeichnungen bei telemedizinischen Besuchen eingesetzt werden können. Wie vielfältig sind die Ursachen für einen schlechten Gang und wie viele Tests werden benötigt, um sich ein umfassendes Bild zu machen? Beeinträchtigungen des Gehens sind mit ca. 85 % die häufigsten Symptome bei MS. Mehrere Faktoren tragen dabei zur Gangstörung bei Patient*innen mit MS bei. Sensorische Veränderungen und das daraus resultierende Ungleichgewicht, die Schwäche der unteren Extremitäten oder das Vorliegen einer Spastik sowie Kleinhirn-Ataxien haben hier wohl die größten Auswirkungen. Der in der Routine am häufigsten durchgeführte Test ist der 7,61-Meter-Gehtest. Wie der Name schon verrät, geht der/die Patient*in hier lediglich 7,61 Meter so schnell und sicher wie möglich, ohne zu rennen. Eine Schwester/Pfleger misst die dafür notwendige Zeit. Das Problem mit diesem Test ist aber, dass hier Auffälligkeiten bei Patient*innen beobachtet werden, bei denen augenscheinlich Beeinträchtigungen vorliegen. Was man nicht damit erfasst, sind Gehbeeinträchtigungen, die erst nach mehreren Minuten oder einigen zurückgelegten Metern auftreten. Auch Faktoren wie die Schrittlänge, Spurbreiten, wie fußt der Patient*in, muss mit dem Körper ausbalanciert werden, wie verändert sich das Gehen, wenn noch eine zweite Aufgabe hinzukommt, werden nicht erfasst. Diese Informationen sind aber essentiell und müssen dokumentiert und im Zeitverlauf verfolgt werden. Es ist also komplexer. Wir haben daher bei uns im Zentrum die multimodale Ganganalyse, die meine geschätzte Kollegin Frau Katrin Trentzsch etabliert hat. Hier werden neben dem 7,61-Meter-Gehtest auch ein 2-Minuten-Gehtest, die Erfassung des Ganges über das GaitRITE (ein Teppich, der über Sensoren Auskunft über die Schrittlänge, Spurbreite, Geschwindigkeit des Ganges gibt) mit und ohne Dual-Task (also eine zweite Aufgabe, die während des Gehens absolviert werden muss, um so mögliche Veränderung im Gangbild hervorzurufen) sowie den Romberg Stehtest und beobachten zusätzlich bei all diesen Tests die Rotationsbewegung des Körpers mittels am Körper befestigter Opalsensoren. Hinzu kommen Fragebögen, um subjektive Angaben über die Mobilität zu erhalten. Die Kraftmessplatte kam neu dazu, die bereits frühe Veränderungen detektieren kann. Aber das ist nur ein Teil, was das Mobilitätszentrum von Frau Trentzsch macht und machen kann. Aber es ist das, was wir jedem/r Patient*in bei uns im MS-Zentrum mindestens 1x pro Jahr anbieten. Was man nicht vergessen darf: Grundsätzlich ist es wichtig, Beeinträchtigungen des Gehens im Speziellen und der Mobilität im Allgemeinen in der täglichen Routine der Patienten zu betrachten. Das ist leider derzeit nicht vollumfänglich möglich. Die Technologie gibt es schon, aber eben allenfalls im Rahmen von Studien, noch nicht für die Routine. Fitness-Tracker oder Smartphones bieten hier gute Einsatzmöglichkeiten. Das Problem ist aber noch für die Routine-Nutzung: wo die Daten speichern, so dass Arzt und Patient diese nutzen können. Datenschutz? Wie werden aktuell die Einschränkungen durch MS auf Arme und Hände gemessen und was ist hier zukünftig realistisch? Derzeit ist der hauptsächlich verwendete Test der sogenannte 9-Hole-Peg-Test oder Stäbchen-steck-Test. Hierbei sollen jeweils mit einer Hand 9 Stäbchen in vorgebohrte Löcher auf eine Platte nacheinander eingesetzt und wieder entfernt werden. Dabei wird von einer Schwester oder Pfleger die Zeit erfasst, die dazu benötigt wird. Diese Zeit wird in Bezug gesetzt zu einer Kontroll-Kohorte (Menschen ohne Einschränkung). Wenn dieser Test regelmäßig gemacht wird, können Veränderungen sehr gut erkannt werden. Natürlich gibt es Schwankungen. Aber wenn beispielsweise eine Verschlechterung um 20 % über mindestens 3 Monate bestehen bleibt, ist dies klinisch signifikant. Diesen Test gibt es auch in etwas abgewandelter Form digital. Dazu müssen Tomaten oder Ballons zerquetscht werden, die auf dem Smartphone-Display an unterschiedlichen Stellen und in unterschiedlicher Größe erscheinen. Studien belegten bereits eine Korrelation dieses digitalen Tests mit der „herkömmlichen“ Version. Was hier aber noch weitere Vorteile bringt, ist, dass neben der Standardisierung und der Vermeidung, dass das Personal mal zu früh oder zu spät die Stopp-Uhr betätigt, zum Beispiel auch die Möglichkeit der Erfassung des Druckes, den die Finger auf dem Display ausüben. Oder die Zielgenauigkeit. Das sind alles Daten, die kann man mit dem herkömmlichen Test nicht erfassen. Diese sind aber wichtig! Und, nicht zu vergessen, diese Tests können zuhause durchgeführt werden, auch und vor allem dann, wenn Patienten Verschlechterungen bemerken und messen wollen. Auf welche Art können kognitive Probleme festgestellt werden? Kognitive Probleme beeinträchtigen häufig das Arbeitsgedächtnis, die Wortflüssigkeit, die Geschwindigkeit der Informationsverarbeitung, das verbale und visuelle Gedächtnis sowie die exekutiven Funktionen und – nach neuen Erkenntnissen – der Bereich der „Theory of Mind“ (die Fähigkeit, auf der Grundlage nonverbaler und verbalen Hinweisen auf die Emotionen anderer Menschen zu schließen). Das wären dann auch die Ansatzpunkte für mögliche Testungen. Der bisher eingesetzte Test ist der SDMT, bei dem Zahlen zu Symbolen innerhalb von 90 Sekunden zugeordnet werden müssen. Dieser Test adressiert das Arbeitsgedächtnis. Das Problem bei diesem Test ist, dass eigentlich auch die schulische Ausbildung mit zur Beurteilung des Ergebnisses herangezogen werden müsste, da das gleiche Ergebnis bei einem eine Auffälligkeit ist, während sie bei dem anderen völlig normal ist. Hinzu kommt natürlich, dass dieser Test auch beeinflusst werden kann durch andere Beeinträchtigungen, wie das Sehen oder der oberen Extremitäten. Trotzdem bleibt dieser Test auch bei der Digitalisierung der Test der Wahl und ist bereits auch als solcher verfügbar. Er ist schnell durchführbar und wenn regelmäßig absolviert, ermöglicht er im Monitoring doch das Erkennen von Veränderungen. Für den klinischen Einsatz wurde eine Reihe von vereinfachten Tests für die Kognition bei MS entwickelt, darunter Testbatterien wie der BICAMS (Brief Repeatable International Cognitive Assessment for MS), die Brief Repeatable Battery of Neuropsychological Tests und der Minimal Bewertung der kognitiven Funktion bei MS. Deren Einsatz scheitert aber an zeitlichen und personellen Engpässen (abgesehen von der Umsetzung in eine digitale Form). Aber sollte in dem Symbol-Zahlen-Test eine klinisch relevante Verschlechterung auftreten, kann eine eingehendere neuropsychologische Testung dann angeordnet werden. Zusammenfassung Biomarker Welche Entwicklungen im Bereich der digitalen Biomarker wünschst Du Dir in den kommenden 5 Jahren? Im Bereich der MS würde ich mir die Weiterentwicklung digitale Biomarker wünschen, die bereits frühe Progressionen erkennen können. Darüber hinaus wäre es wünschenswert, dass alle Patienten die Möglichkeit erhalten, von digitalen Biomarkern zu profitieren und nicht nur in ausgewählten Zentren oder im Rahmen von Studien. Wie können Patienten dabei helfen, dass digitale Biomarker schneller Verbreitung finden, um möglichst bald von den gewonnenen Ergebnissen zu profitieren? Es werden derzeit sehr viele Apps oder digitale Testmöglichkeiten sowie DiGAs (digitale Gesundheitsanwendungen auf Rezept) entwickelt. Aber häufig ist es ja so, dass der Entwickler seine Vorstellung hat, der Arzt ebenfalls, aber der „End-Nutzer“, also der Patient, diese aus den unterschiedlichsten Gründen nicht nutzt. Um dies zu vermeiden geht man dazu über, diese Innovationen durch Patienten testen zu lassen, zumindest ist es unsere Empfehlung dies zu tun. Das bieten wir auch Unternehmen mit guten Ideen im Bereich der MS an, diese durch Patienten unseres Zentrums beurteilen zu lassen. Patienten sind da sehr ehrlich und auch wahnsinnig kreativ, was Verbesserungen angeht! Da bin ich immer wieder erstaunt. Wenn aber dann solche digitalen Möglichkeiten, die auch eine qualitativ gute Datenerfassung und Bereitstellung an den Arzt ermöglichen, existieren und funktionieren, müssen sie von Patienten konsequent genutzt werden und nicht nur zu Beginn, wenn die Begeisterung groß ist. Adhärenz ist da ein großes Problem. Wir schauen auch im Rahmen eines anderen Projektes an unserem Zentrum derzeit, wie die Adhärenz bei einer App ist, die Funktionstests zuhause ermöglicht und was die Ursachen mangelnder Adhärenz sind. Wir sind gespannt auf das Ergebnis! Blitzlicht-Runde Vervollständige den Satz: „Für mich ist die Multiple Sklerose... “ … der Antrieb, möglichst hochwertige und patientenorientierte Versorgung anzubieten und weiterzuentwickeln. Wie lautet Dein aktuelles Lebensmotto? Wenn du es eilig hast, gehe langsam. Sowie: Bitte mehr Life in der Work-Life-Balance. Das Leben kann sich so schnell ändern, man hat es eben nicht in der Hand… Mit welcher Person würdest Du gern ein Kamingespräch führen und zu welchem Thema? Wenn es um Prominente geht: Martin Luther King jr.; wobei es mir schwer fällt, mich auf eine Person festzulegen. Es gab und gibt viele interessante Menschen, mit denen ein Kamingespräch bestimmt nicht langweilig werden würde. Ansonsten: meine Oma, die gestorben ist, als ich noch zu unreif war, ihr zuzuhören. Welches Buch oder Hörbuch, das Du kürzlich gelesen hast, kannst Du empfehlen und worum geht es darin? Als Hörbuch kann ich „Die Purpurnen Flüsse“ (Jean-Christophe Grange) empfehlen! Sehr gut! Höre ich immer wieder.
In dieser Folge geht es darum, das Pressen und Knirschen mit den Zähnen wirklich und dauerhaft loszuwerden. So viele Menschen suchen mich täglich in der Praxis auf und haben einen Wunsch: Sie wollen den Druck im Kiefer loswerden. Sie wollen nicht mehr so pressen und knirschen. Sie wissen, diese schlechte Angewohnheit führt nicht nur zu diversen Muskelverspannungen, sondern sie macht auch die Zähne kaputt. Vielleicht hast auch Du „alles“ probiert und kommst nicht wirklich weiter. Sollen da eine weitere Schiene, noch weitere Stunden beim Physiotherapeuten und Osteopathen helfen? Bereits Albert Einstein sagte seinerzeit: „Es grenzt an Wahnsinn immer das Gleiche zu tun und andere Ergebnisse zu erwarten.“ Genauso ist es. Sicher: Es gibt bei Zahnschienen sehr viele unterschiedliche Arten und Funktionsweisen. Es kann natürlich sein, dass Deine Schiene kontraproduktiv ist. Es kann sein, dass Du eine andere benötigst. Aber noch einmal: Es grenzt an Wahnsinn zu denken, die neue andere Schiene ändert alles. Schließlich kann eine Schiene Dein Press- und Beißverhalten nicht verhindern. Manche Menschen beissen auf der Schiene sogar noch mehr und stärker. Was ist es also, was Dich weiterbringen kann? Was kann Dich vom Pressen und Knirschen befreien? Die Antwort ist: Das kannst nur Du. Erst wenn Du erkennst, was die wahre Ursache dieses Druckes bei Dir ist, kannst Du dies ändern. Ich bin immer sehr glücklich und auch stolz, wenn Patienten mir nach einiger Zeit berichten, was sie verändert haben und wie glücklich sie sind. Ich bin stolz darauf, sie ein Stück auf ihrem Weg begleitet zu haben und ihnen vielleicht den entscheidenden Anstoß gegeben habe. Dies ist natürlich keine klassische Arbeit eines Zahnarztes - aber eine sehr wertvolle. Es ist das Gespräch, das genaue Zuhören und Wahrnehmen. In dieser Folge teile ich mit Dir die fünf wichtigsten Schritte, die ich selbst gegangen bin, als ich in meiner Krebstherapie steckte. Diese fünf Schritte befolge ich auch heute jeden Tag. Gehe davon aus, dass Du Dein Leben selbst erschaffst - ganz gleich, ob Du dies nun bewusst oder unbewusst tust. Du tust es. Ich helfe Dir, es bewusst zu tun, damit es so wird, wie Du es Dir wünscht. Dann bist Du in Deiner Gesundheit. Dann brauchst Du mit Deinen Kiefern nicht mehr pressen und knirschen. Du kannst entspannen. Ich wünsche Dir viel Spaß und wertvolle Erkenntnisse mit dieser Folge. Das Büchlein, welches ich in der Folge erwähne, findest Du hier: - https://muskanadent.com/collections/buch/products/ge-dankes-buchlein-von-muskanadent Möchtest Du mehr Hilfestellungen zur CMD-Therapie? In diesem Seminar bekommst Du alles Wissenswerte und Anleitungen zu einfachen Übungen, wie Du Dir selbst helfen kannst: - https://muskana-akademie.de/alle-seminare-workshops/cmd-therapie-online-seminar/ Wünscht Du Dir Unterstützung im Aufbau einer guten Meditationspraxis? Hier findest Du ein Meditationsseminar für Anfänger und Fortgeschrittene, in dem wir der Ursache für Dein Press- und Knirschverhalten auf die Schliche kommen. - https://muskana-akademie.de/alle-seminare-workshops/meditieren-lernen/ Hier findest Du mich: Praxis Dr. Jasper: https://drjasper.deMuskanadent: https://muskanadent.comYouTube: http://bit.ly/drjasper-youtube Podcast iTunes: https://bit.ly/drjasperFacebook Dr. Jasper: https://www.facebook.com/ZahnarztpraxisJasper/ Facebook Muskanadent: https://www.facebook.com/muskanadent/ Instagram Dr. Jasper: https://www.instagram.com/zahnarztpraxis_drannettejasper/ Instagram Muskanadent: https://www.instagram.com/drannettejasper_muskanadent/ Gratis Checkliste “So halten Deine Zähne ein Leben lang”: https://verzahnt.online Buche deine persönliche Sprechstunde mit mir: https://drannettejasper.de/online-sprechstunde/ Buch “Verzahnt”: https://www.m-vg.de/riva/shop/article/15075-verzahnt/?pl=3887e229-9ea5-4043 Buch "Yoga sei Dank" von Dr. Annette Jasper: https://www.komplett-media.de/de_yoga-sei-dank-_112788.html
Mental Power Podcast mit Katja Seyffardt - Tipps zu Mentaltraining
Um langfristig im Sport erfolgreich zu sein, muss jeder Athlet lernen, mit Leistungsdruck umzugehen. Jeder Mensch reagiert anders auf Drucksituationen. Während der eine unter dem Druck leidet, ist er für jemand anderen eine zusätzliche Motivation. Das Druckerleben ist abhängig von der subjektiven Wahrnehmung jedes einzelnen Sportlers, nämlich: Wie Ereignisse persönlich bewertet werden Wie vorhandene persönliche Ressourcen eingeschätzt werden Wir sprechen über: Welche Arten des Druckes gibt es überhaupt? Wann kann Leistungsdruck entstehen? Wo entsteht Leistungsdruck bei dir? Ressourcen zu dieser Folge findest du unter: https://seyffardt.de/komm-deinen-leistungsdruck-auf-die-spur/
Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung. Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck. Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung. Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist. Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig. Literatur und weiterführende Informationen D. Gallistl. Rayleigh-Ritz approximation of the inf-sup constant for the divergence. Math. Comp. (2018) Published online, https://doi.org/10.1090/mcom/3327 Ch. Bernardi, M. Costabel, M. Dauge, and V. Girault, Continuity properties of the inf-sup constant for the divergence, SIAM J. Math. Anal. 48 (2016), no. 2, 1250–1271. https://doi.org/10.1137/15M1044989 M. Costabel and M. Dauge, On the inequalities of Babuška-Aziz, Friedrichs and Horgan-Payne, Arch. Ration. Mech. Anal. 217 (2015), no. 3, 873–898. https://doi.org/10.1007/s00205-015-0845-2 D. Boffi, F. Brezzi, and M. Fortin, Mixed finite element methods and applications, Springer Series in Computational Mathematics, vol. 44, Springer, Heidelberg, 2013. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt. Hier hat Marius Musch in einem Vortrag eine Einführung in die Steganographie gegeben, und spricht nun mit Sebastian Ritterbusch im Podcast. Bei der Steganographie geht es darum, eine geheime Nachricht so zu versenden, dass niemand außer dem gewünschten Empfänger die Existenz dieser Nachricht überhaupt vermutet. Der Begriff kommt aus dem griechischen und bedeutet in etwa "geheimes Schreiben". So wurden schon in der Antike erste simple Formen der Steganographie verwendet. Statt wie üblich die Nachricht in der Wachs auf einer Wachstafel zu kratzen, wurde die geheime Nachricht in das Holz darunter geritzt und wieder Wachs darüber gegossen. Anschließend konnte eine harmlose Nachricht in das Wachs geschrieben werden und die geheime Nachricht war verdeckt darunter. Mit der Zeit wurden die Verfahren dann raffinierter, so wurde im Zweiten Weltkrieg aus einem japanischen Kriegsgefangenenlager eine scheinbar harmlose Postkarte verschickt. Liest man aber nur die ersten beiden Wörter jeder Zeile ergibt sich ein völlig neues Bild und es werden die Truppenverluste der Amerikaner kommuniziert. In in einem anderen Fall vereitelte amerikanische Kriegsgefangene Jeremiah Denton die Propagandaversuche in Vietnam während des Kalten Krieges. Während eines TV-Interviews blinzelte er wiederholt das Wort T-O-R-T-U-R-E in Morsecode. In der heutigen Zeit ist es natürlich naheliegend die Steganographie in der digitalen statt der analogen Welt einzusetzen. So kann man zum Beispiel schon in (Plain-)Text eine geheime Nachricht verstecken. Viele Texteditoren zeigen standardmäßig Leerzeichen und Tabs am Zeilenende (trailing whitespace) nicht an. Dies macht sich das Tool SNOW (steganographic nature of whitespace) zu nutze, um geheime Nachrichten zu verstecken, oder man schreibt gleich komplette Programme in der etwas verrückten Programmiersprache Whitespace. Deutlich verbreiteter und effektiver ist es aber als Tarn-Medium (das so genannter Cover) ein Bild zu nehmen. Bilder haben viele nützliche Eigenschaften, insbesondere dass geringe Änderungen für das menschliche Auge unsichtbar bleiben. Aber auch ihre Größe ist vorteilhaft da ein Bild leicht um den Faktor 1000 größer ist, als die darin zu versteckende Nachricht. Bei einem Grauwertbild wird typischerweise ein Byte pro Pixel verwendet, also die Helligkeit jedes Bildpunktes wird durch einen Wert zwischen 0 für Schwarz und 255 für Weiß repräsentiert. Dieses Byte besteht wiederum aus 8 Bits, zum Beispiel der Folge 11110000 für den Wert 120. In der Steganographie kann man sich zu Nutze machen, dass das hinterste Bit (least significant bit) nur sehr wenig zum eigentlichen Farbwert beträgt. Es entscheidet nur ob die Zahl gerade oder ungerade ist und wenn der Wert geändert wird, fällt einem Menschen dieser geringe Helligkeitsunterschied gar nicht auf. Somit kann man nun seine geheime Nachricht von den ASCII-Werten in Binärzahlen konvertieren und anschließend in den least significant Bits (LSBs) einbetten. Man braucht also 8 Pixel pro Buchstabe. Weitere Verfahren gibt es auf Basis spezieller Eigenschaften von Datenformaten wie GIF, PNG oder JPEG. Bei der Steganographie gibt es aber auch einiges zu beachten. Besonders wichtig ist es die Nachricht vor dem Einbetten zu verschlüsseln. Zum einen kann uns ein Angreifer, der das Verfahren kennt und die Nachricht extrahiert, sie trotzdem nicht lesen. Zum anderen lässt sich ein gut verschlüsselter Ciphertext nicht von echtem Zufall unterscheiden, um Angriffe zu erschweren. Hat man aber Zugriff auf das Orginalbild, so wird der Unterschied und damit die Nachricht offensichtlich- hier sind besonders umgekehrte Bildersuchen hilfreich. Im realen Einsatz sind meist Wasserzeichen, die Verfahren der Steganographie verwenden. Anders als bei der Steganographie, wo das Cover völlig irrelevant für die geheime Nachricht war, bezieht sich bei den Wasserzeichen die versteckte Nachricht auf das Cover. So bestätigt das Wasserzeichen auf einem Geldschein die Authentizität eben dieses Scheines. Es gibt aber auch Wasserzeichen die lange unbekannt waren. Zum Beispiel gibt es einige Drucker bekannter Hersteller, die in die ausgedruckten Seiten ein kaum sichtbares gelbes Punktemuster einbauen. In diesem Wasserzeichen steht sowohl das Datum des Druckes als auch die Seriennummer des Druckers. Auf Geldscheinen gibt es gelben Punkte in der EURion-Konstellation, die von Kopierern, Scannern und Software erkannt werden. Aber auch Spieler von Onlinerollenspielen wie World of Warcraft sind vor Wasserzeichen nicht sicher. So wurde 2012 in einem Forum bemerkt, dass die Screenshots aus dem Spiel per Wasserzeichen den Accountname und die Server-IP des Spielers beinhalten. Allerdings hinterlässt die Steganographie auch immer zwangsweise ihre Spuren, da das Bild manipuliert werden muss. Um die oben beschriebene LSB-Methode durch eine Steganalyse zu erkennen, reicht es sich das Histogramm des Bildes anzuschauen, denn durch das Verfahren ergeben sich treppenartige Abstufungen. Dies wiederum versucht das Tool Outguess zu vermeiden, indem es die LSB Änderungen geschickt über die Datei verteilt und das Histogramm unauffällig bleibt. Beliebte Angriffsmethoden sind auch die Autokorrelation und die FFT über das Wiener-Chintschin-Theorem, womit eine sehr effiziente Berechnung möglich wird. Das aktuelle Folgenbild des Podcasts zeigt ein Bild mit steganographisch versteckter Nachricht, das Marius für einen Capture the Flag-Wettbewerb auf der GPN14 im letzten Jahr erstellt hatte und jetzt erklärt. Auch auf der GPN15 gab es dieses Jahr wieder einen Capture the Flag Wettbewerb, veranstaltet von den Squareroots aus Mannheim und KITCTF aus Karlsruhe. Auch dieses Jahr lag der Fokus auf IT-Sicherheit: Die teilnehmenden Teams erhalten eine virtuelle Maschine (Vulnbox) mit mehreren verwundbaren Diensten, die sie analysizeren, die Ausnutzbarkeit prüfen und letztlich absichern sollen. Ein zentraler Gameserver verteilt sogenannte Flaggen an alle Teams, das sind lange zufällige Zeichenketten. Diese Flaggen gilt es zu verteidigen und durch Finden und Ausnutzen von Sicherheitslücken in den Diensten der anderen Teams zu stehlen und für Punkte beim Veranstalter einzureichen. Beim CTF auf der GPN15 gab es 11 teilnehmende Teams, die sich über einen Zeitraum von 5 1/2 Stunden insgesamt 7600 Flaggen gestohlen haben. Wer mehr über CTFs erfahren möchte, sollte insbesondere den CTF Field Guide lesen. Eine Übersicht über anstehende Veranstaltungen und die verschiedenen Teams findet man unter CTF Time. Literatur und Zusatzinformationen N. F. Johnson, J. Sushil: Exploring steganography, Computer 31.2,: 26-34, 1998. I. Cox, M. Miller, J. Bloom, J. Fridrich, T. Kalker: Digital watermarking and steganography, Morgan Kaufmann, 2007. M. Musch: Seeing the unseen, Vortrag auf der GPN15, 2015.
Fri, 13 Jan 2012 12:00:00 +0100 http://epub.ub.uni-muenchen.de/11763/ http://epub.ub.uni-muenchen.de/11763/1/Cim._34b.pdf Orosius, Paulus Cim. 34b (= 4° Cod. ms. 894) Orosius, Paulus Historiarum adversus paganos libri VIII. (drei Fragmente) Entstehungsort: unbekannt Entstehungszeit: Anfang des 11. Jahrhunderts und Ende des 9. Jahrhunderts Provenienz: Die drei Pergamentfragmente sind unterschiedlicher Provenienz: Das erste Fragment ist von zwei Händen in karolingischer Minuskel geschrieben und diente als Spiegel eines unbekannten Quartbandes. Dort wurde es ausgelöst und am Ende des Sammelbandes 8 A. lat. 824 gefaltet eingeheftet. Dieser Band stammt aus dem Besitz des katholischen Theologen und Prokanzlers der Universität Ingolstadt Albert Hunger (1545-1604). Das zweite Fragment stammt wohl aus dem gleichen Codex wie das erste, es ist in karolingischer Minuskel von einer Hand geschrieben. Es diente als Umschlag eines Duodezbandes. Reste eines Titels und einer Tintensignatur sind erhalten, auf dem ehemaligen Umschlagrücken findet sich eine Signatur, die wohl aus der Jesuitenbibliothek Ingolstadt stammt. Aus einem anderen Codex als die ersten beiden Fragmente stammt das dritte Fragment. Es ist in karolingischer Minuskel süddeutschen Typs geschrieben und wurde ebenfalls als Umschlag eines Druckes verwendet. Der ehemalige Umschlagrücken weist eine Signatur der Ingolstädter Jesuitenbibliothek auf, außerdem sind noch Reste eines anderen aufgeklebten Signaturenschildes vorhanden.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Komplexe Plasmen bestehen aus geladenen Mikropartikeln, die in ein teil- weise ionisiertes Gas, ein Plasma, eingebettet sind. Die Mikropartikel treten in Wechselwirkung, ihre Dynamik wird vom Gas nur schwach gedämpft. Auf- grund ihrer Größe können die Partikel mikroskopisch beobachtet werden und ihre Positionen bestimmt, sowie ihre Dynamik untersucht werden. Komple- xe Plasmen sind daher ein ideales Modellsystem, um Vorgänge in Fluiden, Festkörpern und bei Phasenübergängen zu studieren. In dieser Arbeit werden insbesondere die Vorgänge während der Kristal- lisation betrachtet. Ein 3-dimensionaler Plasmakristall wird aufgeschmolzen, um ihn anschließend wieder kristallisieren zu lassen. Dabei wird wiederholt die Position der Teilchen innerhalb der Wolke gemessen und ihre Struktur mit der von idealen Kristallen verglichen. So kann man Teilchen individu- ell einer bestimmten Struktur zuweisen. Auf diese Weise ist es möglich, nicht nur die Anteile einer bestimmten Kristallordnung, sondern auch deren exakte räumliche Verteilung zu bestimmen. Das Ergebnis dieser Analyse wird verwendet, um kristalline und flüssige Regionen zu identifizieren, sowie die Grenzflächen dazwischen zu bestimmen. Die zeitliche Entwicklung der Struktur von flüssig über hexagonal-dichteste Kugelpackung hin zu kubisch-flächenzentrierter Ordnung wird mit einem Mo- dell erklärt. Der Kristallisationsprozess wird mit einer molekulardynamischen Simu- lation nachvollzogen. Es wird die gleiche zeitliche Entwicklung der Kristall- strukturen beobachtet. Da die Experimente unter Einfluss der Schwerkraft durchgeführt werden, ergibt sich ein höhenabhängiger Druck innerhalb der Teilchenwolke. Mit Hilfe der Teilchendichte wird dieser Druck bestimmt. Im Vergleich der Kristallisa- tion verschiedener Teilchengrößen wird der Einfluss dieses Druckes sowie der unterschiedlichen Ladung und Dämpfung der Teilchen gezeigt.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Es wurden die hämodynamischen, biochemischen und morphologischen Effekte einer Angiotensin-II-Rezeptorblockade mit dem AT1-Blocker Losartan auf eine hypoxie-induzierte rechtsventrikuläre Hypertrophie an der Ratte untersucht. In weiblichen „Sprague Dawley“ Ratten wurde eine isolierte rechtsventrikuläre Hypertrophie durch intermittierende Hypoxie hervorgerufen. Die intermittierende Hypoxie bewirkte einen Anstieg des rechtsventrikulären Drucks und eine Erhöhung des Verhältnisses von Ventrikelgewicht zu Körpergewicht im rechten Ventrikel, die Hypoxiebehandlung hatte keinen Einfluss auf die linksventrikulären Kreislaufparameter oder das Herzzeitvolumen. Die Aktivitäten der Glukose-6-Phosphat Dehydrogenase und der 6-Phosphoglukonat-Dehydrogenase waren nach der Hypoxiebehandlung im rechten Ventrikel erhöht, jedoch nicht im linken Ventrikel. In der Hypoxiegruppe ohne Losartan war das Zellvolumen der isolierten Kardiomyozyten erhöht, die Kardiomyozytenzellänge unverändert, so dass man von einer hypoxieinduzierten rechtsventrikulären Hypertrophie vom primär konzentrischen Typ ausgehen muss. Losartan verringerte den hypoxie-induzierten Anstieg des rechtsventrikulären systolischen Druckes, die Zunahme des Verhältnisses von rechtsventrikulärem Gewicht zu Körpergewicht und die Enzymaktivitätserhöhung signifikant, wenn auch nicht vollständig. Die Zunahme des Volumens und der Querschnittsfläche der isolierten Kardiomyozyten wurde durch Losartan jedoch vollkommen verhindert.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Trotz wirksamer Antibiotikatherapie, Immunmodulation durch Steroide und spezialisierter intensivmedizinischer Behandlung ist die Prognose der Pneumokokkenmeningitis weiterhin ungünstig. Aufgrund zentralnervöser und systemischer Komplikationen versterben weiterhin 15 bis 35 Prozent der Erkrankten und ein Drittel der überlebenden Patienten leidet an bleibenden neurologischen Schäden. Für die Entwicklung neuer adjuvanter Behandlungsstrategien ist die Kenntnis der Pathophysiologie von zentraler Bedeutung. In der vorliegenden Arbeit wurden Mechanismen der Immuninduktion (am Beispiel der Rolle des Transkriptionsfaktors NF-kappaB, der an der Transkription zahlreicher Entzündungsmediatoren beteiligt ist) und der Immunregulation (am Beispiel der Bedeutung von Mastzellen, deren Bedeutung für die Erregerabwehr im Rahmen der angeborenen Immunantwort man zunehmend erkennt)untersucht. 1. Die Rolle des Transkriptionsfaktors NF-kappaB Die Studie wurden mittels eines Rattenmodell durchgeführt, in dem zahlreiche pathophysiologische Parameter intrakranieller meningitisassoziierter Komplikationen, wie vaskuläres Hirnödem, intrakranieller Druck oder zerebrovaskuläre Autoregulation untersucht werden können. Die Pneumokokkenmeningitis war mit einem Anstieg der NF-kappaB-Aktivität im Gehirn assoziiert, der durch die Behandlung mit NF-kappaB-Inhibitoren gehemmt werden konnte, was zu einem signifikant besseren klinischen Verlauf führte. Dieser günstige Effekt auf die klinische Symptomatik wurde von einer signifikanten Reduktion der Bluthirnschrankenstörung, des Anstiegs des intrakraniellen Druckes, der Störung von zerebrovaskulärer CO2-Reaktivität und Autoregulation sowie von Liquorpleozytose und IL-6-Liquorkonzentration begleitet. Zusammenfassend legen diese Daten nahe, dass die NF-kappaB-Aktivierung eine zentrale Rolle in der Entstehung der meningealen Entzündung und der ZNS-Komplikationen während des Akutstadiums der bakteriellen Meningitis spielt. 2. Die Bedeutung der Mastzelle Die Untersuchungen hierzu wurden an einem Modell mit mastzelldefizienten WBB6F1/J-KitW/KitW-v-Mäusen durchgeführt. Während der Pneumokokkenmeningitis kam es zu einer Aktivierung von Mastzellen im Gehirn. Bei mastzelldefizienten Mäusen verlief die Erkrankung klinisch signifikant milder als bei Wildtypmäusen und mastzellrekonstituierten Tieren. Diese positive Auswirkung der Mastzelldefizienz auf die Klinik wurde von einer Reduktion systemischer und zentralnervöser Komplikationen wie Pneumonie und Anstieg des intrakraniellen Drucks begleitet. Erstaunlicherweise führte die Mastzelldefizienz zu einer massiven Zunahme der Liquorpleozytose, die nicht von relevanten Unterschieden der pneumokokkeninduzierten Entzündungsantwort oder der bakteriellen Vermehrung begleitet war. Zusammenfassend zeigen die Ergebnisse dieser Studie, dass Mastzellen eine signifikante Rolle bei der Pneumokokkenmeningitis im Mausmodell spielen. Sie sind beteiligt an der Entstehung systemischer und zentralnervöser Komplikationen und damit an einem schweren klinischen Krankheitsverlauf. Überraschend ist, dass Mastzellen inhibitorischen Effekt auf die Neutrophilenrekrutierung in das ZNS besitzen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Die konventionelle Herzbypassoperation mit Herz-Lungen-Maschine (HLM) ist immer noch der am häufigsten durchgeführte kardiochirurgische Eingriff. Dieser gilt als sicher und effektiv. Die Verwendung der HLM, der kardiopulmonale Bypass, kann jedoch beim Patienten eine komplexe pathophysiologische Reaktion auslösen. Hierbei kann es zu einer generalisierten Entzündungsreaktion mit der Freisetzung proinflammatorischer Mediatoren kommen, die eine massive Verschlechterung der mikrovaskulären Perfusion und Erhöhung der Permeabilität hervorrufen können. Bei einigen Patienten kann der verstärkte Flüssigkeitsaustritt („capillary leakage syndrome”) aus dem intravasalen Raum in das Intersitium zu einer ausgeprägten Ödembildung im Gewebe und in Organen führen. Mögliche Folgen sind kardiozirkulatorische und pulmonale Dysfunktionen, einschließlich einer erhöhten Morbiditäts- und Mortalitätsrate der Patienten. Bei Herzbypassoperationen am schlagenden Herzen, ohne Verwendung der HLM, scheint es zu einer weniger stark ausgeprägten Entzündungsreaktion, einer verminderten Freisetzung von Zytokinen und einer geringeren Expression von Adhäsionsmolekülen zu kommen. Die Folge ist ein besserer klinischer Verlauf und eine niedrigere perioperative Komplikationsrate im Vergleich zu Patienten, bei denen ein Eingriff mit HLM durchgeführt wird. Obwohl bereits bekannt ist, dass Patienten, die mit HLM operiert werden, eine signifikant höhere Flüssigkeitsbilanz aufweisen, konnte bisher noch nicht nachgewiesen werden, dass es bei Herzbypassoperationen mit HLM zu einer stärkeren Flüssigkeitsfiltration kommt als bei Patienten, bei denen der gleiche Eingriff ohne HLM durchgeführt wird. Ziel der Studie war es daher, die Auswirkungen der Herz-Lungen-Maschine auf die mikrovaskuläre Perfusion und Permeabilität zu erfassen, den möglichen mikrovaskulären Schaden mit konsekutivem Flüssigkeitsaustritt ins Interstitium zu quantifizieren und hinsichtlich dessen Korrelation mit Entzündungsparametern zu überprüfen. Zusätzlich sollte in Erfahrung gebracht werden, ob die Entzündungsreaktion, der mikrovaskuläre Schaden und die konsekutive Ödembildung nach koronarer Bypassoperation mit Herz-Lungen-Maschine stärker ausgeprägt ist als bei Patienten, die ohne HLM operiert werden. Die venöse Kompressionsplethysmographie (VKP) ist eine nicht-invasive Untersuchungsmethode, mit der es möglich ist, mikrovaskuläre Parameter zu bestimmten. Mit Hilfe von speziellen Blutdruckmanschetten wird am Oberschenkel der Patienten eine venöse Abflußstauung erzeugt, die zu einer Volumenzunahme der distalen Extremität führt. Diese Volumenänderung wird mit hochsensitiven Sensoren kontinuierlich erfasst und mittels Computer aufgezeichnet. Eine computergestützte „Off-line“-Analyse erlaubt die Berechnung der mikrovaskulären Flüssigkeitsfiltrationskapazität (FFK), die die Permeabilität der Kapillaren im Untersuchungsgebiet wiedergibt. Außerdem kann der isovolumetrische venöse Druck (Pvi), der das Gleichgewicht zwischen den hydrostatischen und den kolloidosmotischen Kräften widerspiegelt, und der arterielle Blutfluss (Qa) in den Extremitäten berechnet werden. In die hier vorliegende prospektive, klinische Studie wurden insgesamt 38 Patienten, die sich einer elektiven Herzbypassoperation unterziehen mussten, eingeschlossen. Von diesen wurden 25 Patienten mit (on-pump) und 13 Patienten ohne Herz-Lungen-Maschine (off-pump), am schlagenden Herzen operiert. Beide Gruppen waren hinsichtlich des Alters und Geschlechts der Patienten, des Ausmaßes der koronaren Herzkrankheit, der linksventrikulären Ejektionsfraktion und der präoperativen Klinik vergleichbar. Die Patienten der On-pump-Gruppe erhielten signifikant mehr koronare Bypässe, das chirurgische Trauma, der operative Zugangsweg zum Herzen, erfolgte aber bei allen Patienten mittels medianer Sternotomie und auch die durchschnittliche Operationsdauer und Anästhesiezeit unterschied sich in beiden Gruppen nicht. Die Messungen der venösen Kompressionsplethysmographie erfolgten am Abend vor der Operation auf der herzchirurgischen Normalstation (T1), eine Stunde nach der Operation auf der herzchirurgischen Intensivstation (T2) und am 5. postoperativen Tag (T3). Gleichzeitig wurde den Patienten Blut entnommen, um die Konzentrationen der Zytokine Interleukin-6 (IL-6) und Tumornekrosefaktor-α (TNF-α) im Serum und die Expression der Adhäsionsmoleküle (Beta-2-Integrine (CD18/CD11b) und L-Selektine (CD62L)) auf der Oberfläche polymorphkerniger neutrophiler Leukozyten (PMNL) zu bestimmen, aus denen sich das Ausmaß der Entzündungsreaktion abschätzen lässt. Es konnte gezeigt werden, dass in der On-pump-Gruppe die Flüssigkeitsfiltrationskapazität (FFK) postoperativ signifikant zunimmt und am 5. postoperativen Tag immer noch signifikant erhöht ist. Die postoperative Zunahme der FFK korrelierte dabei signifikant positiv mit der Aortenklemmzeit und der Dauer des kardiopulmonalen Bypasses. Der isovolumetrische venöse Druck (Pvi) zeigte eine Tendenz zum postoperativen Anstieg. Dieser Anstieg verfehlte zwar knapp das Signifikanzniveau, korrelierte jedoch ebenfalls signifikant positiv mit der Aortenklemmzeit. In der On-pump-Gruppe wurde zusätzlich eine signifikante Zunahme der Konzentrationen von IL-6 und TNF-α im Serum postoperativ beobachtet. Auch die Expression der Adhäsionsmoleküle CD18/CD11b in der On-pump-Gruppe zeigte eine Tendenz zur postoperativen Zunahme. Diese Zunahme verfehlte zwar knapp das Signifikanzniveau, war jedoch verglichen mit der Off-pump-Gruppe signifikant stärker ausgeprägt und korrelierte signifikant positiv mit der Dauer des kardiopulmonalen Bypasses und mit der Erhöhung der FFK. In der Off-pump-Gruppe konnten dagegen keine Veränderungen hinsichtlich der Flüssigkeitsfiltrationskapazität, des isovolumetrischen venösen Druckes, der TNF-a-Serumkonzentration und der Adhäsionsmolekülexpression postoperativ gefunden werden. Nur die IL-6-Serumkonzentration nahm ähnlich wie in der On-pump-Gruppe postoperativ signifikant zu. Zwischen den beiden Gruppen konnten hinsichtlich des arteriellen Blutflusses (Qa), des kolloidosmotischen Druckes (KOD), der IL-6-Serumkonzentration, der Expression des L-Selektins CD62L, der Flüssigkeitsbilanz, der Herzfrequenz und des mittleren arteriellen Blutdruckes keine signifikanten Unterschiede beobachtet werden. Es bestanden ebenfalls keine signifikanten Unterschiede hinsichtlich der Dauer der postoperativen maschinellen Beatmung, des postoperativen Aufenthalts auf der Intensivstation und im Krankenhaus und der perioperativen Komplikationsrate. Die in der vorliegenden Studie beobachtete signifikante Zunahme der Flüssigkeitsfiltrationskapazität (FFK) bei Patienten der On-pump-Gruppe könnte durch verschiedene Ursachen ausgelöst worden sein. Am wahrscheinlichsten scheint hierbei eine generalisierte inflammatorische Reaktion, bedingt durch den Einsatz der Herz-Lungen-Maschine zu sein, da die Erhöhung der FFK signifikant positiv mit der tendenziell erhöhten Expression der Adhäsionsmoleküle CD18/CD11b korreliert. Sowohl TNF-α als auch CD18/CD11b, die beide während des kardiopulmonalen Bypasses verstärkt freigesetzt werden, können direkt bzw. indirekt, über Granulozyten vermittelt, die Permeabilität erhöhen. Für diese Hypothese spricht außerdem, dass die postoperative Erhöhung der FFK signifikant positiv mit der Aortenklemmzeit und der Dauer des kardiopulmonalen Bypasses korreliert. Eine andere mögliche Ursache für die Erhöhung der FFK könnte aber auch eine allgemeine Entzündungsreaktion auf ein chirurgisches Trauma, eine so genannte „postoperative stress response“ sein. Gegen diese Vermutung spricht aber, dass in der Off-pump-Gruppe kein FFK-Anstieg, keine vermehrte Freisetzung von TNF-α und keine gesteigerte Expression von CD18/CD11b beobachtet wurde, obwohl auch bei dieser Patientengruppe der operative Zugangsweg mittels medianer Sternotomie erfolgte und das Ausmaß des chirurgischen Traumas vergleichbar erscheint. Außerdem könnten Veränderungen der einzelnen Starlingkräfte, wie beispielsweise ein Abfall des kolloidosmotischen Druckes (KOD), für eine Erhöhung der FFK verantwortlich sein. Da der KOD aber in beiden Gruppen postoperativ signifikant vergleichbar abfällt und sich keine Korrelation zwischen den Veränderungen des KOD und der FFK findet, ist zu schließen, dass der Abfall des KOD nicht für den beobachteten Anstieg der FFK in der On-pump-Gruppe verantwortlich ist. Zusammenfassend kann gesagt werden, dass die Herz-Lungen-Maschine wohl im wesentlichen die Erhöhung der mikrovaskulären Permeabilität bedingt, indem sie eine Aktivierung des Immunsystems auslöst, in deren Verlauf Mediatoren freigesetzt werden, die einen mikrovaskulären Schaden verursachen. Die venöse Kompressionsplethysmographie (VKP) ist eine nicht-invasive Untersuchungsmethode zur Beurteilung der Mikrozirkulation, die eine frühzeitigere Diagnose einer gesteigerten mikrovaskulären Permeabilität ermöglicht, was besonders bei kritisch kranken Patienten hilfreich ist. Außerdem könnten Patienten, die ein erhöhtes Risiko haben, nach kardiopulmonalem Bypass ein „capillary leakage syndrome“ zu entwickeln, mit der VKP identifiziert und überwacht werden.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Der von häufigen Befeuchtungs- und Trocknungszyklen hervorgerufene physikalische Prozess des Quellens und Schwindens wird gegenwärtig als Hauptschadensursache für die Verwitterung von tonmineralreichen Sandsteinen angesehen. Hauptziel der Arbeit war deshalb die Messung des bei Befeuchtung entstehenden Druckes und der Vergleich der erhaltenen Quelldruck Werte mit den Festigkeitskennwerten der untersuchten Sandsteine.
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Diese Arbeit präsentiert Ergebnisse an piezoelektrischen Materialien aus der Langasitfamilie, die unter extremen Bedingungen untersucht wurden. Die Einkristalle aus dieser Familie, vor allem La3Nb0.5Ga5.5O14 (LNG) und La3Ta0.5Ga5.5O14 (LTG), sind vielversprechende Materialien für Oberflächenwellen (OFW) –Substratmaterialien, die in der mobilen Kommunikationstechnik der Frequenzsteuerungsgeräte (mobile Kommunikation, Sensoren, usw.) und bei Hochtemperatur- OFW- Anwendung finden. Mit LNG und LTG OFW-Sensorelementen können physikalische Meßgrößen, wie Druck und Temperatur erfaßt werden. Aus diesem Grund sind die Strukturuntersuchungen an LNG und LTG bei verschiedenen Drucken und Temperaturen extrem wichtig. Die Struktur von LNG und LTG ist unter normalen Bedingungen trigonal mit der Raumgruppe P321. In der Struktur sind die schweren Atome polyedrisch von Sauerstoffatomen koordiniert. Vier Polyedertypen bilden decaedrisch-oktaedrische und tetraedrische Schichten. Diese sind in einer A-B- Stapelfolge senkrecht zur c-Achse angeordnet. Die Kristallstrukturen von LNG und LTG wurden mittels Röntgenstrukturanalyse an LNG- und LTG- Einkristallen in Hochdruck- Diamant -Stempel Zellen unter Druck bis 23GPa untersucht. Die Proben für diese Forschungsarbeit wurden von den Forschungsgruppen von B. V. Mill (Rußland) und J. Bohm (Deutschland) freundlicherweise zur Verfügung gestellt. Als druckübertragende Medien wurden Alkohol und Helium benutzt. a- Quarz Kristalle und die Rubinfluoreszenzmethode wurden zur Druckmessung herangezogen. Die Experimente mit Röntgenstrahlung wurden im eigenen Labor und am Hamburger Synchrotronstrahlungslabor (HASYLAB, Beamline D-3) durchgeführt. Die Gitterkonstanten und Reflexintensitäten von LNG und LTG wurden unter Drucken bis 22,8 beziehungsweise 16.7GPa gesammelt. Innerhalb des erforschten Druckbereichs nimmt das c/a- Verhältnis von 0,6232 bis 0,6503 für LNG und von 0,6227 bis 0,6350 für LTG zu. Folglich ist die a-Achse die an stärksten komprimierte Richtung in beiden Substanzen. Damit zeigen LNG und LTG unter Druck ein anisotropes Verhalten, das durch unterschiedliche Bindungsstärken in den Richtungen parallel zu den a- beziehungsweise c- Achsen bedingt ist. Unter hydrostatischem Druck ist die Komprimierung der c- Richtung (also zwischen den Schichten) steif, was wegen der weniger flexiblen Verknüpfung der Polyeder (gemeinsame Kanten) verständlich ist. Demgegenüber ist die Komprimierung innerhalb der ab- Ebene (also innerhalb der Schichten) größer und kann hauptsächlich durch die abnehmenden Volumina und Verzerrungen der Polyeder erreicht werden. Weil die Kristallstrukturen von LNG und LTG wegen der hohen Symmetrie und der Polyederkopplungen sehr steif sind, führt die Komprimierung dieser Strukturen zu einer Zunahme der internen Spannungen und endet bei einem Druck von 12.4(3)GPa für LNG und 11.7(3)GPa für LTG mit einem Phasenübergang in Strukturen mit niedrigerer Symmetrie. In dem untersuchten Druckbereich sind die Kompressibilitäten entlang der c-Achse fast identisch für LNG und LTG. Andererseits sind die Druckabhängigkeiten der a Gitterparameter dieser Materialien nur für die Ausgangsphase ähnlich, während die Achsenkompressibilitäten für die Hochdruckphasen von LNG und von LTG unterschiedlich sind. Die Volumenkompressibilitäten des trigonalen LNG und LTG sind 0.007GPa -1 , die entsprechenden Kompressionsmodule sind 145(3)GPa und 144(2)GPa. Der Kompressionsmechanismus von LNG und LTG kann wie folgt beschrieben werden: Eine Erhöhung des Drucks verursacht eine Reduzierung der Gittervolumina von LNG und LTG. Folglich verringern sich die Abstände zwischen den Ionen. Auf diese Weise werden die größten Kationen (La 3+ ) innerhalb der ab- Fläche verschoben, um die Abstände zwischen den positiv geladenen benachbarten Ionen (Ga 3+ /Nb 5+ (Ta 5+ )) zu maximieren. Auf die gleiche Weise bewegen sich die tetraedrisch koordinierten Ga 3+ -Ionen. Wegen der Anionen-Kationenbindungsverkürzung versuchen die Polyeder zu rotieren. Nun werden diese Drehungen durch die gemeinsamen Ecken und/oder Kanten der benachbarten Polyeder behindert. Außerdem werden diese Bewegungen durch die geringe Flexibilität begrenzt, die durch die Symmetrie (zwei- und drei- zählige Achsen) verursacht wird. So resultiert die Komprimierung hauptsächlich aus Verkleinerungen der Polyedervolumina. Folglich steigen unter zunehmenden Druck die Spannungen innerhalb der Polyeder, vor allem innerhalb der kleinsten Polyeder (GaO4-Tetraeder), wegen deren geringer Flexibilität. Bei einem Druck von 12(1)GPa resultiert die Komprimierung von LNG und LTG in einer Transformation aus der Hochsymmetriephase in eine Niedersymmetriephase. Es kann gefolgert werden, daß dieser Phasenübergang durch die Zunahme der Spannungen innerhalb der Polyeder verursacht wird. Die Hochdruckphase ist verzerrter als die ursprüngliche Phase und beinhaltet mehr Freiheitsgrade für weitere Komprimierungen. Die Hochdruckphasen von LNG und von LTG können in Strukturmodellen mit monokliner Symmetrie (Raumgruppe A2) verfeinert werden. Die Kompressionsmodule sind B0=93(2)GPa und B0=128(12)GPa für die Hochdruckphasen von LNG beziehungsweise von LTG. Die entsprechenden Kompressibilitäten der Hochdruckphasen sind 0.011GPa -1 für LNG und 0.008GPa -1 für LTG. Somit zeigen die Hochdruckphasen unterschiedliche Kompressibilität, die durch eine Nb 5+ - Ta 5+ Substitution gut erklärt werden kann. Die Kompressibilität der Hochdruckphase von LNG ist größer als der entsprechende Wert für das Hochdruckpolymorph von LTG. Dieses Phänomen kann durch die größere Verzerrung von NbO6- Polyedern im Vergleich zu TaO6- Polyedern gut erklärt werden, welche durch die höhere Polarisation der Sauerstoffanordnung bei Nb 5+ -Kationen verursacht wird. Außerdem sind die Kompressibilitäten der Hochdruckphasen größer als die entsprechenden Werte für die Ausgangsphasen von LNG und LTG. Die Beobachtung einer Zunahme der Kompressibilität weis auf zusätzliche Polyederverkippungen hin. In den meisten Fällen ergibt sich die zusätzliche Freiheit aus dem Symmetriebruch. Das erklärt eine (auf den ersten Blick ziemlich unerwartete) erhöhte Kompressibilität der Hochdruckphase. Zusätzlich kann sich durch ein anomales Elastizitätsverhalten eine Steigerung der Kompressibilität der Hochdruckphase ergeben. Bei einer Zunahme des Druckes über 22GPa hinaus wird die Komprimierung der monoklinen Kristallstruktur von LGN vermutlich zu einer drastischen Strukturänderung führen, die von Änderungen der Korrdinationszahlen begleitet ist. Wahrscheinlich werden ähnliche Prozesse auch im LTG statt finden, jedoch unter höherem Druck. Im folgenden Teil dieser Arbeit wird die thermische Expansion der Gitterparameter von LNG, LTG und La3SbZn3GeO14 (LSZG) dargestellt. Die Hochtemperaturmessungen wurden mit dem Pulverdiffraktometer im HASYLAB an der beamline B2 durchgeführt. Die Temperaturabhängigkeit der Gitterparameter von LNG und von LTG wurde an polykristallinem Material bei Temperaturen von Raumtemperatur bis 850°C durchgeführt. Die thermischen Expansionen der Gitterparameter von LNG und LTG sind in diesem Temperaturbereich fast identisch. Die thermischen Expansionskoeffizienten des Gittervolumens aV (24°C- 850°C) von LNG und LTG betragen 22.563(7)x10 -6 °C -1 beziehungsweise 20.651(7)x10 -6 °C -1 . Deutliche Veränderungen der Temperaturabhängigkeit der Gitterparameter werden für die a- Richtung beobachtet. Folglich ist das Verhalten dieser Materialien bei thermischer Expansion ebenso wie bei Komprimierung anisotrop. Für einen Vergleich des Einflusses von Druck und Temperatur auf die Gitterparameter von LNG beziehungsweise LTG wurden die Druck und Temperatur- Abhängigkeiten des c/a- Verhältnisses gemeinsam aufgetragen. Es zeigt sich, dass eine lineare Abhängigkeit besteht. Daraus läßt sich ableiten, dass die Änderung der Gitterparameter von LNG (LTG) während der Abkühlung von 850°C auf Raumtemperatur einer Änderung der Gitterparameter von LNG (LTG) unter Zunahme des Drucks um 1.4GPa entspricht. Die Substanz LSZG, welche in dieser Arbeit untersucht wurde, ist ein weiters Mitglied der Langasitfamilie. LSZG kristallisiert in der monoklinen Symmetrie, Raumgruppe A2. Die Temperaturabhängigkeit der Gitterparameter der monoklinen Phase von LSZG wurden mittels der Röntgenbeugung an polykristallinem LSZG bei Temperaturen von Raumtemperatur bis 800°C untersucht. Bei Temperaturen oberhalb 250(50)°C wurde ein Phasenübergang erster Ordnung festgestellt, welcher sich in Sprüngen der Temperaturabhängigkeiten der Gitterparameter des LSZG äußert. Die monokline Struktur der bei Raumtemperatur und Normaldruck stabilen Phase des LSZG entspricht der der Hochdruckphase von LNG beziehungsweise LTG. Es ist bekannt, daß die Änderungen der Kristallstrukturen bei steigenden Drucken und Temperaturen gegenläufig sind. Aus diesem Grund wird vermutet daß sich die monokline Kristallstruktur des LSZG bei Temperaturen oberhalb von 250(50)°C in eine trigonale Kristallstruktur (Raumgruppe P321) umwandelt, welche der Normaldruckphase von LNG beziehungsweise LTG entspricht. Für eine detailliertere Beschreibung des Phasenübergang von LSZG bei einer Temperaturerhöhung über 250(50)°C hinaus werden weitere Experimente benötigt. Zum Vergleich von strukturellen und physikalischen Eigenschaften seien auch die physikalischen Eigenschaften von LNG und LTG zusammenfassend dargestellt: 1. LNG- und LTG- Kristalle der enantiomorphen Kristallklasse 32 können im Gegensatz zu GaPO4 mittels Züchtung nach der Czochralski- Methode mit ausreichend hoher struktureller Perfektion hergestellt werden. 2. DTA- Messungen von LNG und LTG zeigen keine Änderungen des thermischen Verhaltens bis zu Temperaturen von 1400°C [5]. Da LNG und LTG vermutlich keine Phasenübergänge bis zu ihren jeweiligen Schmelzpunkten bei ungefähr 1470(30)°C haben, sind sie für piezomechanische Anwendungen bei hohen Temperaturen gut geignet. 3. Die Härte von LNG beziehungsweise LTG ist vergleichbar mit der von Quarz. 4. LNG und LTG sind chemisch inert und unlöslich in Säuren beziehungsweise Laugen. 5. Die Breite des Bandpassfilters von LNG oder LTG ist ungefähr dreimal größer als die von Quarz. Folglich sind LNG und LTG für Filter besser geeignet als Quarz. Im Lichte der Ergebnisse aus dieser Forschungsarbeit können folgende Empfehlungen gemacht werden: 1. Bezüglich der hoher Qualität dieser Materialien (die Halbwertsbreite der Reflexionen beträgt 0.0008°) und wegen des großen Streuvermögens, kann empfohlen werden, diese Kristalle als Test- Kristalle für die Justage an Einkristall- Diffraktometer und für Experimente mit harter Röntgenstrahlung zu benutzen. 2. Ebenso wie a-Quarz- Einkristalle [ 58 ], können diese Kristalle als interner Druckstandard in Einkristallhochdruckexperimenten benutzt werden, weil diese Kristalle eine große Anzahl von starken unabhängigen Reflexen besitzen. Andererseits kann die niedrigere Kompressibilität von LNG beziehungsweise LTG, im Vergleich zu a-Quarz, zu einer niedrigeren Druckmessungspräzision führen. Dieser Nachteil wird wiederum durch große Streuvermögen kompensiert. 3. LNG oder LTG können als Materialien für Drucksensoren bis zu sehr hohen Drucken verwendet werden. Wegen des Phasenübergangs von LNG und LTG ist der Einsatz lediglich auf 12(1)GPa begrenzt. 4. Die Temperaturabhängigkeit der Gitterparameter dieser Materialien zeigt keine Anomalie innerhalb des untersuchten Temperaturbereiches (24°C - 850°C). Somit wurde die thermische Stabilität von LNG und LTG bestätigt. Auf diese Weise können LNG und LTG im Austausch für Quarz als Substratmaterialien für Temperatursensoren sehr empfohlen werden.
Tue, 1 Jan 1535 12:00:00 +0100 http://epub.ub.uni-muenchen.de/12188/ http://epub.ub.uni-muenchen.de/12188/1/Cim._37.pdf Ickelsamer, Valentin Cim. 37 (= 8 Philol. 1248) Ickelsamer, Valentin Teutsche Grammatica Entstehungsort: [Augsburg] : [Ulhart] Entstehungszeit: [um 1535] Provenienz: Der aus Rothenburg ob der Tauber stammende Gelehrte Valentin Ickelsamer (1500-1541) veröffentlichte seine Grammatik um 1535 in Augsburg. Sie sollte zu einer vom Lateinischen unabhängigen Grammatik anregen. Ickelsamer plädierte vor allem für einen verantwortungsbewußten Umgang mit der Muttersprache. Die Herkunft des seltenen Druckes in einem Halblederband des 18. Jahrhunderts ist unbekannt. 0
Thu, 1 Jan 1525 12:00:00 +0100 http://epub.ub.uni-muenchen.de/11778/ http://epub.ub.uni-muenchen.de/11778/1/Cim._104.pdf [Ellenbog], [Ulrich] Cim. 104 (= 8° Med. 2014) [Ellenbog], [Ulrich] Von den gifftigen Besen Temmpffen unn Reüchen, der Metal, als Silber, Quecksilber Bley und anders So die edlen handtwerck des Goltschmidens, und ander arbaiter in des feür sich gebrauchen müssen : Wie sie sich da mit halten und die gift vertreibe[n] solle[n] Entstehungsort: [Augsburg: Ramminger] Entstehungszeit: [um 1525] Provenienz: Das um 1473 handschriftlich entstandene Pamphlet des Feldkircher Humanisten und Arztes Ulrich Ellenbog (1435-1499) darf als erstes Werk der Industriemedizin bzw. -toxikologie gelten. Die Herkunft dieses weltweit unikalen Druckes is
Thu, 1 Jan 1514 12:00:00 +0100 http://epub.ub.uni-muenchen.de/12178/ http://epub.ub.uni-muenchen.de/12178/1/Cim._42.pdf Elisabeth Cim. 42 (= 2 P.germ. 15) Elisabeth , Der weis Ritter wie er so getruwlich bei stund ritter Leuwen des, Herzogens sun von Burges, das er zu letst ein künnigreich besaß Entstehungsort: Straßburg: Grüninger Entstehungszeit: 1514 Provenienz: Der Frühdruck in einem Pappeinband mit Pergamentrücken gelangte in den Zimelienbestand der UB München, da man ihn im 19. Jahrhundert für überaus selten hielt; heute sind vier Exemplare in Deutschland nachgewiesen. Die Herkunft des Druckes, der einen Besitzvermerk aus In