POPULARITY
Angela Ziltener erforscht seit über 15 Jahren die Delfine im roten Meer – und zwar nicht nur vom Boot aus, sondern auch als Taucherin im Wasser. Einige Delfine kennt sie schon seit ihrer Geburt. Für diese Delfine war Angela schon immer ein Teil ihres Lebensraums. Sie erkennen Angela unter hunderten Taucher*innen und begrüßen sie explizit. Sobald sie Angela im Wasser treffen, verändern sie ihr Verhalten und suchen den Kontakt zu ihr. Das geht sogar so weit, dass sie Angela in ihr Spielverhalten integrieren wollen, was die Forscherin vor einen inneren Konflikt stellt…In dieser Folge sprechen wir über Angelas Verhältnis zu den Delfinen. Wir lernen ganz viel über die Tiere, die so viele von uns begeistern. Es gibt auch einen kleinen Kurs in Sachen Delfin-Sprache, damit wir bei einer möglichen Delfin-Begegnung besser wissen, wie es denen Tieren gerade geht, und ob ihnen z.B. nach Interaktion zu Mute ist, oder ob sie lieber in Ruhe gelassen werden wollen…Wer sprechen aber auch über die Gefahren, denen Delfinen heute ausgesetzt sind und hören die Geschichte von Latif, einem jungen Delfin, an dessen Fluke sich ein Seil verfangen hat…Angela hat für ihre Forschung die Dolphin Watch Alliance gegründet. Die Dolphin Watch Alliance erforscht seit gut 14 Jahren den Indopazifischen Grossen Tümmer vor Hurghada, im Roten Meer und engagiert sich für den nachhaltigen Schutz und respektvollen Umgang mit den Delfinen, deren Lebensweise insbesondere durch den zunehmenden Tourismus stark beeinträchtigt wird.Während es ein Standardverfahren ist, Forschungsbeobachtungen von einem Boot aus durchzuführen, ermöglichen die Bedingungen im Roten Meer, zusätzlich Unterwasserforschung, bei der auch Gerätetauchen zum Einsatz kommt. Ein Forschungsansatz, der bei Delfinen anderswo auf der Welt nicht praktiziert wird. Dies ermöglicht Beobachtungen, die aufgrund dieser einzigartigen Kombination sonst schwierig oder sogar unmöglich zu dokumentieren wären. Weitere Infos sowie die Möglichkeit zu Spendne findest du hier: https://www.dolphinwatchalliance.org/de/Mit „Ein Leben für den Ozean“ ist ein Buch zum Podcast erschienen. Es erzählt 10 Geschichten über die Held*innen der Meere und begeistert bildgewaltig für den Ozean. Ihr könnt es unter www.ein-leben-fuer-den-ozean.de bestellen.Den Link zu meinen Werbepartnern findest du hier: https://linktr.ee/helden_der_meere_partner
In dieser Episode erfährst du, warum Lufthansa die Einführung der neuen Business Class in ihren Airbus A380 auf 2026 verschiebt und welche Auswirkungen dies auf den Flugplan und die Passagiere hat.#Lufthansa #A380 #BusinessClass #AviationNews #Airbus #TravelUpdate #AirTravel #Luftfahrt #Flugzeug #ReisenFrage des Tages: Was haltet ihr von den Eurowings Piloten? Wie seht ihr die späte Umrüstung der A380 Flotte mit den neuen Business Class Sitzen?00:00 Willkommen zu Frequent Traveller TV01:20 Frankfurt Flughafen Stromausfall03:30 Eurowings A320 "Standardverfahren und Grenzen des Flugzeugs willentlich missachtet"10:14 Frankfurt Flughafen leidet unter der späten 787 Auslieferung13:16 Klima Terroristen bekommen Rechnung von der Bundespolizei16:12 Lufthansa A380 bekommen neue Business Class in 202618:58 Royal Jordanien Status Match21:02 Fragen des TagesTake-OFF 06.08.2024 – Folge 179-2024Stammtisch Termine: https://FQTWorld.as.me/meetupKanalmitglied werden und exklusive Vorteile erhalten:https://www.youtube.com/channel/UCQyWcZxP3MpuQ54foJ_IsgQ/joinHier geht es zu eurem kostenlosen Consulting Link - https://FTCircle.as.me/Damit Du von unserem Wissen profitieren kannst, kannst du ein mindestens 60 minütiges und vor allem auf dich zugeschnittenes Punkte, Meilen, Status Coaching buchen. Nach dem Call bekommst du ein Jahr Zugang zu dieser Gruppe und zahlst so nur 10 Euro pro Monat und kannst sofort profitieren. Hier ist nun der Link zu deinem neuen Punkte, Meilen und Status Deals.MY SOCIALSWhatsApp - https://wa.me/message/54V7X7VO3WOVF1FACEBOOK | Lars F Corsten - https://www.facebook.com/LFCorsten/FACEBOOK | FQT.TV - https://www.facebook.com/FQTTVFACEBOOK | FTCircle - https://www.facebook.com/FTCircleTWITTER | Lars F Corsten - https://twitter.com/LFCorstenINSTAGRAM | Lars F Corsten - https://www.instagram.com/lfcorsten/LINKEDIN - https://www.linkedin.com/in/lfcorsten/Clubhouse - @LFCorsten
Ausgehend von der bundesgerichtlichen Beweiswerthierarchie bei Gutachten beleuchtet [Thierry Urwyler](https://www.linkedin.com/in/thierry-urwyler-aa724268/) die Rechtsprechung des Bundesgerichts, die amtlichen Sachverständigen in ihrer Unabhängigkeit und Unparteilichkeit ein höheres Gewicht beimisst als Privatgutachtern. [Duri Bonin](https://www.duribonin.ch) möchte daraufhin wissen, inwieweit diese Position nach wissenschaftlichen Kriterien haltbar ist? Die Antwort destabilisiert die Rechtsprechung des Bundesgerichts, so viel sei vorweggenommen. Beide sind sich auch einig, dass die heutige Rechtsprechung zu einer Art kognitiver Faulheit in dem Sinne führt, dass die Gerichte den amtlichen Gutachten folgen, sofern diese nicht sofort erkennbar fehlerhaft erscheinen. Eine sachkundige Auseinandersetzung mit alternativen Privatgutachten wird damit umgangen. Dies ist umso unverständlicher, als damit das Prinzip der 'Second Opinion' als Standardverfahren zur kritischen Qualitätskontrolle von vornherein verhindert wird. Denn unabhängig davon, in welcher Funktion man tätig ist, ob als Anklägerin, Verteidiger, Richterin oder Gutachter, kommt es immer zu einer Verzerrung im eigenen Wahrnehmungsprozesses. Studien zeigen, dass amtliche Sachverständige nicht weniger von solchen kognitiven Verzerrungen betroffen sind als private Sachverständige. Schon deshalb wäre eine Kontrolle wichtig. Die rechtlichen und berufsethischen Anforderungen an Privatgutachter rechtfertigen bei richtiger Würdigung keine Ungleichbehandlung gegenüber amtlichen Sachverständigen. Auch diesbezüglich scheint die Sichtweise des Bundesgerichts verkürzt. Duri und Thierry finden auch keine Erklärung, weshalb im Strafrecht eine weniger strenge Dokumentationspflicht gelten soll als im Sozialversicherungsrecht. Sodann wird das Phänomen des 'Gutachtenshoppings' thematisiert: Als maximaler Ausnahmefall legitimiert es keine Beweiswürdigungspraxis. Die Qualität von amtlichen Gutachten und Privatgutachten streut sehr stark: Es gibt in beiden Gruppen sehr gute und sehr schlechte mit überlappendem Qualitätsspektrum. Dies führt zu der eigentlich zwingenden Schlussfolgerung, dass eine formale Beweisregel nicht aufrechterhalten werden kann. Vielmehr müsste man die konkreten Gutachten miteinander vergleichen. Weitere Podcastfolgen mit Dr. [Thierry Urwyler](https://www.linkedin.com/in/thierry-urwyler-aa724268/): - [#607 Freie Beweiswürdigung oder die Kunst der Überzeugung im Strafprozess](https://www.duribonin.ch/607-freie-beweiswuerdigung-oder-die-kunst-der-ueberzeugung-im-strafprozess/) - [#604 Privatgutachten vs. Amtliche Gutachten: Wie Beweisregeln die inhaltliche Diskussion verhindern](https://www.duribonin.ch/604-privatgutachten-vs-amtliche-gutachten-wie-beweisregeln-die-inhaltliche-diskussion-verhindern/) - 7 Podcastfolgen zum Standardwerk [Strafrecht | Psychiatrie | Psychologie](https://www.duribonin.ch/418-strafrecht-psychiatrie-psychologie-verhandlungsfaehigkeit-zwangsbehandlung-hafterstehungsfaehigkeit-suizid/) - [#254 Strafverteidigung bei Gutachten ](https://www.duribonin.ch/254-strafverteidigung-bei-gutachten-interview-mit-dr-thierry-urwyler/) - [#253 Gutachten in Strafverfahren](https://www.duribonin.ch/253-gutachten-in-strafverfahren-interview-mit-dr-thierry-urwyler/) - [#65 Wie schreibt man eine Dissertation?](https://www.duribonin.ch/65-wie-schreibt-man-eine-dissertation-ein-gespraech-mit-thierry-urwyler/) Weitere Links zu diesem Podcast: - Anwaltskanzlei von [Duri Bonin](https://www.duribonin.ch) - [Lehrbücher für Anwaltsprüfung und Anwaltsmanagement](https://www.duribonin.ch/shop/) - Das Interviewbuch zum Podcast: [In schwierigem Gelände — Gespräche über Strafverfolgung, Strafverteidigung & Urteilsfindung](https://www.duribonin.ch/shop/) Die Podcasts "Auf dem Weg als Anwält:in" sind unter https://www.duribonin.ch/podcast/ oder auf allen üblichen Plattformen zu hören
Heute geht es um ein ganz spannendes Thema. Wenn es um eine mit einer körpereigenen Sehne das Standardverfahren dar. In den letzten Jahren ist dabei ein "altes" Thema durch Weiterentwicklungen von Techniken und einem besseren Verständnis wieder als weitere Behandlungsalternative ins Gespräch gekommen: Die Naht des Kreuzbandes und damit der Erhalt des verletzten Bandes. Welche Überlegungen dahinter stecken, wann das Sinn macht und was Vorteile und Nachteile dieses Vorgehens sind, das besprechen wir heute in der 12. Episode von Listen2Science.
Es ist März und die Flugsaison fängt wieder an! Endlich!Seitdem ich fliege, nehme ich mir jedes Jahr vor, nicht in die Winterpause zu gehen. Hat doch, wie ich aus Hessen weiß, das Fliegen im Winter magische Momente. Ruhige Luft, keine Turbulenzen. Eben nur das wenige Tageslicht. Und das Risiko, dank großer eingeschneiter Flächen schnell die Orientierung zu verlieren. Wobei das in 2022 Geschichte ist, neben dem Blick nach draußen unterstützt mindestens ein GPS mit Karte auf dem Tablet oder sogar fest im Flieger verbaut. Und trotzdem: Seitdem ich in Hessen meine fliegerischen Zelte abgebaut habe, war ich im Winter nicht mehr in der Luft. Ja, wenn der Weg zum Airport weiter ist, sind die wenigen hellen Stunden plötzlich wertvoll - und nicht nur für das Thema Fliegen. Und wenn mal alles passt, kommt das Wetter in die Quere oder ein plötzlicher erneuter Wintereinbruch mit Eis und Schnee. Also: Aussitzen bis Anfang April und dann einfach frei fliegen? Kann man machen, sollte aber nicht alles sein! Final Approach EDDF 25L-R Winter 2007 / Bild-/Quelle: privat Fliegen sieht deshalb so einfach aus, weil man sich als Pilot seiner Verantwortung bewusst ist und deshalb, ob vorgeschrieben oder nicht, im Training bleibt. Somit ist man möglichen Pannen und sich einschleichenden Fehlern einen Schritt voraus und vermeidet deren Entstehung schon an der Wurzel. Dazu gehört ein, vielleicht eigenartig anmutendes Winterprogramm: Bevor Simulationen und die notwendige Hardware eher unbezahlbar waren, saß man in seinem Sessel im warmen Wohnzimmer und hat eine typische Situation im Geiste durchgespielt: Stehe vor Halle B, erbitte rollen. Und schon hat man sich geistig-virtuell auf den Weg gemacht. Dann der Abflug: Klappen gesetzt wie vom Verein vorgesehen, korrekte Geschwindigkeit für den Lift-Off? Platzrunde grob im Kopf? Bei der Landung die Geduld zum Ausschweben mitgebracht oder, bei kurzer Piste, ein Ranschleppen an den Pistenanfang oder eine perfekte Punktladung durchgeführt? Auch übt man den Stall, also den Strömungsabriss. Horn pfeift, Steuerhorn nach vorne, Gas rein, Abfangen. Und das bei möglich wenig Höhenverlust. Steilkurven, mit Nase auf Höhe des Horizonts und Ausleiten per Kompass. Rechts rum, links rum. 45 Grad, 60 Grad. Und, mein Liebling, das Quer- und Seitenruder über Kreuz legen und mit rasanter Geschwindigkeit Höhe abbauen - nichts geht über Slippen. Dann noch zwei Notsituationen: Im Flug bleibt der Motor stehen. Jetzt heißt es, die Geschwindigkeit für bestes Gleiten im Kopf zu haben und die Maschine umgehend auf diese zu trimmen. Und ein passendes Landefeld zu finden. Im Winter, mit Schnee und teils Nebel über Wiesenflächen oder auch kleinen Waldstücken, eine echte Herausforderung. Dann der Klassiker: beim Start, kurz nach dem Abheben, irgendwo zwischen 500 und 800 Fuß: Motorausfall. Wenden fällt aus, zu langsam, zu tief. Also, was tun? Wo ist die Lücke im Wald, wo die rettende Wiese? Dieses mentale Training ist Gold wert. Noch besser natürlich die passende Ausstattung und ein realistischer Simulator. Realistisch bezieht sich hier dann auf die Flugeigenschaften und die zugrunde liegende Physik, weniger auf die Hochglanz-Texturen von Boden und Städten! Und dann geht es, meist im März, wenn sich das Frühjahr deutlich am Horizont zeigt, mit Fluglehrer zum Freiflug. Als ich meinen Flugschein gemacht habe, war das meistens noch freiwillig und ich hatte gelegentlich auch Diskussionen, ob es wirklich nötig ist. Mittlerweile ist es bei vielen Vereinen Voraussetzungen, um überhaupt noch an einen Schlüssel einer Maschine zu kommen. Das Programm, die Dauer und auch der Inhalt sind unterschiedlich, gibt es hierfür zur Abwechslung keine EU-weite Vorschrift oder eine deutsche Verschlimmbesserung in einer Verordnung. Schön, da sich hier meist die ersten Fehler einschleichen, ist ein gemeinsamer Check am Flieger. Unter den Flügeln checken, ob die Mutter fixiert ist. Bei den Landeklappen, die man hierzu mindestens auf Stufe 1 oder 10 Grad schieben muss, prüfen, ob der tragende Metallring sich locker bewegen lässt und auch hier die Mutter sitzt. Am Körper der Maschine auch oben und unten prüfen, ob Antennen und GPS festsitzen. Wenn vorhanden, nicht vergessen, die hintere Lucke für das Gepäckfach abschließen. Ich weiß, hier kommt ein typischer Effekt der Luftfahrt: Steht in einigen Cessna-Handbüchern klar, dass das Fach zu verschließen ist, bürgert sich die Meinung ein, sie offenzulassen. Im Falle eines Crashs oder bei einem brennenden Flugzeug könnte durch die offene Klappe durch einen Helfer oder Retter schnell eingestiegen werden. Davon ausgehend, dass nicht jeder mein Eigengewicht und die damit entstehenden Ausbeulungen an diversen Körperstellen bedient, würde ich durch die kleine Klappe alleine durch meine Körpergröße nicht durchklettern, erst recht nicht, wenn die Maschine brennt. Nichts gegen Helden und Helfen, aber wenn der Flieger brennt, ist Eigenschutz erstes Gebot! Aber, zurück zum Ursprung: bei Unklarheit Handbuch befragen und stoisch umsetzen! Am Höhen- und Seitenruder nicht vergessen, mit ein wenig Kraft auch den Seilzug und die Vernietung prüfen. Keine Sorge, einzelne Adern, die eingeknickt sind oder bereits gerissen sind, sind nicht gleich die Stilllegung des Fliegers - jede einzelne Ader muss die volle Zugkraft bieten bzw. aushalten! Daher wird die Sichtung hier gerne vergessen. Und dann die Eigenheiten kennen: Verstell-Prop? Dieselmaschine? Vielleicht sogar Einfahrfahrwerk? Wo kann ich den Stand von Kühlflüssigkeiten ersehen, muss es blau, grün oder gelb sein? Ist die Maschine IFR-tauglich und hat eine Enteisungsanlage, was muss ich, selbst wenn ich nicht nach Instrumentenflugregeln fliegen darf und daher nicht durch Wolken fliegen darf über die Anwendung, Prüfung oder eben der Nutzung wissen? Bin ich noch fit im Funk? Habe ich das letzte NfL dazu studiert? Da auch in Deutschland wohl beginnend im Jahr 2022 die Flugleiterpflicht an "kleinen Plätzen" ein Ende findet, wie setze ich einen Blindruf ab? Was gilt für meinen Flugplatz? Und ist es endlich das Jahr, in dem ich mit Englisch im Funk durchgehend beginne? Kenne ich die wichtigen Sprechgruppen hierzu, wie oft hört man plötzliches Gestammel, weil die Sprechgruppe fehlt und nun die seit 20 Jahren nicht mehr benötigten Englischkenntnisse die Situation retten sollen... Was hat sich auf meinem Flugfeld getan? Magnetismus sorgt, je nach Lage, dafür, dass sich alle zehn Jahre mal die Ausrichtung der Bahn ändert. Wer dann immer noch auf der 27 startet und landet, sorgt für Verwirrung, bei Fremden im An-/Abflug und auch bei weiteren Fliegern in der Platzrunde, die die Professionalität vermissen. Wenn du lange Pause gemacht hast, solltest du mit deinem Fluglehrer vereinbaren, die Platzrunden und die diversen Landeübungen zuerst zu machen. Das kann, je nachdem, was an Wissen und Augenmaß noch da ist, auch mal zehn Landungen dauern - und dann ist der Flugtag für heute auch schon vorbei! Sonst geht es raus. Gerade halten, kein Sinken, ins korrekte Pedal steigen. VOR auf Kurs anpeilen und mit möglichst wenig Abweichung anfliegen. Nochmal zurecht finden: ist das vor mir Stadt X? War hier nicht ein FFH-Gebiet, bin ich schon über 2.200 ft oder wohin weiche ich aus? Dann kommen Abfangen, Stall und Steilkurven. Gängige Standardverfahren, die aber an sich Anwendung finden, wenn etwas nicht rund läuft oder sich ein Notfall anbahnt. Da müssen Handgriffe sitzen, Ein- und Ausleiten passen und ein Vollkreis korrekt nach 360 Grad enden. Apropos: wann läuft der Whiskey-Kompass nach oder vor? Wie war das mit Ost-West und was macht er auf Süd-Nord-Kurs? Kenne ich die Toleranzen meiner Geräte? Der Höhenmesser arbeitet korrekt bei bis zu 300 Fuß Abweichung, sowohl nach oben als auch nach unten. Ist es daher clever, sich bis auf 50 Fuß an die Grenze einer Kontrollzone ranzuhängen? Wie war das gleich wieder mit Merksätzen? Im Winter sind alle Berge höher? Vom Hoch ins tief gehts schief? Und wenn du Nachtflug oder Alpeneinweisung hast, hast du das noch drauf? Und nicht vergessen: Wenn dein Fluglehrer total von dir und deiner Leistung begeistert ist, lass dich nicht unter drei Platzrunden verhandeln - dann hast du die 90-Tage-Regelung - hey, was war das gleich wieder? - gleich mit abgedeckt und kannst ab sofort Passagiere legal mitnehmen. Nicht vergessen: für NVFR ist mindestens eine Landung bei Nacht, mit all ihren Komplikationen, von einem offenen Platz über Flugplan, und BZF I oder AZF und dem Heimflug zu einem idealerweise offenen und nicht schon unter teurer PPR arbeitenden Flugplatz hilfreich. Und es gilt dann, oder leider auch nur, für 90 Tage, wenn du Passagiere in die Nacht fliegen willst. Wenn das alles sitzt, kommt noch ein weiterer Block: Was will ich dieses Jahr lernen? Steige ich von einer Cessna, dem klassischen Hoch-, nein, korrekterweise Schulterdecker auf einen Tiefdecker um? Greife ich NVFR an, um für mögliche Streckenflüge, die auch mal unerwartet in die Nacht gehen könnten, auf der sicheren Seite bin? Oder gleich den Schritt weiter, Instrumentenflugausbildung? Oder eben endlich ein englisches Sprechflugzeugnis? Ihr seht schon, da steckt Aufwand drin. Und hier darf nicht geschludert oder mit "kannste doch noch" abgekürzt werden. Der alte Spruch, wenn was schief geht, kann man oben nicht rechts ran fahren, sollte ein Spruch bleiben und nicht in der Praxis, dann auch noch ohne Fluglehrer oder ohne Übung, ausprobiert werden. Dann wünsche ich euch einen guten Start ins neue Fliegerjahr - und vergesst nicht: Das GPS braucht neue Karte, zur Sicherheit sollte auch die ICAO-Karte der DFS auf Papier als Backup mit ins Cockpit. Und auch der Blick darauf, was sich wo geändert hat, sollte vor dem Abflug bereits passiert sein. Mein Freiflug für die Saison 2022 ist noch in der Terminfindung, ich gucke also neidisch auf jeden VFRler, der über mir bereits seit einer oder zwei Wochen in der Luft ist. Ich wünsche euch viele schöne Flüge, blue skies and happy landings! PodCast abonnieren: | direkt | iTunes | Spotify | Google | amazon | STOLZ PRODUZIERT UND AUFGENOMMEN MIT Ultraschall5 Folge direkt herunterladen
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudruns Arbeitsgruppe begrüßte im Januar 2020 Andrea Walther als Gast. Sie ist Expertin für das algorithmische Differenzieren (AD) und ihre Arbeitsgruppe ist verantwortlich für das ADOL-C Programmpaket zum algorithmischen Differenzieren. Zusammen mit Andreas Griewank hat sie 2008 das Standardbuch zu AD veröffentlicht. Im Abitur und im mathematischen Grundstudium lernt jede und jeder Anwendungen kennen, wo Ableitungen von Funktionen gebraucht werden. Insbesondere beim Auffinden von Minima und Maxima von Funktionen ist es sehr praktisch, dies als Nullstellen der Ableitung zu finden. Bei der Modellierung komplexer Zusammenhänge mit Hilfe von partiellen Differentialgleichungen ist es möglich, diese Idee in ein abstrakteres Setting zu Übertragen. Eine sogenannte Kostenfunktion misst, wie gut Lösungen von partiellen Differentialgleichungen einer vorgegebenen Bedingung genügen. Man kann sich beispielsweise einen Backofen vorstellen, der aufgeheizt wird, indem am oberen und unteren Rand eine Heizspirale Wärme in den Ofen überträgt. Für den Braten wünscht man sich eine bestimmte Endtemperaturverteilung. Die Wärmeverteilung lässt sich mit Hilfe der Wärmeleitungsgleichung berechnen. In der Kostenfunktion wird dann neben der gewünschten Temperatur auch noch Energieeffizienz gemessen und die Abweichung von der Endtemperatur wird zusammen mit der benötigten Energie minimiert. Auch hierzu werden Ableitungen berechnet, deren Nullstellen helfen, diese Kosten zu minimeren. Man spricht hier von optimaler Steuerung. Eine Möglichkeit, die abstrakte Ableitung auszudrücken, ist das Lösen eines sogenannten adjungierten partiellen Differenzialgleichungsproblems. Aber hier wird es sehr schwierig, immer schnell und fehlerfrei Ableitungen von sehr komplexen und verschachtelten Funktionen zu berechnen, zumal sie für jedes Problem immer wieder neu und anders aussehen. Außerdem braucht man in der numerischen Auswertung des Algorithmus oft nur Werte dieser Ableitung an bestimmten Stellen. Deshalb ist die effiziente Berechnung von Funktionswerten der Ableitung ein unverzichtbarer Baustein in zahlreichen Anwendungen, die von Methoden zur Lösung nichtlinearer Gleichungen bis hin zu ausgefeilten Simulationen in der Optimierung und optimalen Kontrolle reichen. Am liebsten sollte dies der Computer fehlerfrei oder doch mit sehr kleinen Fehlern übernehmen können. Auch für das Newtonverfahren braucht man die Ableitung der Funktion. Es ist das Standardverfahren zur Lösung nichtlinearer Gleichungen und Gleichungssysteme. Das algorithmische Differenzieren (AD) liefert genaue Werte für jede Funktion, die in einer höheren Programmiersprache gegeben ist, und zwar mit einer zeitlichen und räumlichen Komplexität, die durch die Komplexität der Auswertung der Funktion beschränkt ist. Der Kerngedanke der AD ist die systematische Anwendung der Kettenregel der Analysis. Zu diesem Zweck wird die Berechnung der Funktion in eine (typischerweise lange) Folge einfacher Auswertungen zerlegt, z.B. Additionen, Multiplikationen und Aufrufe von elementaren Funktionen wie zum Beispiel Exponentialfunktion oder Potenzen. Die Ableitungen bezüglich der Argumente dieser einfachen Operationen können leicht berechnet werden. Eine systematische Anwendung der Kettenregel ergibt dann die Ableitungen der gesamten Sequenz in Bezug auf die Eingangsvariablen Man unterscheidet zwei Verfahren: den Vorwärts- und den Rückwärtsmodus. Im Vorwärtsmodus berechnet man das Matrizenprodukt der Jacobi-Matrix mit einer beliebigen Matrix (sogenannte Seedmatrix), ohne vorher die Komponenten der Jacobi-Matrix zu bestimmen. Der Rückwärtsmodus besteht aus zwei Phasen. Die Originalfunktion wird zunächst ausgeführt und gewisse Daten abgespeichert. Anschließend rechnet man rückwärts. Dabei werden Richtungsableitungen übergeben und es werden die im ersten Schritt gespeicherten Daten verwendet. Mit dem Rückwärtsmodus von AD ist es möglich, den Gradienten einer skalarwertigen Funktion mit Laufzeitkosten von weniger als vier Funktionsauswertungen zu berechnen. Diese Grenze ist auch noch völlig unabhängig von der Anzahl der Eingangsvariablen. Das ist phänomenal effektiv, aber er ist mit einem erhöhten Speicherbedarf verbunden. Im Laufe der Jahre wurden Checkpointing-Strategien entwickelt, um einen goldenen Mittelweg zu finden. Die Methoden sind für viele und sehr unterschiedliche Anwendungen interessant. In DFG-Projekten an denen Andrea beteiligt war und ist, wurde das unter anderem für die Modellierung von Piezokeramiken und für die Maxwellsche Wellengleichung umgesetzt. Außerdem sprechen Gudrun und Andrea über die Optimierung der Form einer Turbinenschaufel. Andrea begann ihre berufliche Laufbahn mit einer Ausbildung zur Bankkauffrau in Bremerhaven. Sie entschied sich anschließend für ein Studium der Wirtschaftsmathematik, um Mathematik und ihren erlernten Beruf zusammen zu halten. Unter den wenigen verfügbaren Standorten für so ein Studium in Deutschland entschied sie sich für die Universität Bayreuth. Nach Abschluss des Diploms gab es die Chance, an der TU Dresden im Optimierungsfeld zu arbeiten. Dort promovierte sie, wurde es später Leiterin der selbständigen Nachwuchsgruppe "Analyse und Optimierung von Computermodellen", Juniorprofessorin für "Analyse und Optimierung von Computermodellen" und habilitierte sich. 2009-2019 war sie als Professorin für "Mathematik und ihre Anwendungen" an der Universität Paderborn tätig. Seit Oktober 2019 ist sie Professorin für "Mathematische Optimierung", Humboldt-Universität zu Berlin. Literatur und weiterführende Informationen A. Griewank und A. Walther: Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Second Edition. SIAM (2008). A. Gebremedhin und A. Walther: An Introduction to Algorithmic Differentiation. in WIREs Data Mining and Knowledge Discovery. S. Fiege, A. Walther und A. Griewank: An algorithm for nonsmooth optimization by successive piecewise linearization. Mathematical Programming 177(1-2):343-370 (2019). A. Walther und A. Griewank: Characterizing and testing subdifferential regularity for piecewise smooth objective functions. SIAM Journal on Optimization 29(2):1473-1501 (2019). Podcasts G. Thäter, A. Zarth: Automatic Differentiation, Gespräch im Modellansatz Podcast, Folge 167, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, P. Allinger und N. Stockelkamp: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
Die Konfrontationstherapie, auch Expositionstherapie genannt, gehört zu den Standardverfahren der Verhaltenstherapie. Man behandelt damit unter anderem Angststörungen, an deren Beispiel das Verfahren erläutert wird. Playlist: Koloto - Fox Tales - CC BY-NC-SA Photo Source: By Victor Bezrukov (Port-42) [CC BY 2.0], via Wikimedia Commons
08. Januar 2015 Entspannungstechniken gehören zu den therapeutischen Standardverfahren, denn sie wirken nachweislich und vielfältig auf Körper und Geist. Im Praxisteil geht es darum, wie man die Atementspannung erlernen kann. Playlist: Koloto - Fox Tales - CC BY-NC-SA
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 16/19
Das Glioblastoma multiforme zählt auch heute noch zu den unheilbaren Erkrankungen [14]. Die Behandlung und auch die Prognose hängen stark von der Operabilität, Lokalisation und anderen Faktoren, wie z.B. MGMT-Status, ab. Andere konventionelle bildgebende Verfahren, wie MRT oder CT, konnten bislang, insbesondere nach Therapiebeginn aufgrund von unspezifischen Entzündungsreaktionen, keine sichere Aussage bezüglich Tumoraktivität und Therapieansprechen treffen. Das vorrangige Ziel bestand daher unter anderem darin, durch nicht-invasive Maßnahmen den Krankheitsverlauf des Patienten im Voraus einschätzen zu können, um hierdurch eine Therapie speziell an die Bedürfnisse des Patienten anzupassen, aber auch darin, eine bereits begonnene Therapie auf ihren Erfolg überprüfen zu können. Anhand der Daten durch FET-PET-Untersuchungen zu verschiedenen Zeitpunkten innerhalb eines Therapieprotokolls wurden 79 Patienten auf eine Korrelation zwischen Volumen, SUVmax/BG bzw. Kinetik und Gesamtüberlebenszeit bzw. progressionsfreier Zeit untersucht. Es stellte sich heraus, dass alle drei untersuchten Marker (SUVmax/BG, Volumen, Kinetik) in der Eingangsuntersuchung geeignete Marker sind, um sowohl die progressionsfreie Zeit als auch die Gesamtüberlebenszeit bei einem Patienten einschätzen zu können. Hier erscheint insbesondere das BTV vor Radio-Chemotherapie interessant, da es mit PFS und GÜZ korreliert. Ebenso konnte gezeigt werden, dass nach Therapiebeginn die Untersuchung der Kinetik ein hervorragender Marker ist, um prognostische Aussagen bezüglich des weiteren Krankheitsverlaufs treffen zu können. Ein Therapieansprechen und, im Falle einer Operation, ein Resttumor können erkannt werden. Zusammenfassend lässt sich sagen, dass die additive FET-PET einen festen Stellenwert in der Diagnostik und der Beurteilung des Therapieansprechens bei Glioblastoma multiforme haben könnte, da mit den hier untersuchten Markern bessere Ergebnisse erzielt werden konnten als mit den konventionellen Standardverfahren.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
Die Behandlung ausgedehnter knöcherner Substanzdefekte stellt in der Unfall- und Wiederherstellungschirurgie sowie auch in der Orthopädie nach wie vor ein nur unbefriedigend gelöstes Problem dar. Die Transplantation autogener Spongiosa wie auch die Kallusdistraktion als derzeitge Standardverfahren sind mit erheblichen verfahrensimmantenten Nachteilen verbunden, so daß seit Jahrzehnten nach geeigneten Alternativen gesucht wird. Durch die Methoden der Gentechnologie eröffnete sich schließlich die Möglichkeit, osteoinduktive Wachstumsfaktoren kommerziell herzustellen und therapeutisch einzusetzen, wobei sich im Kleintierversuch das rekombinante humane Osteogenic Protein-1 (Bone Morphogenetic Protein-7) bereits als sehr vielversprechend erwiesen hat. Allerdings spiegelten die verwendeten Versuchsmodelle bisher keine der Humansituation vergleichbaren klinisch-realistischen Problemdefekte wieder. Anhand eines überkritischen Extremmodells sollte daher in der vorliegenden Studie versucht werden, die Möglichkeiten bzw. Grenzen des klinischen Einsatzes von rekombinantem humanem Osteogenic Protein-1 als Bestandteil von Bioimplantaten zur Überbrückung langstreckiger segmentaler Knochendefekte aufzuzeigen. Um die Konkurrenzfähigkeit des Wachstumsfaktors gegenüber den Standard-verfahren zu beschreiben diente als relevanter Parameter die Knochenneubildung in qualitativer, quantitativer und zeitlicher Hinsicht. Dabei sollte der getestete Wachstumsfaktor zumindest vergleichbare oder bessere Ergebnisse erzielen als das Standardverfahren der autogenen Spongiosatransplantation. Um eventuelle Unterschiede der Verfahren möglichst deutlich erkennen zu können wurde gezielt eine überkritische Defektsituation gewählt, in der auch durch aufwändige autogene Spongiosatransplantation keine regelmäßige Ausheilung mehr erzielt werden kann. Dazu wurde bei insgesamt 15 weiblichen Merinoschafen an der linken Tibia ein 5,0 cm langer segmentaler Knochendefekt mit einem Defektvolumen von 20 ml geschaffen und mit einem aufgebohrten Marknagel unter einer beabsichtigten Rotationsinstabilität von 10° osteosynthetisch versorgt. Der Defekt wurde mit folgenden Implantaten aufgefüllt: In Gruppe 1 mit 5 mg Osteogenic Protein-1 kombiniert mit inaktivierter demineralisierter Knochenmatrix als Kollagenträger, in Gruppe 2 mit autogener Spongiosa und in Gruppe 3 nur mit inaktivierter demineralisierter Knochenmatrix zum Ausschluß bzw. zur Beurteilung einer eventuellen Eigenaktivität des Kollagenträgers. Die Auswertung erfolgte anhand von seriellen Röntgenverlaufskontrollen im Abstand von 2 Wochen bis zum Versuchsende nach 12 Wochen, anschließender quantitativer Bestimmung der Knochenneubildung innerhalb des Defektbereiches durch 3D-CT-Volumetrie, biomechanischer Testung im 4-Punkt-Biegeversuch sowie durch unentkalkte Knochenhistologie und Histomorphometrie mittels Mikroradiographie. In den Röntgenverlaufskontrollen zeigten vier von fünf mit Osteogenic Protein-1 behandelten Versuchstieren deutliche Anzeichen einer Implantat-induzierten Knochenneubildung innerhalb des Defektbereiches, allerdings konnte 12 Wochen postoperativ lediglich in zwei von fünf Fällen der Defekt als ausreichend überbrückt und damit als geheilt bezeichnet werden. Nach Transplantation von autogener Spongiosa kam es in allen vier Fällen zu einer Defektüberbrückung bis hin zur knöchernen Defektkonsolidierung in ebenfalls zwei Fällen. Durch Implantation der Trägersubstanz alleine konnte keine Defektüberbrückung erzielt werden. Im zeitlichen Verlauf der Knochenneubildung zeigten sich keine relevanten Unterschiede. Auffällig war dagegen eine mitunter erhebliche Dislokation des osteoinduktiven Implantates aus dem Defektbereich heraus mit Entwicklung ausgeprägter heterotoper Ossifikationen in vier von fünf Fällen nach Implantation von Osteogenic Protein-1. Dieser Effekt konnte in den anderen Gruppen nicht beobachtet werden. Während in der Auswertung des Röntgenverlaufs somit durch Implantation von Osteogenic Protein-1 annähernd gleich gute Resultate hinsichtlich der qualitativen Defektüberbrückung im zeitlichen Verlauf erzielt werden konnten wie durch autogene Spongiosatransplantation, so zeigte sich in der quantitativen Knochenvolumen-bestimmung innerhalb des Defektbereiches mittels 3D-CT-Scan eine eindeutige Überlegenheit der autogenen Spongiosatransplantation gegenüber der Implantation des Wachstumsfaktors. Durch autogene Spongiosatransplantation wurde mit durchschnittlich 21,45 9,20 ml mehr als doppelt so viel neuer Knochen gebildet als durch Osteogenic Protein-1 (durchschnittlich 9,35 2,48 ml). Durch den Einsatz von Osteogenic Protein-1 konnte aber immerhin um 50% mehr neuer Knochen gebildet werden als durch die Trägersubstanz alleine (6,28 1,94 ml). Das primäre Einbringen von mineralischer Substanz bei autogener Spongiosatransplantation scheint dabei keinen Einfluß auf eine falsch-positive Verzerrung der Ergebnisse zu haben, da die Relationen der Fraktionen unterschiedlich dichten Knochens dabei in allen Gruppen vergleichbar waren. Das vermeintlich relativ gute Ergebnis nach Implantation der Trägersubstanz alleine ist durch die Miterfassung der Defektkanten und der von diesen ausgehenden Spontanregeneration zu erklären. Biomechanisch konnten alle vier Tibiae nach Spongiosatransplantation und eine mit Osteogenic Protein-1 behandelte Tibia untersucht werden. Dabei reflektierten alle getesteten Tibiae lediglich Charakteristika bindegewebig organisierter Pseudarthrosen mit einer relativen Bruchlast von 9,6-18,4 % gegenüber der jeweiligen unversehrten kontralateralen Tibia. In der Kontrollgruppe (nur Kollagenträger) war keine operierte Tibia ausreichend stabil für die biomechanische Auswertung. Histologisch zeigten sich in der Färbung nach Laczko-Levai im Gruppenvergleich keine qualitativen Unterschiede des neu gebildeten Knochens. In allen Fällen handelte es sich um noch ungerichteten Geflechtknochen mit allen typischen Bestandteilen. In der Alizarin-Toluidin-Färbung sowie in der Färbung nach Laczko-Levai war bei vier von fünf mit Osteogenic Protein-1 behandelten Versuchstieren eine lokalisations-abhängige Ausbildung von gelenktypischem Knorpelgewebe am Interface zwischen Marknagel und neu gebildetem Knochen auffällig. Dieser neugebildete Knorpel fand sich nur an Lokalisationen, wo in unmittelbarer Nähe auch neuer Knochen gebildet wurde. Wie bei einer regelrechten synovialen Gelenkfläche befand sich der neugebildete Knorpel an der Oberfläche zum mobilen Marknagel hin und stand über eine subchondrale Platte in fester Verbindung mit dem darunter liegenden simultan gebildeten Knochen. Dieser Effekt konnte in den anderen beiden Gruppen jeweils nur in einem Fall und auch nur in deutlich geringerem Ausmaß beobachtet werden. Dieses in der vorliegenden Studie beobachtete Phänomen einer simultanen Knochen- und Knorpelbildung durch rekombinantes humanes OP-1 in Abhängigkeit einer unterschiedlich ausgeprägten mechanischen Belastungsstruktur wurde bislang noch nicht im Rahmen eines extraartikulären Modells beschrieben. Mikroradiographisch wurden im Gruppenvergleich ebenfalls keine qualitativen Unterschiede des neu gebildeten Knochens festgestellt. Die quantitativen Messungen korrelieren gut mit denen der 3D-CT-Volumetrie. In allen Gruppen erfolgte die Knochenneubildung ferner erwartungsgemäß lokalisationsabhängig verstärkt im ersatzstarken Lager. Zusammenfassend kann dem rekombinanten humanen Wachstumsfaktor Osteogenic Protein-1 auch im großen segmentalen Problemdefekt eine ausgeprägte lokale osteogenetische Potenz zugeschrieben werden, allerdings erscheint eine humanmedizinische Anwendung der gegenwärtig angebotenen Applikationsform im langstreckigen segmentalen Kontinuitätsdefekt der lasttragenden unteren Extremität aufgrund noch ungelöster Probleme hinsichtlich Applikation, Dislokation, Dosierung und Releasing aus der Trägersubstanz derzeit noch nicht gerechtfertigt. Diese Studie zeigt aber ferner, daß Osteogenic Protein-1 bei entsprechenden biochemischen und insbesondere biomechanischen Milieubedingungen das Potential zur Generierung von gelenktypischem Knorpel haben kann. Interessant erscheint dabei vor allem die wohl von der lokal unterschiedlichen Belastungsstruktur abhängige simultane Induktion sowohl von Knochen- als auch von Knorpelgewebe durch Osteogenic Protein-1. Damit eröffnet sich ein weiteres Forschungsfeld im Zusammenhang mit diesem Wachstumsfaktor im Hinblick auf die Regeneration von osteochondralen Defekten. Diese Tatsache bekräftigt aber auch die unabdingbare Notwendigkeit einer stabilen Osteosynthese bei Anwendung von Osteogenic Protein-1 mit dem Ziel der reinen Osteoinduktion.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
Die Akupunktur wird zunehmend in der Patientenversorgung eingesetzt. Auch wenn einige klinische Effekte in großangelegten Studien nachgewiesen werden konnten, ist der Wirkmechanismus der Akupunktur weitgehend ungeklärt. Grundlagenforschungen und klinische Studien schreiben der Akupunktur eine lokale und zentrale Wirkung zu. Insbesondere zu den lokalen, das heißt peripheren, Effekten liegen nur sporadische Studienergebnisse vor. Zur Untersuchung der peripheren sensorischen Effekte ist mittlerweile die Quantitativ Sensorische Testung (QST) ein Standardverfahren mit welchem verschiedene Empfindungs- und Schmerzschwellen bestimmt werden können. Ziel der vorliegenden Studie war es, die Soforteffekte verschiedener Stimulationstechniken der Akupunktur auf Veränderung sensorischer Parameter mittels QST zu untersuchen. Dazu wurde eine prospektive, randomisierte, kontrollierte und einfachverblindete Studie mit 24 gesunden Probanden im Cross-over-Design mit sechs Behandlungssträngen und drei verschiedenen Interventionen (manuelle Akupunktur, niedrigfrequente Elektroakupunktur, hochfrequente Elektroakupunktur) einseitig an vier Akupunkturpunkten am Unterschenkel (Milz 6, Milz 9, Magen 36, Gallenblase 39) durchgeführt. Zielparameter waren die Veränderungen der senorischer Parameter. Hierzu wurde mittels QST Wärme- und Kälteschwelle, paradoxe Hitzeempfindung, Hitze- und Kälteschmerz, taktile Detektionsschwelle, Allodynie, Druckschmerzschwelle und Vibrationsempfinden gemessen. Messstelle war jeweils eine 30 mm x 30 mm große Fläche an beiden lateralen Unterschenkeln. Das individuelle Nadelgefühl (DeQi) und die Intensität des Einstichs der Akupunkturnadel wurden mittels eines Fragebogens und Visueller Analog Skala untersucht. Die Analyse der Ergebnisse zeigte keine Veränderung bei folgenden Parametern: Wärme- und Kälteschwelle, paradoxe Hitzeempfindung, Hitze- und Kälteschmerz, taktile Detektionsschwelle, Allodynie, Vibrationsempfinden. Unter hochfrequenter Elektroakupunktur (HF) kam es zu einer signifikanten Erhöhung der Druckschmerzschwelle sowohl an der ipsilateralen als auch an der kontralateralen Messtelle. Es konnte mit Ausnahme der Druckschmerzschwelle kein Unterschied zwischen den drei verschiedenen Stimulationstechniken festgestellt werden. Trotz des repetitiven Schmerzreizes durch Akupunktur kam es zu keiner Allodynie oder gesteigertem Wind-up. Die methodentypische Nadelsensation DeQi und der Einstich der Akupunkturnadel wurden individuell sehr unterschiedlich erlebt und scheinen keinen Einfluß auf die Veränderung der sensorischen Parameter zu haben. Eine eindeutige Zuordnung der beteiligten Strukturen kann nicht getroffen werden. Es wird geschlußfolgert, dass die Akupunktur mit HF bei gesunden Probanden zu einer Veränderung der Druckschmerzschwelle führt, so dass auf Grund der bereits vorliegenden Forschungsergebnisse eine Aktivierung der deszendierenden Schmerzhemmung vermutet werden kann. Weitere Nervenfaserfunktionen konnten bei dem untersuchten Probandenkollektiv nicht demonstriert werden. Auf Grund der in der vorliegenden Studie auffällig hohen Standardabweichungen sollten zukünftige Studien mit QST mit einer größeren Fallzahl durchgeführt werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
In dieser Studie wurden die forenisch-biomechnaisch Aspekte des Faustschlages untersucht. Die häufigste Konstellation von Tatmittel mit blosser Körperkraft und Verletzungslokalisation stellt der einzelne Faustschlag gegen das Gesicht dar. Mittels biomechanischen Standardverfahren der optische Bewegungsanalyse und der Bodenreaktionskraftmessung wurden dynamische sowie kinematische Parameter analysiert. 22 Probanden unterteilt in eine Gruppe bestehend aus 10 Amateur-Kampfsportlern und einer 12-köpfigen Referenzgruppe wurden anthropometrisch vermessen und mittels Fragebogen nach deren eigenen subjektiven "Wucht"-Einschätzung befragt. Es wurden Faustschläge auf insgesamt drei in Grösse und Masse sowie Erscheinung sich unterscheidende Schlagobjekte in einer Trainings- und einer Aufzeichnungsphase ausgeführt. Mittels einem optischen Bewegungsanalysesystem mit acht Kameras wurden die Schlaggeschwindigkeit der Faust vor Kontakt mit den Schlagobjekten untersucht. Zeitgleich wurden die Bodenreaktionskräfte der Probanden mit Hilfe von zwei grossen Mehrkomponenten-Messplattformen aufgezeichnet und analysiert. Es lässt sich festhalten, dass für zukünftige Untersuchungen von geradlinigen Bewegungen der oberen Extremität auf die Bestimmung der Parameter im Raum aus Vereinfachungsgründen verzichtet werden kann und es suffizient ist, die kinematischen Parameter in Hauptbewegungsrichtung zu erfassen. Es zeigte sich, dass die anthropometrischen Merkmale eines Schlagenden dessen Faustschlag nicht relevant beeinflussen, dagegen sind Schlagtechnik und Erfahrung entscheidende Einflussfaktoren. Seitens der subjektiven "Wucht"-Einschätzung eines Schlagenden ist in Kenntnis dieser Studie keine Aussagekraft zuverzeichnen. Hierbei ist anzumerken, dass die Wahrnehmung der Schlagintensität auch bei erfahrenen Kampfsportlern nicht im Einklang mit den objektiven hier untersuchten Schlagparametern steht. Es lässt sich desweiteren postulieren, dass Menschen ohne spezifische Erfahrung mit Schlagausführungen beim Schlagen höhere Faustgeschwindigkeiten erreichen, wohingegen erfahrene Schläger mit konstanter Geschwindigkeit unterhalb der maximal möglichen schlagen. Betrachtet man indes die Bodenreaktionkraft, liegen die hier gemessenen Werte der Erfahrenen weit höher als die der Unerfahrenen. Hinzu kommt, dass die Bodenreaktionskraft gleichermassen wie die Schlagkraft abhängig von dem Erfahrungslevel des Schlagenden ist.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19
Die Anwendung eines Hämoperfusionsverfahrens zur Lipidadsorption hat spezielle Kriterien der Biokompatibilität zu erfüllen, hierzu gehören das Fehlen von Interaktionen mit Erythrocyten, Leukocyten und Thrombocyten; die Abwesenheit von Hämolyse und Aktivierung der Gerinnung und Thrombosierung sowie Ausbleiben einer Komplement- oder Kinin-Kallikrein-Reaktion. Die direkte Adsorption von Lipoproteinen durch das DALI-Verfahren ist eine etablierte, vollblutkompatible, sichere, effektive und biokompatible Therapieoption zur Behandlung der Hyperlipoproteinämie. Modifikationen des etablierten und zugelassenen DALI-Systems müssen vor Anwendung in der Routinebehandlung nachweislich vergleichbare Eigenschaften aufweisen. Im standardisierten Verfahren erfolgt die erforderliche Antikoagulation mittels kombinierter Gabe eines Heparin-Bolus (20 IE/ kg KG) und kontinuierlicher Citratzumischung im Verhältnis von 1:20. In der vorliegenden Arbeit wurden zwei Modifikationen der standardisierten Antikoagulation getestet. Unter Reduktion der Citratdosis auf ein Verhältnis von 1:40 bei gleichzeitiger Erhöhung des initialen Heparinbolus (60 IE/kg KG) konnte im Vergleich zur etablierten DALI-Apherese eine vergleichbar gute Effektivität des Verfahrens nachgewiesen werden. Die gemäß NUB-Richtlinien geforderte Absenkungsrate für LDL-Cholesterin über 60% konnte sowohl mittels modifizierter als auch etablierter Apherese erreicht werden. Die diskreten Vorteile des etablierten Verfahrens in der Absenkung des LDL-Cholesterins (69% vs. 62%), Gesamt-Cholesterins (57% vs. 53%) und des Lipoprotein (a) (70% vs. 66%) erscheinen klinisch nicht relevant. Die klinische Sicherheit beider Verfahren zeigte sich unbedenklich und ergab im Vergleich keine Unterschiede. Der Verlust an ionisiertem Calcium war bei Anwendung der modifizierten Antikoagulation erwartungsgemäß geringer (5% vs. 18%), klinisch resultierten daraus jedoch keine Unterschiede bezüglich der Verträglichkeit der Apheresen. Die Antikoagulation war bei Anwendung beider Antikoagulationsregime sicher und ausreichend gut, eine Aktivierung der plasmatischen Gerinnung gemessen anhand der Thrombin-Antithrombin-Komplexe fand in beiden Untersuchungsarmen nicht statt. Die Biokompatibilität beider Verfahren zeigte sich in der beschriebenen Studie vergleichbar zufriedenstellend. Zeichen der Hämolyse waren nicht detektierbar, Erythrocyten-, Leukocyten- und Thrombocytenzahlen waren bei Anwendung beider Verfahren im Wesentlichen vergleichbar stabil. Eine Aktivierung des Komplementsystems fand weder bei Durchführung des Standardverfahrens noch bei Modifikation des Antikoagulationsregimes statt. Eine relevante Aktivierung von Thrombocyten, detektiert mittels -Thromboglobulin, der polymorphnukleären Granulocyten (Elastase) oder der Monocyten konnte jeweils ausgeschlossen werden. Die Modifikation der Gerinnungshemmung aktivierte im tolerablen und vorbekannten Umfang das Kinin-Kallikrein-System, entscheidende Unterschiede zum etablierten Verfahren waren nicht nachweisbar. Aufgrund dieses Phänomens ist eine gleichzeitige Therapie mit ACE-Inhibitoren und DALI kontraindiziert. Insgesamt kann die untersuchte Modifikation der Antikoagulation bei DALI bedenkenlos in der klinischen Routine eingesetzt werden. Auch die Untersuchungen zu DALI ohne Gabe des etablierten initialen Heparin-Bolus und kontinuierlicher ACD-A Gabe im Verhältnis 1:20 zeigte sich klinisch sicher und bedenkenlos. Bedingt durch das dauerhafte ACD-A-Verhältnis 1:20 wurde im Vergleich zur historischen Kontrollgruppe eine geringere Konzentration ionisierten Calciums reinfundiert. Diese Tatsache bedarf ein besonderes Augenmerk bei Patienten, die zur Hypocalciämie neigen. Patienten, die eine orale Antikoagulation mit Phenprocoumon erhielten, wiesen eine ausreichend gute Antikoagulation währen der heparinfreien DALI-Apherese auf, die Aktivierung der plasmatischen Gerinnung fiel gering und vergleichbar zum Kontrollkollektiv aus. Bei Patienten ohne orale Antikoagulation zeichnete sich eine mäßige Aktivierung der plasmatischen Gerinnung durch die heparinfreie DALI-Apherese ab, jedoch ohne offensichtliche Relevanz. Dennoch gebietet die Durchführung des Verfahrens ohne Heparin Vorsicht. Die Zellzahlen für Thrombocyten, Leukocyten und Erythrocyten blieben auch ohne Gabe von Heparin stabil, eine Hämolyse bei heparinfreier Antikoagulation fand nicht statt. Eine klinisch relevante Aktivierung der Thrombocyten oder PMN-Granulocyten konnte nicht nachgewiesen werden. Die durch die negativ geladene Oberfläche des DALI-Adsorbers bedingte Aktivierung des Kallikrein-Kinin-Systems (Bradykinin) wurde durch das heparinfreie Verfahren nicht nennenswert verändert und hatte keine klinischen Nebenwirkungen zur Folge. Das Komplementsystem erfuhr keine evidente Aktivierung durch Weglassen des Heparins bei DALI. Die Effektivität der DALI-Apherese ohne Heparin ist vergleichbar zum etablierten Verfahren, LDL-Cholesterin konnte im Mittel um 65% gesenkt werden, Lp(a) um 62%.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die Trans-urethralen Laser-Ablation der Prostata stellt ein neues minimal invasives Verfahren in der alternativen Therapie der benignen Prostatahyperplasie dar. Das adenomatös veränderte Gewebe der Drüse wird mit einem Quarzlichtleiter bei axialem Strahlengang verdampft. Die Bestrahlung erfolgt mit einem Nd:YAG-Laser mit 60 Watt Dauerleistung. Es bilden sich in antegrader Richtung zylinderförmige Hohlräume im Gewebe, die zu einer Volumenreduktion und damit zu Abnahme der Obstruktion führen. Es wurden 242 Männer mit benigner Prostatahyperplasie mit der TULAP-Methode behandelt. Als Ausschlusskriterien galten lediglich floride Infektionen und Malignome der Blase oder Prostata, ebenso wie neurogene Blasenentleerungsstörungen. Der mittlere IPSS-Wert sank im Verlauf von 12 Monaten von 21,4 auf 20ml/s. Schwerwiegende Komplikationen ergaben sich nicht. Die Anzahl von Zweiteingriffen lag bei 10,3%. In keinem Fall wurde ein Einschwemmsyndrom beobachtet, lediglich bei einem Patient war weitgehend unabhängig des Eingriffs eine Bluttransfusion notwendig. Die subjektive Akzeptanz der Patienten war gut, 98% der Befragten würde den Eingriff in dieser Form erneut durchführen lassen. Die TULAP stellt somit eine effektive Methode zur Behandlung der hyperplastischen Prostata dar. Die infravesikale Obstruktion kann wirksam behoben werden. Die komplikations- und nebenwirkungsarme Technik empfiehlt sich damit nicht zuletzt auch aufgrund der ökonomischen Gesichtspunkte eines begrenzten apparativen Aufwandes als therapeutische Alternative zu den bekannten Standardverfahren in der operativen Behandlung des Prostataadenoms.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Die vorliegende Arbeit beschäftigt sich mit neuen Ansätzen zur Immuntherapie von B-Zell-Lymphomen. Als Mausmodell wurden das Lymphom A20 und der eher leukämisch wachsende BCL1-Tumor verwendet. Alle Zellen eines B-Zell-Lymphoms produzieren einen identischen Antikörper, den sogenannten Idiotyp, der als tumorspezifisches Antigen benutzt werden kann: Die antigenbindenden variablen Regionen von schwerer und leichter Kette sind für die Tumorzellen jedes Patienten spezifisch. Die variablen Regionen lassen sich mit einem flexiblen Linker-Peptid zu single-chain Fragmenten (scFv) fusionieren. Die Antigenbindung und die Struktur als Tumorantigen bleiben dabei erhalten. Die BCL1-Sequenz war bereits bekannt, sie ließ sich mit Hilfe familienspezischer Primer mit PCR amplifizieren und klonieren. Bei der stark hypermutierten Sequenz des A20-Idiotyps versagte das Standardverfahren der Konsensus-Primer, erst eine 5'-RACE-PCR war erfolgreich. Der optimale Effektormechanismus (humoral, CD4 oder CD8 vermittelt) zur Immuntherapie von Lymphomen ist nicht bekannt. Bei DNA-Vakzinen lässt sich die Immunantwort besonders effektiv modulieren. Hier wurde ein System entwickelt, um rasch die Wirksamkeit verschiedener Kombinationen in vivo untersuchen zu können: Der scFv-Idiotyp wurde mit einem Zytokin (IL1beta, IL4, IL12, GM-CSF oder Flt3 ligand) und/oder einem Adjuvans (Tetanus Toxin Fragment C oder HBsAg) gekoppelt. In vitro wurde die Expression, die Faltung des scFv und die biologische Aktivität bestätigt. Neben der spezifischen Zytokinwirkung stabilisieren die Fusionspartner die scFv-Proteine deutlich. Zunächst wurde mit dem Modellantigen HBsAg die Immunisierungstechnik optimiert: Intradermale Plasmid-Injektion in die Ohr Pinna ergab konsistent hohe Antikörper-Titer. Bereits ohne in vitro-Restimulation konnte eine starke zelluläre Antwort nachgewiesen werden. Weiterhin wurde für die beiden Tumormodelle A20 und BCL1 die Wachstumskinetik invivo bestimmt und ein Pilotversuch (32 Tiere) mit drei ausgewählten Konstrukten durchgeführt: Von sechs splenektomierten Mäusen zeigte nur eine nach zwei Immunisierungen eine spezifische zelluläre Antwort gegen A20. In keiner Versuchsgruppe zeigte sich eine signifikante Lebensverlängerung nach Lymphomchallenge. Zusammenfassend ist erstmalig ein System entwickelt worden, das es auf einfache Weise ermöglicht, die Wirksamkeit von verschiedenen Zytokinen und Adjuvantien zur Idiotyp-Vakzinierung zu untersuchen. Dieses System bietet viel Raum für Optimierungen.