POPULARITY
In dieser Folge von IMMOblick diskutieren Peter Ache und Robert Krägenbring mit Prof. Dietmar Weigt über die aktuellen Herausforderungen und Entwicklungen rund um Bodenrichtwerte. Dabei geht es um deren Rolle in der Wertermittlung, die wachsenden Anforderungen im Zuge der Grundsteuerreform und die Kritik an der Art der Verwendung bei der steuerlichen Bewertung. Ein besonderes Augenmerk liegt auf der Frage, wie sich Bodenrichtwerte sachgerecht ermitteln und interpretieren lassen – und warum es problematisch ist, wenn sie nicht korrekt verwendet werden. Ein zentrales Thema ist der Einfluss der Lage auf den Bodenrichtwert. Während die ImmoWertV explizit einen Punktwert vorgibt, zeigt die Praxis, dass es innerhalb einer Bodenrichtwertzone erhebliche Wertunterschiede geben kann. Prof. Weigt erläutert, wie Lagekriterien präziser bestimmt werden können und warum Methoden der Künstlichen Intelligenz und des Maschinellen Lernens hierbei immer wichtiger werden. Machine Learning-Algorithmen ermöglichen bereits eine detaillierte Lagebewertung auf Basis großer Datenmengen – ein entscheidender Fortschritt in einer Zeit, in der Kaufpreisdaten immer seltener verfügbar sind, weil für unbebaute Grundstücke vielerorts deutlich weniger Verkäufe erfolgen. Doch es gibt Herausforderungen: Eine einheitliche und qualitativ hochwertige Datengrundlage fehlt, der Nachwuchs für die Gutachterausschüsse wird knapp, und die Anforderungen an die Wertermittlung steigen stetig. Prof. Weigt macht deutlich, dass moderne Methoden wie KI und automatisierte Analyseverfahren nicht nur eine Effizienzsteigerung, sondern auch eine dringend benötigte Qualitätssicherung bieten. Diese Folge bietet fundierte Einblicke in die Zukunft der Bodenrichtwertermittlung und zeigt, warum Verwaltungen jetzt aktiv werden müssen. Weitere Informationen findest du hier: Webseite: https://dvw.de/publikationen/immoblick Social Media: LinkedIn | Instagram | Facebook
Peter besucht das verregnete Buchen-Reservat und schaut kritisch auf die neueste Waldzustandserhebung der Bundesregierung. Die wirft einige Fragen auf, etwa: Ist vorzeitiger Laubverlust automatisch ein Zeichen für kranke Bäume? Ist der Klimawandel die Hauptursache für einen schlechten Waldzustand? Und: Wie zeitgemäß ist überhaupt das Analyseverfahren für den Waldzustandsbericht? Zum Schluss gibt es im Forsthausbüro noch Antworten auf eure Fragen.+++ Alle Rabattcodes und Infos zu unseren Werbepartnern findet ihr hier: https://linktr.ee/peterundderwald+++Hier geht's zur Pressemitteilung der Waldzustandserhebung 2023 (Bundesministerium für Ernährung und Landwirtschaft): https://www.bmel.de/SharedDocs/Pressemitteilungen/DE/2024/043-waldzustandserhebung.html +++Habt ihr Fragen oder Anmerkungen zu den Themen? Schreibt uns gerne eine E-Mail an podcast@wohllebens-waldakademie.deWenn ihr mehr über den Wald und seine Wunder erfahren wollt, findet ihr in Wohllebens Waldakademie spannende Veranstaltungen & Fortbildungen: www.wohllebens-waldakademie.de +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://datenschutz.ad-alliance.de/podcast.htmlUnsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.
Jacques Derrida bezeichnet mit der Begriffsschöpfung «Grammatologie» die Wissenschaft der geschriebenen Schrift. Der 1967 veröffentlichte Text ist ein zentrales Werk des Poststrukturalismus und begründet damit das Lektüre- und Analyseverfahren der Dekonstruktion. Derrida galt als der weltweit bekannteste zeitgenössische Philosoph. Die tiefe Verankerung für das metaphysische Denken des Abendlands und herrschaftlichen Strukturen sieht Derrida in der alphabetischen Schrift. Ein Novum, denn in der philosophischen Tradition seit Platon wird die Schrift allgemein abgewertet. Sie soll nur Abbildung des Wortes sein, das gesprochene Wort drücke die Seele und den Sinn, die Bedeutung der Wirklichkeit aus. Dabei gerät die Praxis der Schrift und des Schreibens als materielle Praxis aus dem Blick. Doch was passiert in einer Zeit von neuen materiellen Praktiken des Schreibens? Was kritisiert Derrida als Phonologozentrismus? Wie konzipiert er den Begriff Différance? Welche Grundlagen für kritisches Denken hat Derrida gelegt, die heute für emanzipatorische Analyse und Praxis notwendig sind? Im Gespräch mit Alex Demirović ist Joseph Vogl, emeritierter Professor für Neuere deutsche Literatur, Kulturwissenschaft/Medien der Humboldt-Universität zu Berlin.
Wir stellen heute wie jede Woche drei junge Startups vor, die nicht älter als drei Jahre alt sind und bislang Finanzierungen nicht über einer Million Euro erhalten haben.Den Anfang macht Isabelle Guenou, CEO und Co-Founder von Theblood. Das Startup entwickelt neue Analyseverfahren für Menstruationsblut. Die Monatsblutung soll dazu genutzt werden, um Hormonspiegel, Proteine oder Vitamine zu messen. Anhand dieser Biomarker sollen Frauen individuelle medizinische Einschätzungen und Gesundheitstipps bekommen. Das Unternehmen steht kurz vor dem Abschluss einer ersten klinischen Studie und will kurzfristig noch eine mobile App anbieten.Als zweites sprechen wir mit Lukas Jochheim, Co-Founder von Meal&Heal. Das Startup hat eine App entwickelt, die nach eigenen Angaben Unverträglichkeiten herausfinden und eine individuelle Ernährung anleiten kann. Durch die präzise Analytik kann das Unternehmen personalisierte Lebensmittellisten erstellen, welche bereits mehr als 80.000 Lebensmittel beinhalten. Gleichzeitig wird das Rezeptportal individualisiert, wodurch Betroffene verträgliche und an die Bedürfnisse angepasste Rezepte erhalten.Unser letzter Gast der heutigen Folge ist Franziska Lietz, Co-Founder von BitKollegen sowie von Omnics Technologies. Die Schwesterunternehmen stehen für ein IT-Outsourcing, welches einen besonderen Fokus auf die soziale Verantwortung setzt. Die Startups bieten die Möglichkeit, dem Fachkräftemangel durch Outsourcing entgegenzuwirken, ohne dabei die Bedürfnisse der Arbeitnehmenden zu vernachlässigen.
Das Festsymposium führte Forschende aus dem Gebiet der Klassischen Archäologie, der Historischen Bauforschung, den Digital Humanities und der Landschaftsarchäologie online zusammen, um gemeinsam die Zukunftsperspektiven der Klassischen Archäologie als eines Faches, das sich gegenwärtig mehr denn je in einem transitorischen Zustand befindet zu bespreche MARTIN LANGNER (Göttingen) sprach in seinem Beitrag „Maße, Muster, Modelle. Klassische Archäologie als Digitale Bild- und Objektwissenschaft“ über die Möglichkeiten und Aufgaben der Digitalen Analyse von Bildern und Objekten sowie deren Prämissen. Nachholbedarf sieht Langner bei der dreidimensionalen Dokumentation von archäologischen Artefakten auf verschiedenen Ebenen. Als Problemfelder hervorgehoben wurden etwa die objektgemäße Erfassung in hinreichender Qualität, Anzahl und nachvollziehbarer Dokumentation sowie das Fehlen etablierter Standards der Primärdatenerfassung. Letzteres ist gegenwärtig sowohl auf dem Feld scannerbedingter Unterschiede, in der Qualitätssicherung von Meshes und Texturen als auch beim Prozess der Formalisierung von Forschungsfragen, d.h. bei der Formanalyse, festzustellen. Fragestellungen, welche dank digitalen Analyseverfahren ("deviation analysis, composition analysis" etc.) neu bzw. differenzierter behandelt werden können, reichen von sammlungsgeschichtlichen Aspekten etwa zur Rekonstruktion von Gipsabgussformen, über Fingerabdruckforschung an antiken Lämpchen bis hin zu digitalen Malerzuweisungen bei figürlich verzierten attischen Vasen. Zukünftige methodische Forschungsfelder der digitalen Bild- und Objektwissenschaft sieht Langner u. a. in der Weiterentwicklung der Bildmustererkennung, der Erforschung von datengesteuerten Formabstraktionen sowie in der Kombination von "distant viewing" und "close viewing". Den Originalbeitrag und mehr finden Sie bitte hier: https://lisa.gerda-henkel-stiftung.de/transit_klassischearchaeologie_langner
Gesund, schlank, entspannt, erfolgreich. Dein Podcast für ein erfülltes und erfolgreiches Leben.
‼️Diesen Podcast findest Du auch als Video auf meinem YouTube-Kanal https://www.youtube.com/@KerstinHardt/playlists
Die Wirtschaftsnachrichten mit Michael Weyland Thema heute: KI gegen Geldwäsche - Forschungsprojekt entwickelt Lösung zur automatisierten Erkennung von illegalen Finanzflüssen Im Kampf gegen Geldwäsche arbeiten etablierte softwarebasierte Erkennungsverfahren zu unpräzise und schlagen oft falschen Alarm. Ermittlungsbehörden sind dadurch oft überlastet, denn sie müssen jedem Verdacht nachgehen. Im neuen Forschungsprojekt MaLeFiz (Maschinelles Lernen zur Identifikation auffälliger Finanztransaktionen) arbeiten Forschende jetzt an einer Lösung, die mit maschinellem Lernen - eine Technik der künstlichen Intelligenz - die Suche nach illegalen Geldflüssen verbessern und präziser gestalten soll, sodass weniger Fehlalarme generiert werden. Zusätzlich entwickeln die Projektpartner Mindestanforderungen und Kontrollmechanismen für KI-Lösungen, die in der Finanzwirtschaft eingesetzt werden. Darüber hinaus sollen die Ergebnisse der KI nachvollziehbar gemacht werden. Beteiligt sind die Deloitte GmbH, das Fraunhofer-Institut für Sichere Informationstechnologie SIT, die Martin-Luther-Universität Halle-Wittenberg, die Universität Leipzig und das Zentrum Technik und Gesellschaft der TU Berlin. Das Projekt MaLeFiz wird vom Bundesministerium für Bildung und Forschung finanziert und läuft drei Jahre. Das Fraunhofer SIT leitet das Projekt und ist für die Entwicklung des KI-basierten Werkzeugs verantwortlich. Ein wichtiger Baustein im Kampf gegen Geldwäsche ist die Analyse von Finanztransaktionen. Die gängigen Analyseverfahren identifizieren aber zu viele Verdachtsfälle, die alle individuell von speziell geschulten Analysten nachgeprüft werden müssen. Die zuständige Behörde, die Financial Intelligence Unit oder kurz FIU, erhielt allein in den vergangenen beiden Jahren pro Jahr rund 300.000 Meldungen und hat aktuell noch rund 290.000 nicht abschließend bearbeitete Eingänge. Die Methoden der künstlichen Intelligenz versprechen bessere Analysemöglichkeiten, sprich: weniger Fehlalarme (False Positives). Für die Entwicklung der technischen Lösung nutzt das Forschungsteam Methoden des maschinellen Lernens. Transparente Entscheidungen der künstlichen Intelligenz Damit die Ergebnisse solcher Analysen auch vor Gericht Bestand haben, müssen die IT-Lösungen gewisse Voraussetzungen erfüllen. So müssen die Entscheidungen einer KI zum Beispiel nachvollziehbar sein: Die KI soll keine "Blackbox" sein und einfach eine Liste an Verdachtsfällen ausspucken, sondern transparent machen, auf welcher Grundlage sie einen Verdachtsfall markiert. Entsprechend erforscht das Team rechtliche und ethische Fragestellungen. Diesen Beitrag können Sie nachhören oder downloaden unter:
Lebererkrankungen sind zur Epidemie geworden. Die deutsche Leberstiftung berichtet über besorgniserregende Zahlen: Jeder dritte Bürger über 40 hat bereits eine Fettleber, jedes dritte Kind hat eine nicht-alkoholische Fettleber (NAFL) und von den jungen Typ-2-Diabetikern fast jeder zweite. Die NAFL wir in den nächsten Jahren der Hauptgrund für eine Lebertransplantation sein. Dieser Podcast beleuchtet die Rolle von Umweltgiften, Nahrungsmitteln, Allergien und Störungen des Darmmilieus bei der Entstehung von Lebererkrankungen. Neben modernen Analyseverfahren werden Behandlungsmöglichkeiten mit natürlichen Substanzen vorgestellt. Rufen Sie uns an oder schreiben Sie uns: Telefon: 05692/997790 E-Mail: info@ifu-wolfhagen.de Weiterführende Links: IFU Institut für Functional Medicine und Umweltmedizin http://umweltmedizin.org Aus der Sendung: Die Gesundheitslounge: Infusionstherapien HeparTox IFU Vom Arzt und Buchautor Klaus Dietrich Runow: Buch, gebundene Ausgabe, Taschenbuch, Kindle: Der Darm denkt mit: Wie Bakterien, Pilze und Allergien das Nervensystem beeinflussen Buch, gebundene Ausgabe, Taschenbuch, Kindle: Wenn Gifte auf die Nerven gehen Buch, gebundene Ausgabe, Taschenbuch, Kindle - überarbeitete Neuausgabe: Krebs ist eine Umweltkrankheit: Wie Entgiftung und Nährstofftherapie das Immunsystem stärken - Aktualisierte und überarbeitete Neuausgabe
Was in Inhaltsanalysen einst noch mühsam händisch codiert werden musste, macht Gregor Wiedemann in einem Bruchteil der Zeit. Gemeinsam mit seinem Team entwickelt er Verfahren, die aus riesigen Textkörpern komplexe semantische Strukturen in Form von Argumenten herausfiltern. Argument Mining nennt man diese Technik. Hilfreich, wenn man in großen Textmengen, wie sie uns online begegnen, ganz bestimmte Teile herausgreifen möchte, um sie beispielsweise einer weiteren qualitativen Analyse zu unterziehen. Mit dieser Methode hat Gregor Wiedemann bereits die Debatte rund um Atomenergie in den Online-Artikeln des britischen Guardian untersucht. Aktuell extrahieren er uns sein Team Argumente aus Online-Debatten zu Mindestlohn und der Legalisierung von Marihuana. Mit fortschreitender Digitalisierung werden automatisierte Inhaltsanalysen wie das Argument Mining immer notwendiger, denn im digitalen Raum entstehen fortlaufend neue Texte. Nicht nur auf Social Media oder Online-Nachrichtenportalen: Viele Printprodukte digitalisieren ihre Archive und machen sie damit zugänglich für automatisierte Inhaltsanalysen. Die Menge an erforschbaren Texten wird somit unüberschaubar groß. Händische Inhaltsanalyse passé? Dass die automatisierte Textanalyse den forschenden Menschen je vollständig ersetzten wird, glaubt Gregor Wiedemann nicht. Es werde immer eine Mischung aus analoger und automatisierter Medienforschung geben. Wohin sich die automatisierten Analyseverfahren entwickeln werden, traut er sich nicht zu sagen. „Vor fünf Jahren konnte ich mir auch nicht vorstellen, dass möglich sein wird, was heute tatsächlich möglich ist. Deswegen wage ich kaum, eine Prognose abzugeben.“ Die Entwicklung ist rasant. Spannend, was noch auf uns zukommt.
Heute Nachmittag geht es raus in die Natur - zumindest thematisch: Es geht um “Feld, Wald und Wiesen”, genauer die Landwirtschaft und die Forstwirtschaft und damit zwei gigantische und essentielle Märkte. Im ersten Gespräch führt uns David Dohmen, Co-Founder und Data Science Lead von Ocell, durch die Digitalisierung der Forstwirtschaft. Ocell arbeitet an einem Analyseverfahren, das Fernerkundung mit künstliche Intelligenz verbindet und mit seiner „Dynamic Forest”-App Daten zugänglich und organisiert aufbereitet. Das Unternehmen hat gerade seine Seed-Finanzierung im sechsstelligen Bereich erfolgreich abgeschlossen. Im zweiten Gespräch freuen wir uns auf Jonathan Bernwieser, CEO & Co-Founder bei Agrando. Hier haben Yabeo Impact, Sony Innovation Fund und Investbridge sowie die Altinvestoren June Fund und das Londoner Family Office JLR Star gerade 12 Millionen Euro investiert. Das Münchner Startup bietet “eine Online-Lösung für Landwirte, Landhändler und Hersteller zum Ein- bzw. Verkauf und der Vermarktung landwirtschaftlicher Betriebsmittel” an. Agrando versteht sich dabei als Unterstützer bei der Beschaffsanalyse und der Prozessoptimierung.
Die Forschungsfrage für das Dissertations- oder Publikationsprojekt wird von der Forscherin gründlich erarbeitet, getrieben von einem Problem was sie Nachts nicht schlafen lässt. Penibel wird die Frage mit Bezug auf die aktuellsten und wichtigsten wissenschaftlichen Erkenntnisse daraufhin geschärft, eine bedeutsame Forschungslücke zu füllen. Das theoretische Modell steht und Hypothesen wurden anhand der relevanten Theorie abgeleitet. Danach wird ähnlich akkurat am Forschungsdesign gearbeitet: Pre-tests werden durchgeführt, das Forschungsdesign nachjustiert und schlussendlich können im Rahmen eines randomisierten Experiments die Daten erhoben werden. So ähnlich wird vielen angehenden Jungforscherinnen erklärt, wie man entlang eines (deduktiven) wissenschaftlichen Prozesses an Daten gelangt, um die eigene empirische Forschung durchzuführen. In der Praxis sieht das Forscherinnenleben jedoch oft ganz anders aus. Abgesehen davon, dass randomisierte Experimente nur eines der Werkzeuge im Methodenbaukasten von Wissenschaftlerinnen ist, variiert die Sequenz der Schritte von Forschungsfrage bis zur Datenakquise und -analyse teilweise drastisch. Auch bei den Hosts läuft die Forschung nicht ganz nach dem oben beschriebenen Standards. In dieser Folge dreht sich darum alles um das Thema Daten. Die Hosts unterhalten sich darüber: • Welche Daten sie für ihre aktuellen Projekte verwenden • Wie und wann sie an die Daten dafür gekommen sind • Herausforderungen in der Akquise und Analyse verschiedener Datenquellen • Welche Art von Daten sie gerne in der Zukunft analysieren möchten Die geteilten Erkenntnisse sind wie immer nur eine Momentaufnahme basierend auf den subjektiven Erfahrungen der Hosts. Natürlich gibt es noch viele weitere Datenquellen, Analyseverfahren und Projektverläufe. Selbst wenn die Hosts weniger planlos wären, könnte man das Thema im Rahmen einer 40-minütigen Podcastfolge jedoch nicht gebührend behandeln.
Management ist keine Frage der Ideologien oder Moden. Management ist Handwerk - die universelle und wichtigste Disziplin des 21. Jahrhunderts. In diesem Teil zeige ich auf, was jede Führungskraft, unabhängig von ihrer Position und Organisation, im täglichen Alltag an konkreten Methoden für die Erfüllung der Aufgaben braucht. Dabei geht es ihm mitnichten um spezialisierte Analyseverfahren, Controllinginstrumente oder gar die zeitgeistdiktierten Tools der gerade aktuellen Managementmode. Vielmehr geht es um das grundsätzliche Handwerkszeug, das in jeder Organisation, auf jeder Führungsebene, ständig zum Einsatz kommt und beherrscht werden muss. Eine wesentliche Erkenntnis ist, wie wichtig es ist, Details zu beachten - jede einzelne Methode für sich mag noch keinen großen Unterschied machen, alle zusammengenommen helfen dabei, die Effektivität enorm zu steigern, und dabei sich nicht krank zu arbeiten, sondern trotz einer anspruchsvollen und fordernden Arbeit Lebensqualität und ein Privatleben zu genießen.
Folge Deinem Herzen - Der Befreiungspodcast für bewusstes Familienleben
Christine Dietrich - Die Stimme eines Menschen ist verräterisch. Sie lässt Launen und Charakterzüge erkennen und gibt sogar Hinweise auf Krankheiten. Wie ein Mensch spricht, gibt Hinweise auf sein Alter, sein Geschlecht und seine Herkunft. Es gibt längst Softwareprogramme, die damit arbeiten, die eine Analyse der Charaktereigenschaften zulassen, nur aufgrund des Klanges der Stimme! Ärger, Freude oder Furcht werden durch subtile Vorgänge in den Kehlkopfmuskeln für andere hörbar. Auch auf die Persönlichkeit eines Menschen kann man so schließen. Und sogar psychische und körperliche Erkrankungen schlagen sich in Stimme und Sprechweise nieder. Ärzte, Psychologen und Informatiker arbeiten bereits an automatisierten Analyseverfahren, um die Informationen aus der Stimme systematisch zu nutzen. Erkrankungen wie Parkinson ließen sich so womöglich früher erkennen, die Schwere einer Depression oder Aufmerksamkeitsstörung leichter messen. Und genau damit habe ich als Sängerin unglaubliche Erfahrungen gemacht: Ich hatte Krisen, ich hatte Höhen und Tiefen und ich habe unglaublich viel gelernt. Und vor allem habe ich gelernt, dass Stimmbildung mehr ist als schöne Töne treffen! Ob wir das nun wollen oder nicht: durch die feinen Facetten und Klänge unserer Stimme erzählen wir unserem Gegenüber immer unsere ganze Geschichte. Mir ist klar, dass Stimmbildung und Persönlichkeitsentwicklung immer Hand in Hand gehen! Mit meinem Onlineprojekt sing dich frei kann ich voller Überzeugung behaupten, einen wertvollen Beitrag zum Thema ganzheitliche Stimmbildung zu leisten und damit unglaublichen Input zu liefern für alle, die sich auf den Weg machen wollen, Ihre Stimme neu zu erschaffen. In meinen 7 Modulen habe ich die effektivsten Übungen zu einer Methode zusammengefasst und arbeite damit als spiritueller Voice Teacher für die Transformationsfabrik, die im April 2020 mit einem Onlinekongress an den Start geht : www.schlussmitselbstsabotage.com hat den Auftrag, innere und äußere Stimme in Harmonie zu bringen und nachhaltig für ein königliches Gefühl zu sorgen. Du kannst Dich bis zum 15.April eintragen und völlig kostenfrei eintauchen in eine ganz besondere Qualität von Interviews von Frau zu Frau Mehr Informationen zu dieser Episode findest Du unter: https://folgedeinemherzen.net/294-sing-dich-frei-christine-dietrich ------ Komm auf meine Seite unter: https://folgedeinemherzen.net ------ MamaHotline - Ermutigung für Dich
Folge Deinem Herzen - Der Befreiungspodcast für bewusstes Familienleben
Christine Dietrich - Die Stimme eines Menschen ist verräterisch. Sie lässt Launen und Charakterzüge erkennen und gibt sogar Hinweise auf Krankheiten. Wie ein Mensch spricht, gibt Hinweise auf sein Alter, sein Geschlecht und seine Herkunft. Es gibt längst Softwareprogramme, die damit arbeiten, die eine Analyse der Charaktereigenschaften zulassen, nur aufgrund des Klanges der Stimme! Ärger, Freude oder Furcht werden durch subtile Vorgänge in den Kehlkopfmuskeln für andere hörbar. Auch auf die Persönlichkeit eines Menschen kann man so schließen. Und sogar psychische und körperliche Erkrankungen schlagen sich in Stimme und Sprechweise nieder. Ärzte, Psychologen und Informatiker arbeiten bereits an automatisierten Analyseverfahren, um die Informationen aus der Stimme systematisch zu nutzen. Erkrankungen wie Parkinson ließen sich so womöglich früher erkennen, die Schwere einer Depression oder Aufmerksamkeitsstörung leichter messen. Und genau damit habe ich als Sängerin unglaubliche Erfahrungen gemacht: Ich hatte Krisen, ich hatte Höhen und Tiefen und ich habe unglaublich viel gelernt. Und vor allem habe ich gelernt, dass Stimmbildung mehr ist als schöne Töne treffen! Ob wir das nun wollen oder nicht: durch die feinen Facetten und Klänge unserer Stimme erzählen wir unserem Gegenüber immer unsere ganze Geschichte. Mir ist klar, dass Stimmbildung und Persönlichkeitsentwicklung immer Hand in Hand gehen! Mit meinem Onlineprojekt sing dich frei kann ich voller Überzeugung behaupten, einen wertvollen Beitrag zum Thema ganzheitliche Stimmbildung zu leisten und damit unglaublichen Input zu liefern für alle, die sich auf den Weg machen wollen, Ihre Stimme neu zu erschaffen. In meinen 7 Modulen habe ich die effektivsten Übungen zu einer Methode zusammengefasst und arbeite damit als spiritueller Voice Teacher für die Transformationsfabrik, die im April 2020 mit einem Onlinekongress an den Start geht : www.schlussmitselbstsabotage.com hat den Auftrag, innere und äußere Stimme in Harmonie zu bringen und nachhaltig für ein königliches Gefühl zu sorgen. Du kannst Dich bis zum 15.April eintragen und völlig kostenfrei eintauchen in eine ganz besondere Qualität von Interviews von Frau zu Frau Mehr Informationen zu dieser Episode findest Du unter: https://folgedeinemherzen.net/295-schluessel-zur-inneren-koenigin-christine-dietrich ------ Komm auf meine Seite unter: https://folgedeinemherzen.net ------ MamaHotline - Ermutigung für Dich
"Der Mensch spielt nur, wo er in voller Bedeutung des Wortes Mensch ist, und er ist nur da ganz Mensch, wo er spielt." (Friedrich Schiller, Briefe über die ästhetische Erziehung des Menschen, 15. Brief, 1795). Ganz ohne die Zuhilfenahme moderner Mess- und Analyseverfahren wusste Friedrich Schiller schon vor über 220 Jahren um den Wert und den Sinn des Spiels für die Entwicklung und das Befinden des Menschen. Allein die spielerische Vermittlung zwischen Vernunft und Erfahren ermöglicht es nach Schillers Prämisse, das Gute und Schöne erkennen zu lernen. Vor allem das zweckfreie Lernen im Spiel macht das Leben lebenswert, bedeutet letztlich „ästhetische Erziehung“. Die moderne Hirnforschung hat diese Annahme letztlich bewiesen. Man weiß heute, dass die Qualität der im Laufe der kindlichen Entwicklung entstehenden neuronalen Verbindungen direkt auf die Qualität der spielerischen Erfahrungen zurückgeführt werden kann. Die kreative Verbindung von Ideen, die Intensität der Vorstellungskraft, das sprachliche Vermögen und die generelle geistige Reife entwickeln sich aus der Art, wie Menschen spielen und wie sie spielen können. Denn nicht jeder hat die gleichen Chancen, sich spielerisch zu entwickeln. Und hier kommt ein schöner Selbstversuch: Paintball ist ein lustiger Mannschaftssport, bei dem man einander mit kleinen Farbkugeln beschießt. Man kann dabei allerdings auch herausfinden, ob in einem ein Krieger steckt. Unser Autor Marcus Jauer nimmt dabei furchtlos die drohenden blauen Flecken in Kauf.
Der SPONSORs Podcast - im Dialog über das Milliardenbusiness Sport in Kooperation mit Sports Maniac
Mit Hilfe von künstlicher Intelligenz kann Symanto-Gründer und CEO Khaleeq Aziz bis in die Persönlichkeitsstruktur von Sportfans vordringen. Der frühere Profiler und studierte Psychologe hat daraus ein skalierbares Analyseverfahren entwickelt, dass Clubs und Sponsoren hilft, Fans in großer Anzahl besser zu verstehen, zu clustern und mit ihnen zu interagieren. Im SPONSORs-Podcast spricht Aziz auch darüber warum er eine künftige Milliardenbewertung seiner Firma durchaus für realistisch hält. Alle Themen des Podcasts im Überblick: Die Entstehung von Symanto (1:20) Die Vita von Khaleeq Aziz (3:20) Über die Auswertung von Audio-Daten (6:20) Anwendungsfälle im Sport (7:45) Das Business-Modell von Symanto (10:48) Clash of Cultures: Die Zusammenarbeit mit konservativ orientierten Clubs (12:15) Die Technik von Symanto (14:20) Der richtige Umgang mit Daten (17:15) Müssen wir Angst vor künstlicher Intelligenz haben? (24:55) AI for Good (27:15) Die Arbeitswelt der Zukunft (32:15) Die nächsten Schritte von Symanto (33:30) Danke für deine Podcast Bewertung unter: getpodcast.reviews/id/1236559169 Wir freuen uns über Feedback zum neuen Podcast-Format! Darüber hinaus hast du Fragen oder Themenvorschläge? Dann schreib uns an podcast@sponsors.de Mehr Infos unter: sponsors.de/sponsors/podcast Jetzt abonnieren: Spotify | iTunes | Android | Soundcloud
Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen. Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin. Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben. Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen. Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können. Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden. Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), das eine Vielzahl Verfahren und Algorithmen zur Verfügung stellt. Die im Laufe der Arbeit entwickelten Verfahren finden sich im Github Repository zu den Analyseverfahren. Die Analyse des Observationsdatensatz ergab nun Risikoraten von 15.6% bis 11.5% für Nierenversagen. Dies muss aber nicht bedeuten, dass die eine Therapie immer der anderen Therapie vorzuziehen ist, da viele Kriterien für die Wahl einer Therapie einbezogen werden müssen. In der personalisierte oder prädiktiven Medizin wird versucht, an Hand von Observationsanalysen sogar weitergehende Therapiehinweise in Abhängigkeit von Confoundern der einzelnen Patienten zu geben. Den Anstoß für den Data Science Phil Podcast fand Philipp in einem Aufruf vom YouTuber Martin Jung. Im englisch-sprachigen Podcast geht es um grundlegende Verfahren der Data Science, aber auch um weiterführende Themen, die er auf Konferenzen mit Gästen diskutiert. Literatur und weiterführende Informationen P. R. Rosenbaum, D. B. Rubin, Donald B: The Central Role of the Propensity Score in Observational Studies for Causal Effects, Biometrika. 70 (1): 41–55 , 1983. J. Pearl: Causality: Models, Reasoning, and Inference , Cambridge University Press, 2019. D. Ho, K. Imai, G. King, E. Stuart: MatchIt - Nonparametric Preprocessing for Parametric Causal Inference, Journal of Statistical Software, 42(8), 1 - 28, 2011. D. Ho, K. Imai, G. King, E. Stuart: MatchIt: Nonparametric Preprocessing for Parametric Causal Inference, R-Module, 2018. E. A. Stuart: Matching Methods for Causal Inference: A review and a look forward, Statistical Science 25(1): 1-21, 2010. Research Gate Profil von Philipp Packmohr Github Profil von Philipp Packmohr Science Days im Europapark Rust Data Science Blog von Philipp Packmohr stamats von Prof. Dr. Matthias Kohl Podcasts Data Science Phil Podcast P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. I. Hinneburg: EbPharm-Magazin im September, Adjustierung in epidemiologischen Studien, Podcast Evidenzbasierte Pharmazie, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Prof. Dr. Walid Maalej und Marlo Häring vom Fachbereich Informatik der Uni Hamburg erzählen vom SCAN-Projekt und darüber, was Algorithmen können und was die Zusammenarbeit von Informatik und Kommunikationswissenschaft bisher mit sich gebracht hat. Die manuelle Sichtung von Publikumsrückmeldungen in den digitalen Medien ist zeitintensiv. Schnellere automatische Analyseverfahren sind meist auf wenige Features beschränkt und überwiegend auf quantifizierende Messungen angelegt. Die Möglichkeiten, Nutzerkommentare mit Hilfe von Algorithmen auch inhaltlich zu erfassen, stehen noch immer am Anfang. Das Projekt SCAN (Systematische Inhaltsanalyse von Nutzerkommentaren für Journalisten) widmet sich diesem Problem und will ein Software-System entwickeln, das Journalisten bei der Analyse, dem Filtern und Zusammenfassen von nutzergenerierten Inhalten unterstützt. Dr. Wiebke Loosen und Lisa Merten vom Hans-Bredow-Institut arbeiten hierfür mit Prof. Dr. Walid Maalej und seinem Team von der Informatik der Universität Hamburg gemeinsam an einer Lösung und erproben gleichzeitig eine neue Form interdisziplinärer Kooperation. Prof. Dr. Walid Maalej und Marlo Häring erzählen im 22. BredowCast davon, wo das Projekt steht, was Algorithmen können und welche Herausforderungen die interdisziplinäre Zusammenarbeit von Informatik und Kommunikationswissenschaft mit sich gebracht hat.
Wenn ein Unternehmen über einen längeren Zeitraum arbeitet, gibt es immer Bereiche, die mehr Beachtung erfahren als andere. Dazu tragen auch der Charakter der handelnden Personen, das wirtschaftliche Umfeld und der eigene Markt bei. Die Folge ist, dass sich mit der Zeit Altlasten bilden. Diese können unterschiedliche Formen annehmen, von direkt sichtbaren Problemen bis hin zu in den Tiefen der Bilanz versteckten Risiken. Nicht umsonst nimmt die Analyse dieser Altlasten bei der Nachfolge eine nicht unerhebliche Zeit in Anspruch. Für Euch, als Nachfolger, sind solche Altlasten aber auch eine große Chance. Darüber spreche ich in der achten Episode von Follow-Up.fm. Ich stelle Euch vor, welche Typen von Altlasten, von Liquiditätsengpässen bis zu Bilanzrisiken, es gibt und wie man sie identifiziert. Anschließend spreche ich darüber, wie ich mit Altlasten in welcher Reihenfolge umgehe, und warum. Zum Abschluss habe ich noch sieben Tipps und Tricks rund um das Thema. Dabei will ich zeigen, dass es auf keinen Fall immer langwierige Analyseverfahren und teure Beraterstunden braucht, um die vorhandenen Risiken in Erfolge umzuwandeln.
Durch digitale Medien sind die Möglichkeiten des Publikums, sich zu Wort zu melden und journalistische Texte zu kommentieren, enorm gewachsen. Redaktionen stehen damit vor der Herausforderung, mit diesem erhöhten Feedbackaufkommen in ihrem redaktionellen Alltag umzugehen. Die manuelle Sichtung von Publikumsrückmeldungen ist sehr zeitintensiv, automatische Analyseverfahren sind meist auf wenige Features beschränkt und auf meist quantifizierende Messungen angelegt. Die Möglichkeiten, Nutzerkommentare mit Hilfe von Algorithmen auch inhaltlich zu erfassen, stehen noch sehr am Anfang und konzentrieren sich vielfach darauf, so genannte „Hasskommentare“ zu filtern. Das Projekt SCAN (Systematische Inhaltsanalyse von Nutzerkommentaren für Journalisten) widmet sich diesem Problem und will ein Software-System entwickeln, das Journalisten bei der Analyse, dem Filtern und Zusammenfassen von nutzergenerierten Inhalten unterstützen soll. Dr. Wiebke Loosen und Lisa Merten vom Hans-Bredow-Institut arbeiten hierfür mit Prof. Dr. Walid Maaleji und seinem Team von der Informatik der Universität Hamburg gemeinsam an einer Lösung und erproben gleichzeitig eine neue Form interdisziplinärer Kooperation. Wiebke Loosen und Lisa Merten erzählen im BredowCast davon, wie sich Sozialwissenschaften und Informatik einander annähern, dass Qualität und Algorithmus in beiden Disziplinen durchaus verschieden aufgefasst werden können, und was man voneinander lernen kann.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 02/02
Durch die immer größeren technischen Möglichkeiten mobiler Endgeräte sind die Voraussetzungen erfüllt, um diese zum mobilen Arbeiten oder zur Steuerung von industriellen Fertigungsprozessen einzusetzen. Aus Gründen der Informations- und Betriebssicherheit, sowie zur Umsetzung funktionaler Anforderungen, ist es aber vielfach erforderlich, die Verfügbarkeit von entsprechenden Zugriffsrechten auf Nutzer innerhalb autorisierter Zonen zu begrenzen. So kann z.B. das Auslesen kritischer Daten auf individuelle Büros oder die mobile Steuerung von Maschinen auf passende Orte innerhalb einer Fabrikhalle beschränkt werden. Dazu muss die Position des Nutzers ermittelt werden. Im realen Einsatz können Positionsschätzungen jedoch mit Fehlern in der Größe von autorisierten Zonen auftreten. Derzeit existieren noch keine Lösungen, welche diese Fehler in Autorisierungsentscheidungen berücksichtigen, um einhergehenden Schaden aus Falschentscheidungen zu minimieren. Ferner existieren derzeit keine Verfahren, um die Güteeigenschaften solcher Ortsbeschränkungen vor deren Ausbringung zu analysieren und zu entscheiden, ob ein gegebenes Positionierungssystem aufgrund der Größe seiner Positionsfehler geeignet ist. In der vorliegenden Arbeit werden deshalb Lösungen zur Erfassung und Behandlung solcher Positionsfehler im Umfeld der standortbasierten Autorisierung vorgestellt. Hierzu wird zunächst ein Schätzverfahren für Positionsfehler in musterbasierten Positionierungsverfahren eingeführt, das aus den Charakteristika der durchgeführten Messungen eine Verteilung für den Standort des Nutzers ableitet. Um hieraus effizient die Aufenthaltswahrscheinlichkeit innerhalb einer autorisierten Zone zu bestimmen, wird ein Algorithmus vorgestellt, der basierend auf Vorberechnungen eine erhebliche Verbesserung der Laufzeit gegenüber der direkten Berechnung erlaubt. Erstmals wird eine umfassende Gegenüberstellung von existierenden standortbasierten Autorisierungsstrategien auf Basis der Entscheidungstheorie vorgestellt. Mit der risikobasierten Autorisierungsstrategie wird eine neue, aus entscheidungstheoretischer Sicht optimale Methodik eingeführt. Es werden Ansätze zur Erweiterung klassischer Zugriffskontrollmodelle durch Ortsbeschränkungen vorgestellt, welche bei ihrer Durchsetzung die Möglichkeit von Positionsfehlern und die Konsequenzen von Falschentscheidungen berücksichtigen. Zur Spezifikation autorisierter Zonen werden Eigenschaftsmodelle eingeführt, die, im Gegensatz zu herkömmlichen Polygonen, für jeden Ort die Wahrscheinlichkeit modellieren, dort eine geforderte Eigenschaft zu beobachten. Es werden ferner Methoden vorgestellt, um den Einfluss von Messausreißern auf Autorisierungsentscheidungen zu reduzieren. Ferner werden Analyseverfahren eingeführt, die für ein gegebenes Szenario eine qualitative und quantitative Bewertung der Eignung von Positionierungssystemen erlauben. Die quantitative Bewertung basiert auf dem entwickelten Konzept der Autorisierungsmodelle. Diese geben für jeden Standort die Wahrscheinlichkeit an, dort eine Positionsschätzung zu erhalten, die zur Autorisierung führt. Die qualitative Bewertung bietet erstmals ein binäres Kriterium, um für ein gegebenes Szenario eine konkrete Aussage bzgl. der Eignung eines Positionierungssystems treffen zu können. Die Einsetzbarkeit dieses Analyseverfahrens wird an einer Fallstudie verdeutlicht und zeigt die Notwendigkeit einer solchen Analyse bereits vor der Ausbringung von standortbasierter Autorisierung. Es wird gezeigt, dass für typische Positionierungssysteme durch die entwickelten risikobasierten Verfahren eine erhebliche Reduktion von Schaden aus Falschentscheidungen möglich ist und die Einsetzbarkeit der standortbasierten Autorisierung somit verbessert werden kann.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Epithelzellen, die Modell-Zelllinien dieser Dissertation, sind für die Aufteilung und Abtrennung verschiedener Kompartimente eines Organismus zuständig, indem sie sich zu Grenzflächen zusammenschliessen, welche häufig hohen physikalischen Spannungen und Kräften ausgesetzt sind. Um diese physikalischen Kräfte zu verarbeiten oder sie selbst zu produzieren, verwenden Epithelzellen, wie alle anderen Zelltypen auch, das Zytoskelett, das sich im Allgemeinen aus den Komponenten Mikrotubuli, Intermediär-Filamenten und Aktin sowie den damit korrespondierenden Motorproteinen Dynein, Kinesin sowie Myosin zusammensetzt. In dieser Dissertation wird das Zusammenspiel von Aktin und Myosin auf der apikalen Seite von Epithelzellen untersucht. Im Falle von konfluenten Zellen mit vollständig ausgebildeten Zell-Zell-Kontakten sind auf der apikalen Seite der Zellen Mikrovilli zu finden, kleine, mit Aktin-Bündeln gefüllte Ausstülpungen aus der Zelloberfläche, welche für die optimierte Nahrungsaufnahme sowie als Antennen für Signalverarbeitung zuständig sind. Im Zuge der Arbeit konnten wir feststellen, dass sich der Aktin-Myosin-Aufbau auf der apikalen Seite von Einzelzellen ohne Zell-Zell-Kontakte, sogenannten nicht-konfluenten Zellen, grundsätzlich ändert. Mittels Fluoreszenz-Mikroskopie und anderen experimentellen Methoden zeigen wir, dass zwar ähnliche Ausstülpungen auf der apikalen Oberfläche von Einzelzellen zu finden, diese jedoch häufig verlängert, gebogen, hoch-dynamisch und oft parallel zur Zellmembran orientiert sind. Wir zeigen mittels molekularbiologischer Methoden, dass ein zusätzliches, innerhalb der apikalen Zellmembran liegendes isotropes Akto-Myosin-Netzwerk für die dynamische Reorganisation der Mikrovilli-Ausstülpungen verantwortlich ist. Der Identifzierung des isotropen Akto-Myosin-Netzwerkes, welches eine der Hauptaussagen dieser Dissertation ist, wird eine detaillierte Analyse der dynamischen Netzwerkreorganisation angefügt, die mittels temporaler und örtlicher Bild-Korrelationsanalysen charakteristische Zeiten und Längen der Dynamik definiert. Des Weiteren entwickeln wir mehrere Bild- Analyseverfahren, allen voran die Methode der iterativen temporalen Bildkorellation sowie des optischen Flusses, wodurch wir eine Oszillation der Netzwerk-Reorganisationsgeschwindigkeit identifizieren und parametrisieren können. Verschiedene, auf Fluoreszenzmikroskopie und automatisierter optischer Fluss-Bildanalyse basierende Experimente geben Hinweise auf zwei mögliche Erklärungen für die identifizierten Oszillationen. Sowohl Myosin aktivitätsregulierende Proteine als auch spontan auftretende Spannungsfluktuationen im unter Zugspannung liegenden Netzwerk können mögliche Ursachen für die identifizierten Netzwerkoszillationen sein. Obwohl eine eindeutige zelluläre Funktion des apikalen Akto-Myosin-Netzwerkes im Rahmen dieser Doktorarbeit noch nicht identifiziert werden konnte, so können wir aufgrund von verschiedenen Resultaten dennoch postulieren, dass das hier identifizierte Netzwerk eine entscheidende Rolle bei der Zellmigration und Signaltransduktion einnimmt. Unabhängig davon repräsentiert das hier gefundene Netzwerk die faszinierende Möglichkeit, ein aktives, zweidimensionales Akto-Myosin-Netzwerk nicht nur in vitro, sondern in seiner natürlichen Umgebung studieren und biophysikalische Eigenschaften analysieren zu können.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Diese Dissertation widmet sich der Analyse der Eigenschaften der Systeme π−η und π−η′. Wir untersuchen dazu Daten, welche das COMPASS-Experiment am CERN im Jahr 2008 bei den Reaktionen π−p → π−π−π+π0p bzw. π−p → π−π−π+η mit niedrigem Impulsu ̈bertrag auf das Targetproton (0.1 GeV^2 < −t < 1 GeV^2) aufgezeichnet hat. Die isoskalaren Mesonen η und η′ erscheinen dann als Peaks in den invariante-Masse-Spektren der Dreikörpersysteme π−π+π0 bzw. π−π+η, die jeweils im Endzustand π−π+γγ selektiert wurden. Wir zerlegen die so gewonnenen Zweikörpersysteme nach Partialwellen. Wir finden eine einfache Vorschrift, welche es erlaubt allein anhand von Phasenraumfaktoren mit guter Übereinstimmung die Amplituden der geraden Partialwellen D+ (JP = 2+) und G+ (JP = 4+) zwischen den beiden Endzuständen zu übersetzen. Desweiteren gehen wir der Frage nach, ob eine beobachtete Intensität der P+-Welle mit einer Resonanz identifiziert werden kann. Ihr neutraler Isospinpartner hätte Quantenzahlen JPC = 1−+, welche nicht mit einem Fermion-Antifermion-Zustand identifiziert werden können, welche also nicht einem Quarkmodellzustand zugeordnet werden können. Zudem identifizieren wir die bekannten Mesonen a2(1320) und a4(2040), deren Verzweigungsverhältnisse wir bestimmen. Bevor wir zu diesen Ergebnissen kommen, beschreiben wir die bekannten Eigenschaften der starken Wechselwirkung im Hinblick auf die Systematisierung mesonischer Systeme. Wir diskutieren die im von uns betrachteten Bereich hoher Energien und niedriger Impulsüberträge übliche Behandlung von Streuprozessen als t-Kanalaustausch sogenannter Regge-Trajektorien und erörtern Symmetrieeigenschaften, welche die Datenanlyse erheblich vereinfachen. Anschließend diskutieren wir das COMPASS-Experiment, wobei wir besonderes Gewicht auf die Teile legen, welche bei der Gewinnung der in dieser Arbeit analysierten Daten wesentlich waren. Insbesondere beschreiben wir den als Teil dieser Arbeit entwickelten Sandwich-Veto-Detektor, ein elektromagneitsches Kalorimeter, welches als wesentlicher Teil des Triggersystems die verwertbaren Daten um einen Faktor > 3 anreicherte, indem es Ereignisse ausschloss, in welchen Reaktionsprodukte das Spektrometer verfehlten. Um die Datenselektion mit bestmöglicher Qualität durchführen zu können, wurde im Rahmen dieser Arbeit ein datenbasiertes Eichverfahren für die elektromagnetischen Kalorimeter des COMPASS-Experiments entwickelt. Eine Software zum kinematischen Fit wurde ebenso entwickelt und benutzt, um eine möglichst hohe Auflösung zu erzielen. Wir zeigen kinematische Größen, die die vorliegenden Produktionsmechanismen verdeut- lichen. Wir erläutern das Analyseverfahren der sogenannten Partialwellenanalyse in seiner Anwendung auf die betrachteten periphär produzierten Systeme aus zwei Pseudoskalaren Teilchen und die benutzten Softwarelösungen, welche teilweise eigens für diese Arbeit entwickelt wurden. Diese Techniken wenden wir auf die Daten an und kommen so zu den bereits oben erwähnten Ergebnissen. Wir vergleichen auch die Ergebnisse, die wir mit zwei verschiedenen Ansätzen erhalten. Beim einen wird das π−η(′)-System als Zweikörpersystem behandelt, beim anderen werden die Dreikörperzerfälle η → π−π+π0 bzw. η′ → π−π+η zur Untergrundseparation benutzt und somit ein Vierkörpersystem behandelt. Wir heben an dieser Stelle besonders hervor, dass wir eine einfache Transformation finden, welche es erlaubt die beobachteten Partialwellen D+ und G+ mit Quantenzahlen JP = 2+ bzw. 4+ zwischen den beiden Systemen ηπ− und η′π− als qualitativ gleichartig zu erkennen. Wir stellen aber auch fest, dass diese Gleichartigkeit für die spin-exotische P+-Welle nicht gegeben ist. Zuletzt führen wir in Analogie zu früheren Analysen Modellfits durch, in welchen wir Parametrisierungen der Daten anhand von Breit-Wigner-Resonanzamplituden finden, und nutzen diese, um Verzweigungsverhältnisse der bekannten a2(1320) und a4(2040) Mesonen zu gewinnen. Wir vergleichen diese mit den Vorhersagen aus der Theorie der η-η′-Mischung, und im Falle des a2(1320), mit früheren Messungen. In Anhängen sammeln wir einige nützliche Formeln und außerdem Ergebnisse, welche nicht zum Hauptteil dieser Arbeit passen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 06/07
Die vorliegende Arbeit befasst sich mit der Entwicklung von monoklonalen Antikörpern (mAk) zum Nachweis verschiedener relevanter Cephalosporin-Rückstände. Zu diesem Zweck wurden einfache, schnelle und effiziente Verfahren zur Synthese von Cephalosporin-Protein-Konjugaten entwickelt. Zur Gewinnung von Antikörpern wurden Mäuse mit den entsprechenden, mittels aktiver-Ester-Methode an Trägerproteine gekoppelten Cephalosporinen immunisiert. Mittels Zellfusion konnten verschiedene Hybridom-Zelllinien etabliert werden, die mAk zum Nachweis von Cefalexin und Ceftiofur sezernierten. Des Weiteren gelang es erstmals, auch mAk zum Nachweis von Cefapirin, Cefoperazon und Cefquinom herzustellen. Basierend auf diesen mAk wurden verschiedene, hauptsächlich indirekt kompetitive EIA-Verfahren entwickelt und für die Analyse von Milch optimiert. Hinsichtlich der angestrebten Sensitivität waren die in der VO (EU) Nr. 37/2010 festgelegten Rückstandshöchstmengen (MRL-Werte) maßgeblich. Alle mAks waren in der Lage, ihr Ziel-Antibiotikum in Konzentrationen weit unterhalb des entsprechenden MRLWerts nachzuweisen; die Nachweisgrenzen der optimierten EIA-Verfahren betrugen 0,3 ng/ml (Ceftiofur), 0,4 ng/ml (Cefquinom), 2,7 ng/ml (Cefalexin), 6,1 ng/ml (Cefoperazon) bzw. 17,2 ng/ml (Cefapirin) und lagen damit ca. 3,5- bis 330-fach unterhalb dem jeweiligen Grenzwert. Die Spezifität der Antikörper wurde v. a. durch die C-7-Seitenkette des zur Immunisierung verwendeten Cephalosporins geprägt. Nachweisbare Kreuzreaktionen der mAks traten daher nur mit solchen Cephalosporinen auf, die einen strukturell verwandten C-7- Substituenten aufwiesen. Diese kreuzreaktiven Cephalosporine sind jedoch nicht zur Therapie Lebensmittel liefernder Tiere zugelassen. Mit Ausnahme von Ceftiofur ermöglichen die Antikörper daher den substanzspezifischen Nachweis von Cephalosporin- Rückständen in Lebensmitteln. Die Anwendbarkeit der etablierten EIA-Verfahren zum Nachweis von Rückständen in Milch wurde anhand künstlich dotierter Milchproben überprüft. In einem Konzentrationsbereich entsprechend dem ½-, 1- sowie 2-fachen des jeweiligen MRLWerts von 20 – 100 μg/kg wurden Wiederfindungsraten von 90 – 120 % erreicht. Damit stehen erstmals unter Routinebedingungen einsetzbare quantitative immunchemische Analyseverfahren zur Verfügung, die den spezifischen Nachweis fast aller der derzeit in der Therapie von Lebensmittel liefernden Tieren eingesetzten Cephalosporine weit unterhalb der festgelegten Rückstandshöchstmengen ermöglichen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07
Das Ziel dieser Dissertation war es zu untersuchen, ob es möglich ist, die Körperzusammensetzung von Zuchttieren bei 100 kg Körpergewicht zu einem früheren Termin bzw. bei einem niedrigeren Körpergewicht genau vorherzusagen. Dazu wurden die Tiere bei 80 kg und bei 100 kg mittels Magnetresonanztomographie (MRT) und Dualenergie-Röntgenabsorptiometrie (DXA) analysiert. Insgesamt gingen 117 Zuchttiere, darunter 22 intakte Eber und 95 Sauen in die Untersuchung ein. Jedes Tier wurde zweimal mittels MRT und DXA untersucht. Am ersten Untersuchungstermin wogen die Tiere durchschnittlich 84,5 kg, bei der zweiten Untersuchung im Durchschnitt 102 kg. In dieser Arbeit wurden verschiedene reinrassige Linien und deren Kreuzungen verwendet. Die Rassenverteilung war dabei wie folgt: Deutsche Landrasse (n = 19), Deutsches Edelschwein (n = 7), Large Black (n = 18), Schwäbisch Hällisches Landschwein (n = 3), Piétrain (n = 4), Duroc (n = 3) und ihre verschiedenen Kreuzungen (n = 63). Für die Untersuchungen wurden die Tiere mittels Azaperon (2mg/kg) und Ketamin (40mg/kg) sediert. Anschließend wurden die Tiere mittels MRT untersucht. Verwendet wurde ein Siemens Magnetom Open, mit einer Feldstärke von 0,2 Tesla. Die Lenden- sowie die Oberschenkel- und Glutealregion wurden bei jedem Schwein als Untersuchungsregionen herangezogen. Hierzu wurde eine T1-gewichtete Spinechosequenz verwendet. Die Schichtdicke betrug 15 mm und der Distanzfaktor 3,75 mm (=0,25). Für die Lendenregion wurde eine axiale Schnittrichtung verwendet, für die Oberschenkel- und Glutealregion eine coronare. Ausgewertet wurden die MR-Bilder mit Hilfe der Able 3D-Doctor 3.0 Software (Lexington, MA, USA). In der Lendenregion wurden fünf Schnittbilder in caudale Richtung, beginnend an der letzten Rippe, auf das Volumen des Musculus longissimus dorsi und dessen Speckauflage ausgewertet. Für die Oberschenkel- und Glutealregion wurde ein halbautomatisches Auswertungsverfahren gewählt, mit dem vier Schnittbilder in ventrale Richtung ausgewertet wurden, beginnend auf Höhe des Acetabulums. Für Referenzmessungen mittels Dualenergie-Röntgenabsorptiometrie (DXA) wurde ein GE Lunar DPX IQ-Scanner als quantitatives Analyseverfahren eingesetzt. Jedes Schwein wurde nach der MRT-Untersuchung mittels DXA (Modus “Ganzkörper Adult Normal”) untersucht. Die Daten wurden mittels „Proc Reg“ der Statistik-Software SAS 9.2 ausgewertet. Das Volumen des Musculus longissimus dorsi bei 80 kg zeigt eine hohe Beziehung zum Volumen des Musculus longissimus dorsi bei 100 kg (R2 = 0,86; RMSE = 82021 mm3). Bei der Gegenüberstellung der Volumina des Musculus longissimus dorsi bei 80 kg und bei 100 kg allein für die Eber ergibt sich das höchste Bestimmtheitsmaß mit R2 = 0,97 (RMSE = 35340 mm3). Ein ebenso hohes Bestimmtheitsmaß erreicht die Beziehung zwischen dem Volumen der Fettauflage (über dem Musculus longissimus dorsi) bei 80 kg und bei 100 kg allein für die Eber (R2 = 0,97, RMSE = 23757 mm3). Für die Speckauflage aller Tiere bei 80 kg und bei 100 kg resultiert ein Regressionskoeffizient von R2 = 0,91 (RMSE = 41781 mm3). Für die Oberschenkel- und Glutealregion ergeben sich geringere Beziehungen. So kann für die Muskelvolumina bei 80 kg und bei 100 kg ein Regressionskoeffizient von R2 = 0,79 (RMSE = 292079 mm3) erreicht werden. Für die entsprechenden Fettvolumina der Oberschenkel- und Glutealregion liegt das Bestimmtheitsmaß bei R2 = 0,44 (RMSE = 137143 mm3). Im Rahmen einer multiplen Regressionsanalyse kann ein Bestimmtheitsmaß von R2 = 0,82 (RMSE = 3,31 %) erreicht werden, indem das Volumen des Musculus longissimus dorsi und das Volumen der Speckauflage jeweils bei 80 kg als Variablen eingesetzt werden, um das DXA-Gesamtkörperfett (%) bei 100 kg als Referenzwert zu bestimmen. Zudem wurde eine statistische Auswertung verschiedener Einflussfaktoren anhand einer Mischmodell-Analyse mittels REML (restricted maximum likelihood) durchgeführt (p < 0,05). Die Ergebnisse zeigen, dass signifikante Rassen- bzw. Kreuzungsgruppenunterschiede bezogen auf die MRT-Muskel- und Fettvolumina in den untersuchten Regionen, sowie für die DXA-Ergebnisse vorliegen. Eher extensiv genutzte Rassen bzw. Kreuzungsgruppen weisen ein signifikant höheres MRT-Fettvolumen bei erwartungsgemäß signifikant geringem MRT-Muskelvolumen auf. Dabei weisen sie korrespondierend die geringsten DXA-Magerweichgewebewerte und die höchsten DXA-Gesamtkörperfettgehalte auf. Auffällig ist zudem, dass die weniger bemuskelten Rassen bzw. Kreuzungsgruppen über eine höhere Knochenmineraldichte verfügen. Diese Ergebnisse zeigen, dass - obwohl rassespezifische Unterschiede existieren - eine Vorhersage der Körperzusammensetzung (z.B.: DXA-Fettgehalt %) bei 100 kg durch die Untersuchung mittels MRT bei 80 kg möglich ist. Die MRT bietet die Möglichkeit Schlachtkörpermerkmale an potentiellen Zuchttieren in vivo zu erfassen, ohne auf Nachkommenschaftsergebnisse aus der Prüfschlachtung angewiesen zu sein. Somit kann die Schlachtleistung an jedem potentiellen Zuchttier selbst als Eigenleistungsprüfung erhoben werden, was die Kosten der Leistungsprüfanstalten und die für die Versuchsschlachtungen deutlich reduziert. Zudem kann aufgrund der anzunehmend hohen Heritabilitäten das Generationsintervall sowohl für den potentiellen Zuchteber als auch für die potentielle Zuchtsau deutlich reduziert werden, ohne an Genauigkeit zu verlieren.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 09/19
Die Synucleinopathien sind eine Gruppe neurodegenerativer Erkrankungen, die durch pathologische Ablagerungen des Alpha Synucleins charakterisiert sind. Sie umfassen unter anderem den Morbus Parkinson, die Demenz mit Lewy-Körperchen, die multiple Systematrophie und die Lewy Körperchen Variante des auch durch Ablagerungen des Tau Proteins gekennzeichneten Morbus Alzheimer. Ziel der vorliegenden Arbeit war die Analyse von Aggregationsprozessen des Alpha Synucleins durch einzelmolekülspektroskopische Verfahren und die Entwicklung neuer Techniken zur Analyse von Koaggregationsprozessen verschiedener Proteine. Hierzu wurden Synuclein und Tau Proteine rekombinant in E. coli hergestellt, aufgereinigt, durch Gelelektrophorese und Western Blot charakterisiert und Aggregationsprozesse unter in vitro Bedingungen untersucht. Rekombinantes Alpha Synuclein kann unter bestimmten Bedingungen in vitro zu fibrillären, amyloiden Strukturen aggregieren. Diese Aggregate ließen sich durch eine spezifische Änderung der Thioflavin T Fluoreszenz spektroskopisch nachweisen, mittels Elektronenmikroskopie darstellen, und zeichneten sich durch partielle Resistenz gegen die Einwirkung der Serin Protease Proteinase K aus. Durch Einbau von homologen Sondenmolekülen, die zuvor mit einer fluoreszenten Gruppe kovalent konjugiert wurden, ließ sich die Fibrillenbildung auch mit einzelmolekülbasierten, konfokalen, fluoreszenzspektroskopischen Analyseverfahren wie der Kreuzkorrelationsanalyse und der SIFT-Methode (engl. Scanning for Intensely Fluorescent Targets) darstellen. Der Nachweis der Fibrillenbildung war durch die fluoreszenzspektroskopischen Verfahren 100 fach sensitiver möglich. Im Vergleich mit nicht amyloidogenen Proteinen wie Beta Synuclein und Serum Albumin konnte zudem die Spezifität der Aggregation gezeigt werden. Bei neurodegenerativen Erkrankungen findet sich zum Teil die Beteiligung mehrerer amyloidogener Proteine am pathologischen Prozess. Durch die Möglichkeit der simultanen Anregung verschiedener Fluoreszenzsonden bei verschiedenen Wellenlängen und der Differenzierung des emittierten Fluoreszenzsignals konnten Koaggregationsprozesse in heterogenen Systemen mit Hilfe der Einzelmolekülspektroskopie untersucht werden. Es zeigte sich, dass Alpha Synuclein sowohl mit seinem Maushomolog, als auch mit den beiden humanen Parkinson-assoziierten Mutanten A30P und A53T gemischte Fibrillen bildet, während Beta Synuclein einen hemmenden Einfluss auf die Alpha Synuclein Fibrillenbildung aufwies. Mit Hilfe des zweifarbigen Systems ließ sich auch der Anlagerungsprozeß von Alpha Synuclein Monomeren an vorbestehende, amyloide Alpha Synuclein Aggregate darstellen, was einen weiteren Einblick in die molekulare Pathophysiologie der Synucleinopathien bot. Es wird vermutet, dass bereits Oligomerformationen einen neurotoxischen Effekt besitzen. Die besondere Sensitivität der konfokalen Einzelmolekülspektroskopie erlaubte ebenfalls die Detektion von frühen oligomeren Aggregaten des Alpha Synucleins sowie des Tau Proteins. Es konnte gezeigt werden, dass Alpha Synuclein bereits auf Oligomerebene heterogene Aggregate mit dem Tau Protein bildet, was durch die Tatsache, dass es sich bei beiden um intrazelluläre Proteine handelt, eine potentielle pathophysiologische Relevanz besitzt. Im Rahmen von Versuchsreihen zum Einfluss von Liquor aus an verschiedenen neurodegenerativen Erkrankungen leidenden Patienten, ließen sich Hinweise auf eine mögliche neuroprotektive Funktion des Liquors gewinnen. Dieser zeigte nach Gelfiltration in bestimmten Fraktionen deutlich aggregationshemmende Eigenschaften. Diese Fraktionen besitzen einen hohen Gehalt an Albumin. Zusammen mit in vitro gewonnenen Daten, die einen hemmenden Einfluss von Albumin auf die Aggregation des Alpha Synucleins zeigen, sind dies Hinweise, dass die protektive Eigenschaft an den Albumingehalt des Liquors gekoppelt ist. Das diagnostische Potential der entwickelten Messmethode verdeutlichten parallel durchgeführte Analysen von Influenza-Impfstoffpräparationen, in denen gezeigt werden konnte, dass sich Partikel mit unterschiedlichen Oberflächenepitopen auch in Mischungen differenzieren lassen. Durch den Einsatz von spezifischen fluoreszenzmarkierten Antikörpern ließen sich eindeutig bestimmte Influenzastämme anhand der Oberflächenepitop-Konfiguration identifizieren. Zusammenfassend konnte gezeigt werden, dass die konfokale Einzelmolekülspektroskopie eine äußerst sensitive und hochdurchsatzfähige Nachweismethode zur Untersuchung der molekularen Vorgänge im Rahmen der Alpha Synucleinopathien darstellt, deren Potential sich nicht allein auf die Grundlagenforschung beschränkt, sondern auch diagnostische Möglichkeiten beinhaltet und eine neue Methode zur Suche von bisher noch nicht beschriebenen, pharmakologisch interessanten Strukturen bietet.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Bei Patienten mit malignen gastrointestinalen Tumoren kommt es auch nach erfolgter R0-Resektion des Primärtumors häufig in der Folgezeit noch zur Ausbildung von Fernmetastasen. Ursächlich hierfür sind disseminierte Tumorzellen, die sich bereits zu einem frühen Zeitpunkt der Tumorentstehung vom Primärtumor absiedeln, anschließend jedoch in eine Art Ruhephase als „dormant cells“ fallen und erst zu einem späteren Zeitpunkt wieder in die Proliferationsphase eintreten. Hinsichtlich der Evaluation des Rezidivrisikos stellen diese disseminierten Zellen zwar einen unabhängigen Prognosefaktor dar, sind jedoch im Einzelfall mit bisher zur Verfügung stehenden Nachweismethoden nur unzureichend zu identifizieren. In dieser Arbeit haben wir uns zum Ziel gesetzt, ein diagnostisches Verfahren zu entwickeln, das es uns einerseits erlaubt, disseminierte Tumorzellen mit hoher Sensitivität und Spezifität zu charakterisieren und quantifizieren, andererseits dem Patienten eine permanente Verlaufskontrolle durch einen einfachen Zugang zu ermöglichen. Hierfür entwickelten wir eine quantitative Reverse Transkription Polymerase Kettenreaktion (RT-PCR), die hinsichtlich der Zielstruktur auf die außerordentlich spezifische Familie der Melanom-Antigen-Gene (MAGE)-A ausgerichtet war. Die Expression dieser Antigene konnte bisher in vielen verschiedenen Tumortypen nachgewiesen werden, nicht jedoch in nicht-tumorösen, adulten Geweben mit Ausnahme des Hodens. Eine hohe Sensitivität der Methode war durch die Identifikation einer Consensus-Sequenz der MAGE-A-Gene gewährleistet, wodurch wir in der Lage waren, unsere Primer so zu konstruieren, dass in einem Ansatz die MAGE-Subtypen A1-A6 gleichzeitig nachgewiesen werden konnten. Zum einen führten wir damit Zellverdünnungs-Experimente mit der Kolonkarzinom-Zelllinie HT 29 durch, bei denen jeweils 10 ml zentralvenöses Vollblut mit einer unterschiedlichen Anzahl HT 29-Zellen versetzt wurden. Ebenfalls wurden zur Kontrolle 14 Vollblutproben von Patienten ohne Tumorerkrankung aufgearbeitet. Zum anderen untersuchten wir 22 zentralvenöse prä- und postoperative Vollblutproben von Patienten mit operablen gastrointestinalen Tumoren und 19 intraoperativ gewonnene Peritoneallavagen auf das Vorhandensein von disseminierten Tumorzellen. Die Zellverdünnungs-Experimente erbrachten das Ergebnis, dass mit dem verwendeten Analyseverfahren das Vorhandensein von fünf einzelnen Tumorzellen in zehn Millilitern zentralvenösen Vollblutes nachgewiesen werden kann. Dies entspricht einer Empfindlichkeit des Nachweises von einer malignen Zelle in 107 bis 108 mononuklären Zellen. Alle 14 untersuchten Negativkontrollen wurden korrekt als MAGE-A-negativ identifiziert. Von den 22 Vollblutproben der Tumorpatienten konnte präoperativ bei 10 (= 45,5%), postoperativ bei 13 (= 59,1%) eine Disseminierung nachgewiesen werden. Fünf der 19 analysierten Peritoneallavagen erbrachten ein MAGE-A-positives Ergebnis. Dabei zeigte sich keinerlei Abhängigkeit der Disseminierung von der Tumorausdehnung (pT), der Lymphknotenbeteiligung (pN), Fernmetastasen (M), Grading (G), Tumortyp, Alter oder Geschlecht der Patienten. Ob und in welcher Art und Weise die Expression von MAGE-Genen möglicherweise Zellen überhaupt erst dazu befähigt, sich vom Primärtumor abzusiedeln und welchen Einfluss die Operation selbst am Auftreten einer Disseminierung maligner Zellen hat, ist zum gegenwärtigen Zeitpunkt noch nicht ausreichend untersucht und sollte Gegenstand weiterer Forschungsarbeiten sein. Hierfür haben wir ein hochsensitives und –spezifisches Verfahren zum Nachweis disseminierter Tumorzellen entwickelt, auf dessen Grundlage es gelingen könnte, geeignete Patienten spezifischen adjuvanten Immuntherapiekonzepten mit MAGE als Zielstruktur zuzuführen und so das späte Auftreten von Metastasen zu verhindern.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Die Zwangsstörung wurde lange Zeit als eine relativ seltene Krankheit angesehen. Erst durch neuere epidemiologische Untersuchungen zeigte sich, dass sie die vierthäufigste neuro-psychiatrische Erkrankung darstellt. Das Besondere an ihr ist, dass sie im Gegensatz zu anderen neuro-psychiatrischen Erkrankungen, mit einer hirnelektrischen Überaktivität assoziiert sein soll. Vor allem dem überaktivierten orbito-frontalen Kortex wird in zahlreichen Studien eine wichtige Rolle bei der Ätiopathogenese der Zwangsstörung beigemessen. Da die Literatur dazu hauptsächlich auf bildgebende Untersuchungsverfahren mit mangelhafter zeitlicher Auflösung basiert, erscheint es wichtig, die Validität der Erklärungsmodelle zur Entstehung der Zwangsstörung mit einem Analyseverfahren zu überprüfen, das diesen Nachteil nicht hat. Unabhängig davon existieren Befunde, dass bei der Zwangssymptomatik im Ableitungskanal Pz, verkürzte Latenzen bei akustischen P300-Oddball-Paradigmen vorzufinden sind, welche ebenfalls Ausdruck dieser gesteigerten zerebralen Aktivität sein sollen. Die Ergebnisse zu den analogen P300-Amplituden sind dagegen weit weniger konsistent, was auf die recht kleinen Untersuchungskollektive bisheriger Studien zurückzuführen ist. Vorteilhaft an unserem Analyseverfahren ist, dass zu den zerebralen Generatoren der P300 auch Hirnareale zählen, die für die Entstehung und Aufrechterhaltung der Zwangssymptomatik verantwortlich gemacht werden. Dazu gehört insbesondere der orbito-frontale Kortex. Das Ziel dieser Arbeit war somit die Klärung, ob nicht nur die P300-Latenz bei Zwangsstörungen eine Veränderung, im Sinne einer Verkürzung, zeigt, sondern ob auch die P300-Amplitude sich anders darstellt. Erhöhte Amplituden bei Patienten mit Zwangsstörungen wären besser mit der in der Literatur beschriebenen Hyperaktivität vereinbar. Weiterhin gingen wir der Frage nach, in welchen Hirnregionen diese Veränderungen lokalisiert seien und ob eine Hypo- oder Hyperaktivität damit verbunden wäre. Wir erwarteten eine Bestätigung der postulierten Überaktivierung im orbito-frontalen Kortex. Als nächstes wollten wir mögliche Therapieeffekte auf die P300 bzw. auf die zerebrale Hyperaktivität prüfen. Eine Angleichung der hirnfunktionellen Veränderungen an den gesunden Normalzustand nach einer Kombinationstherapie aus Sertralin und multimodaler Verhaltenstherapie wurde angenommen. Letztendlich sollte noch die Frage geklärt werden, ob diese hirnfunktionellen Abnormitäten bei Patienten mit Zwangsstörungen mit der Schwere der Erkrankung korrelieren. Wir untersuchten 71 unbehandelte Patienten mit Zwangsstörungen und 71 gesunden Personen mit einem akustischen P300-Oddball-Paradigma und zeichneten dabei die ereigniskorrelierten Potentiale mit 31 Elektroden auf. Wie bereits angenommen, konnte bei den Patienten mit Zwangsstörungen eine erhöhte P300-Amplitude beobachtet werde. Die P300-Latenz zeigte im Vergleich zu den gesunden Kontrollen nur eine deskriptive Verkürzung. Die Stromdichteverteilung im Talairach-Raum wurde mit der Low Resolution Electromagnetic Tomography (LORETA) durchgeführt. Wir konnten im Zeitintervall der P300 (240 - 580 ms) vier Hirnareale, alle in der linken Hirnhälfte lokalisiert, mit einer signifikant erhöhten Überaktivität bei Patienten mit Zwangsstörungen identifizieren. So zeigten neben dem inferio-temporalen Kortex des Temporallappens, dem inferio-parietalen Kortex des Parietallappens und dem mittleren Gyrus frontalis, vor allem der orbito-frontale Kortex des Frontallappens, signifikant höhere elektrische Aktivierung. Die von uns aufgestellte Hypothese einer orbito-frontalen Hyperaktivität erwies sich also als richtig. Der Einfluss der 10-wöchigen Kombinationstherapie wurde bei 43 von den ursprünglichen 71 Patienten mit Zwangsstörungen untersucht. Nach der Kombinationstherapie normalisierte sich die Überaktivität lediglich im mittleren Gyrus frontalis. Auf der Potentialbasis wiesen hingegen die P300-Amplituden und -Latenzen keine signifikanten Veränderungen auf. In der abschließenden Untersuchung ließ sich kein Zusammenhang zwischen der Psychopathologie (Y-BOCS) und den hirnfunktionellen Abnormitäten bei Zwangsstörungen festgestellen. Die Ergebnisse der vorliegenden Studie sind größtenteils konsistent mit der aktuellen Literatur zur Zwangssymptomatik. Es ist die einzige Arbeit zur Untersuchung der zerebralen Aktivität bei Patienten mit Zwangsstörungen, die dafür einen linearen Lösungsansatz für das inverse EEG-Problems verwendete. Auch existieren nur wenige Studien, die eine vergleichbar große Anzahl an Patienten mit Zwangsstörungen analysiert haben. Dies gilt insbesondere für die Erkenntnisse aus der funktionelle Bildgebung (PET, fMRT, SPECT), die letztendlich den Hauptbeitrag zur Bildung der Hypothese einer zerebralen Hyperaktivität bei Zwangsstörungen leisteten. So wiesen PET- bzw. fMRT-Studien selten mehr 25 zu untersuchende Patienten auf. Die hier verwendete Stromdichte-Analyse bestätigt somit die Befunde aus der funktionellen Bildgebung (fMRT, SPECT, PET) mit ihrem mangelhaften zeitlichen Auflösungsvermögen, dass vor allem eine orbito-frontale Überaktivität die Zwangsstörung charakterisiert. Darüber hinaus konnte zum ersten Mal eine Verbindung zwischen den abnormen P300-Potentialwerten und der zerebralen Hyperaktivität bei Zwangsstörungen hergestellt worden. Auch konnte erstmalig eine Normalisierung der Überaktivität im Gyrus frontalis medius nach Therapie beobachtet werden.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
In der vorliegenden Studie ist anhand von weiblichen Fischer-344-Ratten tierexperimentell erforscht worden, welche Applikationsform von Calcitriol (1,25(OH)2D3), die per subkutaner Injektion, die per Schlundsonde oder die oral über das Futter, den stärksten knochenanabolen Effekt erzielt und die stärkste Suppression der PTH-Sekretion zur Folge hat. In einem weiteren Tierexperiment wurde der Frage nachgegangen, in welchem Umfang die PTH-Suppression eine Rolle bei der antiresorptiven Wirkung von Calcitriol spielt, und ob diese antiresorptive Wirkung von Calcitriol als direkter oder indirekter Effekt am Knochen zu verstehen ist. Im ersten Versuch sind 72 weibliche, sechs Monate alte Fischer-344-Ratten in acht Gruppen eingeteilt und mit Vehikel, 0.05 oder 0.10 µg/kg KG Calcitriol entweder oral über das Futter, oral über Schlundsonde oder über subkutane Injektion zwei Wochen lang behandelt worden. Für den zweiten Versuch wurden sechs Monate alte weibliche Fischer-344-Ratten scheinoperiert (n = 24) oder parathyreoidektomiert (n = 48). Der Erfolg der Parathyreoidektomie ist über die Messung des ionisierten Kalziums im Blut einen Tag post operationem überprüft worden. Einem Teil der parathyreoidektomierten Tiere (n = 24) wurde über osmotische Minipumpen Ratten-PTH (1-34) mit konstanter Rate infundiert, um bei diesen PTX-Tieren eine Normalisierung der Blutkalziumspiegel und PTH-Blutspiegel zu generieren. Alle drei Tiergruppen (SHAM, PTX und PTX+PTH) bekamen oral über das Futter zwei Wochen lang täglich Vehikel, 0.05 oder 0.10 µg/kg KG Calcitriol. Am 5. und 1. Tag vor den Versuchenden erhielten alle Tiere eine Flourochrom-Doppelmarkierung mit Calcein. Die statische und dynamische histomorphometrische Auswertung der Semidünnschnitte, die von unentkalkt in Methylmetacrylat eingebetteten Knochen gewonnen wurden, erfolgte über halb- und vollautomatische Analyseverfahren. Mit der peripheren quantitativen Computertomographie (pQCT) sind weitere Knochenparameter, darunter die Knochenmineraldichte an Tibia und Lendenwirbelkörper bestimmt worden. Aus dem Serum und dem Urin der Ratten sind knochenrelevante Parameter mit in die Beurteilung der Experimente einbezogen worden. Die Applikation von Calcitriol über die drei verschiedenen Wege zeigte unterschiedliche Wirkungen auf den Knochenstoffwechsel, so war die Bone Formation Rate (BFR) in der oral über das Futter behandelten Gruppe am stärksten ausgeprägt. Die Calcitriol-Fütterung bewirkte am Lendenwirbelkörper, nicht aber an der proximalen Tibiametaphyse, eine deutlich gesteigerte Zunahme der gesamten Knochenfläche, der Bone Area. Die gesamte Knochenmineraldichte erfuhr, verglichen mit den Kontrolltieren, in allen behandelten Gruppen eine Zunahme. Eine verminderte Knochenresorption bewirkte allerdings nur die orale Gabe von Calcitriol über das Futter. Die scheinoperierten Ratten im zweiten Tierexperiment haben bezüglich der ausgewerteten Knochenparameter gute Übereinstimmung mit der Fütterungsgruppe aus dem ersten Experiment gezeigt. Der Vergleich der parathyreoidektomierten Tiere ohne PTH-Substitution zu denen mit PTH-Substitution ergab, dass der antiresorptive Effekt von Calcitriol, gemessen Anhand der Deoxypyridinolin-Ausscheidung über die Nieren, unter der Aufrechterhaltung eines konstanten Blut-PTH-Spiegels deutlich erkennbar war. Diese Feststellung weist auf einen direkten antiresorptiven Effekt von Calcitriol am Knochen hin. Die Ergebnisse der vorliegenden Studie lassen erkennen, dass die Applikationsart einen wichtigen Einfluss auf die durch Calcitriol induzierten Effekte am Knochen bei der Ratte besitzt. Der antiresorptive Effekt von Calcitriol ist nicht allein über die Suppression der PTH-Sekretion vermittelt, sondern auch über einen direkten antiresorptiven Effekt von Calcitriol am Knochen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Es wurden 72 männliche Sprague-Dawley Ratten (403 ± 59g) mit Halothan anästhesiert, intubiert und mit Isofluran (1,5-2,5 Vol % in N2O/O2 mit FiO2 = 0,33) beatmet. Zur Kontrolle des arteriellen Blutdrucks, zur Blutentnahme und zur Applikation der Medikamente legte man in die A. und V. femoralis sowie in die V. jugularis Katheter. Zur Kontrolle der perikraniellen und rektalen Temperatur und weiterer Parameter wurden Sonden angebracht. Nach Beendigung der Präparation wurden die Tiere randomisiert in eine Kontroll-Gruppe (n = 32): 25 µg/kg/h Fentanyl und N2O/O2 (FiO2 = 0,33) und eine Propofol-Gruppe (n = 32): 1,0 mg/kg/min Propofol i.v. eingeteilt und die Narkose gruppenspezifisch gewechselt. Beide Gruppen bekamen zusätzlich ein Muskelrelaxans (Rocuroniumbromid 25 mg/kg/h). Durch eine hämorrhagische Hypotension (MAP = 40 mmHg) und einen temporären Verschluss der rechten A. carotis communis wurde für 45 min eine cerebrale Ischämie mit anschließender Reperfusion induziert. Die Blutgase, die perikranielle Temperatur und den pH-Wert hielt man konstant. Nach Ablauf von 1, 3, 7 oder 28 Tagen wurden die Tiere in tiefer Narkose getötet und das Gehirn zur weiteren Analyse tiefgefroren, geschnitten (7µm) bzw. weiter aufbereitet. Als physiologische Referenz gingen zusätzlich die Gehirne der Tiere einer Nativ-Gruppe (n = 8) ein. Die Apoptose-assoziierten Proteine Bcl-2, Mdm-2, Bax und p53 wurden nach einer Immunfluoreszenz-Färbung mit einem Laserscan-Mikroskop und dem Computerprogramm KS 400 (Zeiss & Microsoft) sowie der Western-Blot-Analyse qualitativ und semiquantitativ bestimmt. Die Ergebnisse zeigen in der Immunfluoreszenz-Färbung der Propofol-Gruppe im Vergleich mit der Kontroll-Gruppe eine signifikant verminderte Expression des pro-apoptotischen Proteins Bax am Tag 1, 3, 7 in beiden Hemisphären und beim Western-Blot signifikant am Tag 3, 7 und 28 für die ischämische Hemisphäre und signifikant für die nicht-ischämische Hemisphäre am Tag 28 und tendenziell am Tag 3 und 7. Das pro-apoptotische Protein p53 weist nur im globalen Vergleich signifikante Effekte in beiden Analyseverfahren auf. Die Expression ist in der Propofol-Gruppe niedriger. Das anti-apoptotische Protein Bcl-2 zeigt signifikante Erhöhung der Propofol-Gruppe im Vergleich mit der Kontroll-Gruppe am Tag 1 und 3 für die ischämische und am Tag 1 und 28 für die nicht-ischämische Hemisphäre in der Immunfluoreszenz. Beim Western-Blot zeigt sich für Bcl-2 eine signifikante Erhöhung am Tag 1 für die ischämische und tendenzielle für die nicht-ischämische Hemisphäre. Die Ergebnisse beider Analyseverfahren für das anti-apoptotische Protein Mdm-2 divergieren. Die Immunfluoreszenz zeigt eine signifikante Erhöhung des Proteins für beide Hemisphären am Tag 1 und eine verminderte Expression am Tag 28 für die ischämische Hemisphäre. Der Western-Blot zeigt im Untergruppentest auf die Tage keine signifikanten Unterschiede. Im globalen Test auf die Behandlung zeigt die Kontroll-Gruppe im Vergleich zur Propofol-Gruppe signifikante Effekte in der Erhöhung der Expression des Mdm-2 Proteins. Die unterschiedlichen Ergebnisse der Analyseverfahren können durch unterschiedliche Probenaufbereitungen erklärt werden. Die Ergebnisse lassen die Vermutung zu, dass Propofol bis zu 28 Tage nach einem ischämischen Insult im Zusammenhang mit Apoptose-assoziierten Proteinen neuroprotektiv wirkt. Dem Effekt können anti-apoptotische Wirkungsmechanismen zu Grunde liegen. Es sind allerdings weitere Untersuchungen notwendig, um einen genaueren Einblick in die Mechanismen zu gewinnen und so Behandlungsmöglichkeiten bei einer cerebralen Ischämie einzuführen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Die vorliegenden Studie untersucht den Einfluss der Hypothermie auf die Expression der Apoptose-assoziierten Proteine Bax, p53, Bcl-2 und Mdm-2 nach Induktion einer inkompletten cerebralen Hemisphären-Ischämie mit anschließender Reperfusion bei der Ratte über einen Beobachtungszeitraum von 28 Tagen. Als Versuchstiere dienen 72 männliche Sprague-Dawley Ratten, die unter Halothan anästhesiert, intubiert und mit 2 Vol % Isofluran und N2O/O2 (FiO2=0,33) beatmet werden. Um eine arterielle Blutdruckmessung durchführen zu können und zur Blutentnahme und Applikation von Medikamenten katheterisiert man die rechte A. und V. femoralis und die rechte V. jugularis. Des Weiteren bringt man verschiedene Messsonden an, um einzelne physiologische Parameter genau zu dokumentieren (perikranielle Temperatur-messung, EKG, EEG, Messung der Hirndurchblutung). Nach Abschluss der Präparation werden die einzelnen Tiere randomisiert der Normothermie- (n=32), der Hypothermie-Gruppe (n=32) oder einer unbehandelten Nativ-Gruppe (n=8) zuge-wiesen. Als Ischämiemodell dient der rechtsseitige 45-minütige Verschluss der A. carotis communis unter gleichzeitiger Hypotension durch Blutentzug bis zur Absenkung des MAP auf 40 mmHg. Bei den Tieren der Hypothermie-Gruppe wird die perikranielle Temperatur durch Auflegen von Eisbeuteln innerhalb von 30 min auf 34 °C abgesenkt, hält für 1h die Tiere bei 34 °C und erwärmt sie anschließend innerhalb von 30 min wieder. Nach Ablauf des jeweiligen Beobachtungszeitraumes (1, 3, 7 oder 28 Tage) werden die Tiere getötet, das Gehirn entnommen, tiefgefroren und anschließend in Serie geschnitten oder für die Western-Blot-Analyse aufbereitet. Die Nativtiere tötet man ohne jegliche Manipulation unter Narkose, um für die anschließenden Analyseverfahren einen physiologischen Ausgangswert zu etablieren. Die Expression der Apoptose-assoziierten Proteine Bax, p53, Bcl-2 und Mdm-2 wird durch die Immunfluoreszenz-Färbung (konfokale Lasermikroskopie) und Western-Blot-Analyse untersucht. Für das pro-apoptotische Bax-Protein konnte in der Hypothermie-Gruppe eine signifikante Verminderung bis zu Tag 7 (Immunfluoreszenz-Färbung) bzw. 28 (Western-Blot-Analyse, ischämische Hemisphäre) nachgewiesen werden. Für das p53-Protein zeigt sich nur in der Western-Blot-Analyse eine signifikante Erhöhung in der Hypothermie-Gruppe am Tag 1 auf der nicht-ischämischen Hemisphäre. Das anti-apoptotische Bcl-2-Protein der Hypothermie-Gruppe (Immunfluoreszenz-Färbung) steigt signifikant in beiden Hemisphären am Tag 1 und 3 an. In der Western-Blot-Analyse zeigt sich nur auf der ischämischen Hemisphäre ein Effekt in der Hypothermie-Gruppe: Hier steigt die Menge des Bcl-2-Protein am Tag 1 und Tag 28. Die Expression des anti-apoptotischen Mdm-2-Proteins steigt signifikant in der Immunfluoreszenz-Färbung in beiden Hemisphären am Tag 1 an. In der Western-Blot-Analyse kann nur in der nicht-ischämischen Hemisphäre am Tag 1 ein signifikanter Anstieg in der Hypothermie- im Vergleich zur Normothermie-Gruppe nachgewiesen werden. Zu den übrigen Untersuchungszeitpunkten zeigen sich dahingehend Tendenzen. Die teilweise unterschiedlichen Ergebnisse der beiden Analyseverfahren kann man durch die in der Probenaufbereitung begründeten unspezifischere Detektion der Western-Blot-Analyse im Vergleich zur Immunfluoreszenz-Färbung erklären. Zusammenfassend kann diese Studie zeigen, dass auch im Langzeiteffekt das Ausmaß des neurologischen Schadens nach einer induzierten cerebralen Ischämie durch Absenkung der perikraniellen Temperatur reduziert werden kann. Um die genauen Wirkmechanismen der Hypothermie näher zu erforschen und so neue Ansätze im klinischen Alltag zur Therapie ischämischer Insulte zu etablieren, müssen noch weitere umfassende Untersuchungen durchgeführt werden.
Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 01/06
In dieser Arbeit werden die ersten röntgenographisch charakterisierten Kristallstrukturen von Mangan(IV)-Polyolato-Komplexen vorgestellt (1–11, 13). Ausgehend von Mangan(II) wird mittels zwei Äquivalenten Kaliumhexacyanoferrat(III) die Oxidationsstufe +IV erreicht. Alle Komplexe entstehen aus wäßriger, stark alkalischer Lösung. Die Kristallisation erfolgt in der Kälte, da Mangan(IV)-Komplexe bei Raumtemperatur innerhalb eines Tages zu Mangan(III) reduziert werden. Mangan(IV) zeigt eine starke Präferenz für Koordinationsoktaeder, welches ein stabiles Struk- turelement darstellt. Das Metallion wird von mindestens zwei 1,2-Diolato- oder 1,3-Diolato- Gruppen chelatartig koordiniert. Mangan(IV) bildet mit D-Glucon- und Lactobionsäure jeweils einen mononuklearen Komplex, KNa3[Mn(D-Glc1AH–4)2] · 7 H2O (1) und KNa2,5[Mn(Lac1AH–3,75)2] · 19,23 H2O (2). D-Glu- conato(4–)-Liganden koordinieren über die Sauerstoff-Donoren der Alkohol-Gruppen an C3, C4 und C6, während Lactobionato(3,5–)-Liganden über die Sauerstoff-Donoren der Alkohol- Gruppen an C2, C3 und C5 an Mangan(IV) binden. Dieses Koordinationsmuster entspricht einer threo-Sequenz, von der die dritte Koordinationsstelle um ein C-Atom weiter entfernt liegt. Lactobionsäure besitzt D-Gluconsäure-Teilstruktur, was sich auch im Bauprinzip wie- derfindet. In 1 liegen die Kalium- und Natrium-Ionen mit den Mangan-Atomen auf unendlich langen Strängen entlang [001]. In 2 entsteht ein dreidimensionales Netzwerk mit dimeren Un- tereinheiten aus kantenverknüpften Oktaedern. Auch mit Dulcitol gelingt es, zwei Komplexe zu kristallisieren, die das Bindungsstellenmus- ter der Lactobionato(3,5–)-Liganden aufweisen: K6[Mn(Dulc2,3,5H–3)2]2 [DulcH–2] · 12 H2O (3) und Ba4[Mn(Dulc2,3,5H–3)2]2 [Fe(CN)6] · 8 H2O (4). Die beiden Dulcitolato-Komplexe unterscheiden sich nicht vom Bindungsmodus her, sondern nur in der Art der eingelagerten Gegenionen. In 3 verknüpfen die Kaliumkationen zwei Komplexanionen aus benachbarten Strängen miteinander, des weiteren koordinieren diese an die bindenden Alkohol-Gruppen der Dulcitolato-Liganden, als auch an die Sauerstoff-Atome des zweifach deprotonierten, nicht- koordinierenden Dulcitol. In 4 beteiligen sich die Bariumkationen sowohl an der Reduktion der effektiven Ladung an Mangan als auch am Aufbau eines dreidimensionalen Netzwerks über die Anbindung an Stickstoffatome des Hexacyanoferrat(II)-Ions. Mangan(IV) und Methyl-β-D-ribopyranosid-2,3,4-ato(3–)-Liganden bilden ebenfalls ein Ko- ordinationsoktaeder, Na4[Mn(Me-β-D-Ribp2,3,4H–3)2]2 · 4 H2O (5). Methyl-β-D-ribopyranosid koordiniert in 1C4-Konformation, in welcher die drei cis-ständigen Hydroxyl-Gruppen als Tri- olatoeinheit auf einer Seite zu liegen kommen. Die Natriumkationen binden an Ligand-O- Atome und ein Wassermolekül. Es entsteht ein dreidimensionales Netzwerk mit dimeren Un- tereinheiten von flächenverknüpften Oktaedern, jedoch fehlt eine Verknüpfung der Stränge entlang [001] wie in 4. Es ist kein Wasserstoffbrückenbindungssystem vorhanden. Pentaerythritol-Liganden bilden mit Mangan(IV) zwei Komplexe, die sich nicht in ihren Bin- dungsmodi, sondern in der Art der eingebauten Gegenionen als auch in der Ladung ihrer Komplexanionen unterscheiden, KLi4[Mn(C5H9O4)(C5H8O4)][Mn(C5H9O4)2] · 21 H2O (6) und Na6[Mn(C5H8O4)2][Mn(C5H9O4)2] · 20 H2O (7). Sowohl in 6 als auch in 7 entstehen mehrere kantenverknüpfte Polyeder, die wiederum einen unendlich langen Strang bilden. Mit α- und β-Cyclodextrin sind bei Verwendung von Lithiumhydroxid als Base zwei Kom- plexe durch Kristallisation zugänglich, Li2[∆-Mn(α-CDH–2)3] · 3 EtOH · 38 H2O (8) und K3Li4[Λ-Mn(β-CDH–3,67)3] · 33 H2O (9). Die Ausbildung von intramolekularen Wasserstoff- brückenbindungen wird durch die eingebauten Gegenkationen erleichtert, wodurch es zu einer Reduktion negativer Ladung um das Zentralmetall kommt. Die Koordinationsstelle wird durch die sperrigen Liganden nach außen abgeschirmt. Eine Anbindung von Lithium- bzw. Kalium-Ionen an die koordinierenden Alkohol-Gruppen ist deshalb nicht möglich. Die La- dungskompensation um das Zentralion geschieht allein durch intramolekulare Wasserstoff- brückenbindungen. Allerdings sind die höhere Ladungsdichte des Lithium-Ions bzw. des Ka- lium-Ions und die passende Größe für die Stabilität des Komplexes entscheidend. Xylitol und D-Threitol koordinieren mit jeweils zwei Liganden an Mangan(IV), die Koordina- tionssphäre wird durch eine di-µ-Oxo-Brücke vervollständigt. Xylitol besitzt D-Threitol- Teilstruktur. Es entstehen die Komplexe Ca8[Mn2(Xylt2,4H–2)4 (µ-O)2]2 [Fe(CN)6]2 · 24 H2O (10) und Ca4[Mn2(rac-Thre2,4H–2)4 (µ-O)2] [Fe(CN)6] · 22 H2O (11). Beiden Komplexen ist die zentrale, dimere Einheit [Mn2O2]4+ gemeinsam, die in Inversionssymmetrie vorliegt. Die Koordinationspolyeder sind untereinander kantenverknüpft. Die Annäherung der Mangan(IV)- Zentren liegt in derselben Größenordnung (in 10 287,4(2) pm, in 11 284,4(6) pm). Sowohl in 10 als auch in 11 finden sich Calcium- und Hexacyanoferrat(II)-Ionen, welche für die Stabili- sierung des Komplexes erforderlich sind. In beiden Fällen entsteht ein dreidimensionales Netzwerk mit dimeren Untereinheiten von kantenverknüpften Polyedern. Die Manganzentren sind jeweils antiferromagnetisch gekoppelt (für 10: J/k = –12,2 K und für 11: J/k = –15,2 K). Cytidin bildet mit Mangan(IV) ein Koordinationsoktaeder, K2[Mn(CytH–2)3]·17H2O (13), in welchem drei Cytidin-Liganden als 1,2-Diolat wirken. Mit meso-D-Glycero-D-gulo-heptitol gelingt lediglich die Kristallisation eines Mangan(III)- Komplexes, K2Ba11[Mn2(HeptH–7)2]2 [Fe(CN)6]4 · 49,8 H2O (12). Der Heptitol-Ligand weist sieben Hydroxyl-Gruppen auf, von denen fünf für die Komplexierung des Mangan(III) betätigt werden, wobei eine Hydroxyl-Gruppe µ2-verbrückend wirkt. Die Annäherung der Man- gan(III)-Zentren beträgt 326,3(2) pm bzw. 328,7(3) pm. Der Komplex zeigt die für Man- gan(III) typische Jahn-Teller-Verzerrung, die in den µ2-Oxo-Brücken zum Ausdruck kommt. Die Manganzentren sind ferromagnetisch gekoppelt (J/k = +1,1 K). Die UV/VIS-Spektren der intensiv roten Mangan(IV)-Polyol-Lösungen zeigen nur wenig cha- rakteristische Absorptionsbanden (Schulter bei ca. 520 nm bzw. 19230 cm–1). 4.2 Untersuchungen zur Sauerstoffabsorption wäßriger Mangan(II)- Polyol-Systeme Für die Untersuchung der Sauerstoffabsorption wäßriger Mangan(II)-Polyol-Systeme entfiel die Wahl auf vier Polyole, D-Gluconsäure, Dulcitol, Xylitol und α-Cyclodextrin. Das Ver- hältnis von Base : Mangan(II) : Ligand betrug 10:1:3,5, im Fall des α-Cyclodextrins 10:1:3. Es wurden zwei Meßreihen bei verschiedenen Temperaturen, 20 °C und 5 °C, durchgeführt. Die Messungen bei 20 °C wurden zudem UV/VIS-spektroskopisch verfolgt. Als relevante Parameter sind die Konzentration der Reaktionsteilnehmer, das gewählte Ver- hältnis von Base : Mangan(II) : Ligand, der pH-Wert, die gewählte Base und die Temperatur anzusehen. Auch dem eingesetzten Liganden muß ein Einfluß zugebilligt werden. Die Untersuchungen zeigen, daß eine sukzessive Erhöhung der Mangan(II)-Konzentration bei konstantem Verhältnis von Base : Mangan(II) : Ligand und bei konstanter Temperatur sowohl das Anwachsen der Basenkonzentration sowie des pH-Wertes als auch einen steigenden Sau- erstoffverbrauch bewirken. Starke Abweichungen vom theoretisch zu erwartenden Sauer- stoffbedarf zeigen sich bei hohen Konzentrationen (0,06 M Mn(II)) der Reaktionsteilnehmer. Dies konnte in beiden Meßreihen festgestellt werden. Die bessere Löslichkeit des Sauerstoffs bei abnehmender Temperatur läßt sich bestätigen, da der Gesamtsauerstoffbedarf bei hohen Konzentrationen der Reaktionsteilnehmer niedriger lag als bei den Messungen bei 20 °C. Die spektroskopischen Daten zeigen, daß die Oxidation zunächst sehr schnell voranschreitet und schließlich immer langsamer wird. Da die Reaktionsgeschwindigkeit von der Oxidationszahl des Zentralatoms abhängt und um so schneller ist, je niedriger die Oxidationszahl des Zentral- atoms und je größer das Zentralatom ist, erfolgt die Bildung von Mangan(IV) demnach (klei- nes Metallion, hohe Oxidationszahl) langsam. Bei einer sequentiellen Oxidation von Man- gan(II) über Mangan(III) zu Mangan(IV) wird ein isosbestischer Punkt bei Verwendung von D- Gluconsäure, Dulcitol und Xylitol durchlaufen. Dieser zeigt an, daß zwei Spezies den glei- chen Extinktionskoeffizienten haben. Bei Messungen mit α-Cyclodextrin ist kein isosbesti- scher Punkt vorhanden. Daher sind wohl thermodynamische Aspekte zu berücksichtigen, die einerseits die Stabilisierung von Mangan(III) begünstigen und andererseits die Stabilisierung von Mangan(IV). Die Auswertung des Sauerstoffverbrauchs im Zusammenhang mit der Rot- verschiebung der Absorptionsbanden deckt eine Diskrepanz auf: Es ist ein Überschuß an Sau- erstoff vorhanden, welcher nicht für die Oxidation von Mangan(II) zu Mangan(IV) genutzt wird. Der Gesamtsauerstoffbedarf setzt sich folglich aus zwei Komponenten zusammen. Ab- hängig von der Einwaage an Mangan(II) dient ein Teil dazu, Mangan(II) zu Mangan(IV) zu oxidieren, der Rest des Sauerstoffverbrauchs läßt auf Ligandoxidationsprozesse schließen. Analyseverfahren wie die HPLC oder/und die Cyclovoltammetrie könnten dieses Ergebnis untermauern. Eine Ausnahme bilden Mangan(II)-α-Cyclodextrin-Systeme: Diese erreichen den theoretisch zu erwartenden Verbrauch nicht. Ob Diskrepanzen in den ermittelten Ergeb- nissen apparativ bedingt sein können, muß geprüft werden. Untersuchungen mit Wasserstoffperoxid und natronalkalischen Gluconat-Lösungen sprechen für den gleichen Sachverhalt. Der theoretisch zu erwartende Verbrauch bei hohen Konzentra- tionen der Reaktionsteilnehmer und bei gleicher Meßtemperatur wird ebenfalls überschritten. Die spektroskopischen Daten zeigen die gleiche Rotverschiebung der Absorptionsbanden. Die Annahme, daß es sich bei der reaktiven Spezies in Lösung um die gleiche handeln könnte, scheint nicht abwegig.
Mathematik, Informatik und Statistik - Open Access LMU - Teil 01/03
Herzrhythmusstörungen stellen eine äußerst bedrohliche Krankheit dar und können zum plötzlichen Herztod führen. So sterben in der Bundesrepublik Deutschland pro Jahr etwa 100.000 Patienten an einem Herz-Kreislauf-Stillstand, der in 65 - 80 % durch eine Rhythmusstörung hervorgerufen wird (Trappe et al., 1996). Seit über 20 Jahren ist bekannt, daß das Ausmaß der Rhythmusstörungen wesentlich das Risiko für einen plötzlichen Herztod beeinflußt (Moss et al., 1979). Die Identifizierung von Patienten mit einem erhöhten Mortalitätsrisiko ist daher von erheblichem Interesse und nach wie vor noch nicht zufriedenstellend gelöst. Von dieser Frage hängt die Wahl der geeigneten Therapie ab. Bei Patienten mit einem erhöhten Mortalitätsrisiko ist derzeit die Implementierung eines Defibrillators die einzig wirksame Therapie. Die medikamentöse Behandlung mit sog. Antiarrhythmika war lange Zeit die Therapie der Wahl, bis Ende der 80er Jahre eine Studie aus den USA für einige Medikamente ein erhöhtes Mortalitätsrisiko nachwies (CAST-Studie, 1989). Seit dieser Zeit konzentriert sich die Forschung auf zwei Punkte, die Entwicklung neuer Medikamente und die Erkennung von besonders gefährdeten Patienten. Die einzige nicht-invasive Methode zur Erfassung der Häufigkeit der Arrhythmien ist gegenwärtig das 24 Std. Holter-EKG. Derzeit wird für die Unterteilung in verschiedene Risikogruppen nur das Ausmaß der Rhythmusstörungen, die Häufigkeit der sog. ventrikulären Extrasystolen (VES) erfaßt. Dieser Faktor ist aber nicht aussagekräftig genug. Daher liegt es nahe, die Information über die Rhythmusstörungen besser zu nutzen und vor allem die Komplexität der Arrhythmien besser zu beschreiben. Hierzu werden aus dem 24 Std. Holter-EKG alle Abstände zwischen zwei aufeinanderfolgenden Herzschlägen, die sog. RR-Intervalle, erfaßt. Wenn im Durchschnitt ein Herzschlag pro Sekunde erfolgt, liegen über 24 Stunden ca. 90 000 solcher Intervalle vor. Diese Datenmenge stellt an die Analyseverfahren eine besondere Herausforderung dar. In einem ersten Ansatz wurden Methoden aus dem Bereich der nichtlinearen Dynamik angewandt (Schmidt et al., 1996). Es ist bekannt, daß neben den Rhythmusstörungen auch die Variabilität der RR-Intervalle das Risiko beeinflussen. Mit den Ansätzen, basierend auf der nichtlinearen Dynamik, wurden aus den Daten eines 24 Std. Holter-EKG's zwei Parameter abgeleitet (alpha_VES und alpha_sin ). Der erste Parameter beschreibt die Komplexität, der zweite steht für die Variabilität. Die vorliegende Arbeit wendet statistische Verfahren aus den Bereichen Kurvenschätzung, logistische Regression, Coxsche Regression an, um besonders gefährdete Patienten zu erkennen. Für diese Analyse standen die Daten von 60 Patienten zur Verfügung. Das Ziel dieser Untersuchung ist es insbesondere, die aufwendige Methode der Bestimmung von alpha_sin , alpha_VES durch eine neue zu ersetzen, die konzeptionell und numerisch einfacher ist, die - im Unterschied zur eingeführten - vollständig algorithmisch durchgeführt werden kann und die auch - bei entsprechender Weiterentwicklung - zum Teil online erfolgen könnte.