POPULARITY
Wer wissenschaftlich denkt, ist einigermaßen geschützt vor Desinformation – wer von Skeptizismus und Reproduzierbarkeit dagegen keinen Schimmer hat, lässt sich leicht manipulieren. Podcastfolge über die Grundlagen des wissenschaftlichen Denkens, das gar nicht so schwer ist, wie es klingt: Auch ohne höhere Bildung können wir strukturiert und logisch denken. Und auch viele höher Gebildete haben vom [...] Der Beitrag 296 Klartext-Podcast: Wissenschaftliches Denken erschien zuerst auf Thilo Baum.
Wir sprechen mit Noah Hollman von Prior Labs, einem der Schöpfer von TabPFN (Tabular Prior Fitted Network), über dieses bahnbrechende Foundation-Modell für tabulare Daten. In der Diskussion geht es um die Funktionsweise von TabPFN, die Rolle von In-Context Learning, die Herausforderungen bei der Anwendung der Transformer-Architektur auf tabulare Daten sowie die Generierung synthetischer Daten mit strukturellen kausalen Modellen (SCMs). Darüber hinaus beleuchten wir die beeindruckenden Benchmarking-Ergebnisse und zusätzliche Features des Modells. Zum Ende hin sprechen wir über die offenen Herausforderungen von Prior Labs und welche "Moonshots" sie für die Zukunft planen. **Zusammenfassung:** TabPFN ist ein Modell für Vorhersagen auf tabellarischen Daten, entwickelt von Prior Labs Es nutzt In-Context Learning, um Aufgaben durch Sequenzen von Daten zu lernen, und wurde speziell für die Transformer-Architektur angepasst TabPFN wurde mit 100 Millionen synthetischen Datensätzen, die durch strukturelle kausale Modelle (SCMs) generiert wurden, trainiert Es stellt einen neuen Benchmark dar und liefert starke Leistungen über verschiedene Domänen hinweg Das Modell kann Unsicherheiten quantifizieren, mit fehlenden Werten umgehen und Outlier erkennen TabPFN ist auf Consumer-Hardware trainierbar, was die Entwicklung auch auf kleinen GPUs ermöglicht Zukünftige Entwicklungen fokussieren sich auf Zeitreihen, Kausalität und multimodale Modelle **Links:** Blog: TabPFN: Die KI-Revolution für tabulare Daten https://www.inwt-statistics.de/blog/tabpfn-die-ki-revolution-fuer-tabulare-daten Nature Publikation zu tabPFN aus 2025: https://www.nature.com/articles/s41586-024-08328-6 Artikel über tabPFN in Fortune: https://fortune.com/2025/02/05/prior-labs-9-million-euro-preseed-funding-tabular-data-ai/ Nature News & views von Duncan C. McElfresh: https://www.nature.com/articles/d41586-024-03852-x Zeit für Unternehmer: https://www.zeit.de/zeit-fuer-unternehmer/2025/01/kuenstliche-intelligenz-tabpfn-tabellen-daten?freebie=a67d9166 Publikation zu tabICL: https://arxiv.org/abs/2502.05564 früher Hintergrund-Artikel zur Transformers Architektur für Bayesianische Inferenz : https://arxiv.org/abs/2112.10510 früheres Working Paper zu tabPFN: https://arxiv.org/abs/2207.01848 GitHub Repo zu tabPFN: https://github.com/PriorLabs/TabPFN Homepage Prior Labs: https://priorlabs.ai/ #71: Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek https://www.podbean.com/ew/pb-p2wjd-1897b7e Feedback, Fragen oder Themenwünsche gern an podcast@inwt-statistics.de
MapReduce: Ein Deep DiveIm Jahr 2004 war die Verarbeitung von großen Datenmengen eine richtige Herausforderung. Einige Firmen hatten dafür sogenannte Supercomputer. Andere haben nur mit der Schulter gezuckt und auf das Ende ihrer Berechnung gewartet. Google war einer der Player, der zwar große Datenmengen hatte und diese auch verarbeiten wollte, jedoch keine Supercomputer zur Verfügung hatte. Oder besser gesagt: Nicht das Geld in die Hand nehmen wollte.Was macht man also, wenn man ein Problem hat? Eine Lösung suchen. Das hat Jeffrey Dean und sein Team getan. Das Ergebnis? Ein revolutionäres Paper, wie man mittels MapReduce große Datenmengen verteilt auf einfacher Commodity-Hardware verarbeiten kann.In dieser Podcast-Episode schauen wir uns das mal genauer an. Wir klären, was MapReduce ist, wie es funktioniert, warum MapReduce so revolutionär war, wie es mit Hardware-Ausfällen umgegangen ist, welche Herausforderungen in der Praxis hatte bzw. immer noch hat, was das Google File System, Hadoop und HDFS damit zu tun haben und ordnen MapReduce im Kontext der heutigen Technologien mit Cloud und Co ein.Eine weitere Episode “Papers We Love”.Bonus: Hadoop ist wohl der Elefant im Raum.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
In dieser Folge geht's um die Frage: Macht Größe von Large Language Models (LLMs) bei Predictive Analytics wirklich einen Unterschied? Wir vergleichen Open-Source-Modelle mit bis zu 70 Milliarden Parametern – und siehe da, das 8B-Modell schlägt das große Schwergewicht. Außerdem berichten wir vom Finetuning auf einer AWS-Maschine mit 8 A100-GPUs und den Herausforderungen in Bezug auf die Reproduzierbarkeit. Auch das viel diskutierte DeepSeek-Modell haben wir im Autopreis-Benchmark antreten lassen. Und wie immer fragen wir uns: Was ist praktisch und was ist overkill? **Zusammenfassung** Modellgröße ≠ bessere Prognosen: Das Llama-3.1-8B übertraf das größere 70B-Modell bei der Fahrzeugpreisprognose DeepSeek im Benchmark: Das chinesische Modell zeigt bei größeren Trainingsmengen eine ähnlich gute Performance wie das Llama-3.1-8B, ist bei kleinen Datensätzen aber schwächer Finetuning mit Multi-GPU auf AWS: Für das 70B-Modell war ein Setup mit 8 A100-GPUs nötig Reproduzierbarkeit bleibt schwierig: Trotz Seed erzeugen wiederholte Finetuning-Runs unterschiedliche Ergebnisse Modellselektion empfohlen: Um zuverlässige Prognosen zu erhalten, sollte aus mehreren Finetuning-Durchläufen das beste Modell ausgewählt werden CPU-Inferenz möglich, aber langsam: Im Vergleich zur GPU war die Vorhersage auf der CPU ca. 30-mal langsamer, Quantisierung könnte künftig Abhilfe schaffen Ausblick auf TabPFN & Quantisierung: Kommende Beiträge widmen sich Erfahrungen mit TabPFN und der praktischen Umsetzung von quantisierten LLMs auf kleineren Maschinen **Links** [Begleitender Blogartikel] Predictive LLMs: Skalierung, Reproduzierbarkeit & DeepSeek https://www.inwt-statistics.de/blog/predictive-llms-skalierung-reproduzierbarkeit-und-deepseek #50: Predictive Analytics mit LLMs: ist GPT3.5 besser als XGBoost? https://inwt.podbean.com/e/50-predictive-analytics-mit-llms-ist-gpt35-besser-als-xgboost/ #64: Predictive LLMs: Übertreffen Open-Source-Modelle jetzt OpenAI und XGBoost bei Preisprognosen https://inwt.podbean.com/e/64-predictive-llms-ubertreffen-open-source-modelle-jetzt-openai-und-xgboost-bei-preisprognosen/ vLLM Framework für schnelle Inferenz: https://github.com/vllm-project/vllm?tab=readme-ov-file torchtune Finetuning-Framework von PyTorch: https://github.com/pytorch/torchtune PyTorch Reproducibility: https://pytorch.org/docs/stable/notes/randomness.html Paper zur Reproduzierbarkeit von QLoRA-Finetuning: S. S. Alahmari, L. O. Hall, P. R. Mouton and D. B. Goldgof, "Repeatability of Fine-Tuning Large Language Models Illustrated Using QLoRA," in IEEE Access, vol. 12, pp. 153221-153231, 2024, doi: 10.1109/ACCESS.2024.3470850 https://ieeexplore.ieee.org/document/10700744 heise online: Komprimierte KI: Wie Quantisierung große Sprachmodelle verkleinert von René Peinl https://www.heise.de/hintergrund/Komprimierte-KI-Wie-Quantisierung-grosse-Sprachmodelle-verkleinert-10206033.html deepseek-ai/DeepSeek-R1-Distill-Llama-8B auf Huggingface https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Llama-8B#6-how-to-run-locally TabPFN: Hollmann, N., Müller, S., Purucker, L. et al. Accurate predictions on small data with a tabular foundation model. Nature 637, 319–326 (2025). https://doi.org/10.1038/s41586-024-08328-6 Feedback, Fragen oder Themenwünsche gern an podcast@inwt-statistics.de
In diesen Tagen lässt sich vielerorts eine Stärkung autoritärer Kräfte beobachten. Doch was macht die Anziehungskraft einer Bewegung aus, die illiberal, antidemokratisch und antiparlamentarisch ist? Faschismustheorien zielen auf die Beschreibung, Erklärung und Kritik faschistischer Tendenzen. Morten Paul und Hannah Schmidt-Ott sprechen über die Ansätze von Gilles Deleuze/Félix Guattari, Georges Bataille sowie Walter Benjamin und fragen, was sie uns über die Gegenwart verraten.Morten Paul ist Literatur- und Kulturwissenschaftler und forscht am Kulturwissenschaftlichen Institut Essen.Literatur„Das F-Wort“, in: Analyse & Kritik. Zeitung für linke Debatte & Praxis713 (2025), 18.3.2025.„Faschismus als Lustgewinn“, in: Berlin Review 9 (2025).„Kommentar: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“, in: diffrakting the library/diffrakt. Zentrum für theoretische Peripherie, 10.10.2024. Hosted on Acast. See acast.com/privacy for more information.
Daten(banken) versionieren – klingt maximal unsexy, spart aber Stress im Deployment. Warum ohne Schema-Versionierung selbst kleine Änderungen große Probleme verursachen und was ORMs, Flyway oder Liquibase damit zu tun haben, erfahrt ihr hier. Daten historisieren ist ein Must-have für Compliance, Reproduzierbarkeit und Modellierung. Aber Achtung: Nicht jede Lösung passt für jede Datenbank und den Live-Betrieb. Wir geben Tipps, wie ihr eure Datenprodukte systematisch und effizient im Griff behaltet. **Zusammenfassung** Schema-Versionierung ist essenziell, um Änderungen an Datenbanken nachvollziehbar und reibungslos ins Deployment einzubinden Fehlende Versionierung kann zu kaputten Prozessen führen, wenn Schema-Änderungen nicht dokumentiert und automatisiert umgesetzt werden Werkzeuge wie ORMs, Flyway oder Liquibase helfen dabei, Änderungen an Datenbankschemata strukturiert zu verwalten Historisierung von Daten ist für Compliance, Reproduzierbarkeit und Modellierung entscheidend Ansätze zur Datenhistorisierung: Append-only-Strategien vs. System-Versionierung Herausforderungen: Performance-Engpässe, hohe Pflegekosten und Kompatibilitätsprobleme je nach Datenbank und Migrationstool Best Practices: Versionierung systematisch einführen, Automatisierung priorisieren und sicherstellen, dass Downgrades funktionieren. **Links** #58: Arm, aber sexy: Data Warehousing at Scale ohne Budget https://www.podbean.com/ew/pb-gywt4-1719aef #52: In-process Datenbanken und das Ende von Big Data https://www.podbean.com/ew/pb-tekgi-16896e4 #36: Der Data Mesh Hype und was davon bleibt https://www.podbean.com/ew/pb-7er7v-15080c1 Flyway: https://www.red-gate.com/products/flyway/ Liquibase: https://www.liquibase.com/ Alembic (für SQLAlchemy): https://alembic.sqlalchemy.org/en/latest/ MariaDB: https://mariadb.org/ ClickHouse: https://clickhouse.com/ Fragen, Feedback und Themenwünsche gern an podcast@inwt-statistics.de
Die Vorfreude war extrem groß: Bong Joon-ho dreht eine Science-Fiction-Action-Tragikomödie! Der Trailer sah aus, als sei der Film millimetergenau meine Kragenweite. Das war er dann nicht. Aber beginnen wir am Anfang: Mickey muss die Erde verlassen und ohne sich über die Konsequenzen im Klaren zu sein, bewirbt er sich als Expendable (deutsch: entbehrlich) auf einem Raumschiff, d.h. er wird gescannt und bei Bedarf neu aus dem Biodrucker hergestellt, inklusive Gedächtnisspeicher. Ab sofort ist er ein Wegwerfarbeiter: Er übernimmt die unangenehmsten und gefährlichsten Aufgaben und dient als Versuchskaninchen für tödliche Experimente. Dann wir die Leiche verbrannt und die neue Version wird ausgedruckt. Als Mickey 17 einen Auftrag wider Erwarten überlebt, ist Mickey 18 schon gedruckt. Und damit fangen die Probleme richtig an …Tolle Idee (von Edward Ashton), toller Look, tolle Schauspieler und spannende Themen, die angerissen werden: menschliche Arbeiter als Wegwerfartikel und narzisstische Milliardäre, religiöser Fanatismus und Widerstand, Kolonialismus und Genozid. Mit dem richtigen Einflugwinkel ein starker Film. Allerdings nicht für mich, ich bin emotional leider immer auf Abstand geblieben: Die relevanten Themen werden nur oberflächlich angerissen, zu viel Voice Over, zu wenig Screwball, die Szenen sind zu lang, der Film ist zu lang und ganz subjektiv: Ich bin es so unendlich leid, durchgeknallte Milliardäre mit Allmachtsfantasien zu sehen – sowohl auf der Leinwand als auch in den Nachrichten. Also: Möglicherweise ein sehr guter Film, aber nicht für mich. im Podcast vergleichen wir auch den Film mit der Buchvorlage. Direkt nach dem Kino am Mikrofon, mit ganz unterschiedlichen ersten Eindrücken: Johanna, Anke, Marc, Hendrik, Tom und Thomas.
Machine Learning Operations (MLOps) mit Data Science Deep Dive.Machine Learning bzw. die Ergebnisse aus Vorhersagen (sogenannten Prediction-Models) sind aus der modernen IT oder gar aus unserem Leben nicht mehr wegzudenken. Solche Modelle kommen wahrscheinlich öfter zum Einsatz, als dir eigentlich bewusst ist. Die Programmierung, Erstellung und das Trainieren dieser Modelle ist die eine Sache. Das Deployment und der Betrieb ist die andere Thematik. Letzteres nennt man Machine Learning Operations, oder kurz “MLOps”. Dies ist das Thema dieser Episode.Wir klären was eigentlich MLOps ist und wie es sich zum klassischen DevOps unterscheidet, wie man das eigene Machine Learning-Modell in Produktion bringt und welche Stages dafür durchlaufen werden müssen, was der Unterschied von Model-Training und Model-Serving ist, welche Aufgabe eine Model-Registry hat, wie man Machine Learning Modelle in Produktion eigentlich monitored und debugged, was Model-Drift bzw. die Drift-Detection ist, ob der Feedback-Cycle durch Methoden wie Continuous Delivery auch kurz gehalten werden kann, aber auch welche Skills als MLOps Engineer wichtig sind.Um all diese Fragen zu beantworten, stehen uns Michelle Golchert und Sebastian Warnholz vom Data Science Deep Dive Podcast rede und Antwort.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Wie beeinflussen verschiedene Räume unser Verhalten in ihnen? Wie verändert die ständige Verfügbarkeit des Digitalen den Wert digitaler Handlungen? Und wie können wir unsere Arbeit wieder als etwas Wertvolles begreifen? In der aktuellen Folge Tech & Trara gehen wir der Frage auf den Grund, wie das digitale Arbeiten durch all seine besonderen Eigenschaften unsere Wertschätzung beeinflusst. Anstoß für dieses Gespräch hat uns Ansgar Oberholz gegeben, Mitbegründer des Co-Working Unternehmens St.Oberholz und langjähriger Weggefährte der Netzpiloten. Ansgar setzt sich beruflich wie privat stark mit unserer Beziehung zur Arbeit auseinander, sein Unternehmen St. Oberholz will Räume bieten, in denen Menschen zusammenkommen und ihre Arbeit wieder wertschätzen, unter anderem auch in Rückzugsorten außerhalb der Großstadt. Denn Ansgar hat festgestellt, dass das digitale Arbeiten in seiner ständigen Abrufbarkeit, in seiner Raumlosigkeit und Reproduzierbarkeit sehr stark beeinflusst, wie wir Arbeit wahrnehmen. Um dieser Frage nachzugehen, sprechen wir u.a. über Konzepte von Theoretikern wie Walter Benjamin, Michel Foucault, und Hartmut Rosa. Wir fanden das Gespräch extrem aufschlussreich und Ansgar hat uns tolle neue Einblicke gegeben, die unsere digitale Welt etwas mehr entschlüsselt. Hört unbedingt einmal rein. Viel Vergnügen!
Falls euch cogitamus gefällt, lasst bitte ein Abo da und/oder empfehlt uns weiter. Abonnieren könnt ihr uns auch auf YouTube: https://www.youtube.com/@cogitamus Unterstützen könnt ihr uns ebenfalls: paypal.me/cogitamus oder cogitamus@posteo.de. Schaut auch mal auf UNCUT vorbei: https://www.uncut.at/. Mehr als zwei Jahrzehnte nach dem höchst erfolgreichen Monumentalwerk „Gladiator“ mit 450 Mio. USD Box Office und 5 Oscars dreht der britische Altmeister Ridley Scott den zweiten Teil des römischen Sandalenspektakels. Mit dabei: Paul Mescal, Pedro Pascal und Denzel Washington. Und Walter Benjamin, Hannah Arendt und Theodor W. Adorno, die aus Benjamins Zeitalter der technischen Reproduktion eine Ära künstlerischer Reproduktion erkennen. Kapitel 00:00 Intro 01:49 Filmanalyse 13:12 Zeitalter der künstlerischen Reproduzierbarkeit 22:56 Fazit Literatur/Links/Quellen Walter Benjamin – Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit Adorno & Horkheimer – Kulturindustrie – Aufklärung als Massenbetrug in Dialektik der Aufklärung Bildnachweise: https://www.udiscovermusic.com/wp-content/uploads/2024/10/gladiator-ii.jpg; https://media.suhrkamp.de/mediadelivery/asset/7a1b2fabf40f489fb4af4bb9e49aff8d/das-kunstwerk-im-zeitalter-seiner-technischen-reproduzierbarkeit_9783518461969_cover.jpg; https://cdn.kinocheck.com/i/x41j6h0jbw.jpg; https://static1.srcdn.com/wordpress/wp-content/uploads/2024/09/image003.jpg; https://database.traduki.eu/wp-content/uploads/2020/01/dialektik_der_aufklaerung.jpg; https://deadline.com/wp-content/uploads/2024/07/Gladiator-II.jpg
Um ihre überflüssigen Gefühle loszuwerden, die in der KI-kontrollierten Gesellschaft im Jahr 2044 keinen Platz mehr haben, begibt sich Gabrielle auf eine Zeitreise in das vergangene Jahrhundert. Bertrand Bonellos „The Beast“ ist ein konsequenter Film über Liebe im Zeitalter ihrer technischen Reproduzierbarkeit – mit einer virtuosen Lea Seydoux in der Hauptrolle, findet Filmkritiker Rüdiger Suchsland.
Maria Muhar schreibt Prosa, Lyrik und unterschiedliche Bühnentexte. Wenn sie jemand zum Lachen bringt, mag sie das extrem gerne und umgekehrt sorgt sie auch gern selbst dafür - nämlich passenderweise als Kabarettistin. Maria hat uns im Studio besucht und wir haben mit ihr über ihr erstes Kabarettprogramm „Storno“ gesprochen (ausgezeichnet mit dem österr. Kabarettpreis-Förderpreis) und warum sie sich nach der Kochlehre - mit Zwischenstopps auf der Bildenden und Angewandten - dann doch nicht für die Galerie, sondern die Bühne und das Verfassen von Texten entschieden hat. „Ich hab das immer gemocht, dass es eine gewisse Reproduzierbarkeit von Sachen gibt. Also ein Buch herzustellen, dass man dann eigentlich vervielfältigen kann, ist für mich ein viel spannenderer Gedanke, als einem Galeristen nachzurennen und Netzwerkgespräche mit Sammlern zu führen, die in einer komplett abgehobenen Welt leben.“Ein ehrliches Gespräch über das Suchen und Finden eines Weges, der zu einem passt. Danke liebe Maria für die vielen Einblicke und die Offenheit - wir haben es sehr genossen. LG die Partypolizei Und danke auch an das fantastische Team von Audiamo+ für Produktion und Schnitt: Philipp Pankraz und Severin Poschhttps://www.mariamuhar.com/https://www.instagram.com/marimuhar/https://www.instagram.com/kunstundklischeehttps://audiamo.plus/
Ein Standpunkt von Anke Behrend. Was ist, was soll und was will Wissenschaft? Das debattieren Philosophen, seit es Wissenschaft gibt und lange bevor man sie so nannte. Heute gibt es mehr oder weniger klare, aber immer wieder umstrittene Kriterien für Wissenschaftlichkeit und die Abgrenzung von Pseudowissenschaft und Wissenschafts-Mimikry.Wissenschaft, so könnte man es ganz knapp zusammenfassen, soll überprüfbares Wissen über die Beschaffenheit der realen Welt generieren und erweitern. Dazu bedient sie sich immer besserer Methoden und ist bereits selbst eine Methode, die im Wesentlichen auf der Einsicht beruht, dass Wissen nie endgültig oder frei von subjektiven Interessen sein kann, sondern immer dem Einfluss des Subjektes Mensch, mit all seinen Werten, Ansichten und Vorannahmen unterliegt. Jeder wissenschaftliche Erkenntnisgewinn muss daher zwingend immer besser werdenden Methoden der Überprüfung unterzogen werden. Wissenschaft ist die Methode, Subjektivität, Ideologie und Glauben durch Überprüfbarkeit, Reproduzierbarkeit und Objektivität zu ersetzen, Wahrnehmungsverzerrungen durch Standards und Messungen zu eliminieren und robuste Evidenz zu generieren.Eine neue wissenschaftliche Erkenntnis sollte Thesen bestätigen, die sich aus dem vorhandenen Wissen ergeben, Probleme des bisherigen Wissensstandes lösen und sichere Voraussagen ermöglichen. Ihre Plausibilität ist umso höher, je besser sie sich in das bereits vorhandene und auf ganz verschiedene Weise gewonnene und als evident erkannte Wissen möglichst vieler Wissensbereiche integriert. Und nicht zuletzt muss eine wissenschaftliche Erkenntnis ihrem Wesen nach falsifizierbar sein. Das bedeutet, es muss zumindest erkenntnistheoretisch möglich sein, die der Theorie zugrunde liegenden Beweise durch neue evidente Erkenntnisse zu widerlegen. Eine These, die bereits ihrem erklärten Wesen nach nicht beweisbar ist, wäre auch nicht widerlegbar und somit nicht wissenschaftlich, was allerdings keine Aussage über deren Richtigkeit, sondern über ihre Überprüfbarkeit darstellt.Paradigmen und ParadigmenwechselTrotz aller erbrachten Evidenz und Plausibilität entsprechend dem Stand des Wissens kommt es immer wieder zu unlösbaren Problemen und einem Verlust der Erklärungskraft von bestehenden wissenschaftlichen Theorien. Die Vorannahmen und Lehrsätze sind trotz vorliegender augenscheinlicher Evidenz nicht mehr haltbar und nur die Abkehr vom bisher vorherrschenden Paradigma führt aus der Sackgasse.Bekannte Paradigmenwechsel sind die Kopernikanische Wende – die Erkenntnis, dass nicht die Erde, sondern die Sonne das Zentrum des Sonnensystems darstellt, aber auch Darwins Evolutionstheorie, die Relativitätstheorie oder die Kontinentaldrift (1). Der Wissenszuwachs nach einem Paradigmenwechsel erfolgt nicht mehr kumulativ wie zuvor, sondern führt dazu, dass innerhalb des alten Paradigmas als bewiesen angesehene Theorien verworfen und völlig neue Erkenntnisse unter den neuen Prämissen gewonnen werden können. Neue Paradigmen scheinen dem wissenschaftlichen Establishment zunächst oft abwegig (2), widersprechen sie doch scheinbar unerschütterlichen Vorannahmen, setzen sich schlussendlich jedoch durch, wenn immer neue Belege gefunden werden und Vertreter der überholten Paradigmen schließlich aus dem Wissenschaftsbetrieb ausscheiden. (3)(4)...... hier weiterlesen: https://apolut.net/pseudowissenschaftlicher-neo-kreationismus-im-postmodernen-wissenschaftsbetrieb-von-anke-behrend Hosted on Acast. See acast.com/privacy for more information.
Auto - Rund ums Auto. Fahrberichte, Gespräche und Informationen
Bevor Porsche ein neues Fahrzeug auf den Markt bringt, werden die Prototypen des jeweiligen Modells einem harten und intensiven Testprogramm unterzogen. Das gilt natürlich auch für den vollelektrischen Macan. Der kommende Macan ist eine vollständige Neuentwicklung. Entsprechend hoch ist der Aufwand, den die Porsche-Ingenieure bei der Entwicklung und der Erprobung betreiben. Darum geht es diesmal!Zehn Jahre sind seit der Markteinführung des Porsche Macan vergangen, der in Kürze vollelektrisch in die zweite Modellgeneration startet. Als erstes Porsche-Modell auf der neuen Premium Platform Electric (PPE) ist das SUV eine vollständige Neuentwicklung. Entsprechend aufwendig ist der Testprozess, in dem alle Komponenten und Systeme perfekt aufeinander abgestimmt werden. Die reale Erprobung mit noch getarnten Prototypen hat für Porsche dabei einen hohen Stellenwert. Gleichzeitig werden Simulationen in der virtuellen Welt und im Windkanal immer präziser und gewinnen zunehmend an Bedeutung. Etwa wenn es darum geht, einen neuen Porsche nicht nur noch sportlicher, sondern auch noch effizienter zu machen. Porsche ist es gelungen, beim neuen Macan seine Design DNA mit einer auf Reichweite optimierten Aerodynamik zu verbinden. Dies wurde nicht nur durch eine sportliche Linienführung, sondern auch durch die Bestandteile der Porsche Active Aerodynamics (PAA) und weitere gezielte Maßnahmen erreicht. Es gibt einen automatisch ausfahrenden Heckspoiler und aktive Kühlklappen an den vorderen Lufteinlässen. Auch am Unterboden befinden sich variable Elemente. Der Fahrzeugboden ist plan und geschlossen wie der eines Rennwagens, selbst im Bereich der Hinterachse. Die dortigen Verkleidungen sind flexibel und sorgen auch beim Ausfedern für geringen Luftwiderstand – eine innovative Lösung im Zusammenspiel mit den strömungsgünstig weitgehend geschlossenen Rädern und den aerodynamisch optimierten Reifenkonturen. Schnellladen mit bis zu 270 kW – in allen Märkten Die Elektromotoren des neuen Macan schöpfen ihre Energie aus einer Lithium-Ionen-Batterie im Unterboden, von deren 100-kWh-Bruttokapazität bis zu 95 kWh genutzt werden können. Die 800-Volt-Architektur der PPE ermöglicht beim neuen Macan hochleistungsfähiges Schnellladen, das im Rahmen der Entwicklung weltweit erprobt wird. Die DC-Ladeleistung an 800-Volt-Säulen beträgt beim neuen Macan bis zu 270 kW. Der Ladestand kann so innerhalb von weniger als 22 Minuten von zehn auf 80 Prozent angehoben werden. Porsche setzt an Vorder- und Hinterachse ausschließlich auf permanenterregte PSM-Motoren der neuesten Generation. Sie ermöglichen eine Overboost-Leistung von über 450 kW, erzielen einen hohen Wirkungsgrad und sorgen für eine optimale Reproduzierbarkeit der Leistungsabgabe. Die Reichweiten nach WLTP werden für alle Derivate bei über 500 Kilometern liegen. Alle Fotos: © 2024 Dr. Ing. h.c. F. Porsche AG Diesen Beitrag können Sie nachhören oder downloaden unter:
In dieser Episode von "fokus ki" spricht Stefan Ponitz über das zentrale Thema "Prompting" im Umgang mit künstlicher Intelligenz. Er erörtert, wie essentiell es ist, effektive Prompts zu erstellen, um optimale Ergebnisse zu erzielen, sei es in der Textgenerierung mit ChatGPT oder bei der Bildgenerierung mit Tools wie DALL-E oder Midjourney. Stefan teilt seine Erfahrungen und Erkenntnisse aus seinen seit März laufenden Seminaren zum Thema und betont die Bedeutung von gut strukturierten Prompts. Höhepunkte der Folge:Wichtigkeit guter Prompts: "Shit in, shit out" – die Qualität des Prompts bestimmt das Ergebnis. Entwicklung im Umgang mit KI-generierten Texten: Stefan reflektiert seine veränderte Sichtweise auf die Veröffentlichung von KI-Texten. Eigenschaften eines guten Prompts: Erklärung der drei Hauptmerkmale: Ergebnisorientierung, Reproduzierbarkeit und Skalierbarkeit. Nutzungsmöglichkeiten von ChatGPT: Von Content-Erstellung bis hin zu SEO-Optimierung. Strukturierte Prompts: Einführung eines effizienten Systems zum Erstellen von Prompts. Praktische Beispiele und Tipps: Stefan teilt konkrete Beispielprompts und deren Anwendung. Kontaktdaten und Links zu Tools- Stefan Ponitz: https://www.linkedin.com/in/stefan-ponitz/ Beispiel Prompts: Ohne Struktur:"Du bist ein Marketing Trainier. Schreibe einen Blogartikel über die Vorteile der Nutzung von LinkedIn für Selbstständige. Die Zielgruppe sind Selbständige die wenig Zeit für Marketing haben und neue Kunden gewinnen möchten.Der Artikel soll im Aufbau 7 Schritte enthalten. Der Umfang beträgt 500 Wörter, am Ende soll eine FAQ Sektion enthalten sein. Weiterhin soll der Artikel am Ende eine Call to Action für die Anmeldung zum Newsletters erhalten. Schreibe den Artikel auf Deutsch. Verwende einen professionellen aber lockeren Schreibstil. Schreibe in einer informellen Anrede." Mit Struktur:Deine Rolle: Marketing Trainer Aufgabe: Schreibe einen Blogartikel Thema: LinkedIn für Selbstständige Zielgruppe: Selbstständige die wenig Zeit haben und neue Kunden gewinnen möchten. Länge: 500 Wörter Aufbau: Einleitung, Hauptteil als 7 Schritte Anleitung, FAQ Sektion, Call to Action für Newsletter Sprache: Deutsche Schreibstil: Professionell, locker, informell Wenn Dir diese Episode gefallen hat, abonniere „Fokus KI“ auf Deiner bevorzugten Podcast-Plattform. Deine Kommentare und Feedback sind sehr willkommen und helfen mir, den Inhalt weiter zu verbessern und auf Eure Interessen zuzuschneiden. Teilt die Episode mit Freunden und Kollegen, die sich ebenfalls für die faszinierende Welt der Künstlichen Intelligenz interessieren!
Der Blog zum KaffeeKOMPASS-Podcast – Folge 57: Das Michael und Tom echte Fans der Marke Eversys sind, ist kein Geheimnis. Heute stellen die Beiden einen Highclass-Player für die Kaffeegenießer im Büro vor: Die Eversys Legacy! Zwei große ‚E‘ kennzeichnen Barista & Hommel-Kaffeesysteme-Geschäftsführer Michael Murschel und seinen Gesprächspartner Thomas „Tom“ Schulz, den Inhaber und Röstmeister der W&S Kaffee-Manufaktur: Expertise und Enthusiasmus. Beides sprüht dem Hörer der KaffeeKOMPASS Podcast-Reihe ab der ersten Sekunde entgegen, wenn zwei ausgewiesene Fachleute rund um das schwarze Gold fachsimpeln. In der Folge 57 geht´s um die Frage, wie sich eine Eversys Legacy als Vollautomat mit Barista-Qualitäten in einer Office-Umgebung macht. Spoiler: Unfassbar gut! Milestones Folge 57 Ab 00:00 Min.: Einleitung Ab 01:20 Min.: Eversys X Office Ab 04:00 Min.: Was macht die Eversys Legacy so besonders? Ab 05:55 Min.: Kleiner Exkurs zu den bisherigen Playern im Office-Segment Ab 09:00 Min.: Eversys Legacy: Qualität, Reproduzierbarkeit & Wirtschaftlichkeit Ab 14:40 Min.: Eversys Legacy: Modulbauweise, Vorteile & Wartung Ab 19:40 Min.: Eversys Legacy: Reinigung Ab 23:50 Min.: Eversys Legacy: Bonus-Features, Serie & Extras Ab 27:00 Min.: Eversys Legacy: Telemetrie Ab 28.45 Min.: Eversys Legacy: Pre-Live-Test – Erklärung Refraktometer Ab 31:45 Min.: Eversys Legacy: Live-Test Ab 42:00 Min.: Fazit Zusammenfassung „Man könnte auch ein Auto draus bauen!“ entfährt es Tom, wenn es um den ersten Eindruck des Gastro-Vollautomaten Legacy aus dem Hause Eversys geht. Denn die Maschine, die für allerhöchste Qualität unter harten Wettbewerbsbedingungen steht und für den Dauereinsatz konzipiert wurde, ist komplett aus Metall gebaut, inklusive der Brühgruppe. Das bringt nicht nur ein massives Gewicht mit sich, sondern auch viele Vorteile, die Michael und Tom ausführlich beschreiben. Grundsätzlich beschäftigen sich die beiden heute mit der Antwort auf die Frage, warum sich die Eversys Legacy auch hervorragend in einer Office-Umgebung macht und welche großen Benefits sie für die alle bereithält. Und zwar wirklich für alle, von der Chefetage über die Mitarbeiter, bis hin zum Controlling und den Reinigungskräften. Michael und Tom waren zwar schon vorher große Fans von Eversys-Maschinen, ihre Begeisterung ist aber nach diesem Podcast nochmals gewachsen. Warum das im Detail so ist, erfahrt ihr in dieser Folge. Viel Spaß!
Wie können wir im Mittelstand noch mehr auf Daten achten? In einem Bereich, in dem das Bauchgefühl immer noch einen hohen Stellenwert hat und in dem manche Unternehmen noch mit der Digitalisierung kämpfen? Darüber spricht Jonas Rashedi in der neuen Podcastfolge von MY DATA IS BETTER THAN YOURS mit Cindy Kroszewski. Die ist im eCommerce zuhause und hat sich Anfang des Jahres mit ihrem Unternehmen C-In selbstständig gemacht, mit dem sie mittelständische Unternehmen dabei unterstützt, ihre Onlineshops besser zu machen. Der Begriff Web Analytics ist ihr dabei aber nicht breit genug, sondern sie zieht auch noch Heatmapping und externe Daten hinzu. Apropos Daten: Cindy nennt Daten ungern Daten. Denn ihrer Erfahrung sorgt das bei vielen Unternehmen für Panik, fast so wie beim Mathe-Unterricht früher in der Schule! Deswegen mag sie den Begriff Insights. Jonas und sie diskutieren darüber, wie sehr das Bauchgefühl im Mittelstand regiert und dass man Insights gut belegen muss, sodass Skalierbareit und Reproduzierbarkeit entsteht. Eine weitere Herausforderung für den Mittelstand sind die Teams bzw. Expert:innen. Statt spezialisierter Leute bestehen Marketing-Teams oft aus breit aufgestellten Fachkräften. Auch hier sieht Cindy viel Potential: In der Schulung von Mitarbeitenden, denn Rocket Science ist das trotzdem nicht! Außerdem geht es im Podcast um die ersten Steps, die Cindy als Head of eCommerce in einem Mittelstand umsetzen würde. Ihre These: Wenn Du Deine Insights frisch aufbaust, dann siehst Du schon innerhalb der ersten Tage Ergebnisse – das hat sehr viel Potential, auch kulturell! 00:00:00 Intro und Begrüßung 00:01:00 Vorstellung Cindy 00:02:24 Onlineshop als Vertriebskanal 00:04:04 Digitalisierung first 00:06:14 Personal als Problematik? 00:07:37 Insights vs. Daten 00:13:47 Insights aufbauen im Unternehmen 00:19:17 Die ersten Insights aufbauen 00:22:22 Warum nutzen so wenige Insights und Daten? 00:28:57 Künstliche Intelligenz als Unterstützung 00:31:12 3 Tipps von Cindy 00:32:35 Cindy's Data-Game MY DATA IS BETTER THAN YOURS ist ein Projekt von BETTER THAN YOURS, der Marke für richtig gute Podcasts. Zum LinkedIn-Profil von Cindy: https://www.linkedin.com/in/cindy-kroszewski/ Zur Webseite von C-IN: https://c-in.online/ Zu allen wichtigen Links rund um Jonas und den Podcast: https://linktr.ee/jonas.rashedi
Roman & Johannes sprechen mit Natascha Drude, Wissenschaftlerin am QUEST Center for Responsible Research des Berlin Institute of Health (BIH).
Julian arbeitet an der Universität Swansea in Wales in Grossbritannien. Zusammen mit Kollegen bemüht er sich darum, Ergebnisse von Simulationen und Berechnungen reproduzierbar zu machen. Erstaunlicherweise, sind wenige der Papers und Ergebnisse auch heute noch reproduzierbar und Julian und das Team bemühen sich darum das zu ändern. In unserem Gespräch geht es auch ein wenig um den Physik Zusammenhang - der sogenannten Quantenchromodynamik (QCD).Dazu ein paar Einführungslinkshttps://de.wikipedia.org/wiki/Quantenchromodynamik Quantenchromodynamik (QCD)https://de.wikipedia.org/wiki/Gittereichtheorie Gittereichtheoriehttps://de.wikipedia.org/wiki/Quantenfeldtheorie QuantenfeldtheorieSupport the Show.Thank you for listening and your ongoing support. It means the world to us! Support the show on Patreon https://www.patreon.com/codeforthought Get in touch: Email mailto:code4thought@proton.me UK RSE Slack (ukrse.slack.com): @code4thought or @piddie US RSE Slack (usrse.slack.com): @Peter Schmidt Mastadon: https://fosstodon.org/@code4thought or @code4thought@fosstodon.org LinkedIn: https://www.linkedin.com/in/pweschmidt/ (personal Profile)LinkedIn: https://www.linkedin.com/company/codeforthought/ (Code for Thought Profile) This podcast is licensed under the Creative Commons Licence: https://creativecommons.org/licenses/by-sa/4.0/
Wie hat ChatGPT eigentlich sprechen gelernt? Und was ist heute schon möglich mit den Large Language Models?Darüber spricht Christian Krug, der Host des Podcasts „Unf*ck Your Data“ mit Martin Schmitt, AI Evangelist bei Impel.Der Hype von ChatGPT hat neben anderen Tools wie Midjourney das Thema AI in der öffentlichen Wahrnehmung drastisch beschleunigt. Aber eigentlich es ja fast schon ein alter Hut. Geboren aus den frühen regelbasieren Expertensystemen, die Entscheidungen getroffen haben, hat KI eine riesige Entwicklung hingelegt.Mit einem Fokus auf Autos und deren Hersteller so wie Händler, setzt Martin AI seit über sieben Jahren ein. Die KI-basieren Chatbots sind nicht länger rein auf Schrift unterwegs. Neben Lesen haben sie auch sprechen und zuhören gelernt. Dadurch helfen sie dir oder deinen Kunden gewisse Probleme zu lösen. Zum Beispiel in dem sie deinen Kundenservice skalieren. Immer freundlich, stets erreichbar, allerdings im Moment auch etwas „plain vanilla“.Aber wie haben diese AIs eigentlich sprechen gelernt und wie können sie Objekte verstehen ohne diese mit mehreren Sinnen wahrnehmen zu können?Ganz simpel: Über Beziehungen. Wie verhalten sich gewisse Wörter zu einandern. Tisch zu Stuhl. Mann zu Frau. König zu Königin.All das in einem riesigen Koodinatensystem.Ausgestattet mit diesem Grundverständnis musst du für dich und dein Unternehmen „nur“ noch onboarden, wie einen Menschen auch.Was du dazu brauchst? Natürlich Daten! Was macht dein Unternehmen besonders? Welche Ressourcen hast du?In einem spannenden Gespräch erklärt Martin all das und zeigt auch auf, wie sich die modernen AIs von ihren Vorfahren den Expertensystemen unterscheiden. Bei Features, Performance, aber auch der Reproduzierbarkeit und Erklärbarkeit von Ergebnissen.▬▬▬▬▬▬ Profile: ▬▬▬▬Zum LinkedIn-Profil von Martin: https://www.linkedin.com/in/martin-schmitt-14981575/Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/Unf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬Buchempfehlung von Martin: Secular Buddhism – Noah RashetaAlle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfaZum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019Zum Podcast auf Google: https://podcasts.google.com/feed/aHR0cHM6Ly9mZWVkcy5jYXB0aXZhdGUuZm0vdW5mY2steW91ci1kYXRhLw?ep=14Zum Podcast auf Deezer: https://deezer.page.link/FnT5kRSjf2k54iib6▬▬▬▬▬▬ Kontakt: ▬▬▬▬E-Mail: christian@uyd-podcast.com▬▬▬▬▬▬ Timestamps: ▬▬▬▬▬▬▬▬▬▬▬▬▬00:00 Intro02:09 Martin stellt sich vor05:06 Large Language Models sind KIs die trainiert werden um zu sprechen10:37 Es gibt bei LLMs sind nicht immer zu 100% erklärbar16:25 LLM/Chatbot skalieren den Kundenservice und werde wahre Experten20:35 Engere Anwendungen erfordern weniger Daten, das macht es leichter25:06 Eine AI muss wie ein neuer Mitarbeitender ein onboarding bekommen26:45 Chatbots bekommen jetzt auch Stimmen30:37 Die LLM speichern Sprache in einem Koodinatensystem39:15 Der nächste Meilenstein bei LLM wird Reinforcement Learning43:24 Zwei Fragen an Martin
Photo: Privat. Der Einsatz von Robotern im Biolabor übernimmt nicht nur langweilige repetitive und manchmal auch gefährliche Aufgaben von Menschen, sondern steigert auch die Reproduzierbarkeit der Forschung. Doch viele verschiedenen Bewegungen flexibel im Raum sind gar nicht so einfach für einen Roboter. Damit beschäftigt sich Henning Zimmer. Er ist Doktorand am Munich Institute of Robotics […]
Die Psychologie möchte natürlich immer wieder neue Erkenntnisse veröffentlichen. Und tatsächlich haben Magazine im Bereich sozialer Wissenschaften einfach 95 Prozent der eingereichten Replikationsstudien abgelehnt. Könnte das etwas damit zu tun haben, dass wir der Psychologie in der Verkaufswelt nicht wirklich trauen können? Im Podcast heute, bespricht Jörg Dennis Krüger einige wichtige Punkte zum Thema Psychologie, und hat ein paar interessante Beispiele dabei. TRANSKRIPTION DIESER FOLGE DES PODCASTS Hallo, mein Name ist Jörg Dennis Krüger, und wie mein Chef-Psychologe am Empfang gerade schon gesagt hat: Ja, ich bin der Conversion Hacker. Und lasst uns doch in dieser Ausgabe einfach mal kurz über das Thema Verkaufs-Psychologie oder Psychologie im Allgemeinen reden. Denn Psychologie hat ein Problem. Es ist nämlich kein System. Wenn ich jetzt hier etwas fallen lasse, kann ich nicht behaupten, dass es auf den Boden fällt. In der Physik klappt das, in der Psychologie klappt das aber nicht. Ich kann nicht davon ausgehen, dass, nur weil ich etwas Rot markiere, der Nutzer es auch entsprechend wahrnehmen wird. Denn, das ist viel komplexer. Auch viel komplexer, als uns viele Verkaufspsychologen das wahr machen wollen. Und ganz viele, dieser Verkaufs-Psychologie Tricks klappen dann auch in ganz vielen Shops gar nicht. Oder es klappt nur sehr ausgewählt, nur in bestimmten Situationen, nur in ganz bestimmten Zielgruppen und so weiter und so fort, weil es halt viel komplexer ist. Es ist nämlich einfach so, dass manche psychologischen Auslöser und psychologischen Ansätze funktionieren oder auch nicht funktionieren. Das, was diese Auslöser oder Ansätze aussagen, was sie bezwecken, oder bewirken, hängt ganz stark davon ab, wie der Mensch, der da gerade drin ist, denkt. In welcher Situation er gerade ist, in welchem Gefühlszustand er gerade ist, in welcher Ausgangslage er generell ist. Was ist das für ein Mensch? Was hat er für ein Hintergrundwissen? Und es gibt besonders in der Psychologie, extrem viele winzige Auslöser, die das Verhalten komplett verändern können, aber die man oft gar nicht kennt. Und das wird besonders klar, wenn man sich mal mit dem Thema der Replikationskrise der Psychologie befasst. Denn die Replikationskrise (gibt es in der Psychologie, aber gibt es auch in anderen Fachbereichen), ist gewissermaßen eine methodische Krise. Diese Krise wurde dadurch bekannt, dass man Studien, auf die man vertraut hat, auf dessen Ergebnisse man vertraut hat, einfach nicht replizieren konnte. Denn eine Studie ist nur dann gut, wenn sie halt immer wieder das gleiche Ergebnis liefert, wenn ich das erneut mache. Wenn die Studie jedes Mal ein anderes Ergebnis liefert, dann ist sie ja nichts Wert. Zum Beispiel, wenn ich mein Handy fallen lasse, fällt es mal auf dem Boden, mal fliegt es nach oben, mal nach links, nach rechts, und dann ist diese Studie nichts wert, dann ist sie nicht zuverlässig. Und in der Psychologie wird seit 2011 schon verstärkt über eine solche methodische Krise diskutiert, und damit treten unfassbar viele Zweifel auf, an der Zuverlässigkeit von veröffentlichten psychologischen Studien. Und das Ganze wurde einer großen Beachtung ausgesetzt, weil die Studien vom Sozialpsychologen Daryl Bem, einfach dreimal in Replikationsversuchen, nicht repliziert werden konnten. Diese kritischen Berichte wurden von großen Magazinen wie Science und ein paar anderen erst einmal abgelehnt, weil man es nicht glauben wollte! „Wir haben diese Studie mal veröffentlicht, und die gilt. Und dass die jetzt nicht repliziert werden kann, das liegt wahrscheinlich eher am Vorgehen von Deryl Bem, weil er schlechte Arbeit geleistet hat.“ Und dann wurde das ganze Thema auf einmal größer. Denn die Reproduzierbarkeit von Untersuchungsergebnissen durch andere Forscher ist einfach nun mal eine fundamentale Anforderung an wissenschaftliche Forschungsarbeiten.
In den Prosaminiaturen dieser Folge geht es nebst vielem anderen um den Prinzen Louis Ferdinand, die früh verstorbene Mitschülerin Luise von Landau, dämmrige Treppenhäuser, Äpfel in der Ofenröhre, die alte Tante Lehmann und die über ihren Angeboten thronenden Weiber in der Markthalle. Walter Benjamin wurde 1892 als erstes von drei Kindern in Berlin geboren. Die Familie gehörte dem assimilierten Judentum an. Nach dem Abitur studierte er Philosophie, deutsche Literatur und Psychologie in Freiburg im Breisgau, München und Berlin. 1915 lernte er den fünf Jahre jüngeren Mathematikstudenten Gershom Scholem kennen, mit dem er Zeit seines Lebens befreundet blieb. 1917 heiratete Benjamin Dora Kellner und wurde Vater eines Sohnes, Stefan Rafael (1918-1972). Die Ehe hielt 13 Jahre. Noch im Jahr der Eheschliessung wechselte Benjamin nach Bern, wo er zwei Jahre später mit der Arbeit «Der Begriff der Kunstkritik in der deutschen Romantik» promovierte. Zu seinen Hauptwerken gehören der «Ursprung des deutschen Trauerspiels», mit dem er sich erfolglos zu habilitieren versuchte, seine Abhandlung über «Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit» und das Torso gebliebene «Passagenwerk». Aufgrund des Scheiterns seiner Habilitation sah sich Benjamin gezwungen, als freier Autor, Kritiker und Übersetzer zu arbeiten. Er stand in Kontakt mit Brecht und Adorno, der sich nach Benjamins Tod um die Edition und Herausgabe seines Werkes bemühen sollte. Nach der Machtergreifung durch die Nazis emigrierte Benjamin nach Paris, wo er an dem Passagenwerk arbeitete, das aus einem Zitatenkonvolut besteht, mit dessen Hilfe er versuchte, die Epoche des 19. Jahrhunderts und den Kapitalismus nachzuzeichnen. Auf der Flucht vor der Gestapo nahm sich Walter Benjamin im September 1940 in Port Bou das Leben. Sprecher: Felix von Manteuffel - Produktion: SRF 2013 Die Texte dieser Lesung entstammen allesamt der "Fassung letzter Hand". Wenigstens dreimal hat Walter Benjamin eine Druckvorlage der «Berliner Kindheit um neunzehnhundert» zusammengestellt, aber keine fand einen Verleger und alle drei waren lange Zeit verschollen. Erst 1981 wurde das Typoskript in der Pariser Nationalbibliothek wieder entdeckt. Miniaturen dieser Folge sind: «Tiergarten»; «Zu spät gekommen», «Knabenbücher», «Wintermorgen», «Steglitzer Ecke Genthiner», «Zwei Rätselbilder» und «Markthalle»
Nix ist zwar nicht mehr brandneu, erfreut sich in seiner Nische aber großer Beliebtheit durch innovative Ansätze zur Reproduzierbarkeit von Entwicklungsumgebungen und Systemen. Als Infrastructure as Code on Steroids bietet das Betriebssystem zahlreiche Vorteile, die nicht nur Power-User begeistern. Zusammen mit zwei Mitgliedern der Nix-Community entdecken wir einen neuen, sehr tiefen, aber auch spannenden Kaninchenbau.
WMR206 - Der Sinn im Zeitalter seiner technischen Reproduzierbarkeit
In dieser Episode führe ich ein äußerst interessates Gespräch mich mit Prof. Stephan Schleim. Er ist deutscher Philosoph und Psychologe, Professor für Theorie und Geschichte der Psychologie Universität Groningen. Seine Spezialgebiete sind die Theorie und praktische Anwendungen der Psychologie und Neurowissenschaften. In seiner Forschung zur Wissenschaftskommunikation untersucht er, wie Darstellungen der Hirnforschung akademische und gesellschaftliche Debatten beeinflussen (z. B. in der Neuroethik oder dem Neurorecht). Seit 15 Jahren ist er mit seinem Blog Menschen-Bilder bei den SciLogs vertreten, dem Portal für Wissenschaftsblogs des Spektrum-Verlags. Außerdem ist er Autor mehrerer Bücher. Ich beschäftige mich ja schon länger mit der Frage, ob unser Wissenschaftsbetrieb nicht an einigen Stellen falsch abgebogen ist und was wir tun könnten, ja müssten um diese Situation zu verbessern. Warum ist es für uns wir als Gesellschaft wichtig, diese Problemlage zu verstehen? Denn wesentliche politische Entscheidungen hängen ja von wissenschaftlichen und technischen Aussagen und Möglichkeiten ab. Wir beginnen unser Gespräch mit der Frage, ob sich die Erwartungen, die in der aus der Gesellschaft aber meist auch aus der Wissenschaft heraus an die Wissenschaft formuliert werden erfüllen? Schreitet Wissenschaft immer schneller voran? Führt dies stetig zu neuen und bahnbrechenden technischen Fortschritten? Zahlreiche Untersuchungen legen eher das Gegenteil nahe. Wie sieht es nun mit Fortschritt und Qualität wissenschaftlicher Erkenntnis aus? Welche Anreizsysteme herrschen aktuell vor, nach welchen Indikatoren werden Wissenschafter gemessen, welche Definitionen von Produktivität gibt es in der Wissenschaft und was bedeutet dies für Erkenntnis und Innovation? »Lässt man Kants akademischen Werdegang kurz Revue passieren, muss man zu dem Befund kommen, dass ein Denker wie Kant im gegenwärtigen Wissenschaftsbetrieb keine Chance gehabt hätte. Im Gegenteil: Er verkörpert geradezu alles das, was dem Eifer der Universitätsreformer ein Dorn im Auge ist.«, Konrad Paul Liessmann Es gibt nur noch selten in der modernen Wissenschaft solche positiven Beispiele, etwa den 3D-Atlas des Gehirns, wo das Ergebnis jahrzehntelanger, qualitativ hochwertiger Grundlagenforschung dargestellt werden. »Die Wissenschaft befindet sich großteils in einem hermeneutisch abgeriegelten, selbstreferentiellen System.« Was sind Beispiele für die Probleme, die wir beschreiben? Die 90er Jahre waren in den USA die Dekade des Gehirns. Auch Europa hat mit dem Human Brain Project nachgezogen — unter anderem mit dem Ziel, ein Gehirn im Computer zu simulieren. Was ist das Ergebnis dieser Dekade? Wir diskutieren Erwartungen und Versprechungen vom Gedankenlesen bis zum Lügendetektor; was waren die Folgen für die Diskussion des »freien Willen«, für Recht und Medizin? In den letzten Jahrzehnten waren auch die »bunten Bilder« des Gehirns, die aus statistischen Auswertungen von Kernspintomographen entstehen, ein Hit in wissenschaftlichen Artikeln aber auch in populärwissenschaftlichen Berichten. Man konnte fast sagen: keine Psychologie ohne »Hirnbilder«! Sind die Ergebnisse, die man mit der Kernspintomographie erhalten hat aber überhaupt vertrauenswürdig und korrekt? Beziehungsweise unter welchen Versuchsbedingungen kann man mit seriösen Ergebnissen rechnen und wurden diese in der Regel erziehlt? Also bleibt letztlich die Frage: können diese Hirnscanner, die richtig viel Geld kosten, überhaupt das Kriterium der Reproduzierbarkeit — als Mindeststandard wissenschaftlicher Qualität — erfüllen? War der Hype gerechtfertigt? »Es gibt einige gute Studien, aber in der großen Masse sind viele dieser Studien, glaube ich, nicht vertrauenswürdig. […] Diesen Schluss muss man ziehen.« Aber auch in zahlreichen anderen Bereichen der Psychologie und Psychiatrie erleben wir im Rückblick durchwachsene Ergebnisse, so etwa bei den wenig beeindruckenden Erfolgen der Antidepressiva in der Psychiatrie. Ich spreche dann auch andere Hype-Themen der Vergangenheit an, und frage, warum wir aus diesen relativen Fehlschlägen so wenig lernen, z.B. Richard Nixon und den Krieg gegen den Krebs, Erik Topol und seine Kritik des Human Genome Projects sowie die mangelhafte Leistung von KI-Systemen in der Covid-Behandlung. Wir diskutieren dann die Konsequenzen dieser Hypes, denn diese sind nicht einfach nur kurzfristige Irrtümer, sondern in ihnen stecken zum Teil enorme Opportunitätskosten und Kollateralschäden. Wenn wir über die aktuelle Situation hinausschauen: »Wissenschaft die auch taugt« — was könnten wir die Standards sein? Prof. Schleim bezieht sich auf einen Artikel von Thomas Kuhn: Hartnäckigkeit und Dogmatismus ist manchmal auch ein wesentliches Mittel zum Erfolg in der Wissenschaft. Die Behandlung von Aids kann als als Erfolgs-Beispiel gelten, auch die Entdeckung der PCR durch Kary Mullis, die psychiatrische Forschung mit Verengung auf Neuro-Wissenschaft allerdings als negatives. Überhaupt ist Kary Mullis ein gutes Beispiel für einen ultra-harnäckigen Wissenschafter gewesen, der in einem engen Bereich hohe Leistung gebracht hat, darüber hinaus aber eher für fragwürdige Ideen bekannt wurde. Nun stellt sich aber die Frage: was für das Individuum des Wissenschafters gilt, gilt das auch für die Wissenschaft als Ganzes? Und wo hört die Hartnäckigkeit auf und wird zum (sanften) Betrug? Fake it till you make it — ein wissenschaftliches Erfolgsmodell? Welchen Effekt haben New Public Management, Messen, Optimieren in der Wissenschaft(sverwaltung), Zitationsfaktoren, Impact-Faktor, usw? »There is no cost to getting things wrong. The cost is not to getting them published.«, Prof. Brian Nosek Wir erleben aktuell in vielen Bereichen einen Hyperwettbewerb und Bewertung von Forschung — wenn man in kurzen Zeiträumen »Durchbrüche« darstellen muss, um überhaupt überleben zu können — was wird das für Konseqzenzen für Richtung und Qualität und Vermarktung der Forschung haben? Die Probleme, über die wir sprechen, sind bei weitem keine, die nur in den Interna der Wissenschaft Folgen haben, sondern breiten sich über Wissenschaftskommunikation und Expertenwesen in Gesellschaft und Politik aus? Hier ist auch der Aspekt zu sehen, dass die Verantwortung für diese Hypes auch an den Konsumenten liegt — eine Folge der Konkurrenz um Aufmerksamkeit. Was ist überhaupt von Wissenschafts-News zu halten? Denn die Taktung wird immer höher — ist das sinnvoll oder sogar schädlich? Wissenschaft ist selten eindeutig, vor allem nicht in komplexen Fragestellungen. Führt das nicht eher zu Verwirrung statt Information bei der Bevölkerung? Kann mehr Transparenz in den wissenschaftlichen Prozess die Situation verbessern? Können wir vom Rechtswesen lernen — was sind Folgen für wissenschaftliche Freiheit, politische Freiheit und Demokratie? Was können wir aus den Erfahrungen erfolgreicher Wissenschafter lernen? Ohne die Freiheit, "Sachen zu machen die nicht Mainstream waren", sei seine Forschungsarbeit nicht möglich gewesen, Anton Zeilinger Max Perutz, der österr. Wissenschafter, der von den Nazis nach England fliehen musste, hatte in seinem Labor neun Nobelpreisträger! Auf die Frage, wie man so erfolgreich wird antwortet er: »Keine Politik, keine Gremien, keine Berichte, keine Gutachter, keine Interviews, nur begabte, hoch-motivierte junge Menschen, ausgewählt von wenigen Männern mit gutem Blick.« Und was machen wir im heutigen Wissenschaftsbetrieb? Einer der Ursachen für die Probleme im aktuellen Wissenschaftsbetrieb ist das Publikations(un)wesen: welche Rolle spielen kommerzielle Verlage, Open Access, Preprint, sind Daten und Prozesse transparent? Welche Rolle spielt der Antrags-Irrsinn und die damit verbundene Bürokratie? Die bekannte amerikanische Tiefsee-Forscherin Edith Widder bringt den Konflikt zwischen innovativer Forschung und Finanzierung auf den Punkt: »Die Sache ist die: In der Wissenschaft muss man den Förderstellen erklären, was man entdecken wird, bevor sie einem Geld geben. Und ich wusste nicht was ich entdecken werde. Somit bekam ich keine Unterstützung.« Wo und in welchem Umfang macht Antragswesen Sinn, in welcher Form, und wo ist es ein Hindernis für gute Wissenschaft und verhindert vor allem auch, dass gute Wissenschafter Karrieren machen. Welcher innovative und kreative Wissenschafter ist Willens 30-40% seines Alltags mit stumpfer Bürokratie und Antragschreiben zu verbringen? Welche Folgen hat dies daher für die Selektion an Universitäten? Erik Weinstein nennt dies passend: »snap-to-grid intellectualism« Führen diese Prozesse zu kontroproduktiven Anpassungsprozessen an Indikatoren, Bürokratie, Regeln usw. Lenken wir also die verbleibende Intelligenz der Forscher weg von der Forschung hin zum Übergehen und Ausnutzen von Regeln und Bürokratie? Einfache Versprechungen und Aussagen treffen in der Realität sehr schnell an ihre Grenzen und so ist es auch nicht einfach Schritte aus der Krise zu finden. Ein erster Ansatzpunkt findet sich etwa in der Magna Charta Univesitatum. Referenzen Andere Podcast Episode 53 und Episode 54: Data Science und Machine Learning, Hype und Realität Episode 47: Große Worte Episode 44: Was ist Fortschritt? Ein Gespräch mit Philipp Blom Episode 39: Follow the Science? Episode 28: Jochen Hörisch: Für eine (denk)anstössige Universität! Episode 19 und Episode 20: Offene Systeme Episode 18: Gespräch mit Andreas Windisch: Physik, Fortschritt oder Stagnation Stephan Schleim Homepage von Stephan Schleim Stephan Schleim auf Twitter Menschen-Bilder Blog Stephan Schleim an der Universität Groningen Universität Groningen Die Neurogesellschaft: Wie die Hirnforschung Recht und Moral herausfordert, Heise (2010) Psyche & psychische Gesundheit: Philosophen, Psychologen und Psychiater im Gespräch, Heise (2020) Wissenschaft und Willensfreiheit: Was Max Planck und andere Forschende herausfanden, Springer (2023) Stephan Schleim, Sind Hirnscans nur Kaffeesatzleserei? Fachliche Referenzen Nicholas Bloom, Are Ideas Getting Harder to Find? (2020) How should medical science change, Lancet (2014) Economist: How Science goes wrong Trouble at the lab | The Economist Rettet die Wissenschaft,Die Zeit (2014) Konrad Paul Liessmann, Kant — Dienst ohne Vorschrift, Der Standard (2004) Eric Topol, Human genomics vs Clinical genomics — Expectation vs. Facts Thomas Kuhn, The Function of Dogma in Scientific Research, 1963 John P. A. Ioannidis, Why Most Published Research Findings Are False (2005) Warum KI-Werkzeuge gegen COVID-19 bislang versagt haben, Heise (2021) Physik Nobelpreis für österr. Quantenphysiker Anton Zeilinger (2022) Zitat Max Perutz aus Geoffrey West, Scale: The Universal Laws of Life and Death in Organisms, Cities and Companies, W&N (2018) Edith Widder, Glowing life in an underwater world, TED-Talk Magna Charta Univesitatum
Die Freude über ein handsigniertes Buch ist groß, aber manchmal währt die Freude nicht allzu lange. Eine Glosse von Caro Matzko.
Ende des Oktobastel... Die kleine Reihe hier im Trommel Talk zum Thema Do it Yourself und Tipps und Tricks und Tracks und Trocks geht zu Ende, denn der November steht vor der Tür, Den Auftakt machte schon Tex van Buren und wäre besser geeignet für das Ende? Genau!! Der Tex!. Das war mal eine Hammer Probe. So gut hat das Schlagzeug noch nie - never ever - geklungen. Und irgendwie weiß man schon, dass das Schlagzeug bei der nächsten Probe oder beim Gig dann nicht mehr genau so klingen wird. Das Problem mit der Reproduzierbarkeit des Sounds ist ein echtes Problem bei größeren Produktionen und Tourneen. Der Zuhörer will ja den Klang, den er kennt - mindestens, oder noch besser. Und so habe ich Tex mal gefragt, wie er Abend für Abend, Show für Show den immer gleichen, guten Sound hinbekommt. Welche Tools und Tricks er dafür hat, was geht und was nicht, was die Ohren damit zu tun haben und vor allem was nicht... Das verrät Tex in diesem Talk! Einen Link zu den besprochenen Tools gibt es hier: https://thmn.to/thocf/ewska5x5pq Ich wünsche euch viel Spaß mit dieser Folge! Wer noch nicht genau weiß, wer Tex ist und was man so als Drum Tech macht, der hört am besten mal hier rein: https://open.spotify.com/episode/0nxsq5FHwOAKM6C055bouW?si=c220ecd0af46421f Und wenn ihr eine Frage habt, schickt mir die am besten per Mail unter felix@einfachschlagzeug.de Und auch Tex freut sich immer über Fragen via Instagram @thedrumtex Außerdem freu ich mich, wenn du auf der Seite von eicnfach Schlagzeug mal vorbeischaust unter https://einfachschlagzeug.de/
In dieser Folge sprechen wir über den berühmten Kunstwerk-Aufsatz von Walter Benjamin. Wie war er damals gemeint und wie sehen wir ihn heute, in der Zeit von NFTs und KI-Kunst? Dafür haben sich Lucas und Christian den Benjamin-Experten Daniel Gönitzer eingeladen. (Hier gibt's den Text: https://monoskop.org/images/7/7d/Benjamin_Walter_1936_1963_Das_Kunstwerk_im_Zeitalter_seiner_technischen_Reproduzierbarkeit.pdf)
Jahrhunderte lang waren (mechanische) Musikmaschinen nicht nur notdürftiger Ersatz für Instrumentalisten aus Fleisch und Blut, sie waren vor allem eine Attraktion, Unterhaltung. Im Zeitalter der elektronischen Reproduzierbarkeit können spezielle ästhetische Ideen umgesetzt werden. Aus dem Umfeld von Bricolage, Fluxus, Klangskulptur und Klangkunst gingen anarchisch-spielerische, sich immer auch etwas selbst parodierende Klangmaschinen hervor, die visuelle und akustische Ebenen verbinden und dabei die Grenzen der Kunstgattungen hin zur Performance, zur bildenden Kunst und zur Klangskulptur überschreiten. Conlon Nancarrow und Peter Ablinger, Pierre Bastian, Joe Jones oder Jean Tinguely sind nur ein paar bekannte Künstler, die sich dem Phänomen Klangmaschine verschrieben haben.
Mit dem neunten Band der Perry Rhodan Heftromanserie, nehmen wir uns heute einen Vertreter vor der es unter der Bearbeitung von William Voltz nicht in die späteren Silberbände geschafft hat. Das hat meiner Meinung wenig mit der Qualität zu tun eher mit der Reproduzierbarkeit der Geschichte. Denn neben anderen frühen Hefte glänzt dieser Roman durch eine Vielzahl an unterschiedlichen Handlungsabschnitt und einem extrem hohen Tempo. Das mag eine sehr subjektive Meinung zum Roman sein, deswegen hört am besten selbst. Alle weiterführenden Informationen zum Roman findet ihr in der Perrypedia unter dem Artikel zum Heft.
Häufig hört man bei Diskussionen über gesellschaftliche Probleme das Todschlag-Argument „Trust in science!“. Doch inwiefern ist blindes Vertrauen in die Wissenschaft empfehlenswert? Wir reden über die Fehler in wissenschaftlichen Methoden, die oftmals zu schlechten oder gar falschen Ergebnissen führen.Falls ihr unsere Arbeit unterstützen wollt, würden wir uns sehr freuen, wenn ihr uns auf Spotify, Apple-Podcast und Google-Podcast folgen und bewerten würdet. Aktiviert auch gerne die Glocke, um keine neuen Episoden zu verpassen.Unsere Social-Media-Seiten:Instagram, Twitter, Facebook - wir freuen uns über jeden Follow.Timestamps & QuellenBegrüßung und Einleitung (00:00)Teil 1: Deryl Bem (01:18)Die Geschichte voin Deryl BemDeryl Bem: Self-perception theoryDeryl Bem: Exotic becomes erotic theoryDeryl Bem: Feeling the Futurezentrale Kritik an gängigen wissenschaftlichen Methoden: p-Hacking, Publication Bias (1, 2, 3), falsche statistische Verfahren, Hypothesen sind abhängig von Resultaten, zu kleine Sample Size, seltene Reproduzierbarkeit von Ergebnissen Kritik an der KritikTeil 2: Fragwürdige Forschungsmethoden (13:19)Studie: Verbreitung von fragwürdigen ForschungsmethodenMeta-Studie zur Verbreitung von fragwürdigen ForschungsmethodenSpecial Mention: Studie über Unehrlichkeit mit gefälschten DatenTeil 3: Statistische Signifikanz (19:06)Studie über die Wahrscheinlichkeit von falsch-positiven ErgebnissenStudie zur Sapir-Whorf Hypothese (1, 2)Teil 4: Replication Crisis (30:14)Studie: 21 Ergebnisse aus den Social Sciences auf Reproduzierbarkeit überprüftStudie: 100 Ergebnisse aus der Psychologie auf Reproduzierbarkeit überprüftStudie: 18 Ergebnisse aus der WIrtschaftswissenschaft auf Reproduzierbarkeit überprüftReplication Crisis in der Neurologie und ChemieÜbersicht zu mittlerweile fragwürdigen Theorien/ErgebnissenTeil 5: Erforschung von komplexen Zusammenhängen ist schwierig (40:06)Studie: Alles verhindert Krebs und löst es gleichzeitig auch ausStudie: Viele Studien, über die viel berichtet wird, stellen sich als falsch oder überzogen herausAuswertung: Nur wenige Studien hochwertig genug, um bei der Behandlung von Patienten hinzugezogen zu werdenStudie: Ineffiziente Forschung ist sehr teuerTeil 6: Fehlerhaftes peer-review (45:51)Über die Fake-Paper Aktion (1, 2)Verzeichnis aller geschriebener Fake-Paper (veröffentlicht sowie unveröffentlicht)Teil 7: Weitere Probleme (54:04)Studie: Gleiche Daten, unterschiedliche ErgebnisseStudie: Zu viel InputTeil 8: Kann man der Wissenschaft noch trauen? (59:15)Studie: Wahrnehmung der Replication Crisis in Dt.Studie: Vertrauen in die Wissenschaft führt zu glaube an Pseudo-WissenschaftStudie: Wissen über wissenschaftliches Arbeiten erhöht Akzeptanz von WissenschaftAbschlussfrage, Abmoderation und Verabschiedung (01:15:51)
Walter Benjamin - zentrale Begriffe wie Aura, Katastrophe in Permanenz, Dialektik des Stillstands, historischer Matererialismus, erklärt an seinen Essays "Die Kunst im Zeitalter technischer Reproduzierbarkeit", "Zum Begriff der Geschichte" und "Zum Ursprung des deutschen Trauerspiels".
In der Antike liebte man das Schöne. Man versuchte, es zu berechnen und das Urschöne zu beschreiben. Später kam Nietzsche dann zu dem Schluss, dass die Wahrheit sowieso immer hässlich ist und wir die Schönheit bräuchten, um das Leben zu ertragen. Kurz nach den Katastrophen des 20. Jahrhunderts zog Adorno dann den Schrecken dem Schönen vor. Was ist schön in einer Welt, in der alles beliebig reproduzierbar ist? Nach der Ästhetisierung der Politik und der Politisierung der Kunst im 20. Jahrhundert: Welche Rolle spielt Schönheit heute überhaupt noch? Darüber denkt Lisz Hirn in dieser Podcast-Folge nach. Sie geht dabei bis zu Platon in die Antike zurück, lässt aber auch Kant, Adorno und Walter Benjamin zu Wort kommen. Buchtipps: Platon: "Symposion" (u.a. Reclam) Walter Benjamin: "Das Kunstwerk in Zeiten seiner technischen Reproduzierbarkeit" (u.a. Reclam) Weitere Literaturhinweise: Immanuel Kant: „Kritik der Urteilskraft“ Friedrich Nietzsche: „Zur Genealogie der Moral“ Theodor W. Adorno: „Ästhetische Theorie“ Sponsoring: Danke an "DIE WASNERIN", G'sund und Naturhotel in Aussee, Unterstützerin dieser Staffel; https://www.diewasnerin.at/ DIE WASNERIN liegt in Bad Aussee, am Mittelpunkt Österreichs, und so ist auch die Mitte, also der Nabel, der Ursprung ihrer Philosophie für Gesundheit und Wohlbefinden. NABEL-Magazin: DIE WASNERIN veröffentlicht periodisch ein Magazin, das Kultur, Literatur und Natur vereint. Neben wunderschönen Fotos schreiben prominente Literat*innen über die Mitte und darüber hinaus. Das kostenlose Magazin wird interessierten Hörer*innen gerne zugesandt: info@diewasnerin.at Die Gastautorin der WASNERIN in dieser Podcast-Folge ist [Doris Knecht](https://www.doris-knecht.com/). Podcast-Empfehlungen: Wir empfehlen den OH WOW Podcasts “Investorella”, der Frauen* das nachhaltige Investieren greifbar macht. Von und mit Larissa Kravitz. Hier geht's zu der Folge mit dem Thema [Wohnen](https://www.ohwow.eu/investorella/immologik) Und den OH WOW Podcast “Jeannes Welt”, der dich auf eine akustische Entdeckungsreise zu vielen inspirierenden Frauen* und ungewöhnlichen Orten mitnimmt. In Folge 1 der neuen Staffel geht es um das Thema Schach. www.ohwow.eu Bücher von Lisz Hirn: Geht's noch? Warum die konservative Wende für Frauen gefährlich ist. https://www.styriabooks.at/gehts-noch Wer braucht Superhelden? Was wirklich nötig ist, um unsere Welt zu retten. https://www.styriabooks.at/wer-braucht-superhelden Don't forget: #supportyourlocalbookstore Credits: Lisz Hirn: Redaktion, Moderation Jeanne Drach (OH WOW): Moderation, Redaktion, Produktion, Jingle Anna Muhr (OH WOW): Postproduktion Jingle: OH WOW mit Almut Schäfer-Kubelka
Unser Comeback 2022 steht unter dem Leitstern der Filmkunst. Dabei stellen wir uns die filmästhetische Gretchenfrage: Was verlangen wir vom Film - oder was verlangt er von uns? Vor lauter schlauen Gedanken haben wir Schwierigkeiten Walter zu finden, obwohl wir Benjamins Essay „Kunst im Zeitalter technischer Reproduzierbarkeit“ oder kurz „tR“ zur Hand haben. Am Ende steht zur Debatte: Müssen wir Benjamins vorsichtigen Optimismus durch Adornos mutigen Pessimismus ersetzen ? Oder schaffen wir es Zerstreuung und Sammlung, Emotion und Kontemplation, Passivität und Aktivität, Ideologie und Ideologiekritik – kurzum, Unterhaltung und Kunst zusammenzubringen?Wenn das ein Medium leisten kann, dann doch der Film.Kleiner Tipp für einen gesteigerten Hörgenuss: Nehmt jedes Mal, wenn das Wort "technische Reproduzierbarkeit" fällt, einen Shot - am Ende erwartet euch eine auratische Erfahrung.
Glitches, Dummheiten und fiktive Plateaus, die man nie erreichtIch hatte 48 Stunden in Wien und direkt aus dem Zug machte ich mich auf den Weg zu dem Fotografen Thomas Albdorf. Wir trafen wir uns in, wie er meinte, einem Ortsteil der Stadt, den ich als Tourist sonst wahrscheinlich nicht zu sehen bekommen hätte – aber genau das ist auch eine der Sachen, die ich am meisten zu schätzen gelernt habe, bei diesen Trips zu meinen Gästen: Das ich kein Tourist hier bin, sondern eine Aufgabe habe, die mich an Orte und in Situationen bringt, die ich sonst vielleicht niemals so erleben würde.Thomas Arbeit ist sehr abstrakt – ich glaube, das ist fair so zu sagen. Und es ist wirklich toll, jemanden zu treffen, der quasi ohne Rücksicht auf Verluste sein Ding gemacht hat und der nun genau damit auch wahnsinnigen Erfolg hat. Neben seinen künstlerischen Projekten arbeitet er auch für Kunden wie Louis Vuitton, Balenciaga, Nike, Lacoste, Zara und viele mehr.Wir sprachen über die eigenen Erwartungen und fiktive Plateaus, die man nie erreicht, über die Möglichkeiten der Fotografie, über Social-Media-Plattformen, die heute niemand mehr kennt, über die vermeintliche Reproduzierbarkeit von Karrieren, darüber wie er quasi in die Fotografie gestolpert ist, darüber wie Instagram am besten funktioniert, über das Uncanny Valley, über seine künstlerischen Projekte, seine Kundenarbeiten, die Verbindung zwischen Fashion und Kunst und noch vieles mehr.Und jetzt – viel Spaß mit Thomas Albdorf.Mein Gast heutehttps://www.instagram.com/albdorf/https://thomasalbdorf.comJetzt Supporter werdenhttps://patreon.com/ohnedenhypeWunschgäste bitte hier in die Kommentarehttps://apple.co/3cdoMZLInstagramhttps://www.instagram.com/ohnedenhypeFacebookhttps://www.facebook.com/ohnedenhypeYouTubehttp://youtube.ohnedenhype.com
Majestätsbeleidigung oder notwendige Prüfung?Ein Standpunkt von Jochen Mitschka.In der Zusammenfassung der 21. Sitzung, die den Titel trägt: "Die Macht der Konzerne und die Korruption" (1) kam Frau Dr. Holzeisen zu Wort, welche die Verflechtung zwischen Großindustrie, hier in Form der Autoindustrie mit Medien und der Regierung Italiens in Zusammenhang mit Corona beschrieb. Diese Zusammenfassung beginnt mit einer weiteren Befragung des investigativen Journalisten Paul Schreyer.Dr. Füllmich bedauerte, dass ein informatives Video von Paul Schreyer bei YouTube gelöscht worden war, und bot an, rechtliche Schritte zu unternehmen, allerdings war es inzwischen schon wieder online. Dr. Füllmich sagte, dass er dem Video entnommen habe, dass große Konzerne sich auf geschickte Art und Weise mit politischen Machtinteressen verbündeten. Auf der einen Seite Geld, auf der anderen Seite politische Macht.Paul Schreyer bestätigte, dass er genau den gleichen Eindruck hat. Er führte dann noch einmal aus, dass es eine ganz auffällige Gleichzeitigkeit mit dem Treffen in Davos gegeben hätte. Die Corona Medienkampagne begann international gleichzeitig am 20./21. Januar, das könne man heute noch problemlos nachvollziehen. Also genau zu dem Zeitpunkt, als das Treffen in Davos das Thema diskutierte.Am Ende des Treffens in Davos am 24. Januar waren die wesentlichen Instrumente zum Management der Krise bereits voll entwickelt und wurden bekannt gegeben. Der PCR-Test war fertig, die politischen Empfehlungen von der Gates-Stiftung waren da, die täglichen Situationsberichte der WHO zu dem Thema begannen ebenfalls am 21. Januar, das Dashboard der John Hopkins Universität begann am 22. Januar, alles parallel zum Davos-Treffen. Alles, was diese Krise kontrollierte, war während des Davos-Treffens innerhalb weniger Tage bekannt geworden. Es sei schwer, da an einen Zufall zu glauben.Dr. Füllmich fragte dann, wie es denn erreicht wurde, dass die Konzerninteressen so die Politik beeinflussen konnten. Paul Schreyer antwortete, dass der Vorlauf schon über viele Jahre in Arbeit gewesen sei. "Es gibt eine Kette von Aktionen, die jetzt kulminiert". Das wäre nicht einfach aus dem Hut gezaubert worden. Die Tatsache, dass die Impfstoffindustrie einen so großen Einfluss gewann, und dass skandalöse Verträge mit den Staaten abgeschlossen werden können, basiere auf einer viele Jahre andauernden Arbeit, die von Bill Gates maßgeblich gestartet worden war.Das sei eine ganz neue Form von Lobbyismus. Es findet eine Vernetzung von politischen Interessen mit denen der Wirtschaft statt, die zu einer untrennbaren Einheit verschmelzen. Das ist schon eine höhere Stufe als Lobbyismus, man könnte es institutionalisierte Korruption nennen, meinte Schreyer.Man könne dies an der Person von Bill Gates beobachten. Es gab ein Interview in der Süddeutschen Zeitung, in dem Melinda Gates stolz erklärt, dass sie und ihr Mann regelmäßig Politiker wie Angela Merkel, wie Ursula von der Leyen persönlich anrufen, zu jeder Tageszeit, und sie sei ganz froh, dass Frau Merkel beim letzten Telefonat die richtigen Fragen gestellt hätte.Also Bill oder Melinda Gates rufen beim Regierungschef an, der stellt dann die richtigen Fragen, und Gates sagt dann "ja, so oder so können wir das machen", so darf man sich das vorstellen. Das sei keine Verschwörungstheorie, sondern offen so erklärt worden. Und das ist kein Lobbyismus mehr.Wenn man sich das Verhalten von Facebook, Google und andere Konzerne ansieht, haben die inzwischen auch schon hoheitliche Aufgaben übernommen, durch die Kontrolle der Informationen, welche zugelassen werden, meinte dann Dr. Füllmich. Ob eine Meinungsäußerung zulässig ist, war früher eine staatliche Aufgabe. In der Zwischenzeit sind es private Konzerne, die darüber entscheiden.Paul Schreyer wies darauf hin, dass mit der Amtseinführung von Präsident Trump in den USA die Diskussion über sogenannte Hate-Speech Fahrt aufgenommen hatte, als das politische Establishment bemerkte, dass es begann, die Kontrolle über die öffentliche Meinung zu verlieren, und den Einfluss der so genannten "Populisten" eindämmen wollte.Auch die deutsche Gesetzgebung hat eine neue Dimension erreicht, in der hoheitliche Aufgaben auf Konzerne übertragen wurden, indem diesen die Aufgabe erteilt wurde, darüber zu entscheiden, ob eine Nachricht oder Meinung zugelassen ist oder nicht. Das werde auch immer weiter perfektioniert. Der neueste Gesetzentwurf in Deutschland sehe vor, dass wenn etwas von Faktencheckern bei Facebook als Hate-Speech markiert wurde, es automatisch an das BKA weitergeleitet werden soll.Steinmeier half der Regierung etwas bei dem Problem, dass das Gesetz verfassungswidrig war, indem er sie um eine "Verbesserung" bat, statt es offiziell als grundgesetzwidrig zurückzuweisen.Auf die Frage von Dr. Füllmich, "wie kommt man aus der Nummer wieder raus", antwortete Paul Schreyer, dass jeder das tun könne, was ihm möglich sei. Er hätte sich im Sommer 2020 an das RKI gewandt, weil das Institut behauptete, dass die Gefährdung für die Bevölkerung weiter hoch sei. Alle Gerichte ziehen sich auf diese Beurteilung des RKI zurück. Deshalb habe er gefragt, worauf sich diese Einschätzung begründe. Darauf hätte er keine Antwort erhalten.An dieser Stelle sollten noch viel mehr Journalisten nachhaken, meinte er, denn das sei der Dreh- und Angelpunkt für die Maßnahmen. Dann zitierte er aus einem Papier des RKI die Definitionen der Risikoeinschätzung mit den Bezeichnungen gering, mäßig, hoch und sehr hoch. Es lägen keine quantitativen Werte für Eintrittswahrscheinlichkeit zugrunde.Dann erklärte er, dass die Aussagen des RKI zu den eigenen Angaben im Widerspruch zu einem Papier stehen würden, welches vom RKI selbst einmal erstellt worden war, um Leitlinien zur Gesundheitsberichtserstattung aufzustellen. Demnach forderte das RKI die vollständige Transparenz und Dokumentation sowie Reproduzierbarkeit von Kennzahlen, Indizes und Berechnungen, die zu bestimmten Aussagen führen. Diese Leitlinie sei erst im Herbst 2019 veröffentlicht worden, würde aber nun vom RKI selbst nicht eingehalten…weiterlesen hier: https://apolut.net/corona-untersuchungsausschuss-teil-52-oder-21-2-von-jochen-mitschkaUnterstütze apolut:IBAN: DE40 8506 0000 1010 7380 26BIC: GENODEF1PR2Verwendungszweck: apolutKontoinhaber: apolut GmbHVolksbank Pirna eG_Patreon: https://www.patreon.com/apolutflattr: https://flattr.com/@apolutTipeee: https://de.tipeee.com/apolutInstagram: https://www.instagram.com/apolut_netFacebook: https://www.facebook.com/apolutTwitter: https://twitter.com/apolut_netOdysee: https://odysee.com/@apolut:a See acast.com/privacy for privacy and opt-out information.
Ob Krankenkassenprämien, Jobchancen oder Polizeikontrollen. Durch ihre Neutralität, Emotionslosigkeit und Reproduzierbarkeit können Algorithmen eine grosse Chance sein in Bezug auf Rassismus und Diskriminierung, da sie im Gegensatz zu Menschen nicht basierend auf (unbewussten) Vorurteilen Entscheidungen treffen. Doch Studien zeigen, dass Algorithmen nicht nur bestehende Ungleichheiten reproduzieren, sondern sogar zu mehr Diskriminierung führen können. Mehr dazu in der aktuellen Podcastfolge mit Professor Christoph Heitz von der Zürcher Hochschule für angewandte Wissenschaften (ZHAW). Weiterführende Links: https://www.zhaw.ch/de/ueber-uns/person/heit/ https://www.zhaw.ch/de/ueber-uns/aktuell/news/detailansicht-news/event-news/die-berechnung-der-welt/
Sie haben großen Einfluss auf uns, bleiben aber für die meisten von uns unsichtbar: Nahezu jeden Tag begegnen wir Algorithmen, ob es uns bewusst ist oder nicht. Doch wie weit reicht die Macht der Algorithmen? Sind wir auf dem Weg in einen digitalen Monopolkapitalismus? Und was passiert, wenn die KI nicht mehr nur für logische, sondern auch für kreative Prozesse genutzt wird? Ole Nymoen und Wolfgang M. Schmitt analysieren in ihrem gleichnamigen Buch das Phänomen der »Influencer« und zeigen, warum sie als Sozialfiguren symptomatisch für Abstiegsgesellschaft und Spätkapitalismus sind, für welche Ideologien die Werbekörper stehen, wie Influencer rückwärtsgewandte Rollenbilder, Konsumismus und rigide Körpernormen propagieren – und damit einem konservativen Backlash Vorschub leisten. Adrian Daub ist Professor für Vergleichende Literaturwissenschaft an der Stanford University und kennt das Silicon Valley aus nächster Nähe. In seinem Essay Was das Valley denken nennt gibt er einen aufschlussreichen Einblick in die Ideengeschichte eines Orts, der gerne so tut, als hätten seine Ideen keine Geschichte. Hanno Rauterberg nimmt in seinem Essay Die Kunst der Zukunft die Kreativität im Zeitalter ihrer technischen Reproduzierbarkeit in den Blick. Dabei geht es weniger darum, wie kreativ künstliche Intelligenz ist, als darum, was es über uns Menschen aussagt, dass wir von einer kreativen künstlichen Intelligenz träumen. In seinem Buch Plattform-Kapitalismus, das 2018 in der Hamburger Edition auf Deutsch erschien, thematisiert Nick Srnicek aus US-amerikanischer Sicht die digitale Transformation des Kapitalismus und die durch monopolistische Unternehmen vorangetriebene Entwicklung von digitalen Plattformen als neues Geschäftsmodell. Die Bücher zur Folge: • »Influencer« von Ole Nymoen und Wolfgang M. Schmitt: http://shrk.vg/Influencer-P • »Was das Valley denken nennt« von Adrian Daub: http://shrk.vg/Valley-P • »Die Kunst der Zukunft« von Hanno Rauterberg: http://shrk.vg/KunstZukunft-P • »Plattform-Kapitalismus« von Nick Srnicek: http://shrk.vg/Srnicek-P
Worum geht es?Bildung und der Zugang zur Bildung sind zentrale Themen - nicht nur in Zeiten von Corona. Der Zugang zur Bildung muss gewährleistet sein. Aber was genau bedeutet das? Reicht es aus, wenn Bibliotheken und Schulen geöffnet sind? 2 Personen, 3 Meinungen: Unter Bildung versteht fast jede:r etwas anderes. Die einen verstehen darunter eine Grundausbildung, die anderen die Lektüre bildungsbürgerlicher Klassiker oder den Besuch vergleichbarer Opern- oder Theateraufführungen. In der Charta der Menschenrechte ist mit dem "Recht auf Bildung" eine grundlegende Ausbildung gemeint. Seitens der Gesellschaft gilt es, für diese Ausbildung frei zugängliche Lernumgebungen zu schaffen, die zudem zeitgemäß sind. Hinzu kommen die 17 Ziele der Vereinten Nationen für eine nachhaltige Entwicklung bis 2030. Auch dort wurde ein Recht auf lebenslange Bildung definiert, das allen Menschen lebenslang die Möglichkeit bieten muss, sich im Wandel der Zeit auch beruflich neu ausrichten zu können, oder sich selbstständig zu machen, damit nachhaltige Innovationen aus der Mitte der Gesellschaft entstehen.Die klassischen formalen Bildungsinstitutionen der industriepolitischen Moderne sind mit dieser Aufgabe überfordert. Hier kommen jetzt auch die Kommunen ins Spiel. In Musterbrecher:innen Digital haben Anika Krellmann und Marc Groß mit Dr. Anja C. Wagner in der dritten Folge über Digitalisierung und (Erwachsenen)Bildung gesprochen. Dabei ging es um zwei zentrale Fragen: 1. Wie muss sich (Erwachsenenbildung) im Digitalen Zeitalter verändern? 2. Wie verändert die Digitalisierung die (Erwachsenen)Bildung? Ach so, Anja bezeichnet sich selber als Bildungsquerulantin, ist Geschäftsführerin von Frolleinflow, dem Institut für kreative Flaneure. Außerdem ist sie Mitglied im Lenkungskreis des Co:Lab.Der Co:Lab-Podcast “Musterbrecher:innen Digital”In unserem Podcast “Musterbrecher:innen Digital” greifen wir regelmäßig Themen im Kontext von Gesellschaft und Digitalisierung auf, die Euch und uns beschäftigen. Wir diskutieren Hintergründe, decken alte Muster auf, sprechen über Muster, die es in Zukunft braucht und diskutieren Zusammenhänge. Den Podcast findet ihr auf Podomatic, Spotify, Apple Podcasts, Google Podcasts, Amazon Music and Audible, Player FM und Deezer.ShownotesInternetseite des Co:Lab e.V.https://colab-digital.de Co:Lab-Publikation: Künstliche Intelligenz in Kommunen (Kapitel KI in Bildung und Lernen)https://colab-digital.de/initiativen/koki/bildung/Internetseite von Dr. Anja C. Wagnerhttps://about.me/acwagnerInternetseite von Frolleinflow - Institut für kreative Flaneurehttps://frolleinflow.comBuchempfehlung: Berufen statt zertifiziert. Neues lernen, neue Chancenwww.berufenstattzertifiziert.deBuchempfehlung: B(u)ildung 4.0: Wissen in Zeiten technologischer Reproduzierbarkeithttps://www.amazon.de/ildung-4-0-Wissen-technologischer-Reproduzierbarkeit-ebook/dp/B078BLV1BG/ref=as_li_ss_tl?dchild=1&keywords=b(u)ildung+4.0&qid=1618326747&sr=8-1&linkCode=sl1&tag=ff_pcb-21&linkId=7628cf86c370cf8f289f6156295da941&language=de_DEDigital-Index D21 2020 / 2021https://initiatived21.de/app/uploads/2021/02/d21-digital-index-2020_2021.pdf
In der Entwicklung von Prozessen und Produkten passieren regelmäßig Fehler. Das ist grundsätzlich normal und auch nicht weiter schlimm. Wichtig ist nur, dass man erkennt, wo die Fehler herkommen und wie man sie in Zukunft abstellen kann. Dazu muss man sie reproduzieren können. In diesem Podcast gibt es ein kleines Beispiel dazu, aus meiner eigenen Erfahrung. Hast du weitere Fragen, Anregungen oder Kritik? Dann schreibe mir einfach eine E-Mail an: info@rathmann-engineering.com Gerne kannst du mich auch über folgende Kanäle erreichen: Xing: https://www.xing.com/profile/Dennis_Rathmann3?sc_o=mxb_p LinkedIn: https://bit.ly/2WJSZaL
Zwischen technischer Faszination, Klangbastelei, Reproduktionsgerät und Kunstobjekt Jahrhunderte lang waren (mechanische) Musikmaschinen nicht nur notdürftiger Ersatz für Instrumentalisten aus Fleisch und Blut, sie waren vor allem eine Attraktion, Unterhaltung. Im Zeitalter der elektronischen Reproduzierbarkeit können spezielle ästhetische Ideen umgesetzt werden. Aus dem Umfeld von Bricolage, Fluxus, Klangskulptur und Klangkunst gingen anarchisch-spielerische, sich immer auch etwas selbst parodierende Klangmaschinen hervor, die visuelle und akustische Ebene verbinden und dabei die Grenzen der Kunstgattungen hin zur Performance, zur bildenden Kunst und zur Klangskulptur überschreiten. Conlon Nancarrow und Peter Ablinger, Pierre Bastian, Joe Jones oder Jean Tinguely sind nur ein paar bekannte Künstler, die sich dem Phänomen Klangmaschine verschrieben haben.
Zum letzten Mal Count Zero: Wir besorgen uns 80 Liter Kerosin und fahren mit unserem Hoverpanzer in den Sonnenuntergang. Oder sollten wir mit dem Zeug lieber die letzten drei Kapitel anzünden und das Ende neu schreiben? Ihr erfahrt es wie immer bei Sprawl Radio! Wir besprechen das Grande Finale von Count Zero, dem zweiten Teil der Sprawl Trilogie. Außerdem: Was hat uns Walter Benjamins 'Schlüsseltext des 20. Jahrhunderts' ,sein berühmter Essay 'Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit', zu sagen und sind künstliche Intelligenzen die besseren Künstler? Richtig gehört - es gibt wieder Schülerreferate. Worauf wartet ihr? Steckt ein und lauscht unseren körperlosen Stimmen. In der nächsten Folge besprechen wir die Kapitel 1-8 von Mona Lisa Overdrive.
In der heutigen Episode sprechen Wir mit Stefan Kienzl über seinen Werdegang zum Coach der IFBB Pro´s und welche Coachingphilosophie und Prozesse er über die Zeit etabliert hat. Des weiteren welche Rolle analytische Fähigkeiten für die Reproduzierbarkeit von Resultaten hat und wie man mit muskulären Schwächen umgeht. Alles weitere in den TIMESTAMPS. Stefan Kienzl: https://www.instagram.com/bossofoutlaw/ Timestamps: 00:04:00 Stefans Werdegang zum Elite Coach 00:12:30 Coachingprozesse und Reproduzierbarkeit von Resultaten 00:23:00 So verläuft die Athletenanalyse 00:31:00 Coachingphilosophie 00:40:00 Das macht die Regeneration eines Athleten aus (Unterschiede zwischen Natural und unterstützten Athleten?) 00:42:00 Coaching TOOLS 00:45:00 Sinnvolle Defintion von Progressive Overload und seine Anwendung 00:52:00 Umgang mit muskulären Schwächen Wenn du an einem COACHING interessiert bist - folge dem Link und bewerbe dich noch HEUTE: https://www.theartofpt.de/onlinecoaching Danke für das zu hören / schauen...lasst UNS gerne einen Kommentar, ein LIKE und ein ABO da wenn euch die Episode gefallen hat. INSTAGRAM: https://www.instagram.com/arne.otte/ Wenn DU den Podcast unterstützen willst nutze bei deinem nächsten Einkauf bei MYPROTEIN folgenden CODE: ARNEMYP und spare 27% und mehr auf deine Bestellung. Nutze dazu bitte folgenden Link um damit der Support auch ankommt: http://tidd.ly/92ab9479
Schon immer hat sich der Mensch nach der Überschreitung einer ›natürlichen‹ Sexualität gesehnt. Neu ist, dass mit der Schaffung virtueller Welten und der Fertigung von lebensechten Sexpuppen und humanoiden Robotern nun die Möglichkeit besteht, dieses Begehren auch real auszuleben. Bevor aber entschieden werden kann, ob das die bisherige Begehrensordnung revolutioniert oder bestehende Geschlechterverhältnisse zementiert, muss die grundsätzliche Frage gestellt werden, was es heißt, eine Maschine zu begehren. Anhand zahlreicher Beispiele aus Film, Fernsehen, Kunst und Literatur, zeigt Sex Machina, wie unterschiedlich Begehren und Beziehungen zwischen Menschen und Maschinen imaginiert und organisiert werden können. Gleichzeitig ist es ein Plädoyer für einen entspannten Umgang mit Technik, der diese nicht als funktionale Vervollkommnung, sondern als Eigenart von Sexualität und Begehren einordnet. Sophie Wennerscheids Band beleuchtet die Effekte, die moderne Technologien im Bereich von Begehren, Intimität und Fortpflanzung bewirken. Der Titel setzt Gentechnik, Digitalisierung, virtuelle Realität, Künstliche Intelligenz und andere Verfahren suggestiv mit jenem Deus ex machina in Verbindung, der auf der griechischen Bühne vermittels einer Theatermaschine zum Erscheinen gebracht wurde, um dem Geschehen eine ebenso abrupte wie grundsätzliche Wendung zu geben. Die Szenerie modernen Begehrens verändert sich Wennerscheid zufolge durch „Techniken, die den Körper auf eine neue Weise mit anderen Körpern oder Dingen verbinden.“ Die Regelungen zu physischer Distanz infolge der SARS-CoV-2-Pandemie haben deutlich gemacht, dass bereits die Frage, ob persönliche oder lediglich digital vermittelte private und berufliche Kommunikation möglich ist, gewohnte Auffassungen von Kontakt und Nähe auf eine harte Probe stellen; umso triftiger ist die Annahme, dass technische Veränderungen etwa der Fortpflanzung in Selbstbilder und Beziehungsstrukturen eingreifen. In die pandemisch angeregte Digitalisierungseuphorie lohnt sich Wennerscheids Frage einzuwenden: „Aber sind Gefühle Informationen?“ … Eine Rezension von Juliane Prade-Weiss
bauhaus.film.digitally.expanded | ExpertInnengespräch [10.05.2020] moderiert von Teresa Retzer. Martin Reinhart, Filmemacher und Medienplaner, und Jan Knopf, Literaturwissenschaftler, gehen zurück in die Anfänge der technischen Reproduzierbarkeit. Eine Zeit, die den heutigen Problemen näher scheint als erwartet und Fragen aufwirft, die noch heute im Zentrum der Diskussionen stehen. Inwieweit bereichern die technischen Medien den Alltag der Menschen? Können wir ihnen und ihren Informationen trauen? Der Wortfilm rollt, die Dinge beginnen zu sprechen, das ABC tönt eindringlich in auf- und abschießenden Klangsäulen, die Symphonien strahlen im Spektrum der Farben, die erstaunten BetrachterInnen versinken im Pupillenrausch und von den Leinwänden lärmt die neue Optik. Raum und Zeit heben sich auf, die Umwelt gerät in Bewegung, die Rhythmen von Motoren und Maschinen regieren den Alltag, das Organische verwandelt sich in Dynamik. Die Künste befreien sich von der Nachahmung des Gegenständlichen und öffnen die Augen weit hinein in neue ungeahnte Welten. Das Visuelle erweitert sich ins Virtuelle. Bauen als neue Synthese des traditionellen Handwerks und der neuen Techniken, die sich in den Medien Radio, Film und elektronischer Musik realisieren, löst die traditionellen Künste sowie ihre begrenzten Genres auf und fordert neue offene Gestaltungen heraus. Das künstlerische Schaffen vereinigt »alle werk-künstlerischen Disziplinen zu einer neuen Baukunst«, wie Walter Gropius das Programm des Bauhauses formulierte, und zwar auf der Basis einer am Stand der fortgeschrittenen Technik orientierten Vision einer selbstbestimmten Gesellschaft, die keine nationalen Grenzen mehr kennt: »Internationalität der Künste! Globale!« Ende der zwanziger Jahre gab es bereits den Begriff des »Apparaterlebnisses«. Hat er das letzte Wort - oder setzen wir alles wieder in neue Bewegung? Welche persönlichen Möglichkeiten eröffnen sie im Sinn des aktiven Mitgestaltens? Was haben wir alles so verinnerlicht, dass wir die Vorgaben nicht mehr erkennen. Leben wir in den Apparaten und ersetzen wir mit ihnen unsere Erlebniswelt?
Prof. Dr. Bernhard Dotzler. Ordinarius Literatur- und Medienwissenschaften Universität Regensburg Im achten Podcast hat Andy Scholz den in Regensburg lehrenden Medienwissenschaftler Prof. Dr. Bernhard Dotzler zu Gast. »Die Allgegenwärtigkeit mag sprachlich falsch sein, aber inhaltlich sehr subtil auf den Punkt gebracht, denn es geht um die all umfassende Gegenwärtigkeit fotografischer Bilder in unserem Alltag.« »Viviane Maier halte ich bis heute für eine Fälschung. Ich glaube Viviane Maier wird sich noch als Hoax entpuppen. Die Story ist zu perfekt, um wahr zu sein.« Prof. Dr. Bernhard Dotzler studierte Neuere deutsche Literaturgeschichte, Philosophie, Linguistik und Kulturwissenschaft in Freiburg, Siegen, Bochum und Berlin. 1995 wurde er mit der Dissertation »Papiermaschinen – Versuch über Communication & Control in Literatur und Technik« an der Humboldt-Universität zu Berlin promoviert. Im Jahr 2004 folgte die Habilitation. Vor seiner Berufung auf den Lehrstuhl für Medienwissenschaft an der Universität Regensburg Ende 2004 arbeitete er als Referent in der Geschäftsstelle des Wissenschaftsrates, als Wissenschaftlicher Assistent am Institut für deutsche Sprache und Literatur sowie war Projektleiter am SFB/FK 427: »Medien und kulturelle Kommunikation« der Universität zu Köln, als Visiting Lecturer an der University of Cambridge sowie als Forschungsdirektor für Literatur- und Wissenschaftsgeschichte am Zentrum für Literaturforschung Berlin. Im Winter 2010 war er Visiting Kade Professor an der University of California und 2018 Charlotte M. Craig Distinguished Visiting Professor an der Rutgers University. https://www.uni-regensburg.de/sprache-literatur-kultur/medienwissenschaft/team-kontakt/dotzler/index.html https://festival-fotografischer-bilder.de/portfolio/prof-dr-bernhard-dotzler/ Episoden-Cover-Foto: privat Episoden-Cover-Gestaltung: Andy Scholz Save the Date: 22. Oktober bis 15. November 2020 Festival Fotografischer Bilder Regensburg Der Podcast ist eine Produktion von STUDIO ANDY SCHOLZ 2020. Das FESTIVAL FOTOGRAFISCHER BILDER ist eine Kooperation mit dem Kulturamt der Stadt Regensburg. Literatur: Leonie Apostel: Was will André Bazins »Ontologie des photographischen Bildes" ausdrücken?«. GRIN Verlag (22. März 2018). ISBN-10: 3668666660, ISBN-13: 978-3668666665 Vukan Mihailovic De Deo: Über André Bazins »Ontologie des fotografischen Bildes« und Siegfried Kracauers »Die Errettung der physischen Realität« - eine Analyse ihrer Thesen. GRIN Verlag, Auflage 5 (10. Dezember 2007). ISBN-10: 3638791785, ISBN-13: 978-3638791786 Walter Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Suhrkamp Verlag, Auflage 6 (20. September 2010). ISBN-10: 9783518461969, ISBN-13: 978-3518461969
Tierversuche sind in der Gesellschaft umstritten. Helene Richter ist Professorin für Verhaltensbiologie und Tierschutz - sie will mit ihrer Forschung die Bedingungen bei Laborversuchen zum Wohl der Tiere verbessern. Im Podcast erläutert sie, was unter tierexperimenteller Forschung eigentlich zu verstehen ist, mit welchen Methoden das Wohlergehen der Tiere ermittelt wird, welche Faktoren die Reproduzierbarkeit von Tierversuchen verbessern und wie streng die deutsche Gesetzgebung – verglichen mit anderen europäischen Ländern – in diesem Bereich ist.
Autor: Hinrichs, Dörte Sendung: Aus Kultur- und Sozialwissenschaften Hören bis: 19.01.2038 04:14
Indiefilmtalk Podcast - Der Podcast über das Filmemachen | Produzieren | Drehbuch | Festivals
In this issue, you will first meet Sarah-Mai Dang. She is an expert on both Open Science and Open Access. She will introduce her publisher “oa books” and the “Open Media Studies Blog”. In the News Section, you can get to know the newly published book “Update! Film- und Mediengeschichte im Zeitalter der digitalen Reproduzierbarkeit” and its author Franziska Heller. In the Dear Diary chapter, you will hear a conversation between Francesco Bono from the University of Perugia in Italy and Anna Luise Kiss on Francesco's work and on the effects of the Corona pandemic on teaching and research. "Film Studies bling-bling" is about hidden and well-known treasures, big and small diamonds from Film Studies. In each episode, we have a "Bling of the month"; scholars from Film Studies who are interviewed about their research. In the news section, you hear from current research projects or book publications, or whatever struck my way strolling around in the Film Studie's universe. To keep this podcast visible for you we decided to add it to the Indiefilmtalk Catalogue in consultation with the podcast-creators. More informations on: www.indiefilmtalk.de ---------- Project Website "Die filmische Straßenlandschaft in Potsdam" - https://filmische-stadt.projekte-filmuni.de/team.html Social Media - @indiefilmtalk Webseite - https://indiefilmtalk.de/
Alternativtitel: "Die Unterspannte". Jean-Marc hat einen Kater, und Corona scheint sich auf die Gemüter und die Plauderlaune auszuwirken. Aber: #fürmehrrealitätaufspotify! Wir laden diese Folge trotzdem hoch!
Dies ist der zweite, und wichtigere Teil zum Thema »Offene vs. geschlossene Systeme« und deren Auswirkungen auf Wissenschaft, Politik, Wirtschaft und Gesellschaft. Ich formuliere zunächst die These, dass wir in einer Zeit leben, wo versucht wird, wirtschaftliche und politische Macht auch durch Daten und geschlossene Systeme zu erreichen. Daraus könnte der Schluss folgen, dass wir zahlreiche dieser Probleme durch offene Systeme (Software, Daten, Hardware, Transparenz) lösen können. Stimmt das? Im Gespräch mit Christoph Derndorfer und Lukas lang diskutieren wir Themen wie: Offenheit in der Wissenschaft: steckt die Wissenschaft in einer Krise mangelnder Reproduzierbarkeit? Open Source Open Data Open Hardware Sind Algorithmen »neutral« und »apolitisch«? Hilft Transparenz dem politischen Prozess? Gibt es konkrete ökonomische Vorteile offene Systeme einzusetzen? Verstehen wir überhaupt noch, wie die Systeme, die wesentliche Bereiche unserer Gesellschaft steuern, funktionieren? Was ist hier die geopolitische Dimension? Und zum Abschluss stelle ich die Frage (aus dem Vortrag von Hannah Fry »ausgeborgt«): Angenommen, ein Bekannter von Euch steht vor Gericht: wäre es euch lieber, das Urteil wird von einem menschlichen Richter oder einem Algorithmus (»KI«) gesprochen? Wie würden Sie entscheiden? Referenzen Lukas Lang persönliche Website: https://lukaslang.github.io Twitter: https://twitter.com/lukaslang Christoph Derndorfer persönliche Website: https://derndorfer.eu/ Twitter: https://www.twitter.com/random_musings Fachliche Referenzen Teil 1 dieses Themas: siehe Episode 19 Website der LVA "Free and Open Technologies" Studie zur Reproduzierbarkeit in der Informatik: Collberg, C. et al (2014), “Measuring Reproducibility in Computer Systems Research” Adressdaten-Beispiel aus Dänemark: GovLab (2016), "Denmark's Open Address Data Set" Facebook und das »Oversight Bord« Hannah Fry, Should Computers Run the World? Byung Chul-Han, Im Schwarm Lawrence Lessig, Against Transparency Online Kurs »Elements of AI«
Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research! Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln. Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten. Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden. Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte. Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten. Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? Auf jeden Fall hätte die Veröffentlichung schon frühere Diskussionen und Verbesserungen der Ergebnisse ermöglicht, da abgeleitete Arbeiten statt der geschriebenen Darstellung auf den echten Daten ihre erweiterten Analysen hätten durchführen können. Soweit die Theorie, praktisch muss man sich eingehend damit befassen, was genau erforderlich ist, um eine Reproduzierbarkeit schon auf Seiten der Daten und Software zu ermöglichen. Das Befassen mit diesen Themen führt von einer Erstellung einer Publikation zum Begriff der Open Science oder offener Wissenschaft, die unter anderem Open Access, Open Data als auch Open Source betrifft. Hier konzentriert sich Carina in ihrer Forschung besonders auf den letzten Teil, insbesondere wie Erkenntnisse aus der Softwaretechnik dazu beitragen können, dem großen Ziel der Reproduzierbarkeit auch über die Zeit hinweg zumindest näher zu kommen. Wichtig ist auch den Entstehensprozess von Software zu betrachten. Die Fernseh-Show Bares für Rares demonstriert, wie die Wertigkeit eines Objekts durch eine nachgewiesene Herkunft signifikant beeinflusst wird. Dies erfolgt durch Nachweis der sogenannten Provenience. Der Begriff Provenience bedeutet die Aufzeichnung der Geschichte der Entstehung eines Objektes. Dies läßt sich auf Software übertragen. Die Wertigkeit und Qualität von einer Software-Publikation könnte zum Beispiel dadruch evaluiert werden indem der Build- und Entwicklungsprozess aufgezeichnet, und mit dem PROV W3C-Standards dokumentiert. Neben der Dokumentation liegt der nächste Schritt für reproduzierbare Software (vgl. E. Heitlinger: Reproduzierbarkeit – Wissenschaftliche Arbeit als Software-Projekt) darin, die erforderlichen zusätzlichen Bestandteile auch zur Verfügung zu stellen. Die nachhaltige Softwareentwicklung befasst sich in besonderem Maße damit, dass die Software von anderen sowohl genutzt als auch in Zukunft weiterentwickelt werden kann. Natürlich sollten wissenschaftliche Veröffentlichungen grundsätzlich die Wissensgewinnung und Validierung genau beschreiben, nur ist dies im gängigen Rahmen und Form normaler Publikationsformen weder in Form noch im Umfang abzubilden. Daher fordern viele Journals und Konferenzen, die Daten und Methoden in der Form von ausführbaren, web-basierten Jupyter Notebooks zur Verfügung zu stellen. Ein neuer Ansatz ist eine "Software Zitierbarkeit" zu ermöglichen, also sowohl die Form mit Weblinks und Versionierung, also auch mit Infrastruktur wie dem Dienst Zenodo, das einen Digital Object Indentifier (DOI) für Software mit einem Langzeitarchiv bereitstellt. Das ist ein Service, der in etwas weniger spezialisierter Form für unterschiedliche Medien auch von vielen Hochschulbibliotheken angeboten wird. Am DLR widmet sich die Software Engineering Initiative mit vielen Ansätzen, um Forschenden zu helfen nachhaltige Software zu entwickeln. Ein wichtiger Bestandteil sind hier Trainings, wie beispielsweise Repositories verwendet werden sollten: Hinweise für sinnvolle Commit-Messages verwenden. Wie sollten Versionen vergeben werden? Neben den eigentlichen Sourcen sollte auch der Build-Prozess und Testdaten im Repository sein Sinnvolle Struktur von Dateibäumen und sprechende Bennenung von Dateien Jedes Repository sollte eine README-Datei haben, die am Anfang kurz die Funktion der Sourcen beschreibt und in welchem Scope und in welchen Constraints die Ziele erreicht werden sollen, wie sie installiert, ausgeführt und getestet wird und wie sollte die Software zitiert werden? Unter welcher Lizenz steht die Software? Unterstützung gibt es auch durch zentrale Infrastruktur, die vom DLR beispielsweise durch eine eigene GitLab bald zur Verfügung stehen wird, und allen Forschenden einen eigenen persönlichen Bereich anbieten, sowie Projekten sofort entsprechende Strukturen bereitstellen. Die im Gespräch erwähnte SHA1-Kollision Shattered hatte einen Stillstand der für mehrere Browser grundlegende WebKit-Entwicklung zur Folge, da deren Subversion-Repository nicht mit der Hash-Kollision zurecht gekommen ist. Es gibt vielseitige Motivationsgründe für Forschende die Unterstützung der Software Engineering Initiative anzunehmen: Entweder sind sie aus einem füngeren universitären Umfeld schon mit der Thematik vertraut, oder haben Probleme durch fehlene Softwarequalität schon kennengelernt, lassen sich von Beispielen überzeugen oder Qualitätsanforderungen überreden, oder es wird ihnen durch Vorgesetzte nahe gelegt. Ein Mittel zur Motivation sind insbesondere die am DLR entwickelten Software Engineering Guidelines, die Kolleginnen und Kollegen zur Verfügung gestellt werden können. Darin sind sowohl Begründungen für das Vorgehen, aber auch einfach zur verfolgende Entscheidungsbäume und Checklisten, die je nach Größe und Kritikalität von Projekt unterschiedlich aufwendige Empfehlungen vorschlagen. Dies kann von einer TODO-Datei bis zur Integration eines vollständigen Issue-Tracker gehen, der in der höchsten Qualitätsstufe auch mit dem kompletten Code-Management integriert werden sollte. Diese Guidelines sind am DLR in eine Qualitätsinitiative integriert, bei der in jedem Institut ein Qualitätsbeauftragter oder eine Qualitätsbeauftragte zumindest erfassen sollte, warum bestimmte Empfehlungen nicht entsprochen wird, oder idealerweise das Institut dabei dazu zu motivieren diese einfach genau so umsetzen. Die erforderliche Bereitstellung digitaler Infrastruktur durch Organisationen spielt für Hochschulen neben den Bereichen des Software Engineerings auch in der Lehre eine wichtige Rolle: "Wenn technische Möglichkeiten wie Vorlesungsaufzeichnungen auch im Rahmen obligatorischer Lehrveranstaltungen genutzt werden sollen, müssen Hochschulen daher auch aus datenschutzrechtlichen Gründen entweder eine eigene Infrastruktur aufbauen oder datenschutzkonforme Dienstleistungen gegen Entgelt in Anspruch nehmen." A. Lauber-Rönsberg in Videocampus Sachsen – Machbarkeitsuntersuchung. Was alles bei der Nutzung mit Software-Repositories am Beispiel von GIT passieren kann, erzählt Sujeevan Vijayakumaran im GPN19-Vortrag Dämliche Dinge mit git anstellen. Grundlage für viele Aktivitäten der Software Engineering Group basieren auf Software Carpentries, beispielsweise mit einer GIT Einführung, die auch auf die Nachhaltigkeit abzielt. In der Helmholtz-Gesellschaft wurde das HIFIS-Projekt (Helmholtz Infrastructure for Federated ICT Services) gestartet, um die Initiativen und Erfahrungen in der Bereitstellung von Infrastrukturen innerhalb der Helmholtz Gesellschaft zu bündeln. Hier geht es nicht nur um den Betrieb der Software, sondern auch um das Training für die Services und im Allgemeinen. Dazu sollen Communities für Software Engineering und weiteren Themen gebildet werden, damit der Austausch über Erfahrungen und Wissen leichter ablaufen kann. Die Initiativen im Bereich der Research Software Engineers werden im neu gegründeten Verein DE-RSE e.V. gegründet, der vom 4.-6. Juni im Potsdam die erste Konferenz für ForschungssoftwareentwicklerInnen in Deutschland deRSE19 veranstaltet. Der Ursprung dieser Initiative liegt im WSSSPE Workshop (Working towards sustainable software for science: practice and experiences) und der Konferenz der Research Software Egineers Association. Die #deRSE19 wird auch besonders durch die TIB, dem Leibniz-Informationszentrum, Technik und Naturwissenschaften, Universitätsbibliothek, unterstützt. In der Zukunft muss es auch darum gehen, Infrastrukturen bereit zu stellen, über gute Verfahren zu informieren und auch Anreize für Forschenden zu schaffen, die verschiedenen Ansätze aufnehmen. Der Verein und das HIFIS-Projekt möchten hier mit unterschiedlichen Ansätzen dazu beitragen die Situation zu verbessern, und insbesondere die aktuelle Dynamik in Richtung Open Journals, Open Data, Open Source und Open Science zu nutzen. Für einzelne Gruppen und Instituten sollte die Wichtigkeit sich mit Open Source Lizenzen nicht unterschätzt werden: Es kann sonst zu Inkopatibilitäten zwischen verschiedenen Lizenzen kommen, oder es fehlen Einverständniserklärungen von einzelnen, nicht vertraglich verbundenen Personen. Diese können beispielsweise Studierende sein, die im Rahmen einer Abschlussarbeit an einem Projekt mitgearbeitet haben. Hier muss ein Contributor Licence Agreement bereit sein, die von sonst nicht vertraglich gebunden Beitragenden unterschrieben werden kann. Literatur und weiterführende Informationen C. Haupt, T. Schlauch: The Software Engineering Community at DLR—How We Got Where We Are, Proceedings of the Workshop on Sustainable Software for Science: Practice and Experiences (WSSSPE5. 1), 2017. A. Schreiber, C. Haupt: Raising awareness about open source licensing at the German aerospace center, 2018 IEEE Aerospace Conference. IEEE, 2018. D. A. Almeida, G. C. Murphy, G. Wilson, M. Hoye: Do software developers understand open source licenses?, Proceedings of the 25th International Conference on Program Comprehension (pp. 1-11), IEEE Press, 2017. R. Krishnamurthy, M. Meinel, C. Haupt, A. Schreiber, P. Mäder: DLR secure software engineering: position and vision paper. Proceedings of the 1st International Workshop on Security Awareness from Design to Deployment (pp. 49-50). ACM, 2018. Podcasts M. Fromm, K. Förstner: Open Science Radio C. Haupt, S. Janosch, K. Förstner: Voices from de-RSE Conference 2019, Open Science Radio, OSR171, 2019. C. Haupt, S. Druskat, K. Förstner: de-RSE Association and Conference for Research Software Engineers in Germany, Open Science Radio, OSR140, 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
(DE) In der neuen Folge unserer Podcast-Reihe "In die Gärten mit..." trifft Journalistin Juliane Reil auf das Offenbacher Künstlerkollektiv YRD.Works. Yacin Boudalfa, David Bausch und Ruben Fischer haben bei den KunstFestSpielen 2019 die begehbare Skulptur Copy Service im Ehrenhof des Schloss Herrenhausen geschaffen: Eine Gussform, ein negativ im Originalmaßstab, wodurch sich das Schloss Herrenhausen an jedem anderen Ort der Welt schaffen ließe. Im Gespräch mit Juliane Reil spricht Ruben Fischer über Reproduzierbarkeit, das Selbstverständnis der Künstler, sowie die Interaktion mit Kunst und ihre Rezeption. Weitere Infos unter: www.kunstfestspiele.de/podcast
Digitalität und Verantwortung | Konferenz [22.03.2019] Wo liegen die Herausforderungen, Chancen und Risiken der Digitalisierung für Kunst und Kultur? Was sind die ethischen Herausforderungen der Digitalisierung? Wie ändern sich Rolle und Selbstverständnis von Kunst und Kultur in der digitalen Gesellschaft? In der zweiten Dialogveranstaltung des Forums »Digitale Welten« werden die ethischen und rechtlichen Grundlagen diskutiert, auf denen eine verantwortungsvolle digitale Kulturpolitik fußen muss. TeilnehmerInnen aus allen Disziplinen stellen sich gemeinsam den Grundsatzfragen zur digitalen Zukunft im Kulturbetrieb.
Die historischen Grenzen sind gesprengt. Der Hip-Hopper sampelt Vaters alte Platten und im angesagten Café lässt sich der DJ den Apfelstrudel auf dem Blümchensofa schmecken. Die Studentin bestellt sich im Internet ihr individuell gemischtes Müsli, nachdem sie sich bei eBay ihr 90er Jahre-Outfit zusammengestellt hat. In der U-Bahn hört sich der Blogger seine Lieblingsplaylist auf Soundcloud an, während er die neuesten Tweets auf Twitter liest. Das Internet potenziert Geschwindigkeit und Distribution ins Unermessliche. Noch nie waren Kreativität und Konsum so schnell verfügbar und wandelbar wie heute. In der 25. Sendung der Kulturwelle geht es um den Remix als musikalische und kulturelle Praxis. Was ist Kreativität zwischen Genius und Scenius in Zeiten von Digitalisierung und Internet? Wie verändern sich Kompositionspraktiken? Was ist noch authentisch? Ist der Remix zu einer alltäglichen Gestaltungspraxis geworden und lässt sich die Idee des Remix auf unsere Kultur anwenden? Dazu spricht der Musikwissenschaftler Fabian Czolbe über die Relevanz des Remix und Samples in der klassischen Musik, insbesondere in den Kompositionen von Pierre Schaeffer, das Sampling im Hip Hop und die damit verbundene neue Idee von Realness erklärt uns der Medien- und Kommunikationswissenschaftler Steffen Lepa, Kulturtheoretiker Eduardo Navas und Ramón Reichert analysieren den Stellenwert von Remix im Zeitalter der digitalen Reproduzierbarkeit und beschreiben damit den Begriff der “remix culture”. Dazu gibt es Musik und persönliche Erfahrungsberichte von DJ Red Rack’em und dem Loop-Künstler Nïer. Schließlich haben wir es uns auch nicht nehmen lassen, die produzierte Sendung unserem Remixer Ramsus Lauvring zu überlassen, dessen Remix die Sendung abschließt.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 17/19
Seit Einführung der endovaskulären Aneurysmareperatur in den klinischen Alltag ist die Anzahl der elektiv durchgeführten Interventionen deutlich gestiegen. Gleichzeitig ist dieses minimalinvasive Verfahren einem ständigen Fortschritt unterworfen und entwickelt sich stetig weiter. Um diesen Entwicklungen gerecht zu werden bedarf es einerseits einer guten Ausbildung endovaskulärer Chirurgen und interventioneller Radiologen. Andererseits ist es notwendig vor Anwendung am Patienten technische Neuerungen so realitätsnah und umfassend wie möglich zu evaluieren. Industriell gefertigte Modelle und Computersimulatoren bieten zwar eine realitätsnahe Simulation der endovaskulären Eingriffe, sind jedoch aufgrund der extrem hohen Anschaffungskosten kaum in medizinischen Einrichtungen verbreitet und meist auf Industrie gesponsorte Workshops beschränkt. Ziel der vorliegenden Arbeit war es, ein aortales Gefäßmodell zu entwickeln, welches ein Aortenaneurysma trägt und nach Anschluss an ein Perfusionssystem die Simulation endovaskulärer aortaler Eingriffe ermöglicht, um diese zu trainieren und neue Methoden zu erproben. Das Modell sollte kostengünstig, zugleich aber mit hoher Genauigkeit und ohne großen Aufwand reproduzierbar sein. Prinzip des Modellbaus war es aus dem CT-Datensatz eines an unserem Institut behandelten Patienten mittels gängiger Modelliermittel eine Kopie aus Silikon zu konstruieren. Dabei kamen die Techniken des modernen Formenbaus zur Anwendung um die Reproduzierbarkeit des Modells zu ermöglichen. Für die Erzeugung eines Kreislaufs im Modell wurde eine selbstansaugende Niedervolt-Durchlaufpumpe angeschlossen. Das fertiggestellte Aortenmodell wurde durch zwei erfahrene interventionelle Radiologen hinsichtlich des Realitätsbezugs bei der Simulation von endovaskulären Interventionen evaluiert. Die Bewertung fand nach dem Schulnotenprinzip statt, wobei die Note 1 einem sehr hohen, die Note 6 keinem Realitätsbezug entsprach. Es wurden mehrere Kategorien unterschieden: Die Anatomie des Modells allgemein sowie die Anatomie der Pathologien, die Visualisierung durch verschiedene radiologische Modalitäten (CTA, MRA, Fluorsokopie mit DSA und Roadmap), die Simulation des Workflows, von der Punktion über das Legen der Schleuse bis zur Kontrasmittelinjektion über einen Katheter, sowie insbesondere die Führung des Führungsdrahtes. Ein weiteres Bewertungskriterium war der Erfolg bzw. Misserfolg der Sondierungen aller Gefäßabgänge mittels eines weichen und eines steiferen Führungsdrahtes und frei wählbarer Angiografiekatheter. In diesem Zusammenhang wurde auch die Compliance der Gefäße als Realitätskriterium erfasst. Abschließend wurde der Realitätsbezug des Modells insgesamt bewertet und die Kosten kalkuliert. Zusammenfassend wurde das Modell mit einer Note 2, entsprechend einem hohen Realitätsbezug bewertet. Die Evaluation zeigte die realitätsnahe Visualisierung in allen relevanten radiologischen Modalitäten sowie die gute Simulation von Workflow und Führung des Führungsdrahtes sowie der Angiographiekatheter. Auch die anatomische Realitätsnähe des Aortenmodells wurde von den Radiologen insgesamt positiv bewertet. Allerdings zeigten die wenige Millimeter zu weiten Durchmesser der Gefäßabgänge die Grenzen der verwendeten Herstellungstechnik auf. Diese waren ein notwendiger Kompromiss bei der segmentierten Konstruktion, wodurch zu Lasten der Durchmesser die Reproduzierbarkeit des Modells gewährleistet wurde. Mit einem Bruchteil der Kosten für ein industriell gefertigtes Modell stellt dieses Aortenmodell eine ernst zu nehmende Alternative dar. Es kann sowohl im Ausbildungs- als auch im Forschungsbereich angewendet werden und ist aufgrund seiner Kostengünstigkeit für einen breiten Einsatz gut geeignet.
Nachdem wir in der letzten Folge etwas ausführlicher über Open Access gesprochen haben, haben wir uns in dieser Episode mal einem Prozess zugewandt der eigentlich nachgelagert zur Publikation zum Tragen kommt, aber schon weit vorher bedacht und vorgesehen werden muss/sollte - der Reproduzierbarkeit. Dabei geht es vor allem um die Wiederholbarkeit von empirisch-wissenschaftlichen Ergebnissen die in der Forschung z.B. in wissenschaftlichen Experimente, Messungen und Analysen erzielt wurden. Es gilt diese möglichst unter gleichen Versuchsbedingungen nachvollziehen zu müssen um gleiche Ergebnisse erzielen zu können. Warum das wünschenswert ist, wo die Herausforderungen liegen und welche Ansätze es gibt, versuchen wir in dieser Folge einmal darzulegen.
Aus Unkenntnis der eigenen methodischen Grundlagen und Beschränkungen überschreiten Wissenschaftler oft die legitimen Grenzen ihres Faches, wenn sie anderen Wissenschaften deren Wissenschaftlichkeit absprechen. Neue kritische Ansätze in den Natur-, Sozial- und Humanwissenschaften reflektieren hingegen vermehrt die Wechselwirkungen und Interdependenzen zwischen dem Forscher und seinem Fachgebiet bzw. dem Forschungsgegenstand und dem ihn selbst erst konstituierenden Rahmen. Aus der Wirtschaftswissenschaft kommt dabei die These, dass das moderne Subjekt und seine Rationalität auf Vergesellschaftungsprozessen in der Denkform des Geldes beruhen, die insofern auch massgeblich das Wesen der modernen Medizin bestimmen. Verglichen mit deren Prinzipien wie Quantifizierung, Standardisierung, Mathematisierung, Reproduzierbarkeit, Materialismus usw. erscheint die Homöopathie, die noch vor dem grossen Aufschwung der Geldwirtschaft im 19. Jahrhundert begründet wurde, als vom monetären Denken relativ freie, nämlich qualitative, individualisierende, hermeneutische und teleologische Medizin.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 06/07
Ziel dieser Arbeit bestand darin, beim unsedierten Zwergkaninchen mittels Dopplersonographie Referenzwerte für die Fließparameter der Nierengefäße sonographisch unauffälliger Nieren zu erstellen. In der vorliegenden Arbeit wurden hierfür 46 adulte Kaninchen untersucht. Allerdings mussten zwei Kaninchen aufgrund morphologisch auffälliger Nieren aus der Studie ausgeschlossen werden. Folglich wurden alle Daten nur an 44 Tieren erhoben, die sich in einer Altersspanne von sechs Monaten und sechs Jahren befanden. Die Nieren wurden mittels B-Bild Sonographie bei einer Arbeitsfrequenz von 8 bis 10 MHz dargestellt und sonographisch vermessen sowie dopplersonographisch die Blutflüsse in den Aa. interlobares untersucht. Während der 30 minütigen Untersuchungsdauer wurden die Kaninchen in Rückenlage mit leichter Fixierung der Vordergliedmaßen und des Kopfes gelagert. Dabei blieb die Herzfrequenz konstant im unteren Ruhebereich mit durchschnittlich etwa 220 Schlägen pro Minute. Zur klinisch diagnostischen Beurteilung der Nierengröße schien das Volumen als bestes Kriterium. Das absolute Nierenvolumen lag durchschnittlich bei 3,57 ml und das relative Volumen, d.h. bezogen auf 1000 g, bei 2,13 ml. Die Längenmessungen wiesen die beste Reproduzierbarkeit auf, bei ihnen muss man mit Messungenauigkeiten von ± 7,9 – 10 % rechnen. Die Hilusmessungen dagegen zeigten die schlechteste Reproduzierbarkeit. Das errechnete Rinden-Mark-Verhältnis in dieser Studie betrug im Mittel 1:1,33. Der Nierenhilus betrug im Mittel das 0,4 fache der Nierenrinde. Die dopplersonographische Untersuchung im Dorsalschnitt gelang beim Kaninchen überdurchschnittlich gut und erforderte nur eine kurze Einarbeitungszeit. Ein durchschnittlicher RI von 0,54 sowie PI von 0,79 wurde bei sonographisch unauffälligen Nieren ermittelt. Der Resistance-Index bei unsedierten Zwergkaninchen lag in einem ähnlichen Bereich wie von sedierten Kaninchen. Die Blutfließparameter erwiesen sich als für Geschlecht und Körpergewicht unabhängige Parameter. Im Bezug auf das Alter konnte bei allen untersuchten Blutfließparametern eine Abhängigkeit festgestellt werden. Mit zunehmendem Lebensalter kam es zu einem signifikanten Anstieg der Fließparameter. Die Reproduzierbarkeit wurde auch bei der Messung der Blutfließparameter überprüft. Für den klinisch diagnostischen Einsatz ist primär der RI gut geeignet.
In dieser Ausgabe gibt es unter anderem kurze News aus dem Bereich Open Access, noch einmal einen Bezug zum Thema Open Data in der Wissenschaft, vor allem vor dem Hintergrund des Scilogs-Bloggewitters zur Reproduzierbarkeit von wissenschaftlichen Ergebnissen, sowie ein paar Toolempfehlungen für Altmetrics. Darüber hinaus lege ich jedem an's Herz sich einmal das Projekt von Benedikt Fecher zu Open Science an sich anzuschauen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07
Ziel dieser Arbeit war es, die Fließparameter an der Niere von gesunden Meer-schweinchen zu bestimmen und Normwertewerte zu ermitteln, sowie die Größen-angaben der Nieren aus der Literatur zur verifizieren. Dafür wurden 25 klinisch gesunde Meerschweinchen im Alter von 10 Wochen bis zu 8,5 Jahren untersucht. Die Untersuchung erfolgte bei größeren Tieren mit einer 12 MHz LInearsonde, bei den jungen Tieren mit einer 22 MHz Linearsonde, welche sich beide hervorragend für die Untersuchung eigneten. Während der circa 15 – 20 Mi¬nuten dauernden Untersuchung saßen die relativ entspannten Tiere aufrecht auf dem Schoß des Untersuchers. Die Herzfrequenz stieg mit Dauer der Untersuchung, weshalb man sich nicht unbedingt von dem ruhigen Äußeren der Tiere täuschen las¬sen und die Untersuchung so kurz wie möglich halten sollte. Die Schnittebenen für die Größenmessungen wurden nach Durchführbarkeit, Repro¬duzierbarkeit und Stress für die Tiere bewertet. Die ermittelten Werte für die Nieren¬größe stimmen weitestgehend mit denen der anderen Autoren überein. Zusätzlich wurde noch das absolute und relative Nierenvolumen berechnet, wobei sich das re¬lative Nierenvolumen sich als bestes Kriterium zu Beurteilung der Nierengröße her¬ausstellte. Das mittlere relative Volumen lag bei 2,95 ml pro 100 Gramm Körper¬gewicht. Die Genauigkeit und Reproduzierbarkeit der Messungen hängt unter anderem von der Erfahrung des Untersuchers, den geräteabhängigen Einstellungen und dem Pa¬tienten ab. Die Genauigkeit der Distanzmessungen an der Niere liegt ungefähr bei ±10 – 20 %. Die Bestimmung der Fließparameter gestaltete sich nach einer kurzen Übungsphase als relativ einfach und ließ sich bei allen Tieren gut durchführen. Der Transversal¬schnitt eignete sich für die dopplersonographische Untersuchung am besten. Die Referenzwerte des Resistance-Index liegen mit 0,61 ± 0,056 in einem ähnlichen Be¬reich wie die von Hunden. Der Pulsatilitäts-Index wiederum lag mit 0,79 ± 0,15 eher in der Größenordnung von Katzen und Frettchen. Die Indizes erwiesen sich als für Herzfrequenz, Alter, Geschlecht und Körpermasse unabhängige Parameter. In wie weit sich die Fließparameter zur (Früh-) Diagnostik von Nierenerkrankungen beim Meerschweinchen eignen, muss in einer folgenden Arbeit untersucht werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 13/19
Thu, 6 Oct 2011 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/13629/ https://edoc.ub.uni-muenchen.de/13629/1/Patika-Zoller_Johanna.pdf Patika-Zoller, Johanna
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 05/07
Das Ziel der vorliegenden Arbeit war es, molekulare Vorgänge während der B-Zellentwicklung in der Bursa Fabricii des Haushuhns mittels proteomischer Analysen zu charakterisieren. Hierfür wurden zunächst repräsentative Zeitpunkte der bursalen B-Zellentwicklung für die Probengewinnung definiert. Daran schlossen sich qualitative Proteomanalysen der Bursa Fabricii zu den gewählten Entwicklungszeitpunkten Embryonaltag 10 (ET10), Embryonaltag 18 (ET18), Tag 2 und Tag 28 nach dem Schlupf an. Diese erfolgten durch Vorfraktionierung der Proben mittels 1D-SDS-PAGE und nano-HPLC gefolgt von Tandem-MS-Analysen. Hierbei konnten für die bursalen Proteome zu jedem Zeitpunkt zwischen 1152 und 1392 Proteine identifiziert werden (FDR < 1 %). Überschneidungen der einzelnen Zeitpunkte in 537 allgemeinen Struktur- und Stoffwechsel-Proteinen berücksichtigt, wurden insgesamt 2214 verschiedene Proteine identifiziert. Eine zusätzliche qualitative Analyse aufgereinigter bursaler B-Zellen führte zur Identifizierung von 758 Proteinen. Durch genontologische Analysen konnte festgestellt werden, dass für das Zellwachstum verantwortliche Proteine va. zu den frühen Zeitpunkten zu finden waren, während Proteine, welche eine Rolle für das Immunsystem spielen, eher zu späteren Entwicklungszeitpunkten in Erscheinung traten. Dies spiegelt die Entwicklung der Bursa von der unreifen, embryonalen Wachstums- und Differenzierungsprozessen unterliegenden Bursaanlage, zum fertig ausdifferenzierten, primär-lymphatischen Organ auf molekularer Ebene wider. Konform zu den hohen Proliferationsraten der B-Zellen während der Bursaentwicklung fanden sich in den genontologischen Analysen der B-Zellen besonders hohe Anteile an Proteinen, welche für Zellteilung verantwortlich sind. Proteine, welche in Zusammenhang mit Zellmigration stehen, wurden vor allem in der B-Zell-Probe sowie an ET10 gefunden, was als Hinweis auf eine Beteiligung dieser Proteine an der Einwanderung der B-Zellen in die Bursaanlage betrachtet werden kann. Die anschließende quantitative Proteomanalyse wurde zu denselben Entwicklungszeitpunkten an je sechs biologischen Replikaten mittels 2D-DIGE durchgeführt. In der statistischen Auswertung der quantitativen Veränderungen zeigten sich 402 hochsignifikante Unterschiede zwischen den bursalen Proteomen der verschiedenen Entwicklungszeitpunkte, wobei die sehr große Übereinstimmung der Analyseergebnisse innerhalb der biologischen Replikate die gute Reproduzierbarkeit der Experimente belegte. Die deutlichsten Veränderungen zeigten sich zwischen ET10 und allen weiteren Zeitpunkten, wohingegen innerhalb der übrigen Stadien eine geringere Anzahl signifikanter Unterschiede nachgewiesen wurde. Für die 402 differentiell exprimierten Proteine konnten verschiedene charakteristische Protein-expressionsverläufe nachgewiesen werden, welche Rückschlüsse auf die biologischen Hintergründe ermöglichten. Durch massenspektrometrische Analysen der Proteine mittels MALDI-TOF/TOF und LC-MS/MS gelang es, 203 der 242 zur Identifikation vorgesehenen Spots zu identifizieren. Im Rahmen einer bioinformatischen Auswertung des erhaltenen Datensatzes erbrachten sowohl die genontologische Analysen als auch Pathway-Analysen wesentliche Anhaltspunkte für die Auswahl besonders interessanter und vielversprechender Proteine für weiterführende funktionelle Analysen. Unter den identifizierten, differentiell exprimierten Proteinen fanden sich auffällig viele Vertreter des Aktin-Zytoskelett-Pathways, welcher für die mechanische Stabilisierung von Zellen und deren aktive Bewegungen verantwortlich ist. Dabei fielen in dieser Arbeit sowohl Vinculin als auch Gelsolin durch ihre charakteristischen Expressionsmuster auf. Vinculin zeigte zu Beginn der embryonalen Entwicklung erhöhte Abundanzwerte, welche nach ET18 steil abfielen. Als fokales Adhäsionsprotein stellt es ein Schlüsselprotein in der Regulation der Übertragung von kontraktilen Kräften dar, welche die Voraussetzung für die Migration von Zellen sind. Gelsolin, ein wichtiges Apoptose-Effektorprotein, welches auch in Verbindung mit Zellmotilität gebracht wird, zeigte erhöhte Expressionslevel an ET18, welche über die nachfolgenden Entwicklungszeitpunkte abfielen. Gelsolin konnte in drei verschiedenen Ladungs-Isoformen detektiert werden. Für die Fragestellung dieser Arbeit interessant erschien weiterhin eine Gruppe differentiell exprimierter Proteine des Retinolsäure-Metabolismus. Im Einzelnen wurden die Retinaldehydrogenase 2 (ALDH1A2), das „retinol-binding protein 5“ (RBP5), das „fatty acid-binding protein 7“ (FABP7), und Transthyretin (TTR) mit ähnlichen Proteinexpressions-profilen detektiert, welche ihr Expressionsmaximum jeweils an ET10 aufwiesen. Das könnte ein Hinweis sein, dass die embryonale Entwicklung der Bursa Fabricii von ähnlichen Faktoren gesteuert ist wie die embryonale Ausbildung der sekundär-lymphatischen Organe beim Säuger, bei der Retinolsäure-abhängige Proteine eine entscheidende Rolle spielen. Über die Thematik dieser Arbeit hinausgehend, stellt der umfangreiche proteomische Datensatz dieser Arbeit eine wertvolle Ressource dar, die sowohl für weitere Fragestellungen bezüglich der Bursa Fabricii des Huhns, als auch für die Vervollständigung der Annotation des Hühnergenoms genutzt werden können.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 04/07
Enzymverstärkte Testsysteme wie der ELISA finden in der serologischen Diagnostik bei Hühnervögeln bereits breite Anwendung. Beim Wassergeflügel gilt dagegen immer noch der Hämagglutinationshemmungstest (HAH) als Test der ersten Wahl. Für große Probenmengen ist er jedoch ungeeignet und insbesondere bei Seren mangelhafter Qualität mit dem Problem unspezifischer Reaktionen behaftet. Daraus ergibt sich die Notwendigkeit der Etablierung alternativer serologischer Testverfahren auch für das Wassergeflügel. Basierend auf einem monoklonalen, gegen die leichte Kette von Pekingenten-Immunglobulin (Ig) gerichteten Antikörper (mAk 14A3) (Kothlow et al., 2005) wurden im Rahmen dieser Arbeit indirekte Testsysteme für das Wassergeflügel etabliert. Die Kreuzreaktivität des mAk 14A3 mit verschiedenen Entenspezies (Flugente = Cairina moschata, Stockente = Anas platyrhynchos, Weißflügelente = Asarcornis scutulatus, Spießente = Dafila acuta) sowie zwei Schwanenspezies (Höckerschwan = Cygnus olor, Schwarzhalsschwan = Sthenelides melanocoryphus) und zwei Gänsespezies (Hausgans = Anser anser var. domestica, Rothalsgans = Rufibrenta ruficollis) wurde mittels Western Blot (WB) überprüft. Der Antikörper wies Reaktivität gegenüber der leichten Kette des Serum-Ig aller getesteten Wassergeflügelspezies auf. Mit Hilfe seropositiver Seren von gegen aviäre Paramyxoviren des Serotyps 1 (APMV-1) geimpften Hausgänsen und Moschusenten konnte gezeigt werden, dass der Antispezies-Antikörper fähig ist die spezifische Färbung APMV-1-infizierter Zellen im Immunfluoreszenztest zu vermitteln. Darüber hinaus bewährte er sich auch im indirekten ELISA und im WB (Kothlow et al., 2008). Mit dem etablierten indirekten Newcastle Disease (ND)-ELISA ließ sich in Seren adulter Moschusenten und Hausgänse drei Wochen nach Vakzination mit einem inaktivierten ND-Impfstoff für Hühner eine Serokonversion nachweisen, die bis zum Versuchsende (10 Wochen p.v.) anhielt. Zwischen den ELISA-Werten und den parallel ermittelten HAH-Titern war eine positive lineare Korrelation feststellbar (Pearson’s product moment correlation; r = 0.652; P < 0.001). In Woche 7 und 10 nach der Impfung erkannte der ELISA jedoch zehn Seren geimpfter Tiere mehr positiv als der HAH, wobei für acht dieser Seren mittels WB eine spezifisch gegen aviäre Paramyxoviren gerichtete Reaktivität bestätigt werden konnte. Die sich aus dem Vergleich der Tests ergebende relative diagnostische Sensitivität (rDSe) des ELISA (100.0%) war höher als die des HAH (91.1%), seine relative diagnostische Spezifität (rDSp) etwas niedriger (ELISA: 91.7%; HAH: 97.2%). Die zweimalige Testung aller Seren unter den gleichen Versuchsbedingungen ergab eine sehr gute Wiederholbarkeit des etablierten ELISA mit einer positiven linearen Korrelation der Ergebnisse (Pearson’s product-moment correlation; r = 0.982; P < 0.001; ls = 0.05) (Häuslaigner et al., 2009). Der untersuchte monoklonale Antispezies-Antikörper stellt somit ein attraktives und vielseitig einsetzbares Reagenz dar, das die Möglichkeit eröffnet, serologische Testverfahren für das Wassergeflügel, zum Einsatz in Diagnostik und Forschung zu entwickeln. Der etablierte indirekte ELISA erwies sich als gut geeignet, die Immunantwort beim Wassergeflügel nach ND-Impfung zu detektieren. Die gute Reproduzierbarkeit seiner Ergebnisse spricht für eine hohe Aussagesicherheit. Basierend auf der sich aus dem Vakzinationsstatus ergebenden diagnostischen Sensitivität (DSe) (92.2%) und Spezifität (DSp) (96.2%), kann der etablierte ND-ELISA als geeignete Alternativ- und Ergänzungsmethode zum HAH (DSe 83.0%, DSp 100.0%) angesehen werden. Vor allem zu späteren Zeitpunkten nach Viruskontakt scheint er mehr seropositive Reagenten als der HAH zu erkennen, wohingegen sich letzterer in der DSp überlegen zeigte. Die Ergebnisse der serologischen Untersuchungen unterstreichen zudem die Immunogenität des inaktivierten ND-Impfstoffes bei domestizierten Hausgänsen und Moschusenten, wobei die doppelte Hühnerdosis eine effizientere Antikörper-Antwort zu induzieren scheint.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19
Die Alzheimer-Krankheit (AD), die häufigste Form der Demenz, manifestiert sich klinisch meist ab dem 65. Lebensjahr mit langsam progredienten Gedächtnis-, Orientierungs- und Aufmerksamkeitsstörungen. Neuropathologische Korrelate sind die Amyloid-Plaques, die hauptsächlich aus extrazellulären Aggregaten des β-Amyloid-Proteins (Aβ) zusammengesetzt sind, und intrazelluläre neurofibrilläre Bündel, die aus Aggregaten des mikrotubulus-assoziierten Proteins Tau bestehen. Der „Auslöser“ der Alzheimer-Krankheit ist das β-Amyloid-Protein (Amyloid-Kaskaden-Hypothese), welches durch proteolytische Prozessierung von βAPP (β-Amyloid-Vorläufer-Protein) entsteht. Dies geschieht, indem zuerst BACE-1 (β-site APP cleaving enzyme 1) und anschließend der γ-Sekretase-Komplex βAPP schneiden. Menschen mit Down-Syndrom (DS), welches die häufigste autosomale Chromosomenaberration darstellt, entwickeln bereits ab einem Alter von 40 Jahren die typischen neuropathologischen Kennzeichen der Alzheimer-Krankheit und zeigen mit einem Durchschnittsalter von 56 Jahren die klinischen Symptome der Demenz. Die Gründe für das frühe Auftreten der Amyloid-Plaques sind noch nicht vollständig geklärt. Das Gen für βAPP befindet sich auf dem Chromosom 21, welches im DS dreifach vorhanden ist, und wird daher mit der frühen Plaque-Pathologie im Down-Syndrom in Zusammenhang gebracht. BACE-1 konnte durch Überexpressions- und Knock-out-Experimente eindeutig als alleinige β-Sekretase identifiziert werden. In Gehirnen von Alzheimer-Demenz-Patienten konnten im Vergleich zu Kontrollgehirnen erhöhte BACE-1-Proteinmengen und BACE-1-Aktivitäten nachgewiesen werden. Es war deshalb interessant zu untersuchen, ob auch im Gehirn von Down-Syndrom-Patienten die BACE-1-Proteinexpression erhöht ist. Durch eine Hochregulation von BACE-1 im Down-Syndrom könnte vermehrt βAPP prozessiert und somit Aβ gebildet werden. Daher war es das Ziel der vorliegenden Arbeit die Expression von BACE-1 in Gehirnen (Temporal- und Frontallappen) von DS-Patienten im Vergleich zu Kontrollgehirnen zu analysieren. In der Western-Blot-Analyse der Gewebeproben konnte gezeigt werden, dass die BACE-1-Proteinmengen im Down-Syndrom im Vergleich zu den Kontrollen (K) 1,4-fach erhöht waren. Die Proteinexpressionen von βAPP zeigten sich im DS im Vergleich zu den Kontrollen 1,4-fach erhöht. Diese Ergebnisse erzielten keine Signifikanz, zeigten aber deutliche Trends im Expressionsverhalten. Dies könnte auf die Anzahl der untersuchten Gehirne (Temporal- und Frontallappen je 3 DS, 4 AD und 5 K), Qualitätsmängel der Gehirnproben oder einer ungleichen Verteilung der Proteinexpression im Gewebe zurückzuführen sein. Es ist daher notwendig mehr Gehirne zu untersuchen. Zudem wäre es interessant in Gehirnschnitten das Verteilungsmuster der BACE-1-Expression im DS genauer zu studieren. Die Ergebnisse deuten jedoch auf eine Hochregulation von BACE-1 im DS-Gehirn und somit auf eine Beteiligung der Protease an der Plaquepathologie des Down-Syndroms hin. BACE-1 scheint also sowohl in der Pathogenese der Alzheimer-Demenz als auch in der des Down-Syndroms eine zentrale Rolle einzunehmen. Daher ist es sehr interessant die Regulation von BACE-1 weiter zu analysieren. Da in p25-überexprimierenden Mäusen erhöhte BACE-1-Proteinexpressionen gezeigt werden konnten, vermutete man eine Beteiligung von p25 an der Regulation der β-Sekretase. p25, das im Gehirn der AD-Patienten vermehrt gebildet wird und aus der Proteolyse von p35 entsteht, bindet und aktiviert die Kinase cdk5. cdk5 phosphoryliert unter anderem das Tau-Protein und wird daher mit der Bildung der neurofibrillären Bündel in Zusammenhang gebracht. Durch die Hochregulation von BACE-1 könnte p25 in der Pathogenese der Alzheimer-Erkrankung eine neue Bedeutung zugeschrieben werden. Zur Analyse der p25 induzierten Veränderungen in den Neuronen wurden humane Neuroblastomazellen mit einem induzierbaren p25-Expressionsvektor, Sp25-Zellen, verwendet. In diesen p25-überexprimierenden Zellen konnten sowohl in der Western-Blot-Analyse als auch in der BACE-1-Aktivitätsmessung erhöhte BACE-1-Proteinexpressionen bzw. BACE-1-Aktivitäten gezeigt werden. Die Northern-Blot-Analyse der Sp25-Zellen ergab erhöhte BACE-1-mRNA-Spiegel, die sich jedoch in einer für endogene BACE-1-mRNA untypische Größe detektieren ließen. p35, das membrangebundene Vorläufer-Protein von p25, war indes nicht in der Lage die BACE-1-Proteinexpression in humanen Neuroblastomazellen zu erhöhen. Die Ergebnisse der Sp25-Zellen konnten in p25-überexprimierenden murinen Neuroblastomazellen, Np25-Zellen, nicht reproduziert werden. Daher ist es notwendig, den p25-induzierten BACE-1-Regulationsmechanismus auf seine Reproduzierbarkeit, z.B. in weiteren In-vivo-Modellen, zu überprüfen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19
Die Duplexsonographie abdomineller Gefäße mit der Bestimmung von Strömungsparametern gehört zu den etablierten sonographischen Untersuchungstechniken. Veränderungen dieser Parameter werden im klinischen Alltag zur Diagnostik und Verlaufskontrolle bei verschiedenen Krankheitsbildern herangezogen. Dabei wird vorausgesetzt, dass diese Messungen valide und reproduzierbar sind. In der vorliegenden Arbeit wurde die Messgenauigkeit des beschriebenen Verfahrens untersucht. Insgesamt wurden duplexsonographisch Messungen an 39 weiblichen und 42 männlichen gesunden Probanden durchgeführt. An der Arteria mesenterica superior und dem Truncus coeliacus wurden folgende Parameter gemessen: Flussrate, Resistant-Index und Pulsatility-Index. Jeder dieser drei Parameter wurde dreimal unmittelbar in Folge gemessen und daraus der Mittelwert gebildet. Diese Mittelwertsbestimmung ermöglicht die Bestimmung des Messfehlers (Standardfehler des Mittelwertes). Um die Stabilität dieser Parameter zu überprüfen, wurden die Messwerte an jedem Probanden unter identischen Bedingungen an zwei aufeinanderfolgenden Tagen erfasst. Als Ergebnis zeigte sich bei den Messwerten aller drei Parameter ein sehr geringer Messfehler (relativer Fehler: 3,5-4,3%) und hohe Korrelationen der Messwerte an beiden aufeinanderfolgenden Tagen (r=0,66-0,86). Der Schallwinkel hatte in dem Bereich, in dem die Messungen erfolgten (25-70°) keinen signifikanten Einfluss auf die Höhe des Messfehlers. Der hier ermittelte Messfehler ist deutlich geringer als die in der Literatur erwähnten Unterschiede zwischen den Messwerten verschiedener Patientengruppen und gesunder Personen. Dies bedeutet, dass eine valide Erfassung der Flussparameter mittels Duplexsonographie bei spezifischen Krankheitsbildern möglich ist. Die hohe Korrelation der Messwerte an verschiedenen Untersuchungstagen belegt außerdem, dass sich duplexsonographische Messungen auch zu Verlaufskontrollen heranziehen lassen.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
Ultraschalltechnisch können die myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain auf verschiedene Arten berechnet werden. Es besteht die Möglichkeit, die Parameter mittels Gewebedoppler zu analysieren. Neue Techniken sind die Methode des Speckle Tracking und Kombinationen beider Methoden. Der Gewebedoppler ist in der Human- und beginnend auch in der Tiermedizin bereits untersucht und etabliert. Limitiert ist diese Technologie vor allem durch den Winkelfehler und aufwendiges manuelles Tissue Tracking. Das Speckle Tracking ist dopplerunabhängig und berechnet die Funktions¬parameter durch die Bewegung von Graubildpixeln von Bild zu Bild. In der Theorie ist das Speckle Tracking unabhängig vom Anschallwinkel und das Tracking erfolgt automatisch. Auch diese neue Untersuchungstechnik beginnt in der Humanmedizin Fuß zu fassen und wird in klinischen Studien bereits eingesetzt. Für die Tiermedizin existieren zu dieser Technologie noch keine Veröffentlichungen. Ziel der Arbeit „Zweidimensionales Speckle Tracking im Vergleich zu dopplerbasierten Ultraschallmethoden zur Bestimmung der myokardialen Funktionsparameter Tissue Velocity, Strain Rate und Strain beim Hund“ war es, an einer Population von 116 herzgesunden Hunden verschiedener Rassen (Alter 1 bis 15 Jahre, Gewicht 2 bis 72 kg) Referenzwerte zu erstellen. Gewebegeschwindigkeit, Strain Rate und Strain wurden mit (1) Speckle Tracking, (2) einer kombinierte Methode aus Speckle Tracking und Gewebedoppler, (3) einer Methode, die automatisches Tracking verwendet, jedoch zur Analyse der Parameter auf Dopplerdaten zurückgreift sowie (4) der konventionellen Gewebedoppler-Echokardiographie mit manuellem Tracking evaluiert. Die Datenakquirierung erfolgte mit einem Vivid 7® System, die offline-Analyse mit den Programmen EchoPac Q-Analyse® und EchoPac 2D Strain® (Versionen BT 04 und BT 05) der Firma GE (Horten, Norwegen). Bei der Untersuchung der neuen Methoden – auch im Vergleich mit der konven¬tionellen Gewebedopplertechnologie – und bei der Erstellung von Referenz¬werten, wurde auf Mittelwerte innerhalb von Myokardsegmenten zurückgegriffen. Die verglichenen Analysemethoden korrelierten gut miteinander, wobei die neuen Techniken teilweise niedrigere Messwerte als die konventionelle Gewebe¬dopplertechnologie lieferten. Im Vergleich von Myokardsegmenten innerhalb einzelner Herzwände zeigte die Tissue Velocity einen Gradienten von basal nach apikal. Strain Rate und Strain dagegen waren homogen verteilt. Mit der konventionellen Gewebedoppler¬technologie konnte diese homogene Verteilung von Strain Rate und Strain in der Tiermedizin bisher nicht gezeigt werden. Eine Ursache für die durch den Gewebedoppler ermittelte inhomogene Verteilung von Strain Rate und Strain kann die Winkelabhängigkeit der Messungen sein. Das Fehlen eines Gradienten in Strain Rate und Strain weist darauf hin, dass eine Winkelabhängigkeit der neuen Methoden nicht vorhanden ist. Im Vergleich der Herzwände zeigte die rechte Wand mit den neuen Methoden bei der Messung der meisten Parameter die höchsten Werte. Die Messung der Parameter in der Einzelwanddarstellung lieferte aufgrund höherer Bildraten größere Messwerte als im Vierkammerblick. Einige der Parameter zeigten eine Abhängigkeit von physiologischen Einfluss¬faktoren wie Alter, Gewicht, Geschlecht, Rasse und Herzfrequenz. Klinisch relevant war vor allem der Einfluss des Gewichts. Dies macht die Erstellung von Referenzwerten für einzelne Gewichtsgruppen notwendig. Die Reproduzierbarkeit des Speckle Tracking und der Dopplerdatenanalyse mit automatischem Tracking war für die meisten Parameter gut und teilweise war sie besser, als mit der konventionellen Gewebedoppleranalyse. Die kombinierte Analysemethode zeigte eine schlechtere Reproduzierbarkeit als die anderen Methoden. Diese relativ schlechte Reproduzierbarkeit der kombinierten Analyse¬methode und die Tatsache, dass diese Methode teilweise nicht erklärbare, von den anderen Methoden abweichende Untersuchungsergebnisse lieferte, lässt sie für den Hund als wenig geeignet erscheinen. Die vorliegenden Untersuchungsergebnisse können als Grundlage für weiter¬führende Untersuchungen dienen. Hier sind das Verhalten der myokardialen Funktionsparameter bei Herzerkrankungen oder der Einfluss von Medikamenten mögliche Fragestellungen für zukünftige Studien. Zudem können die erzielten Ergebnisse teilweise in die Humanmedizin übernommen werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 02/06
Die vorliegende Arbeit vergleicht die detaillierten Strukturanalysen in der Retina von 4 Pavianarten mit den Untersuchungen in der Retina des Mantelpavians. Das Ziel dieser Arbeit ist es, tiefere Erkenntnisse über das Farbensehen des Mantelpavians zu erlangen. Die Anwendung moderner Messmethoden ist aus tierschutzrechtlichen Gründen bei den Pavianarten rar und nur in wenigen Fällen wurden in vitro-Untersuchungen durchgeführt. Die M- und L-Zapfendichte im Bereich 100 μm von der Fovea (79)(Krebs und Krebs, 1989), die S-Zapfendichte bei 1 Grad von der Fovea (84)(Marc und Sperling, 1977) und die Dichte der Ganglienzellen (80)(Fischer und Kirby, 1991) sind in der Retina des Grünen Pavians und Gelben Pavians gegenüber den Dichten in der menschlichen Retina leicht erhöht (51)(Curcio und Allen, 1990), (97)(Goodchild et al., 1996), (48)(Ahnelt, 1998). Die Zufallsverteilung bei den M- und L-Zapfen und die reguläre Verteilung bei den S-Zapfen haben der Gelbe Pavian und der Rote Pavian mit dem Menschen gemein (84)(Marc und Sperling, 1977), (83)(Martin et al., 2000). Der Grüne Pavian besitzt einen Visual streak (80)(Fischer und Kirby, 1991), der etwa die gleiche Form hat wie in der menschlichen Retina (51)(Curcio und Allen, 1990). Beim Gelben Pavian antworten die midget- und parasol- Ganglienzellen auf die erregenden KA-, AMPA-, NMDA-Rezeptoren und auf die hemmenden GABA-, GLY-Rezeptoren (85)(Zhou et al., 1994). Bis auf Untersuchungen an Müller-Zellen in der Mantelpavian-Retina, siehe Kap. 4.7.1 gibt es keine Veröffentlichung über das Sehsystem des Mantelpavians. In der Fovea wurden nur Zapfen und keine Stäbchen gezählt (87)(Reichenbach, 1999). Dieser Befund ist schlüssig mit der über alle Primaten getroffenen Aussage. Ein für elektrophysiologische Messungen nach der Methode FIS tauglicher portabler Versuchsaufbau wurde neu entwickelt. Messungen in medias res an 10 Mantelpavianen im Münchener Tierpark Hellabrunn belegen die hohe Qualität des Verfahrens. Die Methode FIS, die Entwicklung des Verfahrens, seine aufwendige Programmierung der Regelung und Auswertung werden in den Kap. 5, Kap. 7.2 und im Anhang Kap. 13 erläutert. Die Methode FIS erlaubt schnelle Messungen der ERG-Antworten mit hoher Auflösung im 10-9 m Bereich. Die daraus berechneten spektralen Empfindlichkeiten zeichnen sich durch gute Reproduzierbarkeit aus. Die spektralen Empfindlichkeiten können durch Summation von Absorptionskurven angenähert werden, wie ein Abgleich mit den nach der 96 9 Zusammenfassung / Summary Mikrospektralphotometrie gewonnenen Spektraldaten der Photopigmente beweist (82)(Bowmaker et al., 1991), siehe Kap. 7.2.3 und Kap. 7.3. Die Spektraldaten der Photopigmente der Mantelpaviane reihen sich in die Spektraldaten der Altweltaffen ein. Die Messungen der ERG-Antworten und die Berechnung der spektralen Empfindlichkeiten von 10 Mantelpavianen nach der Methode FIS bringen neue Ergebnisse über die Verteilung der S-, M- und L-Zapfen und über die Variation der L- zu M-Zapfenzahl bei den Pavianarten. Für die Mantelpavian-Retina beträgt die durchschnittliche prozentuale Verteilung der S-Zapfen ca. 5 Prozent, der M-Zapfen ca. 29 Prozent und der L-Zapfen ca. 66 Prozent, siehe Kap. 7.4. Die Werte zeigen eine ähnliche Verteilung der S-, M- und L-Zapfen wie sie in der menschlichen Retina beobachtet wird (18)(Sharpe et al. 1999b). In der Variation der L- zu M-Zapfenzahl zeichnet sich beim Mantelpavian eine Tendenz zu mehr L-Zapfen ab. Bei den Mantelpavian Weibchen wird eine Variation von 2,0:1 und bei den Mantelpavian- Männchen eine Variation von 2,4:1 bestimmt, siehe Kap. 7.5. Es gibt keinen großen Unterschied in der Variation der L- zu M-Zapfenzahl zwischen dem Geschlecht der Mantelpaviane. Bei den Altweltaffen existiert kein merklicher statistischer Unterschied im relativen Verhältnis der L- zu M-Zapfen-mRNA (58)(Deeb et al., 2000). Aus der Berechnung der spektralen Empfindlichkeiten bei den Mantelpavianen lassen sich eine klassische blau-gelb-Verschaltung und eine weitere Verschaltung ableiten, die aber näherer Prüfung bedarf. Das Ergebnis steht im Einklang mit der Zunahme des blau-gelb-Kanals gegenüber dem rot-grün-Kanal in der peripheren Retina (45)(Murray et al., 2006). In weiteren Forschungsvorhaben sollten bei den Pavianarten die Gegenfarbmechanismen der klassischen S-ON/(L+M)-OFF Zellen, SOFF/( L+M)-ON Zellen und weiterer Ganglienzelltypen untersucht werden, die zum Farbensehen beitragen könnten. Die neuen Ergebnisse über die Mantelpaviane geben weitere Impulse zu Untersuchungen offener Fragestellungen. Der Mantelpavian besitzt ein trichromatisches Farbensehen
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Thu, 26 Apr 2007 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/6964/ https://edoc.ub.uni-muenchen.de/6964/1/Wunderer_Caecilia.pdf Wunderer, Caecilia
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 03/07
In der vorliegenden Arbeit wurden Strain und Strain Rate zum ersten Mal in der Veterinärmedizin bei einer großen Population von Hunden eingesetzt. Beide Methoden sind, wie das TVI, Techniken des Gewebedopplers. Dieser basiert auf dem gleichen Prinzip wie der Blutflussdoppler. Im Unterschied dazu werden jedoch keine Blutfluss- sondern Myokardsignale aufgezeichnet. Während das TVI nur die globale Myokardfunktion widerspiegelt, erlauben Strain und Strain Rate dagegen eine regionale Funktionsanalyse, da sie weniger durch die Globalbewegung des Herzmuskels beeinflusst werden. Ziel dieser Studie war die Erstellung von Referenzwerten für diese drei Methoden anhand einer Studienpopulation von 199 Hunden. Die Datenakquirierung erfolgte mit einem System Vivid 7 der Firma GE (Horten, Norwegen). Die offline-Analyse wurde mit der Q-Analyse-Software (Version BT04) der Firma GE (Horten, Norwegen) durchgeführt. Die Reproduzierbarkeit für Strain und TVI war für die meisten Parameter gut. Die beste Reproduzierbarkeit aller drei Methoden zeigte die Strain, die höchsten Variationskoeffizienten wurden für Strain-Rate-Parameter verzeichnet. Generell waren diastolische Parameter schlechter reproduzierbar als systolische Parameter. Der Vergleich einzelner Myokardsegmente einer Wand zeigte, dass das TVI einen apikobasalen Geschwindigkeitsgradienten aufweist. In Übereinstimmung mit neueren humanmedizinischen Studien sowie einer Studie bei Katzen waren beide Verformungsparameter ebenfalls nicht homogen im Myokard verteilt. Beim Vergleich der Einzelwände wies zumeist der rechte Ventrikel die höchsten Peaks bei allen Parametern auf. Es wurde nachgewiesen, dass der Gewebedoppler von physiologischen Faktoren wie Gewicht, Alter, Herzfrequenz und Rasse abhängig ist. Gerade die Rasse hatte auf nahezu alle Parameter einen signifikanten Einfluss. Dies macht eine Erstellung von Referenzwerten für einzelne Hunderassen unabdingbar. Ein Einfluss der anderen Faktoren war zwar oftmals vorhanden, signifikante Unterschiede wurden jedoch zumeist nur gegenüber den Gruppen mit den höchsten oder niedrigsten physiologischen Werten (wie z. B. Herzfrequenz oder Gewicht) nachgewiesen. Eine Einschränkung für den klinischen Einsatz ist, dass das Tracken mit der hier verwendeten Q-Analyse-Software zeitaufwändig ist. Neuere Software-Pakete wie die 2D-Strain-Analyse (Firma GE; Horten, Norwegen) beheben diese Problematik. Die vorliegende Studie belegt, dass TVI, Strain und Strain Rate beim nicht sedierten Hund als neue Methoden in der Echokardiographie einsetzbar sind. Diese Arbeit stellt eine Grundlage für weitere Studien auf dem Gebiet der Gewebedopplertechnik dar. Die hier erstellten Referenzwerte dienen als Grundlage für die Verwendung der Technik an kranken Tieren.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Die Diagnose einer koronaren Atherosklerose durch die Bestimmung der koronaren Verkalkungen zur Abschätzung des Risikos eines zukünftigen kardialen Ereignisses erfährt seit einigen Jahren eine zunehmende Verbreitung. Bisher wurden dazu dezidierte Elektronenstrahl Computertomographen eingesetzt. Neuerdings können koronare Kalzifikationen auch mit Mehrzeilen-Detector CT Geräten erfasst und quantifiziert werden. Die Bestimmung der koronaren Kalzifikationen mit der Mehrzeilen-Detector- gegenüber der Elektronstrahlen-CT hat den Vorteil, dass die Untersuchung kostengünstiger und an weit mehr Standorten durchgeführt werden kann. Koronare Kalzifikationen wurden bisher mit einem proprietären Algorithmus (Agatston Score) quantifiziert. Der Übergang zur Quantifizierung von koronaren Kalzifikationen mit modernen CT Geräten erfordert Quantifizierungsalgorithmen, die von allen CT Gerätetypen gleichermaßen durchgeführt werden können und eine hohe Reproduzierbarkeit haben. Im Rahmen der vorliegenden Studie wurden die Elektonenstrahl- und Mehrzeilen-Detector Computertomographie sowie verschiedene Quantifizierungsalgorithmen (Agatston Score, Volumen, Masse, Dichte und Anzahl der Läsionen) in einem Patientenkollektiv (n=100), bei dem das Ausmaß der koronaren Atherosklerose bestimmt werden sollte, miteinander verglichen. Bei einem Teil der Patienten (n=59) wurde zudem eine Herzkatheteruntersuchung durchgeführt. Bei diesen Patienten konnte die Genauigkeit der verschiedenen Quantifizierungsalgorithmen zur Bestimmung einer koronaren Herzkrankheit ermittelt werden. Die Korrelation zwischen Elektronenstrahl- und Mehrzeilen-Detector CT war für alle Quantifizierungsalgorithmen sehr hoch (0.901-0.993). Aufgrund des unterschiedlichen Untersuchungsprotokolls kam es allerdings zu einem systematischen Fehler mit konstant höheren Werten in der Mehrzeilen-Detector CT. Zusammenfassend konnte gezeigt werden, dass koronare Kalzifikationen mit vergleichbarer Sensitivität und Genauigkeit mit der Elektronenstrahl- und Mehrzeilen-Detector-CT erfasst werden können. Da die Quantifizierung der koronaren Kalzifikationen mit der Masse am besten mit allen Geräten zu reproduzieren war, sollte dieser Algorithmus in der Zukunft in weiteren Studien verwendet werden, die zum Ziel haben, den prognostischen Wert von koronaren Kalzifikationen zu bestimmen
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
In dieser Arbeit wurde das Wachstumsverhalten dekagonaler Quasikristalle untersucht. Zur besseren Vergleichbarkeit wurden die Experimente mit Schmelzen der Zusammensetzung Al77Co6Ni17 durchgeführt, aus welcher dekagonale Einkristalle mit einer durchschnittlichen Zusammensetzung von d-Al72Co9Ni19 gewonnen werden können. Zusätzlich wurden in dem verwandten ternären System Al-Co-Cu Züchtungsexperimente durchgeführt. Dort zeigt die dekagonale Phase der Zusammensetzung d-Al67.5Co20.0Cu12.3 ebenfalls ein kinetisch gehemmtes Wachstumsverhalten entlang der quasiperiodischen Orientierungen. Für die Ziehgeschwindigkeit bei der Züchtung von Einkristallen sind noch engere Grenzen gesetzt, als es im System d-Al-Co-Ni der Fall ist. In beiden untersuchten Systemen können die quasikristallinen Phasen nur aus Al-reichen, nichtstöchiometrischen Schmelzen gezüchtet werden, wobei sich die einzelnen Experimente über eine Dauer von mehreren Wochen erstreckten. Dies machte die Neukonstruktion einer UHV-gedichteten Wachstumskammer notwendig, um die Schmelzen vor Oxidation zu schützen. Eine freie Schmelzenoberfläche stellt für alle Wachstums- und Kinetikexperimente eine Grundvoraussetzung dar. Aus den schon vor Beginn dieser Arbeit weitgehend beherrschten Bedingungen für die CZOCHRALSKI-Züchtung ist die ausgeprägte Wachstumsaniosotropie von dekagonalen AlCoNi-Einkristallen bekannt. Dabei beobachtet man eine hohe Wachstumsgeschwindigkeit entlang der Orientierung der zehnzähligen, periodischen Achse [00001], während das laterale Wachstum entlang der zweizähligen, quasiperiodischen Richtungen [10000] und [10-100] kinetisch gehemmt ist. An den gezüchteten Einkristallen kann das Auftreten von Flächen fünf unterschiedlicher kristallographischer Formen {h1h2h3h4h5} beobachtet werden: Das Pinakoid {00001}, das dekagonale (Haupt-) Prisma {10000} und (Neben-) Prisma {10-100}, sowie zwei dekagonale Dipyramiden {0-1-101} und {10-102}. Die am Kristallmantel beobachteten Facetten dieser Formen sind das Ergebnis von Wachstumsprozessen an der Dreiphasenkoexistenzlinie und lassen keine Rückschlüsse auf das Wachstum zu, weil sie nicht repräsentativ für das Zweiphasengleichgewicht an der Wachstumsfront sind. Den Flächen der beiden dekagonalen Dipyramiden {0-1-101} und {10-102} galt jedoch besonderes Interesse. Sie stellen die morphologische Entsprechung so genannter inclined net planes dar. Dabei handelt es sich um bezüglich der periodischen Achse [00001] geneigte Netzebenen des Quasikristalls, welche die beiden widersprüchlichen Ordnungsprinzipien der Translationsperiodizität und die Quasiperiodizität miteinander verbinden. Ihre Bedeutung ist aus Röntgenbeugungsexperimenten bekannt, wobei bisher unklar war, ob sie eine Bedeutung für das Wachstum von dekagonalen Quasikristallen haben. Die Experimente dieser Arbeit sind in zwei Gruppen untergliedert: a. Experimente zur Morphologie gezüchteter dekagonaler Quasikristalle b. Experimente zur Wachstumskinetik dekagonaler Quasikristalle Zu den unter Punkt a. genannten Experimenten gehörten CZOCHRALSKI-Züchtungsexperimente in den ternären Systemen d-Al-Co-Ni und d-Al-Co-Cu und Substratexperimente unter Verwendung großvolumiger d-AlCoNi-Keime, sowie ein Kugelwachstumsexperiment. Die unter Punkt b. aufgeführten Experimente zur Wachstumskinetik beinhalteten die CZOCHRALSKI-Abreißexperimente und ergänzend Kontaktwinkelmessungen zur Bestimmung der Oberflächenenergie orientierter Quasikristalloberflächen. Mit den CZOCHRALSKI -Züchtungsexperimenten wurde in einer Reihe von konventionellen Züchtungsexperimenten das Wachstum und die Morphologie dekagonaler Quasikristalle untersucht. Dabei war die Morphologie der Zweiphasengrenze l-s von besonderem Interesse. Hier wurde das Wachstum von Einkristallen in definierten Orientierungen [h1h2h3h4h5] durch ein schnelles Trennen des Kristalls von der Schmelze unterbrochen und ex situ untersucht, welche kristallographischen Formen {h1h2h3h4h5} an der Zweiphasengrenzfläche l-s morphologisch auftreten. In den Züchtungsexperimenten parallel der zehnzähligen Achse [00001] zeigt der wachsende Kristall einen rotationssymmetrischen, dekaprismatischen Habitus. An der Dreiphasengrenze v-l-s werden Flächen der Form des dekagonalen (Haupt-) Prismas {10000 und in geringerer Größe Flächen der Form des dekagonalen (Neben-) Prismas {10-100} gebildet, welche die dekaprismatische Wachstumsmorphologie bestimmen. Diese Flächen entstehen trotz der durch die Kristall- und Tiegelrotation in dem thermischen Feld aufgeprägten Rotationssymmetrie und bleiben gegenüber der bestehenden Unterkühlung stabil. Die Wachstumsfront konnte durch das schnelle Trennen des in [00001]-Orientierung gezüchteten Kristalls von der Schmelze (Dekantieren) nicht konserviert werden. In jedem Fall kristallisierte an der ehemaligen Wachstumsfront anhaftende Restschmelze unter Bildung dekagonaler (Hohl-) Nadeln aus, womit eine großflächige Beobachtung der Zweiphasengrenze l-s in dieser Experimentserie nicht möglich war. Im Fall der Züchtung parallel der beiden zweizähligen, symmetrisch nicht äquivalenten Achsen [10000] bzw. [10-100] wird die Zweiphasengrenzfläche immer von der zehnzähligen Achse [00001] und der weiteren zweizähligen Achse [10-100] bzw. [10000] aufgespannt. Dabei zeigt sich sehr deutlich die Anisotropie der Wachstumsgeschwindigkeiten der periodischen und aperiodischen Kristallorientierungen mit der Ausbildung eines ovalen Kristallquerschnittes, wobei die schnellwachsende zehnzählige Achse die lange Halbachse und eine zweizählige Achse die kurze Halbachse des Ovals bilden. Die jeweilige Dreiphasenkoexistenzlinie am Meniskus ist in der [00001]-Richtung nicht facettiert, d.h. hier wird das Wachstum durch den rotationssymmetrischen Verlauf der Isothermen an der Schmelzenoberfläche begrenzt. Im Gegensatz dazu bildet der Kristall senkrecht zu der Richtung der zweizähligen Achse Flächen der Form des dekagonalen (Haupt-) Prismas {10000} aus. Nach dem Dekantieren der Grenzfläche l-s beobachtet man für jede der zweizähligen Züchtungsrichtungen eine individuelle Morphologie der ehemaligen Wachstumsfront. Für die Züchtungsrichtung parallel der [10000]-Orientierung zeigt sich eine singuläre Fläche (10000), die senkrecht zur Ziehrichtung verläuft als Wachstumsfläche am der Zweiphasengrenze l-s. Im Fall der Züchtungsrichtung parallel der [10-100]-Orientierung zeigt sich ein anderes Bild: Die Zweiphasengrenze l-s ist in einzelne, um ±18° gegen die Ziehrichtung verkippte Flächen der Form des dekagonalen (Haupt-) Prismas {10000} zerfallen, sodass deren Einhüllende die Wachstumsfläche (10-100) bildet. Aus der Bildung einer facettierten Wachstumsfront in diesen Orientierungen erkennt man, dass das Wachstum hier über atomar glatte Grenzflächen erfolgt. In diesem Fall sind den parallelen Verschiebungsgeschwindigkeiten beider Orientierungen kinetische Grenzen gesetzt. Bei der Züchtung entlang der geneigten Kristallorientierungen der dekagonalen Dipyramiden [0-1-101] und [10-102] beobachtet man die Bildung einer Wachstumsmorphologie, die ebenfalls nicht mehr rotationssymmetrisch ist, aber entsprechend der Symmetrie der Kristallklasse 10/m 2/m 2/m eine Spiegelsymmetrie enthält. An der Dreiphasengrenzlinie v-l-s zeigen die Kristalle eine deutliche Querschnittszunahme in der Orientierung der zehnzähligen Komponente [00001] und sind dort durch das thermische Feld scharf begrenzt. Der übrige Umfang wird von Flächen der Form {10000} begrenzt. Nach dem Trennen des Kristalls von der Schmelze erkennt man für beide Kristallorientierungen eine komplex zusammengesetzte Zweiphasengrenzfläche l-s. Die Komponente der schnellwachsenden, zehnzähligen Orientierung [00001] ist in dekagonale Nadeln zerfallen während die Komponente senkrecht dazu von Flächen des dekagonalen (Haupt-) Prismas {10000} gebildet wird, welche wiederum die Wachstumsfläche darstellen. Die einzelnen Flächen {10000} sind dabei um 36° gegeneinander orientiert. Die {10000}-Flächen besitzen keine Komponente parallel zu der ausgedehnten Schmelzenoberfläche und folgen demnach keinem Isothermenverlauf, woraus vor der facettierten Grenzfläche l-s deutliche Unterkühlungen entstehen. Für die Züchtung parallel der Orientierung [10-102] sind die Segmente der {10000}-Flächen um 18° im Vergleich mit der Anordnung für die Orientierung parallel [0-1-101] verdreht angeordnet. Die Substratexperimente stellten einen Ansatz dar, um mit einer an das schnelle Trennen des Kristalls von der Schmelze gekoppelten stark beschleunigten Kristallrotation die an der Wachstumsfront anhaftende Restschmelze vor dem Erstarren abzuschleudern. Dazu wurden massive Keime eingesetzt, die eine großflächige Zweiphasengrenze l-s nach einer nur geringen Wachstumsdistanz bereitstellen. Hier musste erkannt werden, dass es prinzipiell nicht möglich ist, einen Flüssigkeitsfilm, der den Kristall benetzt, restlos von einer Grenzfläche durch Abschleudern zu entfernen. In einigen Fällen konnte die anhaftende Restschmelze aus einigen Bereichen der Zweiphasengrenze l-s vor deren Erstarren entfernt werden, sodass die ehemaligen Wachstumsfront ex situ untersucht werden konnte. Im Fall der Züchtungsrichtung parallel der zehnzählige Achse [00001] konnte so nachgewiesen werden, dass das Wachstum nicht über ebenmäßige Flächen erfolgt. Die Wachstumsfront stellt sich als eine gleichmäßig gekrümmte Fläche dar, die dem Verlauf der Schmelzpunktisothermen folgt. Als Ergebnis kann man den Schluss ziehen, dass das Wachstum entlang der [00001]-Orientierung über eine atomar raue Grenzfläche erfolgt, was unter wachstumskinetischen Gesichtspunkten höhere Ziehgeschwindigkeiten ermöglicht. Die Identifizierung des kinetischen Limits des Wachstums in dieser Orientierung ist durch die einsetzenden Effekte der konstitutionellen Unterkühlung verdeckt. Die Züchtung großer dekagonaler AlCoCu-Quasikristalle gelang im Rahmen dieser Arbeit erstmals. Frühere Experimente unter Nutzung der spontanen Keimbildung blieben erfolglos. Es kann angenommen werden, dass in diesem System eine größere Keimbildungsarbeit zur Bildung der festen Phase aufgewendet werden muss, als in dem ternären System Al-Co-Ni der Fall ist. Mit der Bildung der festen Phase bricht die Unterkühlung zusammen und es resultiert ein polykristallines Wachstum. In den Züchtungsexperimenten unter Verwendung [00001]-orientierter d-AlCoNi-Keime war zu beobachten, dass der zuvor beschriebene Effekt später einsetze und eine zunächst dekaprismatische Wachstumsmorphologie zunehmend an struktureller Perfektion verlor. Erst der Wechsel der Züchtungsrichtung zu den langsamwachsenden, zweizähligen Orientierungen [10000] und [10-100] führte zu einem kontrollierbaren, einkristallinen Wachstum. Auch hier zeigte die dekantierte Wachstumsfront, dass als Wachstumsfläche an der Zweiphasengrenze l-s allein Flächen der Form des dekagonalen (Haupt-) Prismas {10000} auftreten. Das gemeinsame Ergebnis aller Studien zur Züchtung von dekagonalen Quasikristallen nach dem CZOCHRALSKI-Verfahren ist das Auftreten des dekagonalen (Haupt-) Prismas {10000} als Wachstumsfläche an der Zweiphasengrenze l-s. Auch können an der Peripherie der Kristalle außer den beiden bekannten Formen der dekagonalen Dipyramide keine weiteren Flächen geneigter Formen beobachtet werden. Das Kugelwachstumsexperiment bot die Möglichkeit, das Wachstum aller symmetrisch nicht äquivalenten Kristallorientierungen einer Kristallart an einem sphärisch präparierten Individuum zu beobachten. Dieses experimentell aufwändige Experiment wurde erstmals in der beschriebenen Art in einem intermetallischen System realisiert. Nach dem Experiment konnte auf der Kugeloberfläche das Auftreten von Flächen nachgewiesen werden, die den beiden Formen des dekagonalen Prismas {10000} sowie {10-100} zugeordnet werden können. Sie sind das Ergebnis von Wachtumsprozessen an der Zweiphasengrenze l-s und stellen somit Wachstumsflächen dar. Das Auftreten von Flächen genegter Formen konnte nicht beobachtet werden. Da weite Bereiche der Kugeloberfläche von Oxiden bedeckt und somit einer detaillierten Beobachtung unzugänglich waren, ist ihre Nichtexistenz jedoch noch nicht hinreichend bewiesen. Mit den CZOCHRALSKI-Abreißexperimenten wurde die maximale flächenspezifische Kristallisationsgeschwindigkeit von dekagonalen AlCoNi-Quasikristallen bestimmt. Dazu konnte die Grundidee CZOCHRALSKIS verfolgt und an die Besonderheiten inkongruenter Schmelzen in einem Multikomponentensystem angepasst werden. Das Limit für die Kristallisationsgeschwindigkeit parallel der zehnzähligen Achse [00001] ist derart hoch, dass noch vor dem (kinetisch bedingten) Abreißen des Kristalls von der Schmelze die Effekte der konstitutionellen Unterkühlung einsetzen. Es entstehen Störungen an der Wachstumsfront, unter denen unrealistisch hohe Ziehgeschwindigkeiten möglich werden, die jedoch nicht mehr zu einer defektarmen Kristallzüchtung führen. Die maximale Kristallisationsgeschwindigkeit kann in dieser Orientierung nach dieser Methode nicht bestimmt werden, weil die Grenzen der konstitutionellen Unterkühlung überschritten werden, bevor das wachstumskinetische Limit erreicht ist. In den symmetrisch nicht äquivalenten, zweizähligen Kristallorientierungen [10000] und [10-100] wurden für jede Orientierung mehrere Abreißereignisse unter verschiedenen erhöhten Ziehgeschwindigkeiten vz+ durchgeführt und die Zeit t bis zum Abriss des Kristalls von der Schmelze gemessen. Die gewonnenen t(vz)-Werte zeigen einen linearen Zusammenhang zwischen der Ziehgeschwindigkeit vz und der reziproken Zeit t bis zum Trennen von Kristall und Schmelze auf, wobei die t(vz)-Werte für die [10000]-Orientierung eine deutlich größere Streuung zeigen als für die [10-100]-Orientierung. Die ermittelten Werte lassen keinen signifikanten Unterschied für die maximale Kristallisationsgeschwindigkeit vkr der beiden Kristallorientierungen [10000] und [10-100] erkennen. Als Ursache für das weniger gut reproduzierbare Abreißverhalten der singulären Grenzfläche (10000) wurde eine mechanische Ursache angenommen, die anhand eines einfachen Modellexperimentes (Benetzungsexperiment) überprüft wurde. Für modellhafte Nachbildungen der singulären Grenzfläche (10000) und der komplexen Grenzfläche {10-100} wurde die Reproduzierbarkeit des Abreißverhaltens bei verschiedenen Fehlorientierungen untersucht. Dazu wurden zylindrische Prüfkörper von gleichem Durchmesser hergestellt, wobei die Grenzfläche l-s im Fall der (10000)-Fläche eine ebene, parallel zur Oberfläche der Testschmelze orientierte Fläche darstellte. Die Grenzfläche l-s im Fall der komplexen (10-100)-Fläche, die aus gegeneinander orientierten Segmenten von Flächen der Form {10000} aufgebaut ist, wurde aus zwei eben Flächen, deren Flächennormalen um +18° bzw. -18° gegen die Oberfläche der Testschmelze geneigt sind, dargestellt. Dabei konnte festgestellt werden, dass sich das Abreißverhalten der komplexen Grenzfläche {10-100} als invariant gegenüber Fehlorientierungen erwiesen hat. Eine singuläre, parallel zur Schmelzenoberfläche orientierte Grenzfläche {10000} zeigt dagegen eine schlechte Reproduzierbarkeit der einzelnen Abreißereignisse. Mit diesem Ergebnis kann die breite Streuung der Experimente für die (10000)-Grenzfläche erklärt werden. Die Bestimmung der Oberflächenenergie von präparierten (00001)-, (10000)- und (10-100)-Oberflächen dekagonaler AlCoNi-Quasikristalle erfolgte über Kontaktwinkelmessungen. Mit den Testflüssigkeiten Wasser und Dijodmethan konnten die polare und die dispersive Komponente der Oberflächenenergie getrennt voneinander bestimmt werden. Die Kontaktwinkelmessungen mussten unter Umgebungsbedingungen erfolgen, d.h. die Quasikristalloberflächen befanden sich nicht im thermodynamischen Gleichgewicht mit ihrer eigenen Schmelze. Dabei wurden Ergebnisse gewonnen, die die Aussagen aus den Kinetikexperimenten ergänzen. Es wurde für die (10000)-Oberfläche eine geringere Oberflächenenergie als für die (10-100)-Oberfläche gefunden. Nach der klassischen Theorie des Kristallwachstums bedeutet eine geringe Oberflächenenergie, dass das Wachstum über eine atomar glatte Phasengrenze geschieht. Daraus resultiert eine geringe parallele Verschiebungsgeschwindigkeit der betreffenden Fläche, womit für die Flächen des dekagonalen (Haupt-) Prismas eine geringere parallele Verschiebungsgeschwindigkeit als für die Flächen des dekagonalen (Neben-) Prismas {10-100} erklärt werden kann. Diese Annahme wird durch die Beobachtungen bezüglich des Auftretens von Flächen der Form {10-100} in dem Kugelwachstumsexperiment bestätigt. Sie treten im Anfangsstadium des weiteren Wachstums auf der Kugeloberfläche noch auf, wachsen schneller und verschwinden folglich aus der Morphologie. Die in dieser experimentellen Arbeit gewonnenen Ergebnisse können kein theoretisches Modell zum Verständnis des quasikristallinen Wachstum liefern. Vielmehr lassen sich die beobachteten Wachstumsphänomene mit den theoretischen Vorstellungen des Wachstums periodischer Kristalle hinreichend gut erklären. Es bleibt die Frage offen, wie groß der Einfluss der quasiperiodischen Ordnung auf das (Quasi-) Kristallwachstum ist oder ob die beobachteten Phänomene nicht einzig ein Resultat der komplexen Struktur dieser intermetallischen Legierungen sind.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Die apparativen Probleme, die sich bei einer Exposition von Zellkulturen gegenüber volatilen Giftstoffen und -gasen ergeben, werden im Zuge der Vorstellung einer neuen Expositionsapparatur dargelegt. Anhand von Extraktionsprofilen, die sich bei der Extraktion von Stickstoffdioxid (NO2) ins Kulturmedium ergeben, wird die Apparatur zunächst in zellfreien Versuchen auf deren Reproduzierbarkeit untersucht. Expositionsversuche mit A549 Zellen über unterschiedliche Zeitdauern zeigen die sich verändernde Zellvitalität anhand des Gesamtglutathiongehalts. Anhand der 4-stündigen Begasungsversuche wird eine Dosis-Wirkungskurve aufgestellt. Im Anschluss an diese Expositionsversuche wird in einer weiteren Versuchsreihe nach der Begasung mit NO2 der Nutzen einer Glucocorticoidgabe (Beclomethason und Budesonid) auf die Zellvitalität untersucht.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Die Arbeit „Amplifikation von Prionen in vitro“ beruhte auf der Amplifikationsmethode die erstmals 2001 vorgestellt wurde (Saborio et al., 2001). Bei der PMCA wird erstmals PK-resistentes PrPres in ausreichender Menge in vitro hergestellt, welches molekularbiologisch dem Erreger spongiformer Enzephalopathien gleicht. Die PMCA erlaubt somit eine in vitro Untersuchung des pathologischen Umfaltungsprozess von PrPC zu PrPSc für diagnostische und therapeutische Studien. In dieser Arbeit wurden ausgiebig die Einzelschritte der PMCA Methode, insbesondere die Quantifikation der Western Blot Bande und die Auswirkungen der Sonifikationsleistung und der Inkubationszeit auf die Amplifikationseffizienz untersucht. Je nach Stärke der Sonifizierung ändert sich die Effizienz der PMCA Reaktion (Kap.3.1.2) . Eine Amplifikation ohne Sonifikation ist möglich, scheint aber nicht autokatalytisch aktives PrPres zu erzeugen und erfüllt somit nicht die Prion Hypothese 3.1.3 und 4.1). Neues PrPres kann als seed für weitere Amplifikationen dienen (Kap. 3.1.6). Parallelansätze zeigten die Reproduzierbarkeit der PMCA, so dass vergleichende Studien mit unterschiedlichen Reaktionsansätzen einen Vergleich der Amplifikationseffizienz ermöglichen (Kap 3.1.5). Die Intensitätsmessung von Western Blot Banden repräsentiert die Proteinmenge in vitro (Kap. 2.2.6). Es konnte gezeigt werden, dass PrPC und PrPSc essentiell für die Durchführung der Reaktion sind. Somit konnte gezeigt werden, dass die PMCA im Einklang mit der Prionhypothese steht, die besagt, dass ein pathogener PrPSc-Seed die Umfaltung von nativem PrPC initiiert. (Kap 3.1.4 und 3.2). Die molekulare Spezifität der PMCA Reaktion wurde hervorgehoben durch die Erkenntnis, dass rPrP die Amplifikation in vitro hemmt (Kap. 3.2, Bieschke et al., 2004). Prion Proteine binden Kupfer in vivo (Brown et al., 1997a) und in geringerer Affinität auch Ni, Mn und Zn (Jackson et al., 2001). Die Rolle von Metallen bei der Konversion von PrPC zu PrPSc ist noch nicht endgültig geklärt. In dieser Arbeit wurde erstmals gezeigt, dass bei Zugabe von Mn, Ni und Zink in ca. 10fach physiologischen Konzentrationen von 50µM und unphysiologischen 500µM die PrPres Amplifikation gefördert wird, während Cu keinen Effekt zeigt (Kap. 3.3.1). Gleichzeitig verringern alle Metallionen die Stabilität von neu entstandenem PrPres gegenüber PK (Kap. 3.3.2). Man kann sich den destabilisierten Zustand als ein Metallgebundenes PrP-Zwischenprodukt in der Umfaltung von PrPC zu PrPSc vorstellen (Sarafoff et al., 2005). Die PMCA Reaktion wie von Saborio et al. beschrieben hat einige Nachteile. Man arbeitet mit infektiösem Material in einem offenen System und verursacht eine Kontaminaton der Sicherheitswerkbank. Es wurden zwei Systeme zur automatischen Amplifikation im geschlossenen System entwickelt. Der Wasserbadamplifikator sonifizierte zyklisch das temperierte Becken in dem die Proben in einem Schwimmer genau positioniert wurden (Kap. 3.4.1). Es zeigte sich eine maximale Amplifikation von 14fach in der Mitte des Bades wohingegen die Konversionseffizienz zum Rand des Beckens hin gleichmäßig absank (Kap 3.4.2). Aufgrund der inhomogenen Ergebnisse mit dem Wasserbad wurde mit einem Microplate Horn der Munich Prion Cycler entwickelt, wo der gesamte Boden des Beschallungsbeckens vom Abstrahlkopf der Ultraschallsonotrode besteht, so dass eine homogene Leistungsverteilung erwartet wurde. Die Proben befanden sich in einer mit Plastikfolie versiegelten Mikrotiterplatte, so dass Verluste und Kontaminationen ausgeschlossen werden konnten (Kap. 3.4.3). Es konnte eine gleichmäßigere Amplifikation von 3,0 ± 0,7 gezeigt werden, wobei kein Abfall der Faktoren am Rand der Platte festzustellen war (Kap. 3.4.4). Es konnte mit den beiden hier vorgestellten Systemen zum ersten Mal eine Amplifikation von PrPres mit indirekter Sonifikation von verschlossenen Proben und dem Einfluss der Ultraschallleistung auf die Amplifikation gezeigt werden (Sarafoff et al., 2005). Dies zeigte auch, dass die Metalloberfläche der Sonotrode bei der manuellen PMCA keine katalytische Funktion bei der Konversion des Kupferbindenden PrPC zu PrPres innehat. Der Munich Prion Cycler ermöglicht eine homogene Amplifikation von Parallelproben im Mikrotiterformat. Die Entwicklung der ELISA Technologie zur Quantifizierung von PrP in Homogenaten wird in Zukunft ein limitierender Schritt in der Automatisierung der PMCA Reaktion sein (Kap. 2.2.7 und 4.4).
Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 02/06
Im Rahmen dieser Arbeit wurden unterschiedliche Proteomstudien an Halobacterium salinarum durchgeführt, die sich generell in drei unabhängige Themenblöcke unterteilen lassen. Zunächst erfolgte die Erfassung des cytosolischen Proteoms auf standardisierten 2-D Gelen. Hierfür wurde die Auftrennung auf sogenannten Zoom-Gelen aufgrund der engen pI-Verteilung halobakterieller Proteine etabliert. Die erschöpfende Analyse der so aufgetrennten Proteine wurde mit der peptide mass fingerprinting Methode im Hochdurchsatzverfahren durchgeführt. So konnten so 40% des zugänglichen cytosolischen Proteininventars identifiziert und auf Referenz 2-D Gelen kartiert werden. Des Weiteren konnten die massenspektrometrischen Proteinidentifizierungen zur intensiven Verbesserung der in vielen Fällen nicht eindeutigen Genomannotation herangezogen werden. Durch die Korrelationsanalyse von experimentellen und theoretischen pI-Werten konnten weitere Annotationsfehler behoben werden. Das Zusammenspiel von Genomik und Proteomik erlaubte die Identifizierung eines Bereichs ehemaliger Plasmid DNA, die in das Chromosom eingewandert ist. Weiter konnte für ein Plasmid gezeigt werden, dass dieser ehemalig chromosomale DNA und somit eine Reihe wichtiger und essentieller Gene enthält und deshalb eher als zweites Chromosom angesehen werden sollte. Nach der Inventarisierung folgten Analysen zur differentiellen Expression cytosolischer Proteine in Abhängigkeit unterschiedlicher Wachstumszustände. Hierbei wurde das aerobe Wachstum unter Standardbedingungen mit Wachstum unter Mangelbedingungen wie in synthetischem Medium oder unter anaeroben phototrophen Bedingungen verglichen. Bei der Analyse dieser Zustände mittels 2-DE konnten nur wenig regulierte Proteine identifiziert werden. Generell stellte sich die 2-DE aufgrund schwankender Reproduzierbarkeit und des geringen dynamischen Bereichs der gewählten Färbemethode für diese vergleichenden Analysen als wenig geeignet heraus. Die Verwendung isotopenmarkierter Sonden erlaubte hingegen einen detaillierten Einblick in die Regulationen auf Proteomebene unter besagten Bedingungen. Mit dem methodischen Ansatz der 1D-SDS PAGE LC-MALDI-TOF/TOF Analyse konnten von einem beträchtlichen Teil (ca. 40%) des cytosolischen Proteoms Regulationsinformationen erhalten werden. Auch hier zeigte sich, dass unter anaeroben phototrophen Bedingungen überraschend wenige Proteine reguliert werden müssen, damit sich der Organismus auf diese Lebensbedingung einstellen kann. Wachstum unter Nährstoffmangel in synthetischem Medium induziert überwiegend Proteine der Aminosäure- und Nukleotid-Biosynthese sowie Proteine, die am Proteinschutz und der Glykolyse beteiligt sind. Unter Standardwachstum wurden Proteine als induziert identifiziert, die bei nicht ausreichendem Vorhandensein wachstumslimitierend wirken würden. Dies waren hauptsächlich Enzyme der Thiamin und Cobalamin Biosynthese sowie des Peptid-Transportes und -Abbaues. Auch die CO2-Fixierung und die nachfolgende Gluconeogenese sind induziert. Durch die Verwendung unterschiedlicher Proteomik Ansätze konnte am Ende der Großteil der cytosolischen Proteine von H. salinarum identifiziert werden. Es scheinen nahezu alle chromosomalen Proteine auch unter Standard Wachstumsbedingungen expremiert zu werden, was starke Regulationen der Proteinkonzentrationen in Abhängigkeit unterschiedlicher Lebensbedingungen nicht notwendig macht. Der Organismus kann sich so schnell ohne großen energetischen Aufwand an wechselnde Lebensbedingungen anpassen. Im letzten Teil dieser Arbeit wurde das Ausmaß der Proteinphosphorylierung in H. salinarum untersucht. Hierbei konnten zunächst über radioaktive in vivo Markierung phosphattragende Proteine identifiziert werden. Ebenfalls gelang es, die ersten halobakteriellen Serin und Threonin Phosphorylierungsstellen zu identifizieren. Generell zeigte sich jedoch, dass das Ausmaß der Proteinphosphorylierung in H. salinarum eher gering ist. Bei den identifizierten Phosphorylierungen handelte es sich ausschließlich um katalytische Zwischenprodukte. Für die Existenz von regulativen Ser/Thr oder Tyr Proteinphosphorylierungen waren keine eindeutigen Hinweise zu finden. Weiter gelang es, eine Vielzahl von N-terminal acetylierten Proteinen als eine weitere Form der posttranslationalen Modifikationen zu identifizieren.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Ziel der Untersuchung war die Entwicklung eines In-vitro-Modells zur Evaluierung von Ablationskathetern für die Therapie von Herzrhythmusstörungen, die durch thermische Prozesse eine Modifikation des Myokards bewirken. Hierzu wurde erstmals die Technik der modernen Thermografie angewandt. Diese ermöglicht während der Ablation eine Online-Registrierung von Temperaturprozessen an jedem beliebigen Ort im Myokardquerschnitt mit einer Auflösung von 0,1mm und einer Messgenauigkeit von 0,1°C. Ebenfalls lassen sich die Temperaturprozesse zweidimensional in Falschfarbenbildern darstellen. Durch die kontaktfreie Technik der Thermografie konnte auf intramyokardiale Temperatursonden verzichtet werden, welche in ihrer Positionierung meist schwierig standardisierbar sind und selbst zu störenden Effekten und somit Messfehlern während der Stromabgabe führen können. Als optisches Medium zwischen Myokard und Thermografiekamera wurde Saphirglas mit einer Transmission von 92% verwendet. Das Modell konnte mit Hilfe eines Schwarzen Strahlers in seiner Messgenauigkeit und Aussagekraft validiert werden. Im zweiten Teil der Studie wurden drei verschiedene Ablationskatheter (4mm-, 8mm- und eine gekühlte 4mm-Elektrodenspitze) mit dem vorgestellten Versuchsmodell auf ihre thermischen Eigenschaften während der Ablation in n=105 Messreihen bei unterschiedlichen Ablationsleistungen untersucht. Neben den bereits in der Literatur beschriebenen Temperaturphänomenen war es mit dem vorgestellten Versuchsmodell erstmals möglich Prozesse nachzuweisen, welche bisher nur in mathematisch-numerischen Modellen postuliert werden konnten (Bsp. Temperaturverteilung im Perfusionsstrom an der Myokardoberfläche). Ebenfalls zeigte sich eine hohe Korrelation zwischen den Temperaturverteilungsmustern und den resultierenden Nekrosezonen im Myokard, was die rein thermische Alteration des Myokards während der Ablation erneut beweisen konnte. Prinzipiell kann mit dem vorgestellten In-vitro-Modell jedes Ablationssystem auf seine Eigenschaften untersucht werden, welches eine thermische Veränderung des Ablationssubstrats bewirkt. Durch eine geringe Kostenintensität und eine gute Reproduzierbarkeit könnte dieses Modell außerdem zu einer Einsparung von Tierversuchen führen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Die koronare Herzkrankheit stellt die am häufigsten zum Tode führende Erkrankung in den Industrienationen dar und die daraus resultierende gesundheitsökonomische Belastung ist beträchtlich. Der Goldstandard der Koronarplaque-Diagnostik stellt bis heute die Stenosen-Beurteilung mittels der invasiven Herzkatheter-Untersuchung dar. Neueste Erkenntnisse unterstreichen, dass das Risiko für die Entstehung eines akuten koronaren Syndroms jedoch eher von der Koronarplaque-Zusammensetzung, als von dem Grad der koronaren Stenosierung abhängt. Vor allem nicht-kalzifizierte Plaques scheinen zur Ruptur und damit zur Auslösung eines akuten, thrombotischen Koronararterienverschlusses zu neigen. Auch auf Grund der Invasivität und der relativ hohen Kosten einer Herzkatheter-Untersuchung erscheint es sinnvoll, neue, risikoärmere Methoden der Koronarplaque-Darstellung zu entwickeln, um frühe Stadien der Erkrankung rechtzeitig zu detektieren und geeignete therapeutische Massnahmen einleiten zu können. Das Hauptziel der vorliegenden Arbeit war es zu untersuchen, ob mittels minimal-invasiver Mehrzeilen-Detektor-CT-Angiographie (MDCTA) nicht-kalzifizierte Plaques erkannt und sowohl qualitativ als auch quantitativ bewertet werden können. Zusätzlich sollte diese Arbeit noch weitere Einsatzbereiche der MDCT-Technologie in der kardialen Diagnostik aufzeigen. Insbesondere sollte geprüft werden, inwieweit mittels der MDCT myokardiale Minderperfundierungen, die auf Infarzierungen des Herzmuskelgewebes hinweisen können, darstellbar sind. 179 Patienten wurden in die MDCT-Koronarplaque-Diagnostik eingeschlossen. Dazu wurde zunächst an Hand der nativen, nicht kontrastverstärkten MDCT-Datensätze ein Kalzium-Screening durchgeführt. Zusätzlich wurden die bei allen eingeschlossenen Patienten zusätzlich akquirierten kontrastverstärkten MDCT-Angiographie-Datensätze auf die Existenz nicht-kalzifizierter Koronarplaques hin untersucht und die dabei detektierten Plaque-Areale qualitativ und quantitativ ausgewertet. Die Ergebnisse dieser beiden Untersuchungsverfahren wurden miteinander und gleichzeitig mit den Befunden einer konventionell durchgeführten, invasiven Katheter-Koronarangiographie verglichen und korreliert. In die MDCT-Infarkt-Diagnostik wurden 106 Patienten eingeschlossen, von denen 27 einen Myokardinfarkt erlitten hatten. Dazu wurden die kontrastverstärkten Herz-MDCTA-Datensätze dieser Patienten auf Auffälligkeiten der kardialen Morphologie und der myokardialen Kontrastmittelverteilung hin untersucht. Die dort erkannten Kontrastmittelverteilungsdefekte wurden als Minderperfusion und damit als mögliche myokardiale Infarzierung interpretiert. Bei den richtig positiv erkannten Myokardinfarkten wurde der CT-Dichtewert im Unterschied zum gesunden Myokard, die Wanddicke und das Infarktvolumen ermittelt. Morphologische Auffälligkeiten wie myokardiale Aneurysmen, intracavitäre Thromben oder intramurale Verkalkungen wurden festgehalten. Die Ergebnisse der Koronarplaque-Diagnostik haben gezeigt, dass mit Hilfe der kontrastverstärkten MDCT-Angiographie nicht-kalzifizierte Gefäßwandveränderungen in vivo nachgewiesen und quantifiziert werden können. Die Volumina dieser nicht-verkalkten Gefässwand-Läsionen zeigten eine positive Korrelation zu den ermittelten Kalk-Scores sowie dem Schweregrad der koronaren Herzkrankheit laut Herzkatheterbefund. Es zeigten sich allerdings überproportional hohe Anteile von nicht-verkalkten Plaques in frühen Stadien der koronaren Atherosklerose. Des Weiteren konnte festgestellt werden, dass durch die Durchführung einer kontrastverstärkten MDCTA einige Patienten mit koronaren, atherosklerotischen Läsionen identifiziert werden konnten, die im CT-Kalzium-Screening und/oder bei der konventionellen Koronarangiographie keine Hinweise auf eine KHK-Erkrankung zeigten. Nach den Ergebnissen dieser Studie ist zu überlegen, ob Patienten mit einem charakteristischen und hohen KHK-Risikoprofil sich trotz negativer Kalzium-Screening-Untersuchung zusätzlich einer MDCT-Angiographie ihrer Koronararterien unterziehen sollten. Dazu sollte das konkrete Gesundheits-Risiko durch nicht-kalzifizierte Plaques in umfangreichen, prospektiven Studien nochmals systematisch bewertet werden. Eine MDCTA-Studie, in der z.B. die Auswirkung einer lipidsenkenden, medikamentösen Therapie auf die koronare Belastung mit nicht-kalzifizierten Plaques evaluiert wird, könnte hier weitere Erkenntnisse erbringen. Ferner sollten größer angelegte Untersuchungen die Reproduzierbarkeit der quantitativen Volumenbemessungen von nicht-kalzifizierten Plaques überprüfen. In der vorliegenden Studie konnte eine Sensitivität von 85%, eine Spezifität von 91% und eine diagnostische Genauigkeit von 90% für die Erkennung myokardialer Infarzierungen mittels der MDCT ermittelt werden. Zu der Infarkt-Diagnostik mittels MDCT ist zu vermerken, dass kein Zweifel daran existiert, dass andere Techniken wie Myokardszintigraphie oder MRT weitreichende Informationen über kardiale Funktion, Perfusion und Vitalität liefern können, die von der routinemäßig eingesetzten, kontrastverstärkten MDCT-Herz-Untersuchung nicht ermittelt werden können. Trotzdem konnte in dieser Arbeit gezeigt werden, dass die MDCT Angiographie des Herzens neben der morphologischen Darstellung der Koronararterien zusätzlich wichtige und detaillierte Informationen über die kardiale Morphologie liefern kann und eine relativ sensitive Methode zur Erkennung von Myokardinfarzierungen darstellt. Die Ergebnisse dieser Arbeit untermauern den möglichen klinischen Wert der kontrastverstärkten MDCT Untersuchung des Herzens in der Diagnostik der koronaren Herzkrankheit, da sie eine angiographische Bildgebung der Koronararterien ermöglicht, detaillierte Informationen zu atherosklerotischen Gefässwandläsionen der koronaren Atherosklerose liefert und eine Beurteilung des Myokards hinsichtlich ischämischer Veränderungen mit minimalster Invasivität möglich macht. Die klinische Etablierung neuerer 16-Zeilen- und 64-Zeilen MDCT-Systeme mit ihrer verbesserten räumlichen und zeitlichen Auflösung wird das Potential der MDCT noch weiter erhöhen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die Niedrigdosis-Spiral-Computertomographie (CT) stellt eine vielversprechende Methode zur Früherkennung des Bronchialkarzinoms dar. Bei geringem Strahlenrisiko für den Screening-Teilnehmer können Rundherde ab einem Durchmesser von etwa 2-3 cm mit hoher Sensitivität detektiert werden. Die frühzeitige Erkennung malignitätsverdächtigen Wachstums kleiner pulmonaler Rundherde setzt allerdings eine hohe Meßgenauigkeit der Volumetrie voraus. In der vorliegenden Arbeit wurde untersucht, welchen Einfluß eine Reduktion der Strahlendosis auf die Präzision und Reproduzierbarkeit der Volumetrie hat. Hierzu wurden volumetrische Messungen an kleinen pulmonalen Rundherden (Durchmesser zwischen 2,7 und 12,6 mm) am Phantom (n=120) als auch in vivo (n=39) durchgeführt. Die Strahlendosisreduktion erfolgte bei den Messungen am Phantom durch Röhrenstromreduktion und wurde bei den In-vivo-Messungen durch Verrauschung der CT-Rohdaten simuliert (Standard: 120 mAs, simulierte Röhrenströme zwischen 77 mAs und 3 mAs). Es wurde gezeigt, daß sich die bei erniedrigter Dosis gemessenen Volumina von denen bei Standarddosis (Röhrenstrom 120 mAs) gemessenen Volumina im Mittel um weniger als 5% unterscheiden. Bei 18 mAs (entsprechend einer Strahlendosisreduktion um 85%) betrug die maximale volumetrische Abweichung 20%. Unterhalb von 18 mAs nahmen sowohl die Erkennbarkeit als auch die Präzision der Volumetrie deutlich ab. Der relative volumetrische Meßfehler vergrößerte sich unabhängig von der Strahlendosis mit abnehmendem Durchmesser des Rundherdes sowie zunehmender Abweichung von der Kugelgestalt, ebenso bei Rundherden an Stellen innerhalb der Lunge mit erhöhtem Bildrauschen (z.B. dorsales Lungendrittel). Die Ergebnisse der Arbeit sprechen dafür, daß oberhalb eines kritischen Röhrenstromes von etwa 18 mAs eine Volumenverdopplung kleiner pulmonaler Rundherde zuverlässig mit der Niedrig-Dosis-CT nachgewiesen werden kann. Dies entspricht einer Dosiseinsparung von etwa 85%. Da bei reduzierter Strahlendosis im Mittel kleinere Volumina (Bias bei 18 mAs ca. - 3%) gemessen werden, sollten Verlaufskontrollen stets bei gleicher Strahlendosis durchgeführt werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Hintergrund: Die MRT ist eine hochsensitive Methode zur Erkennung von Herdbefunden der weiblichen Brust. Ein Nachteil liegt jedoch in einer hohen Rate an falsch positiven Befunden. Hier stellte sich die Frage, ob der Einsatz von Computerverfahren auf der Basis der Vektorquantisierung eine diagnostische Hilfestellung leisten kann, insbesondere ob eine Verbesserung der Dignitätsbeurteilung durch eine Subdifferenzierung der Bildpunkte innerhalb einer KM-aufnehmenden Läsion erreicht werden kann. Ziel der Arbeit war es, die konventionellen Auswertetechniken der dynamischen MRT mit einem computergestützten Ansatz, basierend auf einer Klassifikation der Kontrastmitteldynamik mittels neuronaler Netze, zu vergleichen. Dieses Auswerteprogramm zur Analyse von Signalintensitätszeitreihen wurde in der Bildverarbeitungsgruppe des Instituts für Klinische Radiologie entwickelt. Methode: Dieses neuartige Auswerteverfahren wurde erstmals bei einem größeren Patientenkollektiv eingesetzt. Dafür wurden 399 Patientinnen mit mammographisch unklarem Befund (BIRADS 3) im Zeitraum von 1997 bis 2003 mittels dynamischer MRT untersucht. Aus diesem Kollektiv wurden alle Herdbefunde (n=92) für den Methodenvergleich ausgewählt, die einen initialen Signalanstieg > 50% nach Gabe von Kontrastmittel aufwiesen. Die Befunde wurden mit dem histologischen Ergebnis korreliert oder in einigen Fällen durch Nachuntersuchungen über mehr als 18 Monate als benigne verifiziert. Zunächst wurden die MR-Mammographien mit einer im klinischen Alltag gebräuchlichen Auswertemethode ausgewertet. Dabei wurde die Kontrastmitteldynamik nach den von Kuhl et al. publizierten Kriterien (Radiology 1999) klassifiziert. In einem weiteren Auswerteschritt wurden zusätzlich zur Kontrastmitteldynamik auch morphologische Kriterien mit einbezogen und ein Punktescore gebildet (Göttinger-Score). Bei der Vektorquantisierung wurden die Signalintensitätskurven aller Bildpunkte eines mehr als 50 % KM-aufnehmenden Herdes in 4 prototypische Kurvenverläufe (sog. Code-buchvektoren) subdifferenziert. Als weiteres Ergebnis der Vektorquantisierung erhielt man sog. Cluster-Zuordnungskarten, auf denen die zu einem Codebuchvektor gehörigen Pixel morphologisch dem Herdbefund in der Brust zugeordnet werden konnten. Auf der Basis der Codebuchvektoren wurde eine erneute Klassifikation der Herdbefunde vorgenommen, wobei wiederum die Klassifikation des Kurventyps nach Kuhl und der Göttinger Score als Grundlage dienten. Ergebnisse: Bei der Beurteilung der Signalintensitätsverläufe ergab sich in dem selektierten Patientengut für die konventionelle Auswertung eine Sensitivität von 70,5%, eine Spezifität von 68,3%, sowie eine Genauigkeit von 70,0%. Mit der Vektorquantisierung wurde eine Sensitivität von 82,3%, eine Spezifität von 68,3% und eine Genauigkeit von 76,1% erzielt. Demnach war durch die Vektorquantisierung bei unveränderter Spezifität eine Verbesserung der Sensitivität und damit eine höhere Genauigkeit zu beobachten. Unter Einbeziehung morphologischer Kriterien für die Herdcharakterisierung, ergab sich in Anlehnung an den Göttinger Score bei der konventionellen Auswertung eine Sensitivität von 62,7%, eine Spezifität von 70,7%, sowie eine Genauigkeit von 66,3%. Bei der Clusteranalyse betrug die Sensitivität 82,3%, die Spezifität 53,5% und die Genauigkeit 69,6%. Demzufolge war unter Berücksichtigung der morphologischen Kriterien keine Verbesserung der Dignitätsbeurteilung bei den überwiegend kleinen Herdbefunden zu erreichen. Um die Reproduzierbarkeit der Methode zu überprüfen, wurde die Interobservervariabilität einerseits in Bezug auf die Herdsegmentierung und Vektorquantisierung, andererseits in Bezug auf die visuelle Klassifikation der Kurvenverläufe untersucht. Dabei fand sich eine gute Übereinstimmung zwischen verschiedenen Auswertern. Schlussfolgerung: In einem schwierigen Patientengut mit mammographisch unklaren, vorwiegend kleinen Herdbefunden, war die Vektorquantisierung der konventionellen Auswertetechnik von dynamischen MR-Mammographien in Bezug auf die Dignitätsbeurteilung überlegen. Die Vektorquantisierung könnte daher als Grundlage für eine automatisierte Auswertung für MR-Mammographien dienen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Ziel. Thema der vorliegenden Arbeit ist die Untersuchung der zerebralen Schmerzverarbeitung. Mit der Methode der funktionellen Magnetresonanztomographie sollten Kortexareale lokalisiert werden, die bei thermischer Schmerzreizung am linken Vorfuß eine Aktivitätszunahme zeigen. Ziel war es, diese unter standardisierten Bedingungen reproduzierbar nachzuweisen und damit die Voraussetzung zu schaffen, Veränderungen dieser Aktivierungen bei Sauerstoff- und Analgetikagabe zu erfassen. Methodik. Zunächst wurden die physikalischen Grundlagen der Bilderzeugung mittels Magnetresonanztomographie vorgestellt. Dabei wurde insbesondere auf die funktionelle Bildgebung und die zugrunde liegende Physiologie eingegangen. Im speziellen Methodikteil wurden das untersuchte Kollektiv (6 gesunde Probanden) und der Versuchsablauf beschrieben. An einem 1,5 Tesla Magnetresonanztomographen wurden mit Hilfe von T2*-gewichteten Sequenzen funktionelle Bilddaten der Probandengehirne bei schmerzhafter und neutraler thermischer Stimulation am linken Fußrücken aufgezeichnet. An vier der Probanden wurden diese Messungen jeweils viermal wiederholt, um schmerzspezifische zerebrale Aktivierungen zu erfassen und deren intra- und interindividuelle Variabilität zu überprüfen. Im Anschluss wurden diese funktionellen Messungen an allen Probanden ohne und mit Gabe von Sauerstoff durchgeführt, um einen denkbaren negativen Effekt der bei Analgetikagabe erforderlichen Sauerstoffapplikation auf die Darstellung der zerebralen Aktivierungen auszuschließen. Damit waren die Voraussetzungen geschaffen, die Auswirkungen von Schmerzmedikamenten auf die zerebrale Aktivität bei Schmerzreizen zu untersuchen. In einem Pilotversuch wurde die beschriebene Messmethodik bei drei Probanden unter Gabe von Remifentanil, Metamizol und Kochsalzlösung in randomisierter Abfolge eingesetzt. Die Auswertung der funktionellen Bilddaten erfolgte anhand des General Linear Model (Softwarepaket FSL). Hiermit konnten sowohl individuelle zerebrale Aktivierungen erfasst, als auch Gruppenanalysen durchgeführt werden. Ergebnisse. Bei den Experimenten zur Lokalisation der zerebralen Aktivierungen konnten bei schmerzhafter Stimulation aktivierte Areale am häufigsten im frontalen Operculum und benachbarten Inselkortex, im dorsolateralen präfrontalen Kortex, im Gyrus frontalis medius, im anterioren Cingulum und im parietalen Operculum/SII Kortex nachgewiesen werden. Weniger häufig konnten Aktivierungen im primären somatosensorischen Kortex, im Thalamus, im Temporallappen, in den Basalganglien und im Hirnstamm nachgewiesen werden. Diese waren meist beidseits vorhanden, zeigten jedoch eine Betonung der kontralateral zur stimulierten Körperhälfte gelegenen Hirnhemisphäre. Im Vergleich mit der Neutralmessung stellten sich die aktivierten Areale im frontalen Operculum und der vorderen Inselregion, im anterioren Cingulum und in den Basalganglien als schmerzspezifisch dar. Die Aktivierungen im parietalen Operculum/SII Kortex konnten erst bei niedrigerem Signifikanzniveau nachgewiesen werden. Der interindividuelle Vergleich zeigte bei zwei der Probanden eine gute Übereinstimmung mit den zerebralen Aktivierungen der Gesamtgruppe. Zwei weitere Probanden wiesen jedoch ein deutlich unterschiedliches Aktivierungsmuster auf. Bei der intraindividuellen Analyse zeigte sich eine gute Reproduzierbarkeit der aktivierten Areale. Bei den Experimenten mit Sauerstoffgabe konnte ein negativer Effekt auf die Darstellung der zerebralen Aktivierungen ausgeschlossen werden. Bei Gabe von Remifentanil konnte der aus der klinischen Erfahrung bekannte ausgeprägte analgetische Effekt der Substanz beobachtet werden. In der funktionellen MRT ließen sich nach Gabe von Remifentanil keine zerebralen schmerzspezifischen Aktivierungen darstellen. Allerdings ergaben Kontrollmessungen bei visueller Stimulation ebenfalls eine Abnahme der zerebralen Aktivierungen. Bei Gabe von Metamizol konnte unter den gewählten Versuchsbedingungen kein analgetischer Effekt registriert werden. Als Erklärung kommt einerseits die niedrig gewählte Dosierung, andererseits die Pharmakokinetik der Substanz in Betracht. Eine Änderung des zerebralen Aktivierungsmusters konnte bei den drei untersuchten Probanden nicht objektiviert werden. Schlussfolgerung. Mit der funktionellen Magnetresonanztomographie war es möglich, durch Schmerzreize ausgelöste zerebrale Aktivierungen darzustellen. Diese Daten können als Grundlage für weitere Experimente mit schmerzmodulierenden Medikamenten dienen. Die gewählten Rahmenbedingungen der fMRT-Messungen gewährleisten die notwendige Sicherheit der Probanden während der Applikation von Schmerzmedikamenten, ohne die Darstellbarkeit der zerebralen Aktivierungen zu beeinträchtigen. Aussagen über die Wirkung von opioidartigen und nichtopioidartigen Analgetika müssen jedoch noch an einer größeren Gruppe von Probanden evaluiert werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
In der vorliegenden Arbeit wurden 10 Mikrokeratomköpfe von sechs verschiedene Mikrokeratomen vergleichend untersucht: - Amadeus 160 μm (Allergan/SIS) - Hansatome 160 µm und 180 µm(Bausch&Lomb) - LSKone 160 μm und 180 μm (Moria) - MK-2000 130 μm und 160 μm (Nidek) - SKBM 160 μm (Alcon Surgical) - Supratome 160 μm und 180 μm (Schwind). Die Arbeit wurde an porkinen Bulbi durchgeführt. Pro Mikrokeratomkopf wurden 20 Hornhäute präpariert. Jede Mikrokeratomklinge wurden für jeweils fünf Hornhäute verwendet. Mit Hilfe der Optischen Kohärenztomographie (OCT) wurden die Flapdicken nachfolgend vermessen. Die qualitative Untersuchung der stromalen Schnittfläche erfolgte im Rasterelektronenmikroskop. 1. Das Mikrokeratom MK-2000 130 µm, SKBM 160 µm und Supratome 180 µm wiesen keine Schnittkomplikationen auf und zeigten hinsichtlich der Komplikationsrate die besten Ergebnisse. Bei den Mikrokeratomen Amadeus 160 µm, Hansatome 160 µm und 180 µm, LSKone 160 µm und 180 µm, MK-2000 160 µm und Supratome 160 µm traten Komplikationsraten von 4,2 % bis 41,4 % auf. Diese Werte waren, im Vergleich mit Mikrokeratomstudien an humanen Augen, sehr hoch. 2. Die durchschnittlichen Flapdicken der getesteten Mikrokeratome wichen um 7,6 % bis 34,3 % vom erwarteten Zielwert ab, der, je nach Mikrokeratom, zwischen 130 und 180 µm betrug. Die Präzision der OCT-Messmethode lag dabei bei 4,1 µm. Im Unterschied zu Mikrokeratomstudien an menschlichen Bulbi schnitten in dieser Arbeit die Mikrokeratome tendenziell dicker als erwartet. Die beste Reproduzierbarkeit der Flapdicken zeigten die Mikrokeratome MK-2000 130 µm, SKBM 160 µm und MK-2000 160 µm. 3. In der Rasterelektronenmikroskopie zeigten das SKBM und das Supratome die glattesten Schnittflächen, jedoch zeigte keine Schnittfläche grobe Unregelmäßigkeiten. Als Erklärung für die im Vergleich zu Mikrokeratomstudien an humanen Bulbi tendenziell höheren Komplikationsraten, höher gemessenen Flapdicken und die höheren Standardabweichungen in dieser Arbeit müssen u.a. folgende Aspekte in Betracht gezogen werden: - Reduzierte Zuverlässigkeit von Mikrokeratomen bei Schweineaugen aufgrund anatomischer Unterschiede - Postmortale Veränderungen - Nichtdurchführbarkeit der Anpassung des Saugrings an die individuelle Hornhautkrümmung. Die Messergebnisse belegen eindeutig, dass auch Mikrokeratome der neueren Generation nennenswerte Standardabweichungen der Schnittdicke aufweisen, die in die Planung von LASIK-Eingriffen miteinbezogen werden müssen. Die Forderung für zukünftige LASIK-Anwendungen muss sein, Methoden einer intraoperativen Online-Dickenmessung des Hornhautflaps zu entwickeln, die bislang nicht realisierbar war.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Thema der vorliegenden Arbeit ist die Beschreibung von Ladungstransporteigenschaften molekularer Systeme, wenn diese das Verbindungsstück zweier Elektroden bilden. Einen technologischen Meilenstein setzte auf diesem Gebiet die Rastertunnelmikroskopie, welche ursprünglich für die Abbildung von Oberflächen mit atomarer Auflösung entwickelt wurde (Binnig et al., 1981). Heute ermöglicht sie die gezielte Untersuchung von Transporteigenschaften einzelner, auf Oberflächen adsorbierter Moleküle. Parallel dazu hat der immense Fortschritt in der Miniaturisierung klassischer elektronischer Bauteile in jüngster Zeit ermöglicht, Zuleitungsstrukturen auf der Nanometerskala zu bauen, und diese mit einzelnen oder wenigen Molekülen zu überbrücken (Reed et al., 1997). Es besteht die Hoffnung, mit solchen Systemen Schaltungselemente zu realisieren, die heutigen elektronischen Bauteilen in Hinblick auf ihre Effizienz und den Grad ihrer Miniaturisierung deutlich überlegen sind. Experimente mit diesen molekularelektronischen Apparaten werfen die Frage auf, wie sich die chemische Natur eines Moleküls sowie seine Kopplung an die Oberfläche der Elektroden auf die Leitungseigenschaften auswirkt. Eine theoretische Beantwortung dieser Frage erzwingt eine quantenmechanische Beschreibung des Systems. Ein genaues Verständnis dieser Zusammenhänge würde ein gezieltes Entwerfen molekuarelektronischer Bauteile ermöglichen. Trotz bedeutender experimenteller wie theoretischer Fortschritte besteht zwischen den Ergebnissen bisher allerdings nur beschränkt Übereinstimmung. Diese Arbeit beginnt mit einem Überblick über die gängigen Methoden zur theoretischen Beschreibung von Ladungstransport durch molekulare Systeme und charakterisiert sie hinsichtlich der ihnen zugrundeliegenden Annahmen und Näherungen. Dabei findet eine Unterteilung in störungstheoretische sowie streutheoretische Verfahren statt. Anschließend werden Methoden der Quantenchemie behandelt, da diese in nahezu allen Ansätzen zur Beschreibung von elektronischem Transport durch molekulare Systeme Anwendung finden. Wir liefern eine Zusammenstellung der wichtigsten unter den auf diesem Gebiet in immenser Anzahl entwickelten Methoden und der ihnen zugrundeliegenden Näherungen. Auf diese allgemeinen Darstellungen folgt eine detaillierte Beschreibung des numerischen Verfahrens, das im Rahmen dieser Dissertation zur Berechnung von Stromtransport durch Molekülstrukturen implementiert worden ist. Mit der vorliegenden Arbeit wird eine Verallgemeinerung eingeführt, die eine vormalige Einschränkung der ursprünglichen Methode bezüglich der betrachtbaren Systeme beseitigt. Diese so erhaltene Methode wird dann verwendet, um der durch Experimente von Dupraz et al. (2003) aufgekommenen Frage nachzugehen, welchen Einfluß die verschiedenen geometrischen Anordnungen einer Gruppe von identischen Molekülen auf die Leitfähigkeitseigenschaften eines molekularelektronischen Apparats ausüben. Unsere Untersuchungen zeigen, daß sich die Transporteigenschaften nur bei Bildung von Molekülgruppierungen mit bedeutender intermolekularer Wechselwirkung wesentlich von denen einzelner Moleküle unterscheiden. Damit lassen sich Konsequenzen aus der Stabilität von Molekül-Elektroden Verbindungen für die Reproduzierbarkeit von gewonnenen Meßdaten ableiten. Abschließend befassen wir uns mit der Berechnung von Rastertunnelmikroskop-Bildern. Dabei geben wir zuerst einen Überblick über bisherige Anwendungen von Modellrechnungen zur Erklärung experimenteller Daten. Dann präsentieren wir eigene Berechnungen, die im Rahmen einer Kooperation mit Constable et al. (2004) dazu beitragen sollen, durch Vergleich mit deren experimentellen Bildern verschiedene Konformationen eines auf Graphit adsorbierten Moleküls identifizieren zu können. Die enorme Größe des Moleküls führt zu Gesamtsystemgrößen, die eine numerische Durchführung in der Praxis bisher scheitern ließen. Durch eine neuartige Zerlegung des Eigenwertproblems, das die praktische Durchführung der von uns verwendeten Methode bisher verhinderte, sind wir in der Lage, erstmalig Berechnungen für weitaus größere als die bisher betrachtbaren Systeme durchzuführen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Ziel der Arbeit war es, den Verlauf der Lautheitsfunktion schwerhöriger Menschen aufzudecken, um die Hörgeräte-Anpassung zu verbessern. Hierzu wurde von uns eine neu entwickelte Lautheitsskalierung nach der "Methode der Linienlänge" eingesetzt. Der Vorteil dieses neuen Verfahrens liegt in einer freien und direkten Bewertung präsentierter Schallsignale in Form von Linienlängenangaben an einer kontinuierlichen Skala zwischen den zwei Kardinalpunkten "extrem leise" und "extrem laut". Da die meisten unserer schwerhörigen Patienten eine asymetrische Schwerhörigkeit aufwiesen, war es erforderlich in einem Vorversuch den Unterschied zwischen monauralem und binauralem Lautheitseindruck zu untersuchen. Es nahmen sechs normalhörende Probanden, zuerst ohne Ohrverschluss, dann mit einseitigem und schließlich mit beidseitigem Ohrverschluss durch eine Silikonabdruckmasse, an der Untersuchung bei dreimaliger Wiederholung teil. Die Ergebnisse zeigten hinsichtlich der Lautheitswahrnehmung eine sehr geringe Differenz ohne und mit einseitigem Ohrverschluss bis 40 dB Hörverlust. Das neue Verfahren zeigt eine hohe Reproduzierbarkeit auf, wie durch viermaliges Wiederholen an Schwerhörigen geprüft wurde. Die ermittelte Standardabweichung der vier Versuchsdurchgänge war nie größer als 30 mm Linienlänge bezogen auf eine Gesamtlinenlänge von 270 mm. Damit zeigt die "Methode der Linienlänge" eine sehr gute Reproduzierbarkeit. In 120 Versuchsdurchläufen wurde an 75 Schwerhörigen die Lautheitsfunktion verschiedener Arten von Schwerhöigkeit untersucht. Diese gliederten sich in Patienen mit Innenohrhochtonschwerhörigkeit, pancochleärer Innenohrschwerhörigkeit, Schallleitungsschwerhörigkeit und Patienten mit Tinnitus ohne Hörverlust. In Abhängigkeit von der Art der Schwerhörigkeit zeigten die Pegellautheisfunktionen unterschiedliche Verläufe. Die Innenohrschwerhörigen Patienten zeigten einen deutlich eingeschränkten Restdynamikbereich, aber auch interindividuelle Unterschiede bei gleichem Hörverlust. Man kann aus den Pegellautheitsfunktionen direkt ablesen, welche Hörgeräteverstärkung bei den einzelnen Frequenzbereichen ab einer gewissen Lautstärke erforderlich ist. Auch die Kompression kann in den einzelnen Frequenzen individuell eingestellt werden. Die beim Tinnitus immer wieder beklagte Hyperakusis konnten wir nicht feststellen. Die einfache Durchführung der Untersuchung, der geringe Zeitaufwand und die hohe Reproduzierbarkeit der "Methode der Linienlänge" machen sie zu einer attraktiven Ergänzung in der modernen Hörgeräteanpassung und Überprüfung.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Als Goldstandard der nicht-invasiven Erfassung der Verkalkungen der Herzkranzgefäße gilt bisher die Elektronenstrahl-Computertomographie. Wie die vorliegende Arbeit aufzeigt, ist die konventionelle Computertomographie mit EKG-Triggerung in der Lage die Ergebnisse der Elektronenstrahl-Computertomographie bei der Detektion und Quantifizierung atherosklerotischer Veränderungen der Herzkranzgefäße mit hoher Genauigkeit zu reproduzieren und damit auch mit den flächendeckend vorhandenen und ubiquitär einsetzbaren konventionellen Subsekundenscannern durchgeführt werden kann. Die konventionelle Koronarangiographie stellt den Goldstandard bei der Evaluation des Lumens der Herzkranzgefäße dar. Sie stellt jedoch eine invasive, mit seltenen Komplikationsrisiken behaftete Untersuchung dar, die gerade bei Patienten mit atypischem Brustschmerz, bzw. asymptomatischen Patienten mit einem niedrigen bis intermediären Risikoprofil einer genauen Abwägung bedarf. Das Ausmaß der verkalkten atherosklerotischen Wandveränderungen kann mit der konventionellen Katheterangiographie, einer Luminographie nur ungenügend erfasst werden. Möglichkeiten der Quantifizierung des Verkalkungsgrades fehlen vollständig. Da die Sensitivität zur Erfassung der koronaren Kalzifikationen mit dem konventionellen CT dem EBCT ebenbürtig ist, ist zu erwarten, dass in klinischen Studien auch mittels der konventionellen Computertomographie eine Ausschlussdiagnostik zur atherosklerotischen koronaren Herzkrankheit möglich sein dürfte. Weiterhin erlaubt die exakte Reproduzierbarkeit der Untersuchungsergebnisse die Verlaufskontrolle der Herzkranzgefäßverkalkungen bei einer Therapie bekannter Risikofaktoren bzw. Modifizierung der Lebensweise. Da effektive Therapiekonzepte für die Behandlung und Verzögerung der Progression der koronaren Herzerkrankung zur Verfügung stehen, ist und wird die frühzeitige Erfassung der Atherosklerose der Herzkranzgefäße von zunehmender Bedeutung sein. Daten der Framingham Studie belegen, dass nahezu 50% der Individuen, die an einem plötzlichen Herztod versterben zuvor keine kardiale Symptomatik in ihrer Krankengeschichte aufweisen. Eine erst kürzlich veröffentlichte Studie demonstriert, dass das Vorhandensein von Koronarverkalkungen deutlich mit dem Auftreten akuter koronarer Ereignisse bei initial asymptomatischen Patienten assoziiert ist. Zusätzlich scheint die Wertigkeit von Verkalkungen der Herzkranzgefäße stärker mit dem Auftreten kardialer Ereignisse assoziiert zu sein, als die bekannten konventionellen Risikofaktoren (Nikotinabusus, Bluthochdruck, Hypercholesterinämie, usw. ...). Der Grad der Verkalkung korreliert mit der Wahrscheinlichkeit für den Patienten zukünftig ein kardiales Ereignis zu erleiden. Umso bedeutender ist daher eine zuverlässige Abschätzung eines zukünftigen Risikos für ein akutes koronares Ereignis für eine effektive und präventive Medizin. Wie die vorliegende Arbeit demonstriert, ist die konventionelle Computertomographie mit EKG-Triggerung in der Lage die Ergebnisse der Elektronenstrahl-Computertomographie bei der Detektion und Quantifizierung atherosklerotischer Veränderungen der Herzkranzgefäße mit hoher Genauigkeit zu reproduzieren und stellt daher eine Alternative der als Goldstandard angesehenen EBCT dar.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Einleitung: Da im letzten Trimenon 80% der Mineralsalze in den fetalen Knochen eingelagert werden, benötigen FG eine optimale postnatale Substitution mit Ca, P und Vit.D, um Osteopenien zu vermeiden. Um die tatsächliche Einlagerung der Mineralsalze im Knochen zu dokumentieren, gilt bei Erwachsenen die sonographische Messung der Transmissionsgeschwindigkeit (UTG) inzwischen als anerkannte Methode. Fragestellung: Ist die Messung der UTG eine geeignete Methode zur Bestimmung der Knochendichte bei Früh- und Neugeborenen? Methodik: Messung der UTG mit Prototyp II-IV-U-Osteoson (Minhorst) zweiwöchentlich bei 172 FG, GA 23-42 Wochen (33,8±5,0), GGW 405-5130g (2132g±1091), mittlere Beobachtungszeit 5,8 Wochen (1-54). Ergebnisse: Die intraindividuelle Reproduzierbarkeit der UTG-Messung betrug 0,62%. Die UTG-Werte lagen zwischen 1621 m/s und 1831 m/s und sind damit vergleichbar mit bereits publizierten Daten von Kindern zwischen 1 und 6 Jahren (1567-1832m/s). Die UTG-Werte der ersten Lebenswoche zeigten einen signifikanten Zusammenhang mit GA und GGW (p=0,001). Die Werte der hypotrophen FG lagen unterhalb der altersentsprechenden Werte der eutrophen FG. Die Verlaufswerte korrelierten positiv mit Alter und Gewicht (p=0,001). Es zeigte sich eine signifikante Korrelation zwischen der UTG und den laborchemischen Parametern des Knochenstoffwechsels sowie den Risikofaktoren für einen reduzierten Knochenaufbau (p=0,001). Schlussfolgerung: Die UTG ist reproduzierbar, einfach durchzuführen, strahlenfrei und wenig belastend. Damit ist sie möglicherweise eine geeignete Methode zum Screening und Therapiemonitoring der Knochendichte bei Früh- und Neugeborenen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Anhand von 15 unfixierten Präparaten von Lendenwirbelkörpern wurde in dieser Arbeit an 56 Wirbelsegmenten die Darstellbarkeit der hyalinen Knorpelabschlussplatte mit der hochauflösenden Magnetresonanztomographie untersucht. Die Präparate wurden von Leichen entnommen und sofort tiefgefroren. Es wurden Sägeschnitte von 3 mm Dicke mit einer Bandsäge an den tiefgefrorenen Präparaten durchgeführt. Dadurch konnten die Messergebnisse korreliert und auf Validität entsprechend der magnetresonanztomographischen Schnittführung überprüft werden (coronar beziehungsweise sagittal). Zur Dokumentation wurden sämtliche Präparate fotografiert und Kontaktradiographien hergestellt. Segmente mit Modellcharakter oder besonderen Pathologien wurden fixiert, gefärbt und histologisch untersucht. Trotz der nur geringen Knorpeldicken von 0,8 cm im Durchschnitt bei den Präparaten ließen sich diese durch die hochauflösende Magnetresonanztomographie gut darstellen. Bei den T1 gewichteten MRT-Bildern konnte man gut die hyaline Knorpelabschlussplatte als signalärmeren Bereich vom Diskus intervertebralis und signalreicheren Bereich von der knöchernen Abschlussleiste differenzieren. Bei den T2- und Protonendichte-gewichteten Bildern ließ sich diese Knorpelplatte hingegen nur erahnen. Gute Darstellungen der Knorpelplatte wurden mit den Gradientenechosequenzen erzielt. Bilder von Gradientenechosequenzen mit dreidimensionaler Bildgebung waren hinsichtlich der Darstellung der Knorpelplatte der zweidimensionalen überlegen. Beste Ergebnisse wurden mit der DESS Sequenz mit einem Anregungswinkel α 40° erzielt. Bei dieser Sequenz konnte die Knorpelplatte an insgesamt 84 Prozent der Messpunkte nachgewiesen werden. Bei den untersuchten Präparaten konnten Normvarianten zahreiche Pathologien gesehen und beschrieben werden: Bei 14 der 96 untersuchten Deck- und Grundplatten der Wirbelkörper fand sich ein Cupid’s bow Phänomen. An den untersuchten Präparaten jeder Altersgruppe konnten degenerative Prozesse der Bandscheibe, der hyalinen Knorpelplatte und der knöchernen Abschlussplatte nachgewiesen werden: Bei den insgesamt 96 untersuchten Deck- und Grundplatten der einzelnen Wirbelsegmente waren 29 Schmorl’sche Knoten nachweisbar. Desweiteren sah man als Prozeß der degenerativen Bandscheibenerkrankungen die erosive intervertebrale Osteochondrose. Es konnte gezeigt werden, dass die Defekte der Erosionen durch Knorpelproliferate von Faser- und Hyalinknorpel aufgefüllt sind. Im Falle der erosiven Osteochondrose wurde ein besonderer Prozess beobachtet, und zwar die Proliferation von Knorpelgewebe in die osseären Erosionen. Es scheint sich um einen unspezifischen Reparaturmechanismus im Finalstadium der Bandscheibendegeneration zu handeln. Dieser entwickelt sich, nachdem der Faserknorpel des Diskus intervertebralis, die hyaline Knorpelplatte und die knöcherne Abschlussplatte vollständig destruiert sind. Die histologisch nachgewiesenen Knorpelproliferate wurden auf MRT-Bildern entdeckt. Der genaue Mechanismus der Knorelproliferation ist noch unbekannt. Für die Klinik dürfte aber dessen Kenntnis und die eventuelle Reproduzierbarkeit enorme Bedeutung haben.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Aufgrund fehlender Methoden wurde bis zum heutigen Zeitpunkt nur selten eine molekulargenetische Analyse von Einzelzellen durchgeführt. In vielen Bereichen aber, wie beispielsweise den Tumoren, ist sie von entscheidender Bedeutung. Das Auftreten eines genetisch heterogenen Musters in einem Tumor könnte die Suche nach krankheitsauslösenden oder -fördernden Veränderungen erschweren. Auch bei der Untersuchung von seltenen Zellen (so genannte „rare cell events“), z.B. bei einer minimalen residualen Tumorerkrankung sind geeignete Methoden zur Einzelzellanalyse notwendig, da nur wenig Material zur Verfügung steht. Ziel dieser Doktorarbeit war es, zwei molekulargenetische Analysemethoden zu etablieren, weiterzuentwickeln und in einer geeigneten Strategie bei der Untersuchung von disseminierten Tumorzellen bei fünf Mammakarzinomen einzusetzen. Im ersten Teil der Doktorarbeit erfolgte die Auswahl eines geeigneten Markierungssystems für die Identifizierung disseminierter Tumorzellen im Knochenmark. Die Benutzung des pan-Zytokeratin Antikörpers A45 B/B3 direkt konjugiert mit dem Fluoreszenzfarbstoff Cy3 oder FluorX zeigte in verschiedenen Testsystemen die besten Ergebnisse. Sowohl seine Spezifität als auch die Durchführbarkeit einer Fluoreszenz-in-situ-Hybridisierung (FISH) war möglich. Anhand disseminierter Tumorzellen von Nierentumoren wurde die Möglichkeit einer Untersuchung mittels zweier Interphase FISH Ansätze überprüft. Die Hybridisierung der Zentromernahen YAC Sonden konnte auf dem Knochenmarksgewebe bei pan-Zytokeratin positiven Zellen nach Erproben mehrerer Protokolle nicht durchgeführt werden, allerdings war die Hybridisierung von Zentromersonden erfolgreich. Die Optimierung des veröffentlichten Protokolls zur Einzelzell CGH (C. Klein et al. 1999; N. Stöcklein et al.2002) war das zweite Ziel der Arbeit. Diese Optimierung war notwendig, weil sich das ursprünglich publizierte Protokoll als Artefakt anfällig herausstellte. Durch die in dieser Arbeit beschriebenen Protokollveränderungen konnte die für Einzelzell Analysen notwendige Reproduzierbarkeit erreicht werden. Als Testsystem wurde eine molekulargenetisch ausreichend charakterisierte und in ihren Veränderungen stabile Zelllinie gewählt (RCC-26). Die ersten Versuche zur Einzelzellanalyse zeigten Veränderungen in der Zelllinie, die in allen vorangegangenen Analysen mit etablierten Techniken (M-FISH und CGH) nicht gezeigt werden konnten. Eine Optimierung des Protokolls führte zu übereinstimmenden Ergebnissen von Einzelzell CGH, CGH und M-FISH. Anschließend konnte die Reproduzierbarkeit dieser Methode anhand der Zelllinie RCC-26 gezeigt werden. Die Anwendung beider Methoden zur Analyse von seltenen Zellen wurde mit der Untersuchung von fünf Mammakarzinomen dargelegt. Der Vergleich von Primärtumor und kultivierten disseminierten Tumorzellen ins Knochenmark zeigte im Rahmen der untersuchten Fälle gemeinsame molekulargenetische Veränderungen beider Tumorentitäten. Mit der Anwendung dieser neuen Methoden ist es möglich detaillierte Informationen über seltene Zellen zu erhalten und diese in den biologischen Kontext einzuordnen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Die zentrale Rolle der Mikrozirkulation in der Pathogenese und Pathophysiologie von chronischen und akuten Krankheitsbildern ist allgemein akzeptiert und Gegenstand vieler tierexperimenteller und klinischer Untersuchungen. Störungen der Organperfusion führen hierbei häufig zu Veränderungen der mikrovaskulären Gefäßpermeabilität. Auf zellulärer Ebene, aber auch makroskopisch sichtbar, entstehen Ödeme, die die Gewebeperfusion verschlechtern können. Messungen der Permeabilitätsänderungen sind am Patienten häufig aufgrund der Invasivität der Untersuchungsmethoden nicht möglich. Andererseits steigt mit der Weiterentwicklung der operativen und Intensivmedizin der Bedarf an Methoden zur Früherkennung und zum Monitoring von mikrozirkulatorischen Perfusionsstörungen. Nicht invasive Messverfahren, die Veränderungen der endothelialen Integrität frühzeitig erfassen, könnten die Diagnose und Therapie von Krankheiten verbessern. Wir entwickelten in unserer Forschungsgruppe in Zusammenarbeit mit der DOMED Medizintechnik und dem mikrozirkulatorischen Labor des Imperial College in London einen neuen venösen Kompressionsplethysmographen (filtrass 2001) zur nicht invasiven Messung von mikrozirkulatorischen Parametern wie Flüssigkeitsfiltrationskapazität, isovolumetrischem venösen Druck, vaskulärer Compliance, venösem Druck und arteriellen Blutfluss. Dazu wird mit einer Blutdruckmanschette der venöse Druck in einer Extremität stufenweise erhöht, und die resultierende Volumenänderung distal der Manschette mit einem hochsensitiven Dehnungsmessstreifen erfasst. Eine „off-line“-Analyse dieser Volumenänderung ermöglicht die Berechnung der Flüssigkeitsfiltrationskapazität, einem Maß der Gefäßpermeabilität und des isovolumetrischen venösen Drucks, der das Gleichgewicht der STARLING-Kräfte und des Lymphflusses in der Extremität widerspiegelt. In der vorliegenden Arbeit wurde die Funktionsweise von filtrass zunächst vorgestellt und dieser neue Plethysmographen validiert. filtrass wurde hierbei mit einem herkömmlichen, von unserer Arbeitsgruppe seit mehreren Jahren verwendeten, quecksilbergefüllten Plethysmographen („Mercury in rubber Strain Gauge“ = MSG) verglichen. Es konnte gezeigt werden, dass filtrass eine höhere Reproduzierbarkeit des Messsignals aufwies. Die mittlere Standardabweichung wiederholter gleichförmiger Dehnungen während der Kalibrationen an einem Modellbein lag bei filtrass mit 3,4 µm [2-25µm] deutlich unter den Werten des MSG-Plethysmographen 36,2 µm [8-160 µm]. Bei insgesamt 240 Kalibrationen der beiden Plethysmographen an Unterschenkeln von sieben Probanden zeigte auch hier der filtrass-Plethysmograph niedrigere Abweichungen der wiederholten Messungen (56 µm [29-109 µm] vs. 132 µm [37-251µm]). Zudem wurde eine nicht-lineare Beziehung zwischen Dehnung des Quecksilber-gefüllten Messstreifens und der resultierenden Spannungsänderung beobachtet. Vergleichende Untersuchungen an jungen gesunden Probanden zeigten signifikante Unterschiede der Werte der Gefäßpermeabilität der beiden Geräten. Mit MSG wurden die Flüssigkeitsfiltrationskapazität mit 4,6 ± 2,0 x 10-3 ml 100 ml-1 min-1 mmHg-1 (= FFKU) signifikant (P
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Titel: Longitudinaluntersuchung des Blutdruckverhaltens mittels der 24-Stunden Blutdruckmessung bei Kindern und Jugendlichen mit Diabetes mellitus Typ 1 Fragestellung: Die Häufigkeit der arteriellen Hypertonie wird für Kinder und Jugendliche mit 1 – 3% angenommen. Für Kinder und Jugendliche mit Diabetes zeigten sich in Querschnittsuntersuchungen mittels ABDM Prävalenzen von 10 – 30 %. Unklar ist bisher die Reproduzierbarkeit der Prävalenzdaten und die Änderung des Blutdruckverhaltens in Longitudinalbeobachtungen. Methodik: 101 Kinder und Jugendliche (56 Mädchen, 45 Jungen) wurden in einer Erst- und Folgeuntersuchung mit mindestens einem Abstand von einem Jahr (23 +/- 10 Monate) untersucht. Das durchschnittliche Alter der Untersuchten betrug 13 +/- 3 Jahre, bei der Folgeuntersuchung 15 +/- 3,3 Jahre. Ergebnisse: Bei der Erstuntersuchung hatten 29 Kinder und Jugendliche (28,7 %) pathologische Befunde bei der ABDM; Zehn aus dieser Gruppe sowie weitere 16 Kinder und Jugendliche zeigten bei der Folgeuntersuchung pathologische Befunde (25,7 %). 10 Kinder und Jugendliche (9,9 %) hatten bei beiden Messungen pathologische Befunde; bei 35 Kindern und Jugendlichen (34,7 %) wurden jeweils bei einer Untersuchung Blutdruckbefunde über der 95. Perzentile erhoben, bei der Folgeuntersuchung lagen die Ergebnisse im Bereich zwischen der 50. und 95. Perzentile. Kinder und Jugendliche mit pathologischen Blutdruckbefunden zeigten eine signifikant längere Diabetesdauer (p= 0,01). Der HbA1c-Wert lag in der Gruppe mit Hypertonie signifikant höher als in der normotonen Gruppe. Darüber hinaus lagen bei 80 % der hypertonen Kinder und Jugendlichen eine im Hinblick auf den Mittelwert signifikant verminderte nächtliche systolische wie diastolische Blutdruckabsenkung bei gleichzeitig erhöhter Herzfrequenz vor. Die Gesamtinsulindosis der hypertonen Gruppe lag signifikant höher als in der normotonen Gruppe. Die durchschnittliche Urin-Albuminausscheidung lag bei den hypertonen im Vergleich zu den normotonen diabetischen Kindern und Jugendlichen signifikant höher, jedoch noch im oberen Normbereich. Schlussfolgerungen: Kinder und Jugendliche mit Diabetes zeigen signifikant höhere Blutdruckwerte als das Normalkollektiv. Bei einer Folgeuntersuchung nach einem Jahr konnten in 34,5 % pathologische Befunde bestätigt werden. Weitere Longitudinaluntersuchungen sind erforderlich, um diese Befunde abzusichern und zur Grundlage der Diagnose und Therapie einer arteriellen Hypertonie machen zu können. Die oft in Verbindung mit einer Blutdrucksteigerung beobachtete renale Schädigung konnte für die hier blutdruckauffälligen Kinder und Jugendlichen als Hauptursache nicht bestätigt werden, wenn man das diagnostische Kriterium der Mirkoalbuminurie zu Grund legt. Ob die Definition der Mirkoalbuminurie strenger gefasst werden muss sollte an einem größeren Kollektiv untersucht werden. Als weitere Gründe für eine Blutdruckerhöhung kommen die hyperglykämische Stoffwechsellage, hohe Insulintagesdosen und eine autonome Neuropathie des kardiovaskulären Systems in Frage. Die frühe Erkennung der Hypertonie durch regelmäßige und frühzeitige Messungen über 24 Stunden ist für eine medikamentöse Frühintervention von großer Bedeutung und sollte deshalb in die bisherige Standarddiagnostik eingeführt werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
Die vorliegende Arbeit beschäftigt sich mit dem proteolytischen System des Chloroplasten höherer Pflanzen und hier speziell mit dem des Thylakoidsystems. Vorderstes Ziel war die Isolierung und Charakterisierung neuer, bislang unbekannter Komponenten. Zu diesem Zweck wurden zwei unterschiedliche Ansätze erprobt: Einmal der rein biochemische Weg, bei dem der Versuch unternommen wurde, speziell lichtinduzierte proteolytische Aktivitäten des Thylakoidlumens nachzuweisen, anzureichern, und, falls möglich, aufzureinigen. Mit dem zweiten Ansatz wurde zunächst versucht, in Sequenzvergleichen auf molekularbiologischer Ebene homologe Gene zu bekannten bakteriellen und cyanobakteriellen Proteasen im pflanzlichen Genom ausfindig zu machen, und ausgehend von diesen dann die zugehörigen Genprodukte zu isolieren und charakterisieren. 1. Nachweis, Charakterisierung und Aufreinigung lichtstreßinduzierter Proteasen des Thylakoidlumens: Die zu diesem Ansatz durchgeführten Experimente konnten im Thylakoidlumen von Erbsenchloroplasten durch den Einsatz von Aktivitätstests auf substrathaltigen Polyacrylamidgelen mindestens fünf distinkte proteolytische Aktivitäten sichtbar machen. Diese Aktivitäten erwiesen sich als eindeutig induzierbar durch Hochlicht. Sie wurden jedoch sämtlich durch in äußerst geringer Menge vorliegende Komponenten des Lumens hervorgerufen. An der dadurch, sowie zusätzlich durch einen Lichtadaptationseffekt des Pflanzenmaterials, bedingten schlechten Reproduzierbarkeit der Aktivitäten scheiterten schließlich sowohl die Charakterisierung der unbekannten Proteasen als auch deren weitere Aufreinigung. Die Arbeiten sind dennoch dazu angetan, eine Vorstellung von der Größe und Komplexität des proteolytischen Systems alleine des Thylakoidlumens zu vermitteln. 2. Klonierung der Gene neuer plastidärer Proteasen und Charakterisierung der zugehörigen Genprodukte: Im Rahmen der Arbeit wurden die Gene zweier zuvor nicht beschriebener mutmaßlicher Proteasen aus Arabidopsis thaliana L. isoliert, beides Homologe zu bekannten Proteasen aus E. coli. hhoA: Das Produkt dieses Gens stellt ein Mitglied der ubiquitär verbreiteten HtrA-Familie von Serinproteasen dar, deren Zahl sich in Arabidopsis auf mittlerweile vierzehn beläuft. Es besitzt die typische katalytische Triade der Familie, läßt jedoch die zumindest für die meisten charakterisierten Homologe typische sogenannte PDZ-Domäne im N-terminalen Bereich vermissen. In den Experimenten zur Kartierung des Gens konnte gezeigt werden, daß dieses in singulärer Kopienzahl auf Chromosom IV lokalisiert ist. Anschließende Untersuchungen zur Expression konnten in Pflanzen jedoch weder unter normalen Anzuchtsbedingungen, noch nach Streßexperimenten mit Hochlicht und Hitzestreß ein spezifisches Transkript nachweisen. In vitro-Experimente belegten die Transkribier- und Translatierbarkeit des Gens; dessen Produkt im in organello-Importexperiment als lösliche Komponente im Thylakoidlumen akkumulierte. Weitere Untersuchungen an Chloroplastenfraktionen aus Spinat und Arabidopsis unter Zuhilfenahme eines gegen das heterolog exprimierte gereifte Genprodukt produzierten polyklonalen Antikörpers bewiesen, daß hhoA auch in vivo synthetisiert wird und wie im Importexperiment im Thylakoidlumen lokalisiert ist. Verschiedene Versuche zur Funktion des Proteins brachten kein eindeutiges Ergebnis. Die Transformation von Arabidopsis mit Sinnund Gegensinnkonstrukten des Gens war zwar erfolgreich, erzeugte jedoch Pflanzen ohne erkennbar vom Wildtyp abweichenden Phänotyp. sppA: Das Homolog zu der Signalpeptid-prozessierenden Protease aus E. coli, Protease IV, stellt das bislang einzige beschriebene in höheren Pflanzen dar. Das Gen ist, wie in Experimenten zu seiner Kartierung gezeigt wurde, in singulärer Kopienzahl im Genom vorhanden, lokalisiert auf Chromosom I. In Untersuchungen zur Expression konnte das Transkript unter normalen Anzuchtsbedingungen nicht nachgewiesen werden. Bei Behandeln der Pflanzen mit Lichtstreß über längere Zeit wurde jedoch ein nach mehrstündiger Latenzzeit einsetzendes Ansteigen der Transkriptrate beobachtet. Das Genprodukt wurde nach in vitro-Transkription und -Translation im in organello-Importexperiment als peripher mit der stromalen Oberfläche der Thylakoidmembran assoziiert charakterisiert. Untersuchungen an Chloroplastenfraktionen mittels Antikörpern, die gegen den C-Terminus des heterolog exprimierten SppA-Proteins produziert worden waren, bestätigten neben dem Nachweis des Vorhandenseins auch unter Normalbedingungen diese Lokalisation auch in vivo. Bei weiterer Subfraktionierung der Thylakoide fand sich das Protein vornehmlich assoziiert mit Stromathylakoiden. Die bei Bestrahlung der Pflanzen mit hohen Lichtintensitäten steigende Expressionsrate deutet auf eine funktionelle Neudefinierung von SppA in photosynthesetreibenden Organismen im Vergleich zu E. coli und auf eine Rolle innerhalb der langfristigen Adaptationsmechanismen der Pflanze gegen Lichtstreß hin. Weitere Untersuchungen konnten jedoch keine eindeutigen Hinweise bezüglich der spezifischen Funktion des Proteins liefern.
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Zur Klärung der Frage, ob das BCS-System nach EDMONSON et al. (1989) in der Version von METZNER et al. (1993) unter Praxisbedingungen auch beim Fleckvieh zur Überwachung des Ernährungszustandes geeignet ist, wurden die Komponenten des Systems und einige andere Beurteilungsmethoden mit der ultrasonographisch bestimmten Rückenfettdicke verglichen. Dazu wurden 421 Fleckviehkühe in 30 Betrieben während des Kalbezeitraums und in der Frühlaktation insgesamt mindestens fünfmal im monatlichen Abstand untersucht. Zusätzlich wurden Untersuchungen zur Reproduzierbarkeit der angewandten Methoden angestellt. Die Ergebnisse der Milchleistungsprüfung wurden für den Untersuchungszeitraum dokumentiert. In dem untersuchten Kollektiv von 421 Fleckviehkühen spiegelte die Rückenfettdicke die für die Frühlaktation typische Entwicklung des Ernährungszustandes von Milchkühen wider. Selbst im Bereich des Tiefpunktes dieser Entwicklung (36-95 Tage p.p.) lag die mittlere Rückenfettdicke mit zirka 51 mm deutlich über dem in der Literatur angegebenen Wert für verfettete HF-Kühe (35 mm). Die maximale fett-eiweißkorrigierte Milchleistung übte keinen nachweisbaren Einfluß auf die Veränderungen der Rückenfettdicke aus. Als Faktoren mit einer nachweisbaren Wirkung auf die Körperfettmobilisation konnten der Betrieb und die Rückenfettdicke bei der Kalbung identifiziert werden. Bei stärkerem Körperfettabbau traten signifikant höhere maximale Fett-Eiweiß-Quotienten auf. Das leicht modifizierte BCS-System ist prinzipiell auch beim Fleckvieh geeignet, die aktuelle Rückenfettdicke der Kuh so zu beschreiben, wie es auch von der Anwendung des BCS bei anderen Rassen angegeben wird.Die Bewertung der Dornfortsätze (BCS1) und der Lendenwirbelquerfortsätze (BCS3) bringt bei dieser Rasse - zumindest unter den in der Untersuchung vorliegenden Haltungs und Fütterungsbedingungen - keinen Vorteil. Kleine Änderungen der Körperkondition sind mit dem System insbesondere deshalb schlecht darstellbar, weil es nicht genügend Differenzierungsmöglichkeiten für die bei Fütterung von Maissilage ausgeprägten Fettdepots im Beckenbereich bietet.Das System beschreibt unter Vernachlässigung von BCS1 und BCS3 beim Fleckvieh die Rückenfettdicke mit r=0,77 und ihre Änderungen mit maximal r=0,56. Seine Komponenten sind innerhalb eines Untersuchers sehr gut reproduzierbar (r=0,88 bis r=0,95). Die getrennte palpatorische Beurteilung der Fettauflage von Hüft- und Sitzbeinhöcker erscheint aufgrund der meist erheblichen Unterschiede notwendig. Dabei sollte zur Dokumentation von starken Fettauflagerungen am Sitzbeinhöcker, die mit keiner Stelle der eigenen Hand mehr vergleichbar sind, eine zusätzliche Beurteilungsstufe eingeführt werden. Das angewandte BCS-System ist also auch bei Zweinutzungsrassen brauchbar, aber verbesserungswürdig. Mit den untersuchten Methoden zur Ergänzung oder weiteren Modifikation des Systems konnten aber keine deutlichen Fortschritte in dieser Richtung erzielt werden.
Die fluorimetrische Methode zur Bestimmung von Serumcortisol wurde durch blasenfreie Füllung einer Spezialküvette mittels Pumpvorrichtung, durch Benützung eines Spectralfluorimeters, sowie Verlegung des Meßzeitpunktes (80 min) und durch optimale Anregung (464 nm) und Emissionsmessung (522 nm) verbessert. Empfindlichkeit (
1. Es wird eine Methode zur gleichzeitigen Bestimmung des sog. freien und des proteingebundenen Anteils von in vitro zugesetztem L-Trijodthyronin-131Jod im Serum mittels Dextran-Gel-Filtration angegeben. In der beschriebenen Form ist diese Technik für die routinemäßige Anwendung in der Klinik zur Bestimmung der Bindungs- und Transportverhältnisse von Trijodthyronin geeignet. 2. In sog. Verdrängungsversuchen wurde nichtmarkiertes Trijodthyronin dem Inkubationsgemisch von Serum und L-Trijodthyronin-131Jod zugesetzt. Die zugesetzten Trijodthyroninmengen erschöpfen die Gesamtbindungskapazität der Serumproteine in dem gewählten Konzentrationsbereich keineswegs. Im Gegensatz zum Verhalten der prozentualen Anteile des sog. freien und des proteingebundenen Trijodthyronins steigt die absolute Menge des proteingebundenen Trijodthyronins dabei steil an. Man findet eine Kurve, die nicht einer einfachen Sättigunskurve entspricht, sondern eine Resultante aus Sättigungskurven verschiedener Trijodthyronin-bindender Proteine und Verdrängungskurven kompetitiv gebundener Substanzen (z.B. Thyroxin) darstellt. 3. Dextran-Gel wirkt nicht als einfaches Molekülsieb für Trijodthyronin. Es greift vielmehr durch Adsorptionsvorgänge kompetitiv in die Serumproteinbindungsverhältnisse des Trijodthyronins ein. Die physiologische Bedeutung des sog. freien Anteils an Trijodthyronin wird diskutiert. 4. Die Methode zur Bestimmung des proteingebundenen Jods (PB127I) mittels alkalischer offener Veraschung (Barker) wurde technisch vereinfacht und bezüglich ihrer Reproduzierbarkeit untersucht. Die131Jodausbeute aus zugesetztem L-Thyroxin-131Jod lag bei diesem Verfahren bei ca. 80%.