POPULARITY
Ein stiller Abfluss von Bilddaten, die Beilegung einer unbequemen Siri-Klage, Apples Datenschutzversprechen wird plötzlich massiv hinterfragt. Wir ordnen ein.
Ein stiller Abfluss von Bilddaten, die Beilegung einer unbequemen Siri-Klage, Apples Datenschutzversprechen wird plötzlich massiv hinterfragt. Wir ordnen ein.
Heute haben wir eine besonders spannende Episode von unserem Format Insurance Monday für euch, in der Alexander Bernert den renommierten Cyber-Sicherheits-Experten und CEO von asvin, Mirko Ross, begrüßt.In dieser Folge gehen wir tief in die Welt der Künstlichen Intelligenz und deren Rolle in der Versicherungsbranche ein. Mirko Ross erläutert die Möglichkeiten und Risiken der automatischen Bearbeitung durch KI, einschließlich der potenziellen Angriffsgefahren durch schädliche Muster in Bildern und automatisierte Spam-Systeme. Wir diskutieren die Herausforderungen der Skalierung und die Notwendigkeit präventiver Maßnahmen zum Schutz vor solchen Angriffen.Ebenfalls beleuchten wir die Parallelen zur Cyber-Security und die Bedeutung eines ausgeprägten Risikobewusstseins. Erfahren Sie, wie Versicherer sich vor diesen Gefahren schützen können und welche Rolle KI in der Zukunft der Branche spielen wird.Bleibt dran und hört mit, wenn wir mit Mirko Ross über die komplexe Welt der KI-Sicherheit sprechen und wie Unternehmen sich gegen die ständig wachsenden Bedrohungen wappnen können. Los geht's!Schreibt uns gerne eine Nachricht!Folge uns auf unserer LinkedIn Unternehmensseite für weitere spannende Updates.Unsere Website: https://www.insurancemondaypodcast.de/Du möchtest Gast beim Insurance Monday Podcast sein? Schreibe uns unter info@insurancemondaypodcast.de und wir melden uns umgehend bei Dir.Dieser Podcast wird von DEAN Productions produziert.Vielen Dank, dass Du unseren Podcast hörst!
Die europäische Raumfahrtagentur ESA plant gemeinsam mit der NASA eine eigene Mondbasis, die durch zahlreiche automatisierte Landemodule mit Materialien versorgt werden soll. Hochmoderne Raumsonden sollen mithilfe Künstlicher Intelligenz den optimalen Landeplatz auf dem Mond finden. Doch diese Technologie stößt oft aufgrund der zerklüfteten Mondoberfläche an ihre Grenzen. Um die Zuverlässigkeit der Künstlichen Intelligenz zu erhöhen, müssen mehr Bilddaten gesammelt werden. Dabei soll ein Videospiel helfen: Während Spielerinnen und Spieler darin Mondkrater markieren, versorgen sie die KI unbewusst mit wertvollen Daten.Wie kann Digital Design zu den zukünftigen Mondmissionen beitragen? Wie werden durch das Videospiel Bilddaten gesammelt? Und wie entwickelt man ein solches Spiel? Über diese und weitere Fragen sprechen wir in dieser Folge von "Hessen schafft Wissen" mit Stephan Jacob, dem Leiter des Projekts und Professor für Technologien in Digital Arts an der Hochschule Darmstadt. Und wenn all das noch nicht genügend Gründe sind reinzuhören: Prof. Jacob verrät auch, inwiefern er an Serien wie “Star Wars: Der Marsianer” und Filmen wie “Dune” mitgewirkt hat!
Der deutsch-amerikanische Konzeptkünstler Malcolm Gompf beschäftigt sich mit Malerei im Spannungsfeld von globalisierenden Märkten, der Digitalisierung von Kunst, dem künstlerischen Konzept Readymade und klassischen kunsthistorischen Positionen. Seine aktuelle Serie ist ein Kommentar zu kulturellen und industriellen Appropriationsstrukturen in aufstrebenden digitalen Diktaturen.Realität vs. Metaverse – Kopie vs. Fake. Malcolm Gompf wandelt prominente Werke der Kunstgeschichte in „hoch-gepixelte“ digitale Statements um. Schlüsselwerke von Gerhard Richter, Jackson Pollock, René Magritte und Edward Hopper sind nach der künstlerischen Umgestaltung auf den ersten Blick nicht mehr identifizierbar. Trotz der digitalen Abstraktion bleibt die Qualität der Farbharmonie und Komposition der Meister jedoch weiterhin spürbar.Die digitalen Bilddaten werden im nächsten Schritt an zufällig gegoogelte, wechselnde chinesische Dienstleister gesendet. Diese erhalten den ungewöhnlichen Auftrag, die digital-abstrakten Motive des Künstlers in Öl auf Leinwand zu reproduzieren – normalerweise produzieren diese Dienstleister Schoßhunde, Katzen oder Familienprortraits im Sonntagsanzug. Mit dieser Aktion reflektiert Malcolm Gompf die Problematik von Originalität und Plagiat in den Weltmärkten sowie die Bedeutung von handwerklicher Qualität und Digitalisierung im heutigen Malereibegriff. Die Welt der Wahrnehmung ist immer in Bewegung. Die Grenzen zwischen Kunst, Kopie, Märkten und Technologie sind fließender denn je. Malcolm Gompf sieht seine Kreationen als eine Art Forschungsprojekt innerhalb dieses theoretischen Frameworks. Ästhetisch zieht er offensichtliche Parallelen zur Gaming-Welt und anderen Bereichen der digitalen Bilderwelt auf. Er liefert seine subjektive Interpretation/Abtastung des Vorhandenen. Das Ergebnis ist immer auch ein Produkt des Zufalls. Hier finden wir eine direkte Linie zu Hip-Hop und anderen Formen gesampelter elektronischer Musik. Letztendlich geht es Malcolm Gompf darum, eine Geschichte zu erzählen und diese auch im Betrachter abzurufen. Malcolm Gompf, geboren 1970 in Karlsruhe, lebt und arbeitet in Frankreich. Der Autodidakt wurde von Professor Hans-Peter Schwarz zum Hochschuldozenten an der ZHDK (Zürich) ernannt. Als Künstler schuf er Klanginstallationen für Institutionen wie das ZKM (Karlsruhe) und das Vitra Design Museum (Riehen). Malcolm Gompf stellte u.a. bei La Maison des Temps (Kauffenheim, Frankreich) und City&Arts (Baden-Baden) aus, experimentelle Fotoarbeiten von ihm waren im südfranzösischen Sète zu sehen. In diesem Podcast Gespräch tauchen wir tief in Malcoms individuelle Kreativität ein. Malcom hat vorab meinen Creative Profiling Fragebogen beantwortet. Seine Antworten waren die Basis für unser Gespräch. Dabei geht es um seine jeweilige individuelle Creative Person, Product, Process & Press. Kontakt zu Malcom Gompf: https://malcolmgompf.com/ * Wer interessiert daran ist, tiefgehend in die eigene Kreativität einzutauchen und ein Creative Profiling zu erleben, kann das hier buchen: https://www.juttakalliesschweiger.de/product-page/1-1-creative-profiling Alle Informationen zu mir, Jutta Kallies Schweiger, sind hier zu finden: https://www.juttakalliesschweiger.de
Das KI-basierte vialytics System vereinfacht dank aktueller Bilddaten und automatischer Auswertung den Arbeitsalltag in Kommunen von der Streckenkontrolle bis zum Erhaltungsmanagement. Städte und Gemeinden können so ihre Straßen digital und zeitsparend sicherer machen. vialytics arbeitet in Deutschland, Europa und den USA mit über 300 Partnerkommunen zusammen.
EvenUp, ein Legal-Tech-Start-up, hat in einer Serie-B-Finanzierungsrunde unter der Leitung von Bessemer Venture Partners unter Beteiligung von Bain Capital Ventures, Behance-Gründer Scott Belsky und dem Legal-Tech-Unternehmen Clio 50,5 Millionen US-Dollar eingesammelt.https://techcrunch.com/2023/06/08/evenup-wants-to-automate-personal-injury-settlements-to-a-point/ Forscher der Purdue University haben eine KI-gesteuerte Technologie entwickelt, die eine Smartphone-Kamera verwendet, um Erkrankungen wie Anämie zu erkennen und zu diagnostizieren.https://medicalxpress.com/news/2023-06-ai-driven-mobile-health-algorithm-camera.html Forscher vom MIT und IBM haben eine neue Technik zur Analyse unbeschrifteter Audio- und Bilddaten entwickelt, die die Leistung von Modellen für maschinelles Lernen verbessern könnte.https://news.mit.edu/2023/scaling-audio-visual-learning-without-labels-0605 NVIDIA hat seinen nächsten DGX-Supercomputer angekündigt, den DGX GH200, der Unternehmen bei der Entwicklung generativer KI-Modelle unterstützen soll.https://www.engadget.com/nvidias-next-dgx-supercomputer-is-all-about-generative-ai-043053544.html Visit www.integratedaisolutions.com
Talk mit Johannes Gritsch, Geschäftsführer und CCO bei synedra Schweiz In dieser Folge sprechen wir mit Johannes Gritsch, Geschäftsführer und CCO bei synedra über das Thema Datenmanagement im Spital. Er erklärt uns, welche Bedeutung das PACS als offenes, workflow-orientiertes System zur Abbildung durchgängiger radiologischer Abläufe hat und wie wichtig eine zentrale Datenverwaltung auch über die Grenzen der Radiologie hinaus ist, um medizinische Prozesse am Point of Care optimal zu unterstützen.
In der Medizin werden Bildanalysen von Gewebeproben immer wichtiger. Doch die Auswertung solcher unstrukturierter Bilddaten ist anspruchsvoll. Professionelle Lösungen zur Analyse unstrukturierter Daten können die Ärztinnen und Ärzte bei den Diagnosen unterstützen. Das Interview von Oliver Schonschek, News Analyst bei Insider Research, mit Wolfgang Mertz und Marten Neubauer von Dell Technologies liefert spannende Einblicke in die digitale Pathologie.
Bilder SEO ist in der Suchmaschinenoptimierung ein Teil der Onpage Optimierung, also der Arbeit am Website Content. Ziel ist es, mit seinen Bildern in den Suchergebnissen zu erscheinen. Hierfür müssen Bilddaten korrekt eingefügt werden. Das ist aber „nur“ die operative Arbeit und greift aus unserer Sicht zu kurz. Strategisches Bilder SEO setzt tiefer an: Hierbei geht es um die Frage, - wo man mit Bildern im Google-Universum sichtbar sein will - mit welchen Bilderwelten man sich im Wettbewerb durchsetzt - wie man diese Bilderwelten skalierbar entwickelt So viel vorab: Mit günstigen Stock-Fotos kann man das nicht erreichen. Große Chancen dagegen haben Unternehmen, die in eine einzigartige Bilderwelt investieren, die zu ihnen passt. Und die als Marke in ihrer Branche bekannt sind. Über den Link findest Du noch mehr Infos, Charts und Analysen: https://www.jaeckert-odaniel.com/wie-geht-strategisches-bilder-seo/?utm_source=podcatcher&utm_medium=referral Hier kannst du dich für unseren Newsletter anmelden: https://www.jaeckert-odaniel.com/newsletter/?utm_source=podcatcher&utm_medium=referral Bleibe auf LinkedIn mit uns in Kontakt: Fabian: https://www.linkedin.com/in/fabianjaeckert/ Benjamin: https://www.linkedin.com/in/benjamin-o-daniel/
Zusammen mit Microsoft, Nvidia und dem BMW-Unternehmen idealworks veröffentlichte der Autobauer SORDI (Synthetic Object Recognition Dataset for Industries), ein synthetisierter AI-Datensatz. Er besteht aus mehr als 800.000 fotorealistischen Bildern und Produktionsressourcen in 80 Klassen (wie z. B. Palette, Gitterbox, Gabelstapler). Außerdem umfasst der Datensatz Objekte von besonderer Relevanz in den Kerntechnologien des Automobilbaus und der Logistik. Im Podcast KI in der Industrie erklärt Jimmy Nassif von Idealworks: „Die integrierten Label ermöglichen als digitale Etiketten grundlegende Aufgaben der Bildverarbeitung wie Klassifizierung, Objektdetektion oder Segmentierung für relevante Bereiche der Produktion im Allgemeinen.“ Andere Unternehmen können Datensatz einsetzen, um ihre Modelle für die Produktion zu trainieren und Künstliche Intelligenz einzusetzen. Wir suchen einen neuen Podcast Partner - deshalb bitten wir um Hilfe: Wer wen kennt, gerne eine kurze Info an uns. Wer mehr über uns wissen will, der sollte unsere LinkedIn-Profile aufrufen. Wir nehmen auch gerne Themenwünsche und Ideen entgegen. Zu Julians Hauptberuf geht es hier https://pragmaticindustries.com/ Kontakt zu Dr. Julian Feinauer https://www.linkedin.com/in/julian-feinauer/ Kontakt zu Robert Weber https://www.linkedin.com/in/robert-weber-8920a448/
Open Source und KI kann man nicht voneinander trennen. Peter Seeberg spricht mit Jimmy Nassif über das Synthetic Object Recognition Dataset. Wir danken unserem neuen Partner Katulu https://katulu.io/de/ Kontakt zu unserem Gesprächspartner: https://www.linkedin.com/in/jimmy-nassif-muc/?originalSubdomain=de Zum Video: https://www.youtube.com/watch?v=iu625kWJtUA Noch mehr KI in der Industrie? https://kipodcast.de/podcast-archiv Oder unser Buch KI in der Industrie: https://www.hanser-fachbuch.de/buch/KI+in+der+Industrie/9783446463455
Interviewpartner Marcus Kremers ist ein Pionier der Digitalisierung und Vernetzung im Krankenhaus. Am Beispiel radiologischer Bilddaten zeigt er, wie einfach und schnell Teilprojekte, die auf Standardschnittstellen setzen, auch im Gesundheitswesen umgesetzt werden können. Die damit einhergehende Vernetzung schafft Geschwindigkeit, Transparenz und entlastet sogar das Personal bzw. amortisiert sich von selbst. Nicht jedes Projekt muss also langwierig, komplex und risikobehaftet sein. Show Notes Marcus Kremers auf LinkedIn: https://bit.ly/m-kremers MedEcon Telemedizin GmbH: https://www.medecon-telemedizin.de Medienpartner Exklusiver Medienpartner dieser Folge ist das Magazin Health & Care Management. LINKS Meine Webseite: https://www.DrHolldorf.de Regelmäßige Webinare zur Themen-Vertiefung: https://www.DrHolldorf.de/webinare Die Online-Akademie für ausländische Ärzte & Pflegekräfte sowie deren Arbeitgeber: https://www.Klinik-Kenner.de Wenn du im Bereich Auslandsrekrutierung erfolgreicher werden möchtest: https://www.DrHolldorf.de/auslandsrekrutierung Innovatives (hybrides) Führungstraining für die Oberarzt-Ebene: www.Klinik-Kenner.de/IFG Mein Buch "Weckruf für das Krankenhaus-Management" für Krankenhaus-Manager: https://www.DrHolldorf.de/weckruf Mein Buch "Gezwungen zu Spitzenleistungen" für Pflegemanager: https://www.DrHolldorf.de/spitze – Das dazugehörige Hörbuch kannst du dir aktuell und für kurze Zeit gratis sichern unter https://www.DrHolldorf.de/podcast Mein Buch "Auslandsrekrutierung" (branchenübergreifend): https://www.DrHolldorf.de/buch-alr Folge mir auf LinkedIn: https://www.linkedin.com/in/holldorf Folge mir auf XING: https://www.xing.com/profile/Lars_Holldorf Hier kannst du dich zu meinem Podcast-Letter anmelden:https://www.DrHolldorf.de/podcast Meine Bitte: Wenn dir diese Folge gefallen hat, hinterlasse mit bitte eine 5-Sterne-Bewertung, ein Feedback auf iTunes und abonniere diesen Podcast. Zeitinvestition: Maximal ein bis zwei Minuten. Nutze dafür einfach folgenden Kurz-Link: http://tiny.cc/fpka-bewertung Dadurch hilfst du mir, den Podcast immer weiter zu verbessern und dir die Inhalte zu liefern, die du dir wünscht. Herzlichen Dank dafür! Hinterlasse eine Bewertung und eine Rezension!
Für diese Folge der vDHd2021 Sonderstaffel haben wir mit Julien A. Raemy vom Data & Service Center for the Humanities (DaSCH) in Basel gesprochen. Nach seiner Vorstellung präsentiert uns Julien ab Minute 1:46 das Konzept für seinen vDHd2021-Beitrag: Das DaSCH hat die Software SIPI entwickelt – das ist ein IIIF-fähiger Webserver und diese Software will Julien auf der vDHd demonstrieren, die wesentlichen Funktionen erläutern und dann darüber diskutieren. “IIIF” steht für International Image Interoperability Framework und es handelt sich dabei um einen Standard zur Ausgabe von Bilddaten, der sich in den letzten Jahren zu einem der wichtigsten Datenstandards in den Digital Humanities überhaupt entwickelt hat. Die Shownotes zur Folge findest du hier: https://radihum20.de/sipi/
Thema heute: KIT: KI unterstützt Fachkräfte bei der Montage Künstliche Intelligenz (KI) macht es möglich, dass auch Maschinen Objekte erkennen können. Hierfür braucht es große Mengen an qualitativ hochwertigen Bilddaten, mit denen die Algorithmen manuell trainiert werden. Das am Karlsruher Institut für Technologie (KIT) entstandene Start-up Kimoknow hat eine Technologie entwickelt, um dieses Training zu automatisieren. „KI-Systeme für die Erkennung von Objekten zu trainieren, ist nach wie vor zeitaufwändig, unflexibel, teuer, stark umgebungsabhängig und erfordert einen hohen Rechenaufwand“, erklärt Kimoknow-Mitgründer Lukas Kriete. Das Start-up des KIT greift deswegen auf Bilddaten zurück, die bei computerunterstützten Entwicklungsprozessen (CAD) und im Produktionsdatenmanagement (PDM) ohnehin für alle Objekte entstehen. Sie geben unter anderem Aufschluss über Material, Geometrie und Position des jeweiligen Gegenstandes. Die CAD- und PDM-Daten werden extrahiert und für das automatisierte Training der KI genutzt. Das auf diese Weise geschulte Objekterkennungssystem kann vielfältig eingesetzt werden, unter anderem in Augmented Reality (AR)-Brillen. Sie erfassen relevante Gegenstände im Sichtfeld des Nutzers in Echtzeit und verfügen zudem über notwendige Kontextinformationen zum betreffenden Objekt. Kimoknow hat für solche AR-Brillen ein Assistenzsystem entwickelt, das Fachkräfte bei der Montage komplexer Geräte unterstützen soll. Der virtuelle Assistent führt Nutzerinnen und Nutzer durch den gesamten Montageprozess, visualisiert ohne zusätzliches Display Schritt für Schritt die Bauanleitung und zeigt so in welcher Reihenfolge welches Teil mit welchen Werkzeugen und Montagematerialien verarbeitet wird. Er wiederholt einzelne Schritte, wenn Fehler auftauchen, und dokumentiert den Prozess. Der Monteur hat beide Hände frei und kommuniziert über Blickkontakt, Handzeichen oder Sprachbefehl mit dem System. „Der Montageassistent macht den Prozess bei besserer Qualität effizienter, produktiver, schneller und kostengünstiger“, sagt Kriete. Der Assistent eignet sich für alle Industrien, in denen hochkomplexe Produkte in geringer Stückzahl hergestellt werden. Kimoknow ging am 13. Mai 2020 als Unternehmergesellschaft (haftungsbeschränkt) an den Start. Diesen Beitrag können Sie nachhören oder downloaden unter:
Ira Effenberger vom Fraunhofer IPA erklärt, wie Unternehmen von Bildverarbeitung und ML profitieren und wie sie die ersten Schritte gehen können. Wir sprechen über die Anzahl von Bildern, Daten, Punktwolken und über die Infrastruktur. Mehr Folgen zum Thema KI in der Industrie www.kipodcast.de Unser Buch https://www.hanser-fachbuch.de/buch/KI+in+der+Industrie/9783446463455 Kontakt zu unserer Gesprächspartnerin https://www.ipa.fraunhofer.de/de/Kompetenzen/bild--und-signalverarbeitung/3d-messen-und-erkennen/fitverfahren.html
Das Projekt „Medizin im digitalen Zeitalter“ beschäftigt sich mit der Frage, wie sich der Beruf des Arztes verändert und wie sich die Ausbildung daran anpassen muss. Leiter dieses Projektes ist Sebastian Kuhn, Oberarzt und Lehrbeauftragter am Zentrum für Orthopädie und Unfallchirurgie der Universitätsmedizin Mainz. Auch in der Medizin ist der beschleunigte technologische Fortschritt bemerkbar, denn in der medizinischen Praxis und Forschung kommen bereits diverse digitale Techniken zum Einsatz. Dazu zählen sowohl Daten- und Biobanken von Patienten, die mithilfe einer leistungsstarken Informationstechnologie ausgewertet werden können, als auch Bereiche wie eHealth oder mHealth (Mobile Health), also Smart-Systeme für elektronische Lösungen der Gesundheitsfürsorge auf mobilen Geräten. Durch Personalisierung, Robotik und Digitalisierung erschließen sich neue Wege in Diagnostik und Therapie. Die Telemedizin wird ein zunehmend wichtiger Lösungsweg, um auch zukünftig den hohen Versorgungsstandard aufrechterhalten und die Versorgung strukturschwacher Regionen gewährleisten zu können. Das neue Mainzer Curriculum zeigt Wege auf, wie digitale Kompetenzen in die Medizinerausbildung integriert werden können. Inhaltlich bilden Themen wie mHealth, Telemedizin und Möglichkeiten der digitalen Kommunikation die Schwerpunkte. Mittels innovativer Studien- und Lernformen wie beispielsweise problembasiertem kollaborativen Lernen oder Simulationstraining, entwickeln die Studierenden Fähigkeiten zur Kommunikation im digitalen Gesundheitswesen und für die digitale Arzt-Patienten-Beziehung, lernen den sicheren Einsatz von Social Media, den Transfer und die Befundung von telemedizinischen Bilddaten und mögliche Anwendungen von mHealth. Zudem werden ihnen die Prinzipien der Telekonsultation und deren Limitationen vermittelt und sie lernen das Potenzial und die Gefahren von Big Data sowie die Chancen und Risiken der Gesundheitskarte und kommerzieller Gesundheits-Apps kennen. Nicht zuletzt erhalten sie Einblicke in rechtliche, ethische und gesellschaftspolitische Rahmenbedingungen der digitalen Medizin.
Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) http://www.kit.edu/ erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik entwickelt. Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik. Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert. Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt. Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parataxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen. Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS) ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden. Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten. Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600x1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen. Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen. Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten. Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann. Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen. Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss. Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.Literatur und weiterführende Informationen D.Koester: A Guidance and Obstacle Evasion Software Framework for Visually Impaired People, Diplomarbeit an der Fakultät für Informatik, Karlsruher Institut für Technologie (KIT), 2013.D. Koester, B. Schauerte, R. Stiefelhagen: Accessible Section Detection for Visual Guidance, IEEE International Conference on Multimedia and Expo Workshops (ICMEW), 2013.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19
Die funktionelle Magnetresonanztomographie (fMRT) ist ein nicht-invasives Verfahren, das es ermöglicht, die Reizverarbeitung im Gehirn zu visualisieren. Für die statistische Analyse der Daten werden standardmäßig hypothesengeleitete Auswerteverfahren auf Basis des allgemeinen linearen Modells (general linear model, GLM) verwendet. Da der Signalanstieg in den Arealen sehr gering ist, muss, um in einem Experiment, das mit der Methode des GLMs ausgewertet werden soll, die Ruhe- und Aktivitätsbedingung mehrere Male wiederholt werden, um das erhaltene Signal besser vom Hintergrundrauschen trennen zu können. In bestimmten Fällen neuronaler Aktivität kann ein Stimulus nicht mehrere Male wiederholt werden, zum Beispiel nach Präsentation eines Reizes durch den ein sensorisches System für längere Zeit verändert wird (z.B. durch Adaptation). Die Methode der Independent Component Analysis (ICA) ist ein datengeleitetes Auswerteverfahren, das es ermöglicht Bilddaten so auszuwerten, dass a priori keine Hypothese über den Verlauf der Zeitkurve oder die Signalintensität bekannt sein muss. In dieser Arbeit konnte gezeigt werden, dass die ICA als datengeleitete Analysemethode reliable Ergebnisse sowohl im Bereich der trigeminalen Stimulation in fMRT Experimenten, als auch im relativ neuen Forschungsfeld der pharmakologischen Stimulation in der funktionellen Bildgebung liefert. Das Auswerteverfahren der ICA stellt somit eine vielversprechende Bereicherung der fMRT-Methodik dar.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Das Ziel der vorliegenden Arbeit ist die Entwicklung von dreidimensionalen Bildverarbeitungsmethoden zur in-vivo-Analyse der Biomechanik des Kniegelenks auf der Basis magnetresonanztomographischer Bilddaten. Die Verwendung eines offenen Magnetresonanztomographen ermöglicht die Generierung von Bilddatensätzen des Kniegelenks sowohl in unterschiedlichen Flexionsstellungen als auch bei gleichzeitiger Aktivierung der Beinmuskulatur. Nach Segmentierung und dreidimensionaler Rekonstruktion von Femur, Tibia und Patella können durch Einführung eines Tibiaplateau-basierten Koordinatensystems und die Berechnung einer epikondylären Achse für das Femur femoro-tibiale Translation und Rotation analysiert werden. Ein Patella-basiertes Koordinatensystem und femorale Referenzpunkte ermöglichen eine Analyse der Patellakinematik. Zudem können mittels Triangulierung segmentierter Kontaktstrecken die Größen der femoro-tibialen und femoro-patellaren Knorpelkontaktflächen bestimmt werden. Nach einer Studie zur Intra-Untersucher-Reproduzierbarkeit wird die Biomechanik im Kniegelenk in einer klinischen Studie untersucht. Verglichen werden die femoro-tibialen Translations- und Rotationsmuster, die Patellakinematik und die Größen der femoro-tibialen und femoro-patellaren Knorpelkontaktflächen einer gesunden Probanden-Gruppe, mit den Ergebnissen einer Gruppe von Patienten mit schwerer Gonarthrose. Die entwickelten Methoden erwiesen sich als sehr reproduzierbar und genau. Es konnte gezeigt werden, dass Dorsaltranslation und Außenrotation des Femur bei Knieflexion von 0° auf 90° bei schwerer Gonarthrose deutlich verringert sind. Zusätzlich kommt es bei den Arthrose-Patienten während der Knieflexion zu einer Zunahme des Patella-Tilt und des Patella-Shift nach lateral. Die Analyse der Kontaktflächen zeigte, dass es bei schwerer Gonarthrose zu einer ausgeprägten Vergrößerung der femoro-tibialen und femoro-patellaren Knorpelkontaktflächen kommt. Die entwickelten Methoden können damit zum Verständnis von Entwicklung und Verlauf von Kniegelenkserkrankungen wie der Gonarthrose beitragen.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 02/06
Der Aufbau des Zellkerns und die höheren Organisationsmuster von Chromosomen gehorchen Regeln, die bisher in menschlichen Zellen und Zellen einiger Primaten bestätigt werden konnten. In dieser Arbeit sollte an einem anderen Säuger, der Maus, untersucht werden, in wie weit sich die bisher gewonnenen Erkenntnisse auch auf den molekularbiologisch intensiv studierten Modellorganismus der modernen Genomforschung übertragen lassen. Besonders interessant ist die Frage, weil der Karyotyp der Maus nur akrozentrische Chromosomen enthält und viel homogener in Bezug auf Chromosomengröße und Gendichte ist, als der Karyotyp des Menschen oder verschiedener Primaten. Die letzten gemeinsamen Vorfahren von Mäusen und Menschen lebten vor über 80 Mio. Jahren, in dieser Zeitspanne fanden die zahlreichen Veränderungen am Genom der Maus statt. Die vorliegende Arbeit untersucht, ob Gemeinsamkeiten in Bezug auf die Organisation des Chromatins nachzuweisen sind und ob evolutionär konservierte Organisationsmuster zu finden sind. Die quantitative Untersuchung der Topologie von Chromosomenterritorien und Zentromerregionen erfolgte mit Fluoreszenz-in-situ-Hybridisierung auf Zellkernen von vier Zelltypen der Maus. Auf Kerne von Lymphozyten, Fibroblasten, ES-Zellen und Makrophagen wurden die Territorien von sechs Chromosomen mittels Chromosomen-Paint-Sonden hybridisiert. Das ausgewählte Chromosomenset enthielt genreiche, genarme, große und kleine Chromosomen in verschiedenen Kombinationen. Bilddaten wurden mit einem konfokalen Laser-Scanning-Mikroskop aufgenommen und einer digitalen quantitativen Bildanalyse unterzogen. In allen Mauszelltypen zeigten sich klare Korrelationen zwischen sowohl Gengehalt als auch Größe und radialer Verteilung von Chromosomenterritorien. Bei kugeligen Lymphozytenkernen korreliert die Gendichte stärker mit der radialen Verteilung als es die Chromosomengrößen tun. In Fibroblasten sind beide Korrelationen schwächer, aber nachweisbar, in ES-Zellen sind die Korrelationskoeffizienten wieder etwas höher und für beide Verteilungsmodelle gleich, in Makrophagen überwiegt die größenabhängige Verteilung der Chromosomenterritorien. Das genreichste Chromosom MMU 11 zeigt in den Lymphozyten die meisten Unterschiede zu anderen Chromosomenterritorien, während sich das genarme MMU X in den untersuchten männlichen ES Zellen durch seine extreme Randlage von den anderen unterscheidet. Innerhalb der Fibroblasten und Makrophagen gibt es vergleichsweise wenig signifikante Unterschiede zwischen den radialen Positionen der untersuchten Chromosomenterritorien. Zelltypspezifische Verlagerungen von Chromosomenterritorien zeigten sich auch nach einem Differenzierungsschritt von ES-Zellen zu Makrophagen. Die Lage der Chromozentren ist zelltypspezifisch. Im Gegensatz zu den untersuchten Chromosomenterritorien liegen die Chromozentren in Fibroblasten und Makrophagen in relativ zentralen Positionen. In Lymphozyten sind die Chromozentren am weitesten nach außen zum Zellkernrand gelangt, gefolgt von den ES-Zellen. Die Anzahl der Chromozentren ist ebenfalls zelltypspezifisch. Ausgehend von der Chromozentrenzahl in ES Zellen nimmt die Zahl der Chromozentren in differenzierteren Zellen zu (Lymphozyten, Fibroblasten) oder bleibt gleich (Makrophagen). Aufgrund der Ergebnisse lässt sich ausschließen, dass die äußere Form des Zellkerns alleine für die beobachteten Verteilungsunterschiede verantwortlich ist. Allerdings waren die beobachteten Unterschiede kleiner als bei vergleichbaren menschlichen Zelltypen. Mit ein Grund dafür ist sicher die geringere Variabilität der Chromosomengröße und Gendichte im Genom der Maus. Zellkernvolumina lagen zwischen 470 und 650 µm3. Lymphozyten besitzen im Durchschnitt die kleinsten Kerne der zyklierenden Zelltypen, ES-Zellen die größten. Makrophagen befanden sich in der G0-Phase, ihre Zellkerne waren am kleinsten und wiesen die geringste Standardabweichung auf. Die Analyse der Winkel und Abstände innerhalb der Chromosomenterritorien zeigte eine sehr flexible Positionierung innerhalb der Grenzen radialer Ordnungsprinzipien. Diese Resultate sind unvereinbar mit einem früher vorgeschlagenen Modell der Trennung des parentalen Genoms. Es gibt keine Hinweise für eine Abweichung von einer zufälligen Verteilung, von einer Häufung nahe beieinanderliegender MMU 1 Homologen in Makrophagen abgesehen. Zur Untersuchung der Struktur von Chromosomenterritorien wurden Programme angewandt, bei denen steigende Schwellwerte zu Zerfällen von Objekten führten, die analysiert wurden. Zwei unabgängige Methoden zur Berechnung von Objektzahlen in Bildstapeln führten zu gleichen Ergebnissen. Mit dem Programm OC-2 konnten Unterschiede in der Textur von Chromosomenterritorien bei der Maus innerhalb eines Zelltyps, als auch zwischen Zelltypen festgestellt werden. Dabei wurden die individuellen Chromosomengrößen mit berücksichtigt. Es konnte kein allgemeiner Zusammenhang zwischen den durchschnittlichen maximalen Objektzahlen und dem Gengehalt der entsprechenden Chromosomen festgestellt werden, vielmehr scheint die Textur des Chromatins von noch unbekannten, zelltypspezifischen Faktoren beeinflusst zu sein. Die Analyse der Chromatinstruktur in normalen menschlichen Zelltypen und in Tumorzelllinien mit dem Objektzählprogramm OC-2 ergab allgemein erhöhte Objektzahlen in Tumorzellen, verglichen mit normalen Zelltypen. Davon unabhängig waren auch immer die genreichen HSA 19 durch höhere Objektzahlen charakterisiert als die etwas größeren genarmen HSA 18 in den selben Zell-typen. Vergleiche zwischen den Objektzahlen eines Chromosoms in normalen Zelltypen und Tumorzelllinien ergaben mehr Unterschiede, als Vergleiche nur innerhalb der normalen Zelltypen. Die hier untersuchten Tumorzelllinien weisen eine objektreichere Chromatinstruktur auf, als die ihnen gegenübergestellten normalen Zelltypen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die Bildfusion ist eine Methode der Nachverarbeitung radiologischer oder nuklearmedizinischer Bilddaten, die es erlaubt, die sich ergänzenden Informationen verschiedener bildgebender Untersuchungen zu kombinieren. Ein Ziel der Arbeit war die Entwicklung eines universell anwendbaren Fehlermodells, das eine Berechnung der Bildfusionsgenauigkeit ermöglicht. Im zweiten Teil wurde das erarbeitete Fehlerberechnungsmodell für den Vergleich der beiden am besten etablierten automatischen Bildfusionsverfahren mit einer manuell durchgeführten Bildfusion von T1-gewichteter MRT und ECD-Perfusions-SPECT Daten eingesetzt. Der Methodenvergleich hat die Überlegenheit der manuellen Bildfusion gegenüber den automatischen Ansätzen belegt: Sowohl die erzielbare Genauigkeit mit einer Intraobservervariabilität von 1,5 Millimetern, als auch der Zeitaufwand von insgesamt durchschnittlich 11 Minuten sprechen für die manuelle Bildfusion. Die automatischen Methoden, das surface matching nach Pelizzari und das pixel uniformity matching nach Woods, wiesen einen größeren Fehler von 2,9 bzw. 2,2 Millimetern auf, in Einzelfällen traten hier grobe Fusionsfehler mit Rotationsfehlstellungen von > 30 Grad auf. Die eigenen Ergebnisse werden mit Literaturangaben verglichen, prinzipielle Schwächen der automatischen Fusionsverfahren werden erläutert.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Ziel. Thema der vorliegenden Arbeit ist die Untersuchung der zerebralen Schmerzverarbeitung. Mit der Methode der funktionellen Magnetresonanztomographie sollten Kortexareale lokalisiert werden, die bei thermischer Schmerzreizung am linken Vorfuß eine Aktivitätszunahme zeigen. Ziel war es, diese unter standardisierten Bedingungen reproduzierbar nachzuweisen und damit die Voraussetzung zu schaffen, Veränderungen dieser Aktivierungen bei Sauerstoff- und Analgetikagabe zu erfassen. Methodik. Zunächst wurden die physikalischen Grundlagen der Bilderzeugung mittels Magnetresonanztomographie vorgestellt. Dabei wurde insbesondere auf die funktionelle Bildgebung und die zugrunde liegende Physiologie eingegangen. Im speziellen Methodikteil wurden das untersuchte Kollektiv (6 gesunde Probanden) und der Versuchsablauf beschrieben. An einem 1,5 Tesla Magnetresonanztomographen wurden mit Hilfe von T2*-gewichteten Sequenzen funktionelle Bilddaten der Probandengehirne bei schmerzhafter und neutraler thermischer Stimulation am linken Fußrücken aufgezeichnet. An vier der Probanden wurden diese Messungen jeweils viermal wiederholt, um schmerzspezifische zerebrale Aktivierungen zu erfassen und deren intra- und interindividuelle Variabilität zu überprüfen. Im Anschluss wurden diese funktionellen Messungen an allen Probanden ohne und mit Gabe von Sauerstoff durchgeführt, um einen denkbaren negativen Effekt der bei Analgetikagabe erforderlichen Sauerstoffapplikation auf die Darstellung der zerebralen Aktivierungen auszuschließen. Damit waren die Voraussetzungen geschaffen, die Auswirkungen von Schmerzmedikamenten auf die zerebrale Aktivität bei Schmerzreizen zu untersuchen. In einem Pilotversuch wurde die beschriebene Messmethodik bei drei Probanden unter Gabe von Remifentanil, Metamizol und Kochsalzlösung in randomisierter Abfolge eingesetzt. Die Auswertung der funktionellen Bilddaten erfolgte anhand des General Linear Model (Softwarepaket FSL). Hiermit konnten sowohl individuelle zerebrale Aktivierungen erfasst, als auch Gruppenanalysen durchgeführt werden. Ergebnisse. Bei den Experimenten zur Lokalisation der zerebralen Aktivierungen konnten bei schmerzhafter Stimulation aktivierte Areale am häufigsten im frontalen Operculum und benachbarten Inselkortex, im dorsolateralen präfrontalen Kortex, im Gyrus frontalis medius, im anterioren Cingulum und im parietalen Operculum/SII Kortex nachgewiesen werden. Weniger häufig konnten Aktivierungen im primären somatosensorischen Kortex, im Thalamus, im Temporallappen, in den Basalganglien und im Hirnstamm nachgewiesen werden. Diese waren meist beidseits vorhanden, zeigten jedoch eine Betonung der kontralateral zur stimulierten Körperhälfte gelegenen Hirnhemisphäre. Im Vergleich mit der Neutralmessung stellten sich die aktivierten Areale im frontalen Operculum und der vorderen Inselregion, im anterioren Cingulum und in den Basalganglien als schmerzspezifisch dar. Die Aktivierungen im parietalen Operculum/SII Kortex konnten erst bei niedrigerem Signifikanzniveau nachgewiesen werden. Der interindividuelle Vergleich zeigte bei zwei der Probanden eine gute Übereinstimmung mit den zerebralen Aktivierungen der Gesamtgruppe. Zwei weitere Probanden wiesen jedoch ein deutlich unterschiedliches Aktivierungsmuster auf. Bei der intraindividuellen Analyse zeigte sich eine gute Reproduzierbarkeit der aktivierten Areale. Bei den Experimenten mit Sauerstoffgabe konnte ein negativer Effekt auf die Darstellung der zerebralen Aktivierungen ausgeschlossen werden. Bei Gabe von Remifentanil konnte der aus der klinischen Erfahrung bekannte ausgeprägte analgetische Effekt der Substanz beobachtet werden. In der funktionellen MRT ließen sich nach Gabe von Remifentanil keine zerebralen schmerzspezifischen Aktivierungen darstellen. Allerdings ergaben Kontrollmessungen bei visueller Stimulation ebenfalls eine Abnahme der zerebralen Aktivierungen. Bei Gabe von Metamizol konnte unter den gewählten Versuchsbedingungen kein analgetischer Effekt registriert werden. Als Erklärung kommt einerseits die niedrig gewählte Dosierung, andererseits die Pharmakokinetik der Substanz in Betracht. Eine Änderung des zerebralen Aktivierungsmusters konnte bei den drei untersuchten Probanden nicht objektiviert werden. Schlussfolgerung. Mit der funktionellen Magnetresonanztomographie war es möglich, durch Schmerzreize ausgelöste zerebrale Aktivierungen darzustellen. Diese Daten können als Grundlage für weitere Experimente mit schmerzmodulierenden Medikamenten dienen. Die gewählten Rahmenbedingungen der fMRT-Messungen gewährleisten die notwendige Sicherheit der Probanden während der Applikation von Schmerzmedikamenten, ohne die Darstellbarkeit der zerebralen Aktivierungen zu beeinträchtigen. Aussagen über die Wirkung von opioidartigen und nichtopioidartigen Analgetika müssen jedoch noch an einer größeren Gruppe von Probanden evaluiert werden.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
In der vorliegenden Arbeit wurden verschiedene Fragestellungen zur funktionellen und dynamischen Organisation des Kerns von Säugerzellen untersucht. Der erste Teil der Arbeit widmete sich der Frage, in welchem Zusammenhang die Synthese naszenter RNA mit der Organisation des Chromatins im Zellkern steht. Dabei wurde speziell untersucht, ob naszente RNA bevorzugt in chromatinarmen Räumen lokalisiert, wie es das Chromosomen-Territorien/Interchromatin-Kompartiment Modell (CT/IC-Modell)(Cremer und Cremer, 2001) vorhersagt. Diese Untersuchungen wurden an HeLa-Zellen durchgeführt, die stabil eine Fusion zwischen dem „Green Fluorescent Protein” (GFP) und dem Histon H2B exprimierten (Kanda et al., 1998). Mit Hilfe dieses Fusionsproteins kann die Chromatinstruktur sehr gut dargestellt werden (Sadoni et al., 2001; Zink et al., 2003). Die naszente RNA wurde in diesen Zellen durch kurze Pulse von BrUTP markiert, das anschließend durch eine Immunfärbung nachgewiesen wurde. Die markierten Zellen wurden mit Hilfe hochaufl ösender konfokaler Laserscanning Mikroskopie aufgenommen. Für die Analyse der Bilddaten wurde eine Erosionsmethode entwickelt, welche die Auswertung der Daten unabhängig von subjektiv gewählten Schwellenwerten ermöglichte. Die Ergebnisse dieser Analysen zeigten keine bevorzugte Lokalisierung naszenter RNA in chromatinarmen Bereichen. Damit stützen die Ergebnisse nicht die entsprechenden Vorhersagen des ICD-Modells. Die hier gewonnenen Ergebnisse stehen nicht im Einklang mit den Ergebnissen anderer Studien (Politz et al., 1999; Verschure et al., 1999). Die unterschiedlichen Ergebnisse sind wahrscheinlich auf unterschiedliche Methoden zur Darstellung der Chromatinorganisation, beziehungsweise auf unterschiedliche Methoden zur Bildanalyse zurückzuführen. Eine weitere Fragestellung, die im Zusammenhang mit der dynamischen Organisation der RNA-Synthese und RNA-Prozessierung in der vorliegenden Arbeit untersucht wurde, war wie das Spleißfaktor-Kompartiment mit Chromatin interagierte. Diese Interaktion sollte in lebenden „Chinesischen Hamster Ovarien” (CHO)-Zellen untersucht werden. Speziell sollte der Frage nachgegangen werden, ob das Spleißfaktor-Kompartiment unterschiedlich mit funktionell unterschiedlichen Chromatinfraktionen assoziiert ist. Dafür wurde die DNA dieser Chromatinfraktionen mit Hilfe von Cy3-dUTP (Zink et al., 1998; Zink et al., 2003) spezifisch markiert. Das Spleißfaktor-Kompartiment der lebenden Zellen wurde simultan mit einem hier lokalisierenden GFP-Fusionsprotein dargestellt (freundlicherweise zur Verfügung gestellt von Dr. M. C. Cardoso, MDC, Berlin). Die so markierten lebenden Zellen wurden mit Hilfe der konfokalen Laserscanning Mikroskopie aufgenommen. Die Auswertung der Bilddaten ergab eine generelle enge Assoziation des Spleißfaktor-Kompartiments mit früh-replizierendem und transkriptionell aktivem Chromatin. Dagegen bestand eine solche Assoziation nicht mit spät-replizierendem und transkriptionell inaktivem Chromatin. Eine Behandlung der Zellen mit dem Transkriptions-Inhibitor α-Amanitin zeigte, dass die enge Assoziation des Spleißfaktor-Kompartiments mit früh-replizierendem und transkriptionell aktivem Chromatin direkt vom Prozess der Transkription abhängig war. Insgesamt zeigten die Daten zum ersten Mal, dass es in lebenden Zellen eine definierte Interaktion des Spleißfaktor-Kompartiments mit funktionell unterschiedlichen Chromatinfraktionen gibt, die abhängig ist vom Prozess der Transkription. Ein weiterer dynamischer Prozess im Zellkern, der in der vorliegenden Arbeit an lebenden HeLa-Zellen untersucht werden sollte, war der Prozess der DNA-Replikation. Von besonderem Interesse war hierbei die Frage, welchen dynamischen Reorganisationen die DNA während der S-Phase unterliegt. Daneben sollte auch untersucht werden, wie der spezifische zeitlich-räumliche Verlauf der S-Phase in Säugerzellen koordiniert wird. Zur Untersuchung dieser Fragen wurde die zu replizierende oder die naszente DNA lebender Zellen mit fluoreszensmarkierten Nukleotiden dargestellt. Simultan wurde die Replikationsmaschinerie mit Hilfe eines GFP-PCNA Fusionsproteins markiert (freundlicherweise zur Verfügung gestellt von Dr. M. C. Cardoso, MDC, Berlin). Diese Markierungstechniken erlaubten es zum ersten Mal, direkt die Interaktionen von replizierender DNA und der Replikationsmaschinerie zu beobachten und zu analysieren. Die Ergebnisse zeigten, dass die DNA während der S-Phase keine großräumigen Umlagerungen erfuhr. Nur einige lokal begrenzte Reorganisationen wurden beobachtet, die sich innerhalb von Distanzen von weniger als 1 µm abspielten. Die Ergebnisse zeigten ferner, dass DNA in stabile Aggregate organisiert war, die den Replikationsfoci entsprachen. 85 % dieser Aggregate, die auch als subchromosomale Foci bezeichnet werden (Zink et al., 1998), behielten ihren Replikationszeitpunkt von S-Phase zu SPhase stabil bei. Während des zeitlichen Fortschreitens der S-Phase schritt die Replikationsmaschinerie sequentiell durch benachbarte Gruppen von subchromosomalen Foci. Diese besaßen einen definierten Replikationszeitpunkt, und lokalisierten an de- finierten Positionen im Zellkern. Diese Ergebnisse legten nahe, dass die spezifische Anordnung von subchromosomalen Foci im Kern, die während der frühen G1-Phase etabliert wird (Dimitrova und Gilbert, 1999; Ferreira et al., 1997; Sadoni et al., 1999), die räumlich-zeitliche Organisation der S-Phase determiniert.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Im Zeitraum von Mai 1999 bis Juni 2000 untersuchten wir im Institut für Klinische Radiologie der Universität München am Klinikum Großhadern 156 Patienten mit Verdacht auf Lungenembolie mit der Mehrzeilenspiralcomputertomographie. Ziel dieser Untersuchung war es, bisher angeführte Einschränkungen für die Aussagekraft der MSCT in der Lungenemboliediagnostik auf der Subsegmentarterienebene zu widerlegen. Die Patienten wurden mit 1 mm dicken Schichten untersucht, die Bilddaten wurden mit 1 mm-, 2 mm- und 3 mm-Schichtdicke rekonstruiert und die resultierenden Bilder von drei erfahrenen Radiologen beurteilt. Alle Subsegmentarterien der Patienten wurden von den Radiologen mit jeweils allen Schichtdicken auf das Vorliegen von Embolien beurteilt und die Befundungsergebnisse miteinander verglichen. Dabei ergab sich in der Inter-Observer-Korrelation (als Maß für die Übereinstimmung der Untersuchungsergebnisse unter verschiedenen Beobachtern) der Auswertungsergebnisse ein Wert kc = 0,87 für die 1 mm-Schichten, kc = 0,85 für die 2 mm-Schichten und kc = 0,67 für die 3 mm messenden Schichten. Die Verwendung von 1 mm-Schichtdicken verbesserte die Erkennung von Subsegmentarterienembolien um 40 % gegenüber den 3-mm CT-Bildern, und um 14 % gegenüber jenen mit 2 mm. Die Anzahl der "nicht sicher zu beurteilenden Fälle" reduzierte sich um 70 % bei der 1 mm-Untersuchung im Vergleich mit den 3 mm-Schichten. Die Ergebnisse wurden mit einem Alpha-Level von 0,05 statistisch aufbereitet. Als Irrtumswahrscheinlichkeitsniveau wurde p < 0,0125 für die verschiedenen Schichten festgelegt. Die vorliegende Studie zur Diagnostik der Lungenembolie auf der Ebene der Subsegmentarterien stellt dar, dass die Mehrzeilenspiralcomputertomographie hervorragend geeignet ist, diese Embolien reproduzierbar abzubilden. Konkurrierende Untersuchungsmethoden sind im Vergleich in der überwiegenden Mehrzahl der Fälle der Mehrzeilenspiralcomputertomographie mit 1 mm-Schichten deutlich unterlegen. Die Mehrzeilenspiralcomputertomographie stellt momentan eine der empfindlichsten, sichersten, patientenschonendsten, kostengünstigsten und am besten reproduzierbaren Nachweismethoden für die Diagnostik der Lungenembolie bis hin zur Subsegmentalgefäßebene und des nachgeschalteten Lungenstromgebiets dar.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Degenerative Gelenkerkrankungen (Osteoarthrose) gehören zu den am weitesten verbreiteten chronischen Erkrankungen der älteren Bevölkerungsschicht. Die vorliegende Arbeit hatte zum Ziel, Bildverarbeitungsmethoden zu entwickeln, die eine frühzeitige Diagnose degenerativer Veränderungen des Knorpels oder eine Prognose über die Erkrankungswahrscheinlichkeit bzw. ihren Verlauf ermöglichen. Dies ist notwendig, um rechtzeitig mit einer geeigneten Therapie beginnen zu können. Dreidimensionale Rekonstruktion der Knorpelplatten aus MRT-Schichtbildern Als erster Schritt wurde eine Technik für die 3D-Rekonstruktion der Knorpelplatten aus den segmentierten Schichtbildern entwickelt. Das rekonstruierte Knorpelmodell bietet die Möglichkeit, die Gelenkflächengröße und die Größe der Knorpelknochengrenze exakt und reproduzierbar zu ermitteln. In der Gelenkflächengröße wird ein wichtiger Parameter für die Lastverteilung innerhalb der Gelenke gesehen. Zum anderen dient sie als Basis zur ortsaufgelösten Berechnung und Visualisierung der Gelenkflächenkrümmung und Signalintensität. Die Methode zur 3D-Rekonstruktion lässt sich in verschiedene Phasen unterteilen. In der ersten Phase werden die Konturen des segmentierten Bereiches jeder Schicht berechnet und die Reihenfolge der einzelnen Konturpunkte im mathematisch positiven Sinn geordnet. Unter Verwendung von "a priori"-Wissen über die Knorpelform wird die Gesamtkontur jeder Schicht in einen Gelenkflächen- und einen Knorpelknochengrenzen- Anteil unterteilt. Die Konturen, die gemeinsam einer Knorpelfläche (Gelenkfläche oder Knorpelknochengrenze) zugeordnet wurden, werden über ein Dreiecksnetz zu einem dreidimensionalen Modell der Fläche verbunden. Das Dreiecksnetz kann in unterschiedlichen Auflösungen erzeugt werden, je nachdem ob jeder Konturpunkt in dieses Netz einbezogen oder eine vom Benutzer definierte Anzahl übersprungen wird. Dadurch wird eine Glättung der Oberfläche möglich. Durch Summation der einzelnen Dreiecksflächen wird die Gesamtgröße der beiden Knorpelflächen berechnet. Die Bestimmung der Gelenkflächen- und Knorpelknochengrenzengröße wurde an verschiedenen Testkörpern (Kugel, Zylinder, Ebene) validiert. Die Abweichung von der theoretischen Flächengröße der Testkörper lag zwischen 0 und 4%. Die Präzision (CV%) der Messung verschiedener Gelenkflächen des Kniegelenks bei 14 Probanden (WE-FLASH Sequenz, Auflösung 1;5x0;31x0;31mm3, 4-fach Messung) lag zwischen 2,0 und 3,6 %. Es ergab sich ein Verhältnis zwischen der biologischen Variabilität und dem Messfehler von 3,7:1 (Patella, Knorpelknochengrenze) bis 7,7:1 (Femur, Knorpelknochengrenze). Dies zeigt, dass mit der Methode verlässlich zwischen Individuen mit großen und kleinen Gelenkflächen unterschieden werden kann. Der Vorteil dieses Verfahren gegenüber vergleichbaren Ansätzen besteht darin, dass der segmentierte Bereich automatisch in einen Gelenkflächen- und Knorpelknochengrenzen-Anteil aufgeteilt wird. Auf dieseWeise wird eine getrennte Analyse beider Flächenanteile möglich. Die 3D-Rekonstruktion ist weitgehend unabhängig von der ursprünglichen Schichtorientierung und ermöglicht somit morphologische Untersuchungen der Gelenkfläche, wie z.B. eine Krümmungsanalyse. Krümmungsanalyse des Gelenkknorpels In einem nächsten Schritt wurden Techniken für eine Analyse der Gelenkflächenkrümmung entwickelt. Die Krümmung dient als Maß zur Beurteilung von Inkongruenzen zwischen patellofemoraler bzw. tibio-femoraler Gelenkfläche. Da das Ausmaß der Inkongruenz zwischen zwei Gelenkflächen Einfluss auf die Größe der Kontaktfläche zwischen diesen hat, wird hierdurch die Lastverteilung im Gelenk entscheidend bestimmt. Es wurde eine regionale Gaußsche und eine indirekte Krümmungsanalyse entwickelt. Um die Gaußsche Krümmungsanalyse durchzuführen, wurde eine B-Spline-Fläche durch definierte Oberflächenpunkte des 3D-Modells der Gelenkfläche interpoliert. Da für die B-Spline-Fläche eine mathematische Beschreibung existiert, war eine Bestimmung der beiden Hauptkrümmungen jedes Punktes auf der Fläche möglich. Auf diese Weise konnte für jeden Flächenpunkt die mittlere, maximale, minimale und Gaußsche Krümmung berechnet werden. Die Verfahren wurde an 5 Testkörpern mit bekannten Krümmungseigenschaften (Kugel, Zylinder, Ebene, Paraboloid, Hyperbolisches Paraboloid) validiert. Die maximale Abweichung vom theoretischen Krümmungswert betrug ca. 2%. Die Präzision [1m] der Gaußschen Krümmungsanalyse an den Kniegelenken gesunder Probanden lag zwischen 2,9 und 10,5 1m. Ergänzend zur exakteren Gaußschen Krümmungsanalyse wurde die indirekte Krümmungsanalyse entwickelt. Hierbei wurde durch eine Flächenexpansion des 3D-Modells die relative Flächenvergrößerung berechnet. Auf Basis dieser relativen Änderung wurde eine Krümmungsmaßzahl bestimmt. Die Anwendung auf Testkörper zeigte, dass dieses Verfahren eher eine qualitative Aussage über die Gesamtkrümmung einer Fläche liefert und daher eine exakte Gaußsche Analyse vorzuziehen ist. Das in dieser Arbeit entwickelte Gaußsche Verfahren zur Krümmungsbestimmung von Gelenkflächen hat das Potential, ein quantitatives Maß der Inkongruenz von Gelenken zu liefern. Dadurch wird es möglich, Punkte maximaler Belastung zu ermitteln, was Hinweise auf die Initiation und Progression von Knorpelschäden liefern kann. Darüberhinaus kann ein Zusammenhang zwischen der lokalen Belastung und daraus folgenden biochemischen Eigenschaften des Knorpels hergestellt werden. Globale und regionale Signalintensitätsanalyse In einem dritten Schritt wurden die Voraussetzungen für eine detailierte Strukturanalyse des Knorpelgewebes mit der MRT geschaffen. Zu diesem Zweck wurde ein Verfahren entwickelt, mit dem sich die globale und regionale Signalintensität spezieller MRT-Sequenzen quantitativ und visuell (projiziert auf das 3D-Knorpelmodell) auswerten lassen. Je nach MRT-Sequenz lassen sich potentiell Aussagen über den Wasser-, Kollagen- oder Proteoglykangehalt des Knorpels in unterschiedlichen Regionen treffen. Dazu wird der segmentierte Knorpel automatisch in eine vom Benutzer definierte Anzahl von Tiefenzonen (Oberfläche - Knorpelknochengrenze) und Regionen (z.B. medial - lateral) eingeteilt. Die Signalintensität kann global über den gesamten Knorpel oder regional in den Tiefenzonen und Regionen ausgewertet werden. An 15 Probanden wurde für die Protonendichte ein signifikant (p < 0,001) höherer Wert des patellaren Knorpels gegenüber der lateralen Tibia festgestellt. Insgesamt konnte eine hohe Variabilität zwischen den Probanden beobachtet werden. Zwischen den männlichen und weiblichen Probanden ergab sich kein signifikanter Unterschied. Die Variation zwischen den Schichten war geringer als diejenige zwischen verschiedenen Individuen. Beim MT-Koeffizienten war eine signifikant niedrigere Signalintensität (p < 0,01) des Knorpels der medialen Tibia gegenüber der Patella und der lateralen Tibia zu beobachten. Es wurde ebenfalls eine hohe inter-individuelle Variabilität festgestellt. Auch beim MT-Koeffizienten war die Variation zwischen den Schichten geringer als diejenige zwischen verschiedenen Individuen. An 3 Probanden und 3 Präparaten wurde eine regionale Signalintensitätsanalyse der Protonendichte und einer Wasseranregungssequenz durchgeführt. Die Analyse der Protonendichte in den Tiefenzonen des Knorpels der Probanden ergab eine erwartete Abnahme hin zu tiefer gelegenen Knorpelbereichen. Insgesamt konnten konsistente Ergebnisse bei den untersuchten Probanden und Präparaten festgestellt werden. Sowohl die inter-individuellen Unterschiede als auch die signifikanten Unterschiede zwischen einzelnen Knorpelplatten korrelieren mit Ergebnissen aus der Literatur. Diese könnten in Zusammenhang mit unterschiedlichen mechanischen Belastungen der einzelnen Knorpelplatten stehen. Die konsistente Signalintensitätsverteilung bei den Probanden und Präparaten unterstützt die Vermutung, dass tatsächlich bestimmte Strukturkomponenten des Knorpels durch diese erfasst werden. Basierend auf den entwickelten Methoden sind verschiedene Untersuchungen zu den folgenden Themenkomplexen möglich: - Untersuchung funktioneller Anpassungsprozesse. - Dokumentation von Altersveränderung in der Knorpelzusammensetzung. - Diagnose der Osteoarthrose im Frühstadium. - Verlaufskontrolle bei Osteoarthrose. - Beurteilung des Therapieerfolgs und Evaluation neuer Medikamente. - Screening der Gewebezusammensetzung bei der In-vitro-Züchtung von Knorpelgewebe zur späteren Implantation.