POPULARITY
Willkommen zu einer weiteren Folge von CXEinfachmachen, dem Podcast, der sich mit den neuesten Trends und Entwicklungen im Kundenerlebnis und der Kundenbindung beschäftigt. In dieser Folge tauchen wir tief in die Welt der Statistik ein und werfen einen Blick auf einige der fortschrittlichsten Analysetechniken, die Unternehmen heute nutzen. Wir werden über Regressions-, MaxDiff-, Faktoren- und Clusteranalysen sprechen und dir mehr Informationen und Anwendungsfälle für jede dieser Analysetechniken liefern. Wir werden auch darüber sprechen, wie Unternehmen diese Techniken nutzen, um das Kundenerlebnis zu verbessern und ihr Geschäft zu optimieren. Darüber hinaus werden wir uns auch mit einem sehr aktuellen Thema beschäftigen: die aktuelle Auseinandersetzung zwischen Forsa und Civey. Also machen Sie es sich bequem und hören Sie sich diese aufregende Folge von CXEinfachmachen an, um mehr darüber zu erfahren, wie Statistik und Datenanalyse die Zukunft des Kundenerlebnisses gestalten werden. Sebastian and Lukas CXEinfachMachen: www.cxeinfachmachen.de Sebastian: https://www.linkedin.com/in/sebastian-syperek-57b6aa19/ Lukas: https://www.linkedin.com/in/lukas-kauderer-a18473112/ CX fit Academy: https://www.cx-fit.com CXEinfachMachen - ein Podcast von Lukas Kauderer (CEO liCili) und Sebastian Syperek (Principal UX Research - Kaiser X Labs. A company of Allianz) rund um den Bereich der Customer Experience, Marktforschung und dem Produktmanagement. In 30 - 45 Minütigen Podcast-Folgen sprechen die beiden über grundlegenden Themen rund um das Thema Kundenorientierung, zeigen Tools und Methoden des Customer Experience auf und erzählen über Ihre eigenen Erfahrungen.
Sarah Diefenbach ist Professorin für Wirtschaftspsychologie und forscht zum Konsumentenerleben und der Gestaltung interaktiver Technologien unter psychologischen Gesichtspunkten. Sie entwickelte Methoden für User Experience Evaluation und Gestaltung, ist Autorin mehrerer Bücher sowie über 100 Beiträge in Fachzeitschriften und Konferenzbänden. Prof. Diefenbach ist Mitherausgeberin der i-com - Journal of Interactive Media und engagiert sich in der German UPA, Berufsverband der deutschen Usability und User Experience Professionals. In dieser Folge besprechen wir die Rolle der Bedürfnisse in der Gestaltung und wie sie ermittelt und adressiert werden können. Prof. Diefenbach erläutert in diesem Zusammenhang grundlegende Herangehensweisen des User Experience Design. Wir erörtern auch das Potential und Grenzen der Gestaltung bezüglich Selbstverbesserung und Motivation. Abschließend widmen wir uns dem komplexen Themenfeld der Robotik und welchen Beitrag Gestaltung aus psychologischer Sicht hierbei leisten kann. --------------- Time Stamps: 5:45 User Experience Design 16:30 Bedürfnisse & Erleben 31:20 Bedürfnisse im therapeutischen Setting 45:12 Digitale Demenz & Risiken und Potentiale interaktiver Technologien 74:00 Robotik aus psychologischer Sicht -------------- Relevante Links und weiterführende Informationen hierzu sind: Projekt-Website: Aesthetics of Performative Interaction for Pervasive Computing Environments in Public Spaces https://scalableinteractionparadigms.uni-oldenburg.de/blog/research-projects/ Buxton, William (2007): Sketching user experiences. Getting the design right and the right design. Amsterdam, Boston: Elsevier/Morgan Kaufmann. Diefenbach, S. & von Terzi, P. (2022). Digitale Gesellschaft neu denken. Chancen und Herausforderungen in Alltags- und Arbeitswelt aus psychologischer Perspektive. Kohlhammer. Diefenbach, S. (2019). München: Riva. Wieso zwei halbe Stück Kuchen dicker machen als ein ganzes. Psychologische Denkfallen entlarven und überwinden. München: mvg. Diefenbach, S., & Ullrich, D. (2016). Digitale Depression: Wie neue Medien unser Glücksempfinden verändern. München: MVG. Diefenbach, S. & Borrmann, K. (2019). The Smartphone as a Pacifier and its Consequences. Young adults' smartphone usage in moments of solitude and correlations to self-reflection. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (paper 306). New York, NY, USA: ACM. doi: 10.1145/3290605.3300536 Diefenbach, S. (2018). The potential and challenges of digital well-being interventions: Positive technology design in light of the bitter-sweet ambivalence of change. Frontiers in Psychology, 9, 331. doi:10.3389/fpsyg.2018.00331 Diefenbach, S. (2018). Positive Technology – a powerful partnership between positive psychology and interactive technology. A discussion of potential and challenges. Journal of Positive Psychology and Wellbeing, 2 (1), 1-22. Fogg, B. J. (2003): Persuasive technology. Using computers to change what we think and do. Amsterdam, Boston: Morgan Kaufmann Publishers. Lenz, E., Hassenzahl, M. & Diefenbach, S. (2019). How Performing An Activity Makes Meaning. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (LBW2720). New York, NY, USA: ACM. doi: 10.1145/3290607.3312881. Ullrich, D., Diefenbach, S., Christoforakos, L., Surmava, T., & Quintes, C. (2019). Robotervertrauen: Eine Exploration vertrauensförderlicher Attribute der Robotergestaltung mittels Clusteranalyse. Mensch und Computer 2019-Workshopband. Ullrich, D. & Diefenbach, S. (2018). Minimal Design, Maximum Confusion. Wie das Minimal Design Dogma die Usability aushebelt. In: Hess, S. & Fischer, H. (Eds.), Mensch und Computer 2018 – Usability Professionals 2018 (pp. 203-215). Dresden: Gesellschaft für Informatik e.V.
Systemrelevant - Der Wirtschafts-Podcast der Hans-Böckler-Stiftung
Bettina Kohlrausch und Andreas Hövermann erklären Marco Herack das Projekt Lebenslagen und dessen Erkenntnisse zu den Herausforderungen der Transformation.
Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit gibt einen Einblick über die Zusammenhänge zwischen den Impulsivitätsmassen untereinander sowie zwischen Impulsivität und Gewichtsstatus bzw. Essverhalten. Wie der Forschungsstand zeigt, wurde dies bereits mehrfach aber sehr unzureichend untersucht. Aufgrund dieses diskonformen Forschungsstands wurden diese Aspekte in der vorliegenden Arbeit an der „Ulmer Kinderstudie“, einer prospektiven Kohortenstudie der Universitätsklinik für Kinder- und Jugendmedizin Ulm, erforscht. Daher liegt in dieser Arbeit der Fokus auf Impulsivität an sich, die durch verschiedene Untersuchungsmethoden erfasst wird, sowie Impulsivität bezogen auf Gewichtsstatus und Essverhalten sowie der Differenzierung nach Geschlecht. Basierend auf den unterschiedlichen Untersuchungsverfahren zur Messung der Impulsivität wurden folgende Erkenntnisse gewonnen: Mit zunehmender Dauer des Go/Nogo-Paradigmas arbeiteten die Kinder unkonzentrierter; es gab keine Geschlechterdifferenz. Dies zeigte sich im fehlenden Zusammenhang zwischen Gewicht und Impulsivität bei der Genauigkeit des 1. und 3. Durchgangs des Nogo-Signals sowie der Response Perseveration. Ausschließlich beim 5. Durchgang des Nogo-Signals zeigte sich eine signifikante Korrelation geringer Effektstärke, wobei Mädchen entgegen der Hypothese gering höhere Werte als Jungen erreichten. Weder bei Jungen noch bei Mädchen zeigten sich signifikante oder relevante Korrelationen zwischen dem BMI und der Genauigkeit des 5. Durchgangs beim Nogo-Signal. Nur teilweise konnte bestätigt werden, dass Übergewichtige nicht höhere Impulsivitätswerte bei der Genauigkeit beim Nogo-Signal zu allen drei Messzeitpunkten und der Response Perseveration sowie geringer vs. hoher Belohnungssensitivität des Door Opening Tasks aufwiesen. Wohingegen bei der Response Perseveration sowie geringer vs. hoher Belohnungssensitivität und der Genauigkeit des 1. Durchgangs kein Zusammenhang zwischen Übergewichtigen und Normalgewichtigen bzw. Untergewichtigen bestätigt werden konnte, zeigten die Übergewichtigen jedoch eine geringere Genauigkeit beim 3. und 5. Durchgang des Nogo-Signals als Untergewichtige. Entgegen der Erwartung zeigten die Übergewichtigen keine längeren Reaktionszeiten beim Nogo-Signal bei allen drei Durchgängen des Go-/Nogo-Paradigmas. Es sind allerdings Tendenzen sichtbar, d. h. tendenziell längere Reaktionszeiten zeigten die Übergewichtigen beim 3. Durchgang als die Untergewichtigen und als die Normalgewichtigen. Beim 5. Durchgang fanden sich bei den Übergewichtigen erneut tendenziell längere Reaktionszeiten als bei den Untergewichtigen. Ein weiterer Punkt in der vorliegenden Studie bezog sich auf den Zusammenhang zwischen Impulsivität und Essverhalten. Hierbei konnte bestätigt werden, dass kein Zusammenhang zwischen restriktivem Essverhalten bzw. emotionalem Essverhalten mit der Response Perseveration des Door Opening Task oder der Genauigkeit und der Reaktionszeit beim Nogo-Signal zu allen drei Durchgängen besteht. Bezogen auf die Geschlechterunterschiede ergaben sich keine Zusammenhängezwischen Impulsivität und Essverhalten. Beim abschließend betrachteten Zusammenhang der Impulsivitätsmassen untereinander, fanden sich hoch signifikante Korrelation zwischen den verschiedenen Testverfahren. In der nachfolgend durchgeführten hierarchischen Clusteranalyse nach Ward und weiterführenden Verfahren, zeigte sich eine Clusterlösung mit 3 Clustern als optimal (Genauigkeit auf ein Nontarget zu reagieren, Verhaltensinhibition und Verhaltensaktivierung). Demnach ließ sich ein sinnvolles Impulsivitätsmuster herausarbeiten. Zusammenfassend ist ersichtlich, dass die Triangulation Impulsivität-Gewichtsstatus-Essverhalten, die zugrundeliegende Kausalitätskette sowie das Fokussieren eines Altersbereichs ein Potential zur weiteren Erforschung bietet, um der Impulsivität und deren Auswirkungen auf den Grund zu gehen.
Mathematik, Informatik und Statistik - Open Access LMU - Teil 02/03
Tue, 1 Jan 2013 12:00:00 +0100 https://epub.ub.uni-muenchen.de/21736/1/BA_Hoelzl.pdf Hölzl, Andreas ddc:500, Ausgewählte Abschlussarbeiten, Statistik, Mathematik, In
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 02/06
Notch-Signale spielen bei der Entwicklung von Lymphozyten eine wichtige Rolle. So induzieren Notch1-Signale in Lymphozyten-Vorläuferzellen im Knochenmark die Entwicklung zu T-Zellen, während Notch2-Signale essentiell für die Differenzierung reifer B-Zellen zu Marginalzonen-B-Zellen sind. Das Epstein-Barr Virus (EBV) infiziert reife B-Zellen und regt diese zur permanenten Proliferation an. EBNA2, das erste Protein, das in EBV-infizierten B-Zellen exprimiert wird, verwendet zur Regulation von Zielgenen den gleichen Signalweg wie Notch und wird deshalb als (partielles) funktionelles Äquivalent eines aktivierten Notch-Rezeptors (NotchIC) bezeichnet. Notch und EBNA2 können sich bezüglich der Muskelzelldifferenzierung gegenseitig ersetzen, die Proliferation in B-Zellen kann dagegen nur EBNA2 induzieren. Ziel dieser Arbeit war es zu untersuchen, mit Hilfe welcher Zielgene Notch und EBNA2 unterschiedliche und gemeinsame Funktionen vermitteln. Zu diesem Zweck wurde ein Zellsystem etabliert, bei dem Tetrazyclin-regulierbares aktives Notch1IC oder Notch2IC in humane reife EBV-immortalisierte B-Zellen eingebracht wurde. In diesem System konnten Notch1IC oder Notch2IC in Abwesenheit von EBNA2 exprimiert werden, sowie EBNA2 in Abwesenheit von NotchIC. Die Expression von Zielgenen wurde anhand einer Microarray- Analyse untersucht. Damit sollten Notch1IC-, Notch2IC- und EBNA2-regulierte Zielgene identifiziert werden. Hierbei wurde vornehmlich auf Unterschiede und Gemeinsamkeiten zwischen Notch1IC- und Notch2IC-regulierten Genen, sowie zwischen NotchIC- und EBNA2-regulierten Genen eingegangen. Durch Notch1IC wurden 270 Gene induziert und 374 Gene reprimiert. Notch2IC konnte 757 Gene induzieren und 959 Gene reprimieren. EBNA2 induzierte 6.250 Gene und reprimierte 6.811 Gene. Die Auswertung der Zielgene in der Clusteranalyse ergab, dass viele Gene reguliert wurden, die mit dem Zellzyklus und der Immunmodulation assoziiert sind. Aus diesem Grund sollten diese beiden Signalwege näher untersucht werden. In dem beschriebenen Zellsystem konnten weder Notch1IC noch Notch2IC die EBNA2-vermittelte Proliferation ersetzen. So konnten Notch1IC und Notch2IC zwar einige Zellzyklus-Gene induzieren, die aber assoziierten eher mit der S-Phase und mit der Mitose. Die von EBNA2 stark induzierten Gene c-Myc und LMP1, sowie die G1-Phase assoziierten D-Cycline und der Cyclin-abhängigen Kinasen CDK4 und CDK6 konnten durch NotchIC nicht oder nur schwach induziert werden. Vermutlich können Notch1IC und Notch2IC die Proliferation weder aufrechterhalten noch induzieren, da sie nicht fähig sind, G1-Phase Gene, sowie c-Myc und LMP1 ausreichend stark zu induzieren. Der Einfluss von NotchIC auf die Immunmodulation war mit der von EBNA2 vergleichbar. Die Repression vieler Gene, die mit der Immunmodulation assoziieren, weist darauf hin, dass sowohl Notch1IC, Notch2IC als auch EBNA2 die Immunantwort negativ regulieren. So könnten B-Zellrezeptor (BCR)-Signale über die Repression von Komponenten und Signalmolekülen des BCR abgeschwächt werden, die Antigenpräsentation über die Repression von MHC-Molekülen vermindert werden und der allgemeine Aktivierungszustand zusätzlich über die Repression von Komplement-, Toll-like- und Fc-Rezeptoren vermindert werden. Ebenso konnte gezeigt werden, dass Notch1IC, Notch2IC und EBNA2 den Klassenwechsel negativ beeinflussen. Dies wird möglicherweise über die transkriptionelle Repression der Interleukin-Rezeptoren IL4Rα1 und IL13Rα1, sowie über die Modulation von Molekülen des Signalwegs vermittelt, die die Expression von sterilen Transkripten induzieren und somit die Voraussetzung zum Klassenwechsel bilden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Hintergrund: Die MRT ist eine hochsensitive Methode zur Erkennung von Herdbefunden der weiblichen Brust. Ein Nachteil liegt jedoch in einer hohen Rate an falsch positiven Befunden. Hier stellte sich die Frage, ob der Einsatz von Computerverfahren auf der Basis der Vektorquantisierung eine diagnostische Hilfestellung leisten kann, insbesondere ob eine Verbesserung der Dignitätsbeurteilung durch eine Subdifferenzierung der Bildpunkte innerhalb einer KM-aufnehmenden Läsion erreicht werden kann. Ziel der Arbeit war es, die konventionellen Auswertetechniken der dynamischen MRT mit einem computergestützten Ansatz, basierend auf einer Klassifikation der Kontrastmitteldynamik mittels neuronaler Netze, zu vergleichen. Dieses Auswerteprogramm zur Analyse von Signalintensitätszeitreihen wurde in der Bildverarbeitungsgruppe des Instituts für Klinische Radiologie entwickelt. Methode: Dieses neuartige Auswerteverfahren wurde erstmals bei einem größeren Patientenkollektiv eingesetzt. Dafür wurden 399 Patientinnen mit mammographisch unklarem Befund (BIRADS 3) im Zeitraum von 1997 bis 2003 mittels dynamischer MRT untersucht. Aus diesem Kollektiv wurden alle Herdbefunde (n=92) für den Methodenvergleich ausgewählt, die einen initialen Signalanstieg > 50% nach Gabe von Kontrastmittel aufwiesen. Die Befunde wurden mit dem histologischen Ergebnis korreliert oder in einigen Fällen durch Nachuntersuchungen über mehr als 18 Monate als benigne verifiziert. Zunächst wurden die MR-Mammographien mit einer im klinischen Alltag gebräuchlichen Auswertemethode ausgewertet. Dabei wurde die Kontrastmitteldynamik nach den von Kuhl et al. publizierten Kriterien (Radiology 1999) klassifiziert. In einem weiteren Auswerteschritt wurden zusätzlich zur Kontrastmitteldynamik auch morphologische Kriterien mit einbezogen und ein Punktescore gebildet (Göttinger-Score). Bei der Vektorquantisierung wurden die Signalintensitätskurven aller Bildpunkte eines mehr als 50 % KM-aufnehmenden Herdes in 4 prototypische Kurvenverläufe (sog. Code-buchvektoren) subdifferenziert. Als weiteres Ergebnis der Vektorquantisierung erhielt man sog. Cluster-Zuordnungskarten, auf denen die zu einem Codebuchvektor gehörigen Pixel morphologisch dem Herdbefund in der Brust zugeordnet werden konnten. Auf der Basis der Codebuchvektoren wurde eine erneute Klassifikation der Herdbefunde vorgenommen, wobei wiederum die Klassifikation des Kurventyps nach Kuhl und der Göttinger Score als Grundlage dienten. Ergebnisse: Bei der Beurteilung der Signalintensitätsverläufe ergab sich in dem selektierten Patientengut für die konventionelle Auswertung eine Sensitivität von 70,5%, eine Spezifität von 68,3%, sowie eine Genauigkeit von 70,0%. Mit der Vektorquantisierung wurde eine Sensitivität von 82,3%, eine Spezifität von 68,3% und eine Genauigkeit von 76,1% erzielt. Demnach war durch die Vektorquantisierung bei unveränderter Spezifität eine Verbesserung der Sensitivität und damit eine höhere Genauigkeit zu beobachten. Unter Einbeziehung morphologischer Kriterien für die Herdcharakterisierung, ergab sich in Anlehnung an den Göttinger Score bei der konventionellen Auswertung eine Sensitivität von 62,7%, eine Spezifität von 70,7%, sowie eine Genauigkeit von 66,3%. Bei der Clusteranalyse betrug die Sensitivität 82,3%, die Spezifität 53,5% und die Genauigkeit 69,6%. Demzufolge war unter Berücksichtigung der morphologischen Kriterien keine Verbesserung der Dignitätsbeurteilung bei den überwiegend kleinen Herdbefunden zu erreichen. Um die Reproduzierbarkeit der Methode zu überprüfen, wurde die Interobservervariabilität einerseits in Bezug auf die Herdsegmentierung und Vektorquantisierung, andererseits in Bezug auf die visuelle Klassifikation der Kurvenverläufe untersucht. Dabei fand sich eine gute Übereinstimmung zwischen verschiedenen Auswertern. Schlussfolgerung: In einem schwierigen Patientengut mit mammographisch unklaren, vorwiegend kleinen Herdbefunden, war die Vektorquantisierung der konventionellen Auswertetechnik von dynamischen MR-Mammographien in Bezug auf die Dignitätsbeurteilung überlegen. Die Vektorquantisierung könnte daher als Grundlage für eine automatisierte Auswertung für MR-Mammographien dienen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Magnetresonanztomographie ist ein wichtiges nichtinvasives, bildgebendes Schnittbildverfahren in der medizinischen Diagnostik. Neben der klassischen Aufgabe der Strukturbildgebung sind in den letzten Jahren auch neue Anwendungsfelder der Funktionsbildgebung in den Brennpunkt des medizinisch-wissenschaftlichen Interesses gerückt. Die vorliegende Arbeit untersucht die Anwendung explorativer Methoden zur Datenanalyse der zeitlichen Dynamik in funktionellen MRT-Zeitreihen durch Methoden der Clusteranalyse sowie durch Komponentenanalyseverfahren (PCA, ICA) unter besonderer Berücksichtigung der Aspekte Rechenzeit, Objektivität, Reliabilität sowie Validität der Partitionierungsergebnisse. Darüber hinaus wird der Ansatz der Clusteranalyse zur Anwendung auf weitere dynamische MRT-Zeitreihen erweitert: zur Clusteranalyse dynamischer perfusionsgewichteter MRT-Bildfolgen, zur Clusteranalyse Kontrastmittel-unterstützter dynamischer MRT-Mammographie-Bildfolgen sowie zur Konnektivitätsanalyse im motorischen System des Menschen.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Ziel: In der vorliegenden Studie untersuchten wir fMRT-Datensätze des kortikalen motorischen Handareals gesunder Probanden mittels künstlicher neuronaler Netze. Ziel war es, eine feinere Unterscheidung der Signalzeitreihen zu erreichen, als dies mit derzeit etablierten Methoden möglich ist. Einleitung: In einem kurzen Überblick wurden die wichtigsten Methoden und Erkenntnisse der Erforschung funktioneller Gehirnzentren dargestellt. Daneben wurde auf die Mustererkennung mittels neuronaler Netze und deren Einsatzmöglichkeiten eingegangen. Methode: Zunächst wurden die methodischen Grundlagen, auf denen die funktionelle MRT beruht, mit ihren technisch-physikalischen und physiologischen Zusammenhängen vorgestellt. Im speziellen Methodikteil wurde das untersuchte Kollektiv (24 gesunde Personen), das Messprotokoll und der Versuchsaufbau beschrieben. Die funktionellen Messungen wurden an einem 1,5 Tesla-Magnetresonanz-tomographen mit einer T2*-gewichteten Echo-Planar-Sequenz durchgeführt. Als Paradigma wurden Fingerbewegungen jeweils der rechten oder linken Hand mit maximalem Druck bzw. mit maximaler Frequenz gewählt. Bei allen fMRT-Messungen wurden Kraft und Geschwindigkeit der Fingerbewegungen mit hydraulischen Druckaufnehmern aufgezeichnet. Die Auswertetechnik wurde in einem eigenen Kapitel beschrieben, das sich mit den Verfahren zur Nachverarbeitung der gewonnenen Schnittbildserien auseinander setzte: Hierbei wurde die Korrelationsanalyse als ein etabliertes Auswerteverfahren beschrieben und das Prinzip der Mustererkennung durch Neuronale Netze dargestellt. Als spezielles Verfahren zur Clusteranalyse wurde die minimal free energy Vektorquantisierung erklärt. Schließlich wurde der von uns verwendete kombinierte Ansatz einer Vorselektion der Zeitreihen durch Korrelationsanalyse, gefolgt von der Vektorquantisierung der über einem definierten Schwellwert liegenden Pixel vorgestellt. Ergebnisse: Zunächst wurden die Resultate der Korrelationsanalyse mit den Ergebnissen der Vektorquantisierung verglichen. Dabei zeigte sich, daß mittels Vektorquantisierung die zerebralen Aktivierungen des Motorkortex in kortikale und vaskuläre Anteile subdifferenziert werden konnten. Zudem ließen sich Artefakte, die durch Kopfbewegungen verursacht wurden, erkennen und eliminieren. Außerdem konnte nachgewiesen werden, daß durch die ausschließliche Verwendung der Korrelationsanalyse eine systematische Überbetonung der vaskulären Signalveränderungen erfolgt. Schließlich wurden die Probanden auf die kortikalen Aktivierungen in der Zentralregion, der Postzentralregion, der Präzentralregion und der supplementären Motorregion (SMA) hin untersucht. Dabei wurden Unterschiede hinsichtlich der Händigkeit und der motorischen Fertigkeiten der Probanden herausgearbeitet. Hier fand sich vor allem in der Präzentralregion ein Unterschied zwischen Rechts- und Linkshändern, wobei Rechtshänder nur bei Bewegung der linken Hand eine verstärkte Aktivierung der kontralateralen rechten Präzentralregion zeigten, während Linkshänder bei allen Aufgaben (mit rechter und linker Hand) eine verstärkte Aktivierung der rechten Präzentralregion aufwiesen. Für Aufgaben mit starkem Druck waren die aktivierten Areale in allen ausgewerteten Hirnregionen umso ausgedehnter, je geübter die Probanden waren. Bei Aufgaben mit hoher Frequenz fand sich nur in der supplementären Motorregion eine Ausweitung der Aktivierung mit zunehmenden motorischen Fertigkeiten der Probanden. Schlußfolgerung: Die Anwendung künstlicher Neuronaler Netze auf fMRT-Datensätze ist eine vielversprechende Methode, mit der die Aussagekraft bezüglich Lokalisation und Ausdehnung kortikaler Aktivierungen verbessert werden kann.