Podcasts about messpunkte

  • 11PODCASTS
  • 13EPISODES
  • 31mAVG DURATION
  • ?INFREQUENT EPISODES
  • Jun 30, 2022LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about messpunkte

Latest podcast episodes about messpunkte

Luftdichtheit geprüft – Klartext zu Luftdichtung und Qualität am Bau
#33 Pleiten, Pech und Pannen: Troubleshooting bei Blower-Door-Tests: Ja, das kann alles schief gehen

Luftdichtheit geprüft – Klartext zu Luftdichtung und Qualität am Bau

Play Episode Listen Later Jun 30, 2022 36:34


Auf einmal schaltet sich das Messgerät aus, die Messpunkte auf der Anzeige spielen verrückt oder die Verbindung lässt sich nicht herstellen. Manchmal steht jemand buchstäblich auf dem Schlauch - aber nicht der Blower-Door-Messdienstleister, sondern andere Beteiligte auf der Baustelle. Was sind noch typische, unerwartete Störungen bei Blower-Door-Tests und was kann man schnell dagegen machen? Wie können Blower-Door-Messdienstleister und Bauleiter:innen schon vorher mögliche Pannen vermeiden?

Regionaljournal Bern Freiburg Wallis
Personalmangel in der Psychiatrie: Keine schnelle Lösung in Sicht

Regionaljournal Bern Freiburg Wallis

Play Episode Listen Later Feb 22, 2022 5:22


Im Sommer 2021 mussten das Psychiatriezentrum Münsingen und die Universitären Psychiatrischen Dienste je eine Erwachsenenabsteilung für Akutpsychiatrie schliessen. Der Grund: Zu wenig Personal. Die Berner Regierung sieht keine kurzfristige Lösung für den Fachkräftemangel. Weiter in der Sendung: * Kampf gegen Internetkriminalität: Die Berner Kantonspolizei zieht eine erste positive Bilanz ihres neuen Kompetenzzentrums. * Genauere Messungen in ehemaliger Deponie Gamensried: Die Walliser Behörden verdoppeln die Messpunkte.

Elektrotechnik Podcast by Giancarlo
Elektrotechnik-Podcast #30: VDE 0100 – 600 „Dokumentation“

Elektrotechnik Podcast by Giancarlo

Play Episode Listen Later Jan 15, 2022 15:49


Auf das Besichtigen, das Messen und das Erproben erfolgt schlussendlich die Dokumentation unserer Arbeit.Schon zu Beginn der Prüfung einer Anlage, sollte man eine saubere Dokumentation führen, in der sowohl die Besichtigungspunkte, als auch sämtliche Messpunkte und -ergebnisse eingetragen werden. Im sogenannten Prüfbericht werden aber auch noch weitere Punkte und ggf. Mängel festgehalten.Was dabei zu beachten ist und warum diese Dokumentation sauber geführt werden muss, erfahrt ihr in der letzten Folge der Reihe zur VDE 0100-600.Support this podcast at — https://redcircle.com/elektrotechnik-podcast/donationsAdvertising Inquiries: https://redcircle.com/brandsPrivacy & Opt-Out: https://redcircle.com/privacy

Modellansatz
Tiefdruckbenetzung

Modellansatz

Play Episode Listen Later Dec 24, 2021 49:21


Gudrun spricht in dieser Folge mit Pauline Brumm von der TU Darmstadt über Benetzung im Tiefdruck. Sie ist wissenschaftliche Mitarbeiterin am Institut für Druckmaschinen und Druckverfahren und promoviert im SFB 1194 zur Mechanischen Zwangsbenetzung von Oberflächen durch gravierte Tiefdruckzylinder im Teilprojekt C01. Es handelt sich um eine Weiterführung des Gesprächs mit Dr. Mathis Fricke im Modellansatz-Podcast Folge 242 über Dynamische Benetzung. Herr Fricke hatte über die Arbeit im SFB 1194 aus Sicht der Mathematik berichtet, Frau Brumm liefert in dieser Folge nun einen Beitrag aus Sicht der Anwendung. Sie hat Maschinenbau im Bachelor und Master an der TU Darmstadt studiert und sich auf Drucktechnik spezialisiert. Drucken wird seit hunderten von Jahren praktiziert und angewendet, jedoch gibt es bisher noch keine umfassende Modellbildung für viele Druckprozesse. Das bedeutet, dass ein Großteil des Wissens empirisch geprägt ist. Firmen stützen sich auf die Erfahrung von gelernten Drucktechnikern, jedoch ist diese Erfahrung nur selten öffentlich zugänglich und es gibt wenige Forschungsinstitute weltweit zum Thema Drucktechnik. Um innovative Anwendungen zu entwickeln, zum Beispiel aus dem Bereich der gedruckten Elektronik, bedarf es jedoch einer detaillierten Modellvorstellung des Druckprozesses, um klassische Druckverfahren aus dem grafischen Druck (Zeitungsdruck, Verpackungsdruck etc.) für den sogenannten „funktionalen Druck“ nutzbar zu machen. Die Schwierigkeit liegt darin, dass an den funktionalen Druck ganz andere Anforderungen gestellt werden, zum Beispiel müssen die gedruckten, häufig ultradünnen Schichten geschlossen, fehlerfrei und von konstanter Schichtdicke sein. Ein häufiger Druckfehler ist das sogenannte „Viscous Fingering“, eine hochdynamische Grenzflächeninstabilität bei der Fluidübertragung, die sich in Form von faszinierenden, verästelten, fingerartigen Strukturen in der gedruckten Schicht bemerkbar macht. Sie sehen so ähnlich aus wie die Arme eines Flussdeltas aus Vogelperspektive oder die Wurzeln von Bäumen. In ihrer Forschung untersucht Frau Brumm diese verästelten Strukturen im Tiefdruck, um sie besser zu verstehen und um den Druckfehler in Zukunft zu verhindern oder für spezielle Anwendungen nutzbar zu machen. Beim Tiefdruck wird die Farbe über gravierte Näpfchen in einem Druckzylinder übertragen. Die Näpfchen liegen vertieft und sind nur wenige zehn Mikrometer groß. Beim Kontakt mit dem zu bedruckenden Substrat (Papier, Folie, Glas…) wird die Druckfarbe unter hohem Druck und hoher Geschwindigkeit aus den Näpfchen herausgesaugt. Es kommt zur Zwangsbenetzung des Substrats. Mit Stokes-Gleichungen kann man Parametermodelle herleiten, welche das Skalierungsverhalten der verästelten, gedruckten Strukturen beschreiben. Zum Beispiel skaliert der dominante Abstand der gedruckten Strukturen mit der Druckgeschwindigkeit hoch minus ein Halb laut Sauer et al. (2015), welches dem 60 Jahre alten Skalengesetz von Saffman und Taylor (1958) entspricht. Mit Experimenten können diese Modelle bestätigt oder widerlegt werden. Die Planung von Experimenten geschieht zielgerichtet. Im Vorfeld muss überlegt werden, welche Parameter im Experiment variiert werden sollen und wie viele Messpunkte benötigt werden, um statistisch abgesicherte Aussagen treffen zu können. Meistens ist die Herausforderung, die Vielzahl der Parameterkombinationen auf ein Minimum zu reduzieren und dennoch die gewünschten Aussagen treffen zu können. Die gedruckten Proben werden hochauflösend mit einem Flachbettscanner digitalisiert und danach werden Bildverarbeitungsmethoden in den ingenieurstypischen Programmiersprachen Matlab oder Python angewendet. Beispielsweise wird eine Fast Fourier Transformation (FFT) benutzt, um den dominanten Abstand der gedruckten Strukturen zu ermitteln. Die Automatisierung des Experiments und vor allem der anschließenden Auswertung ist ein weiterer wichtiger Punkt. Um zehntausende von gedruckten Mustern zu analysieren, wurde ein hochautomatisierter computergestützter Workflow entwickelt. Seit kurzem wird von Frau Brumm auch Künstliche Intelligenz, genauer gesagt Deep Learning, zur Klassifizierung der gedruckten Muster verwendet. Dies ist notwendig, um die Skalierbarkeit hin zu industriellen Prozessen zu ermöglichen, indem umfangreiche Versuchsreihen an industriellen Maschinen durchgeführt und automatisiert ausgewertet werden. Diese werden anschließend mit kleineren Versuchsreihen an speziell entwickelten Labormaschinen verglichen, bei denen teilweise auch Modellfluide anstelle von realen Druckfarben verwendet werden. Bei Laborexperimenten werden in Teilprojekt C01 im SFB 1194 auch Hochgeschwindigkeitsvideos der hochdynamischen Grenzflächeninstabilität aufgenommen, die noch tiefere Einblicke in die Strömungsdynamik bieten und die industriellen Experimente ergänzen und erklären sollen. Der Maschinenbau ist sehr breit gefächert und das Studium muss dementsprechend auch breite Kenntnisse vermitteln. Beispielsweise werden umfangreiche Methoden aus der Mathematik gelehrt, damit ein/e Maschinenbau-Absolvent/in für die diversen Anwendungsaufgaben gerüstet ist. In der modernen Forschung ist die Fähigkeit zur interdisziplinären Zusammenarbeit und zur Wissenschaftskommunikation sehr entscheidend. Maschinenbauer/innen im SFB 1194 arbeiten beispielsweise mit Mathematikern/innen, Physikern/innen und Informatikern/innen zusammen, um eine größere Forschungsfrage zu beantworten. In dieser Podcast-Folge wird auch an junge Frauen appelliert, ein MINT-Studium auszuprobieren, um mehr Diversität im Studium, Forschung und Industrie zu erreichen, um am Ende noch innovativere Lösungen zu schaffen, die der Welt einen Nutzen bringen. Literatur und weiterführende Informationen Pauline Brumm, Tim Eike Weber, Hans Martin Sauer, and Edgar Dörsam: Ink splitting in gravure printing: localization of the transition from dots to fingers. J. Print Media Technol. Res. Vol. 10 No. 2 (2021), 81-93 Pauline Brumm, Hans Martin Sauer, and Edgar Dörsam: Scaling Behavior of Pattern Formation in the Flexographic Ink Splitting Process. Colloids and Interfaces, Vol. 3 No. 1 (2019), 37 Hans Martin Sauer; Dominik Daume, and Edgar Dörsam: Lubrication theory of ink hydrodynamics in the flexographic printing nip. Journal of Print and Media Technology Research, Vol. 4 No. 3 (2015), 163-172 Julian Schäfer, Ilia V. Roisman, Hans Martin Sauer, and Edgar Dörsam: Millisecond fluid pattern formation in the nip of a gravure printing machine. Colloids and Surfaces A: Physicochemical and Engineering Aspects, Vol. 575 (2019), 222-229 Philip Geoffrey Saffman, and Geoffrey Ingram Taylor: The penetration of a fluid into a porous medium or Hele-Shaw cell containing a more viscous liquid. Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences Vol. 245 No. 1242 (1958), 312-329 Podcasts M. Fricke, G. Thäter: Dynamische Benetzung, Gespräch im Modellansatz Podcast, Folge 242, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. M. Haragus, G. Thäter: Pattern Formation, Conversation im Modellansatz Podcast, Episode 227, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. S. Winter: Fraktale Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 120, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Lerch, G. Thaeter: Machine Learning, Gespräch im Modellansatz Podcast, Folge 232, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020.

exzellent präsentieren - präsentiere ALLES außer gewöhnlich

Das muss besser werden! Oder: Dieses Mal müssen wir noch eine Schippe drauflegen! Wir hören diese Forderungen gerade recht häufig. Denn es jähren sich die zu Beginn des ersten Lockdowns noch hektisch eingeführten Online-Präsentationsformate zum ersten Mal. Damals waren sie schon gut. Und jetzt, in einem weiteren Durchgang, sollen sie noch besser werden. Doch was ist der Maßstab? Gibt es Messpunkte, mit denen du feststellen kannst, wo sich etwas verbessert? Hast du überhaupt Spielraum für Veränderungen? Einfach nur Verbesserungen zu fordern, reicht nicht. Das setzt dich unnötig unter Druck und führt zu blindem Aktionismus. Mach am besten eine nüchterne Bestandsaufnahme: - Was hat bisher gut funktioniert? - Was kam beim Publikum an? - Wurden die gesetzten Ziele erreicht oder verfehlt? - Was ging schief oder lief unrund? - Wo wurde Kritik laut? - Gibt es heute andere (technische) Möglichkeiten, (online) zu präsentieren? - Hat sich heute an den Rahmenbedingungen etwas verändert? Mit diesen Fragen findest du die Stellschrauben, an denen du drehen kannst, um deine Performance zu verbessern. Unsere drei Learnings für dich: 1. Setz dir Ziele! Nur wenn du etwas vorhast, kannst du auch was verbessern! 2. Überprüfe immer wieder, wo du noch Spielräume hast. Mach nicht das Gleiche, wie beim letzten Mal, nur weil du denkst es geht eh nicht anders. 3. Das erste Gebot ist immer, dich und deine Perspektive nicht als gesetzt zu betrachten. Frag dich immer: Was ginge noch und wie sehen das andere? Viel Spaß beim Hören! Möchtest Du Dich selbst oder Dein Team weiterentwickeln? Klasse, dann sag uns doch, wo genau Du weitermachen möchtest: - Kommunizieren aus dem Homeoffice - Führen, auch online - Präsentieren, live oder digital Kontakt: exzellent-praesentieren.de/kontakt Weitere Infos und Links in den Shownotes auf unserer Website.

Think Flow Growcast mit Tim Boettner
#24 Schlaf- und Regenerationstracking und die Zukunft der Medizin mit Dr. Lutz Graumann

Think Flow Growcast mit Tim Boettner

Play Episode Listen Later Jan 4, 2021 56:44


Wie können wir Schlaf- und Regeneration messen und die Daten interpretieren? Welche Konsequenzen können wir für unser Training und den Alltag ziehen? Wearables wie der OURA Ring, Fitbit, Whoop oder Applewatch können Werkzeuge sein, mit denen wir jeden Tag unser individuelles Experiment durchführen und Verantwortung für unsere Gesundheit übernehmen können. Dr. Graumann ist Sportmediziner aus Leidenschaft. Er ist Arzt für Sportmedizin, Chirotherapie & Ernährungsmedizin. Außerdem ist Lutz seit 2015 Mannschaftsarzt für die deutsche Hockeynationalmannschaft. Durch die Vielfalt an Forschungsprogrammen in den USA, Kanada und Deutschland wird er seit mehr als 10 Jahren als Kapazität im Bereich Performance Medicine und Functional Training wahrgenommen. Im Podcast spreche ich mit Lutz, wie er die Gesundheit und Fitness der deutschen Hockeynationalmannschaft trackt und wie wir als Alltagshelden diese Technik für uns nutzen können. Welche Tracker gibt es? Was messen sie und wie genau sind die Werte? Wie können wir die Daten interpretieren? Was ist die Herzratenvariabilität? Wie hängt die HRV, der Ruhepuls, die Atemfrequenz und Bewegung mit dem Tief- und REM Schlaf zusammen? Lutz ist ein Visionär: In Zukunft soll Medizin mit gesunden Menschen gemacht werden, bevor Krankheit eintritt. Dafür müssen unsere Referenzwerte für Labordiagnostik aktualisiert werden: Von „Überlebenswerten“ zu „Gesundwerten“. Dieses Update treibt Lutz voran und sieht einen Durchbruch bei „normalen“ Ärzten in den nächsten zwei Jahren.   Dr. Lutz Graumann: Regeneration: Jeden Tag erholt, ausgeschlafen und erfolgreich. Für Alltag, Sport und High Performance Dr. Lutz Graumann: Schlaftagebuch: Schlafgewohnheiten dokumentieren und Probleme beheben. Für 90 Tage - mit großem Infoteil Dr. Lutz Graumann: Funktionelles Faszientraining mit der BLACKROLL® Sportmedizin Rosenheim   Shownotes: Wie wird der Gesundheits- und Leistungszustand von Profisportlern gemessen? Firstbeat als Technologiepartner für Trainingssteuerung Ruhepulsmessung am Morgen für 3 Minuten EKG Messung mit Klebesensoren von Nambaya Nambaya verkauft Messungen, nicht den Sensor. Deshalb ist die Messung relativ kostengünstig für mehrere Tage bestellbar.   Qualitäten der Messung für Herzratenvariabilität: Gold-Standart für HRV Messung: mindestens 250 Messpunkte pro Sekunde (250 Hertz) Sehr hochwertige EKGs: Bis 1.000 Messpunkte pro Sekunde Preiswerte HRV Messgeräte: zwischen 30 und 50 Hertz   Qualitäten für Schlafdiagnostik: Schlaflabor ist Gold-Standard, aber viele Nachteile: Sehr viele Kabel und unnatürliche Schlafumgebung EKG Diagnostik mit Beschleunigungssensoren sehr gut, kann zu Hause benutzt werden, aber trotzdem „Kleben“ am Körper Wearables analysieren optisch den Puls Keine EKG Analyse, stattdessen wir mit Infrarotsensoren die Haut abgetastet Aufgezeichnet werden Pulskurven und keine Pulszacken OURA Ring kommt etwa 90 % der Genauigkeit des Nambaya heran Interpretation von Ruhepuls und HRV Vergleich immer mit den eigenen Werten und nicht mit anderen Menschen, Vergleich mit eigener Baseline Ruheherzfrequenz kann als Marker für Erholung genutzt werden, mangelnde Regeneration bei Athleten: Erhöhung ab 7 Schläge pro Minute Normale Menschen: Erhöhung ab 10 Schläge pro Minute Bei Krankheit: Erhöhung um 15 bpm und Atemfrequenz über 20 pro Minute Atemfrequenz über 20: Zuckerstoffwechselstörung Wearables wie der OURA Ring definieren Tiefschlaf als „Auf einen Atemzug folgen vier Herzschläge“ REM Schlaf als „Komplette Entkopplung zwischen Atmung, Bewegung und Puls“ Bluetooth Strahlung ist intensivere Strahlung als WLAN, könnte Schlaf negativ beeinflussen Schlafkiller für Lutz Alkohol Spätes Essen am Abend Durch Alkohol und Essen ist die Ruheherzfrequenz lange Zeit erhöht Vorhaben für die nächsten Jahre: Update der Referenzwerte von Laborwerten -          Listen sollen in den nächsten 2 Jahren aktualisiert werden Die erste Runde 2021 meines ganzheitliches Gesundheitscoachings ist in vollem Gange. Die nächste dreimonatige Coachingphase beginnt im März. Wenn du schon viel probiert hast, um deine Gesundheit wieder selbst in die Hand zu nehmen, aber dir das gewisse Etwas fehlt, kannst du dir jetzt einen von acht Plätzen sichern. Du startest schon im Februar deine On Boardingphase mit mir. Vereinbare jetzt dein kostenfreies und unverbindliches Beratungsgespräch über www.thinkflowgrow.com . Hinweis: In den Shownotes findest du Produkte und Links, über die wir sprechen. Ich bin von allen Produkten selbst überzeugt und habe alle getestet. Wenn du über meine Links bestellst, unterstützt du dieses Projekt und sparst mit dem Codes selbst etwas. Dafür bin ich dir sehr dankbar! Wenn du Fragen zu den Produkten hast, kannst du mich gern kontaktieren. Hier findest du alle meine Empfehlungen.  

Think Flow Growcast mit Tim Boettner
#24 Schlaf- und Regenerationstracking und die Zukunft der Medizin mit Dr. Lutz Graumann

Think Flow Growcast mit Tim Boettner

Play Episode Listen Later Jan 4, 2021 56:44


Wie können wir Schlaf- und Regeneration messen und die Daten interpretieren? Welche Konsequenzen können wir für unser Training und den Alltag ziehen? Wearables wie der OURA Ring, Fitbit, Whoop oder Applewatch können Werkzeuge sein, mit denen wir jeden Tag unser individuelles Experiment durchführen und Verantwortung für unsere Gesundheit übernehmen können. Dr. Graumann ist Sportmediziner aus Leidenschaft. Er ist Arzt für Sportmedizin, Chirotherapie & Ernährungsmedizin. Außerdem ist Lutz seit 2015 Mannschaftsarzt für die deutsche Hockeynationalmannschaft. Durch die Vielfalt an Forschungsprogrammen in den USA, Kanada und Deutschland wird er seit mehr als 10 Jahren als Kapazität im Bereich Performance Medicine und Functional Training wahrgenommen. Im Podcast spreche ich mit Lutz, wie er die Gesundheit und Fitness der deutschen Hockeynationalmannschaft trackt und wie wir als Alltagshelden diese Technik für uns nutzen können. Welche Tracker gibt es? Was messen sie und wie genau sind die Werte? Wie können wir die Daten interpretieren? Was ist die Herzratenvariabilität? Wie hängt die HRV, der Ruhepuls, die Atemfrequenz und Bewegung mit dem Tief- und REM Schlaf zusammen? Lutz ist ein Visionär: In Zukunft soll Medizin mit gesunden Menschen gemacht werden, bevor Krankheit eintritt. Dafür müssen unsere Referenzwerte für Labordiagnostik aktualisiert werden: Von „Überlebenswerten“ zu „Gesundwerten“. Dieses Update treibt Lutz voran und sieht einen Durchbruch bei „normalen“ Ärzten in den nächsten zwei Jahren. Dr. Lutz Graumann: Regeneration: Jeden Tag erholt, ausgeschlafen und erfolgreich. Für Alltag, Sport und High Performance Dr. Lutz Graumann: Schlaftagebuch: Schlafgewohnheiten dokumentieren und Probleme beheben. Für 90 Tage - mit großem Infoteil Dr. Lutz Graumann: Funktionelles Faszientraining mit der BLACKROLL® Sportmedizin Rosenheim Shownotes: Wie wird der Gesundheits- und Leistungszustand von Profisportlern gemessen? Firstbeat als Technologiepartner für Trainingssteuerung Ruhepulsmessung am Morgen für 3 Minuten EKG Messung mit Klebesensoren von Nambaya Nambaya verkauft Messungen, nicht den Sensor. Deshalb ist die Messung relativ kostengünstig für mehrere Tage bestellbar. Qualitäten der Messung für Herzratenvariabilität: Gold-Standart für HRV Messung: mindestens 250 Messpunkte pro Sekunde (250 Hertz) Sehr hochwertige EKGs: Bis 1.000 Messpunkte pro Sekunde Preiswerte HRV Messgeräte: zwischen 30 und 50 Hertz Qualitäten für Schlafdiagnostik: Schlaflabor ist Gold-Standard, aber viele Nachteile: Sehr viele Kabel und unnatürliche Schlafumgebung EKG Diagnostik mit Beschleunigungssensoren sehr gut, kann zu Hause benutzt werden, aber trotzdem „Kleben“ am Körper Wearables analysieren optisch den Puls Keine EKG Analyse, stattdessen wir mit Infrarotsensoren die Haut abgetastet Aufgezeichnet werden Pulskurven und keine Pulszacken OURA Ring kommt etwa 90 % der Genauigkeit des Nambaya heran Interpretation von Ruhepuls und HRV Vergleich immer mit den eigenen Werten und nicht mit anderen Menschen, Vergleich mit eigener Baseline Ruheherzfrequenz kann als Marker für Erholung genutzt werden, mangelnde Regeneration bei Athleten: Erhöhung ab 7 Schläge pro Minute Normale Menschen: Erhöhung ab 10 Schläge pro Minute Bei Krankheit: Erhöhung um 15 bpm und Atemfrequenz über 20 pro Minute Atemfrequenz über 20: Zuckerstoffwechselstörung Wearables wie der OURA Ring definieren Tiefschlaf als „Auf einen Atemzug folgen vier Herzschläge“ REM Schlaf als „Komplette Entkopplung zwischen Atmung, Bewegung und Puls“ Bluetooth Strahlung ist intensivere Strahlung als WLAN, könnte Schlaf negativ beeinflussen Schlafkiller für Lutz Alkohol Spätes Essen am Abend Durch Alkohol und Essen ist die Ruheherzfrequenz lange Zeit erhöht Vorhaben für die nächsten Jahre: Update der Referenzwerte von Laborwerten - Listen sollen in den nächsten 2 Jahren aktualisiert werden

Podcasts von Tichys Einblick
Stickoxidmessungen im Stadtpark sind passé

Podcasts von Tichys Einblick

Play Episode Listen Later Jul 6, 2019 16:48


Ein weitreichendes Urteil des EuGH ist von der Öffentlichkeit weitgehend unbeachtet geblieben, obwohl es unabsehbare Folgen für die Bewohner von Innenstädten hat: Entscheidend für Belastungsbeurteilung ist ab jetzt nicht mehr der Jahresmittelwert, sondern der jeweils höchste im Stadtgebiet. In Tateinheit mit der deutschen Gepflogenheit, Messpunkte für möglichst dramatische Ergebnisse schadstoffungünstig zu plazieren, ergibt dies ganz neue Perspektiven für unsere Fahrverbotskultur. Achim Winter spricht mit Holger Douglas über wahrscheinliche Szenarien, über die Urheber dieser neuen Beschlusslage und über die Tatsache, dass hierfür wieder einmal gar kein eigenes Regierungshandeln nötig war. https://www.tichyseinblick.de

FOSSGIS 2014 (mp4)
Open-Source-Software „survey2GIS"

FOSSGIS 2014 (mp4)

Play Episode Listen Later Mar 22, 2014


Survey2GIS ist eine kompakte und benutzerfreundliche Lösung, um Tachymeterdaten einer Grabung für die Weiterverarbeitung in einem GIS aufzubereiten. Dabei werden zwei- oder dreidimensionale Punktmessdaten zu komplexen Geometrien (Linien und Polygonen) verbunden. Als Eingabedaten erwartet survey2gis eine oder mehrere einfache Textdateien, wobei jede Zeile die Koordinaten eines Punktes und die Attributdaten hierzu enthält. Derart strukturierte Daten können nicht nur tachymetrisch per Totalstation, sondern auch per GPS-Vermessung gewonnen werden. Auf dieser Grundlage erzeugt Survey2GIS GIS-Dateien im Format ESRI(tm) Shapefile (2D oder 3D), nach Geometrietypen getrennt, mit Übernahme der vollständigen Attributdaten. Dieser Prozess lässt sich so konfigurieren, dass unterschiedlichste Arbeitsabläufe und Datenstrukturen unterstützt werden. Die Software verfügt über detaillierte Protokollfunktionen zur Qualitätssicherung und automatischen Dokumentation der Datenverarbeitung. Bei der Entwicklung von survey2GIS wurde größter Wert auf topologisch korrekte Ausgabedaten gelegt, die sich direkt für die quantitative Analyse im GIS eignen. Hierzu gehören Funktionen zum Eliminieren doppelter Messpunkte, zum Einrasten von Stützpunkten auf Polygongrenzen und zum "Ausstanzen" überlappender Polygone. Die freie Software (GNU General Public License) läuft unter Windows und Linux-Betriebssystemen. Dabei steht die erste Version 1.x von surveying sowohl als eigenständige Software als auch als Zusatz für das Open-Source-Desktop-GIS gvSIG CE zur Verfügung.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Das Lymphödem und assoziierte Morbidität nach primärer Mammakarzinom-Therapie

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Oct 18, 2006


Ziel dieser Querschnittstudie war zu untersuchen, wie hoch die Lymphödemrate und die Häufigkeit der Schultermorbidität bei Brustkrebspatientinnen im eigenen Kollektiv sind, welche Ausprägung und Stärke die Beschwerden der Betroffenen zeigen und welche therapeutischen Maßnahmen angewendet wurden. Im Rahmen dieser Querschnittstudie handelt es sich um ein Kollektiv von 130 Patientinnen im Zustand nach Therapie eines primären Mammakarzinoms. Die Therapie wurde zwischen 1988 und 1999 in der Frauenklinik des Klinikums Großhadern durchgeführt. Die Frauen wurden im Rahmen der onkologischen Nachsorgesprechstunde betreut. Die Patientinnen wurden auf Lymphödem und damit verbundene spezifische Symptome untersucht. Besonderer Wert wurde auf die Lebensqualität der Betroffenen gelegt. Als weiteres wurde die Korrelation zwischen Lymphödem oder Schultermorbidität und den in der Literatur beschriebenen potentiellen Risikofaktoren untersucht. Dazu gehören: therapeutische Radikalität (erweiterte Mastektomie vs. brusterhaltende Operation), Zahl der entfernten Lymphknoten, Zahl der durchgeführten Operationen, Durchführung einer Strahlentherapie bzw. einer adjuvanten Chemo- und endokrinen Therapie, erhöhte Blutdruckwerte, Übergewicht und höheres Alter. Alle Daten wurden mit Hilfe der Statistiksoftware SPSS- 12.0 ausgewertet. Alle Frauen erhielten eine stadienadaptierte Brustkrebstherapie gemäß den zum Diagnosenzeitpunkt geltenden Kriterien. Die Operationsart wurde in 2 Gruppen unterteilt: brusterhaltende Therapie (BET) und erweiterte Mastektomie (ME). Letzterer Gruppe wurden auch die Patientinnen mit Mastektomie und Wiederaufbauplastik zugeschrieben. Keine Patientin erhielt eine Operation nach Halsted. Bei alle Frauen fand eine klassische Axilladissektion statt. Die Axilla wurde bis Level II (in einzelnen Fällen bis Level III) ausgeräumt. In unserem Patientenkollektiv erhielt niemand ein Lymphknoten -Sampling oder eine Sentinel- Lymphonodektomie. Die Patientinnencharakteristika stellen sich so dar: 43,8% der Primärtumore waren bis 2 cm groß (T1), 43,0 % der Primärtumore befanden sich im Stadium T2. Fortgeschrittene Stadien (T3 und T4) wurden in 12,5% der Fälle beobachtet. Primär metastasierte Karzinome wurden aus dieser Studie ausgeschlossen. In 0,7 % der Fälle (1 Fall) konnte kein definiertes Tumorstadium (Tx) anamnestiziert werden. Die Axilla war zu 50,8 % tumorfrei. Durchschnittlich hat man in unserem Kollektiv 17,7 Lymphknoten untersucht ( min. 8 LK, max. 40 LK). Im Bezug auf die Histologie waren 85% der Fällen invasiv duktale Mammakarzinome, 10,0 % invasiv lobuläre und 5,0% andere Tumore. Eine brusterhaltende Therapie war in 61 Fällen (46,9%) möglich, eine erweiterte Mastektomie erhielten 69 Patientinnen (53,1%), davon 7,7% eine erweiterte Mastektomie mit einer Wiederaufbauplastik. Eine Strahlentherapie wurde bei 94 Patientinnen (72,4%) durchgeführt. Davon wurden 65,0% im Bereich der Restbrust, 23,4% im Bereich der Thoraxwand, 39,0% im Bereich des HSI- Feldes und 7,4% in der Axillaregion bestrahlt. Zum Zeitpunkt der Untersuchung wurden im Patientinnenkollektiv folgende Besonderheiten festgestellt: einen Schwerbehindertenausweis besaßen aufgrund des Mammakarzinoms 65,5% (94 Pat.), eine Patientin aus unserem Patientengut hatte eine Scapula alata, die seit der Operation bestand und im Verlauf keine wesentlichen Veränderungen zeigte. 59,2% (77Pat.) hatten zum Zeitpunkt der Untersuchung Schmerzen, Dysästhesien wurden in 56,2 % (73 Pat.) der Fälle beschrieben, 10,0% (13 Pat.) hatten am operierten Arm bereits eine Infektion gehabt. Schmerzmedikamente aufgrund von Beschwerden im operierten Arm nahmen 12,3 % (16 Pat.) - 66 - ein. Manuelle Lymphdrainagen wurden von 61,5 % (80 Pat.) zu unterschiedlichen Zeitpunkten gebraucht. Einen Armstrumpf trugen 16,9 % (22 Pat). 35,8 % (46 Pat.) hatten regelmäßig eine Krankengymnastik. In unserem Patientenkollektiv zeigten 25% der Betroffenen eine Umfangsdifferenz von mehr als 2cm an einem oder mehreren Messpunkten vom operierten zum nicht operierten Arm. Am häufigsten trat das Lymphödem im Bereich des Oberarmes (Messpunkt OA1 16% und Messpunkt OA2 18%) auf. Der Unterarm war deutlich weniger betroffen (UA1 13% und UA2 nur 1,5%). Ein Ödem im Bereich der Hand zeigte eine einzige Patientin, die insgesamt ein massives Lymphödem entwickelt hat. Bei der subjektiven Lymphödemeinschätzung, als Armödemneigung bezeichnet, waren nur 50% (65 Pat.) der Befragten beschwerdefrei, bei 29,2 % (38 Pat.) waren die Beschwerden leicht, bei 17,7 % (23 Pat.) mäßig und bei 3,1 % (4 Pat.) sehr ausgeprägt. Bei der Frage nach einem Thoraxwandödem gaben 80,8 % (105 Pat.) keine Beschwerden an, 13,8 % (18 Pat.) beschrieben ein leichtes und 5,4 % (7 Pat.) ein mäßiges Ödem. Im Bereich der Thoraxwand litt keine einzige Patientin subjektiv an einem schweren Lymphödem. Subjektiv stuften die Patientinnen die Beschwerden etwas ausgeprägter ein, als es die objektive Messung gezeigt hätte. Der Zeitpunkt der Entstehung des Lymphödems konnte in dieser Arbeit verfolgt werden. 47% aller Lymphödeme bestehen bereits seit der Operation, 16% bilden sich nach der Strahlentherapie, 4% nach einer Injektion in den ipsilateralen Arm und 12% im späteren Verlauf spontan. Bei der Messung einer Beweglichkeitseinschränkung wurde eine Einschränkung von mehr als 20 Grad zum Normalwert als pathologisch gewertet. Damit hatten 24,6% (32 Pat.) ein motorisches Defizit bei der Abduktion/Adduktion und 18,3% (24 Pat.) ein motorisches Defizit bei der Elevation im Schultergelenk. Da nur drei Patientinnen eine Einschränkung bei der Rotation und eine Patientin bei der Beugung im Ellenbogengelenk aufwiesen, wurde eine statistische Auswertung dieser Probleme nicht durchgeführt. Es wurde untersucht, ob Operationsart, Operationszahl, Zahl der untersuchten Lymphknoten, Tumorstadium, adjuvante Chemo- und Hormontherapie, arterielle Hypertonie und Übergewicht in unserem Kollektiv das Entstehen des Lymphödems oder von Beweglichkeitseinschränkungen begünstigt hatten. Von den überprüften Faktoren hatten nur Übergewicht und arterielle Hypertonie einen signifikanten Einfluss auf das Entstehen eines Lymphödems und Übergewicht hatte einen Einfluss auf das Entstehen von Beweglichkeitsstörungen im Schultergelenk. Dies ist in anderen Studien ebenfalls belegt [13, 52, 83]. Patientinnen mit Übergewicht haben ein höheres Risiko für die Entwicklung eines Lymphödems nach kompletter Axilladissektion. Solche Patientinnen sollten über Präventionsmaßnahmen informiert werden, sowie rechtzeitig eine entsprechende Therapie erhalten. Des weiteren zeigte sich ein Trend zu mehr Lymphödem bei Frauen mit adjuvanter Hormontherapie [13]. Es wird angenommen, dass die Anzahl der entfernten Lymphknoten eine Rolle im Lymphödemausmaß spielen kann. Hier zeigte sich überraschenderweise, dass in keinem der 5 Messpunkte die Anzahl der entfernten Lymphknoten mit der Umfangsdifferenz korrelierte. In unserem Kollektiv scheint die Zahl der entfernten Lymphknoten keine wesentliche Rolle bei der Entstehung des Lymphödems zu spielen. Da alle Frauen im untersuchten Kollektiv nach der gleichen Methode operiert wurden, die eine Dissektion des gesamten Lymph- und - 67 - Fettgewebes der Level I und II der Axilla zum Ziel hatte, kann man annehmen, dass nur das Ausmaß der zerstörten Lymphbahnen und nicht die Anzahl der darin eingeschalteten Lymphknoten die entscheidende Rolle bei der Entstehung der Armmorbidität spielt. Bei der Sentinellymphknotenmethode wird im Gegensatz dazu auf das Zerstören des lymphatischen Gewebe verzichtet. Seitdem die Halsted-Ära vorbei ist und die modifizierte radikale Mastektomie und sogar die brusterhaltende Therapie schon längst ein „Goldstandard“ in der operativen Therapie des Mammakarzinoms sind, sieht man keinen relevanten Unterschied in der Lymphödementstehungsrate zwischen radikaler und brusterhaltender Therapie mehr [18, 34]. Dies wird auch durch unser Patientenkollektiv bestätigt. Die Strahlentherapie, die als klassischer Faktor für das Entstehen des Lymphödems verantwortlich galt, spielte in unserem Patientinnenkollektiv keine signifikante Rolle (uni- und multivariate Analyse). Auch bei der subjektiven Lymphödemeinschätzung spielte die Strahlentherapie keine Rolle im Entstehen des Ödems (p nicht signifikant). In unserem Kollektiv könnte dies natürlich ein Effekt der kleinen Fallzahl sein. Möglicherweise hatte aber auch der weitgehende Verzicht auf eine Axillabestrahlung die entscheidende Bedeutung. Zur Axillabestrahlung besteht heute eine sehr strenge Indikationsstehlung (z.B. bei R2- Resektion in der Axilla oder ausgedehnterer Infiltration ins Fettgewebe), weil es die Lymphödemrate bis auf 36% erhöhen kann. In unserem Patientenkollektiv erhielten nur 7 Patientinnen eine Axillabestrahlung. Allerdings könnten auch die modernen Formen der Strahlentherapie mit homogener Dosisverteilung bis zu ca. 50,0 Gy, exakterer Planung und geringerer Belastung der Haut einen Beitrag hierzu geleistet haben. In der Literatur findet man oft Daten über die Bedeutung des Lymphödems und der Beweglichkeitsstörungen für die Lebensqualität der Betroffenen. Unsere Ergebnisse bestätigen die Literatur und zeigen wie häufig subjektive Beschwerden auftreten. Zusammenfassend zeigt diese Untersuchung die oft unterschätzte Häufigkeit von Lymphödemen, Beweglichkeitsstörungen in der Schulter und damit assoziierten Symptomen bei klassischer Behandlung eines Mammakarzinoms. Ein Ansatz, diese Probleme zu minimieren, stellt die Sentinel-Lymphknotenmethode dar. Um die Validität dieses Konzeptes zu überprüfen wäre der nächste logische Schritt die Untersuchung von Patientinnen unseres Hauses, die nach der Sentinelmethode operiert wurden, bezüglich Prevalenz und Inzidenz der Schulter- und Armmorbidität zu untersuchen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Klinische Verschleißanalyse mittels Lasertriangulation am Beispiel von Visio Gem-Inlays

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19

Play Episode Listen Later Jul 26, 2005


Ziel dieser Arbeit war es ein neuartiges optisches Meßsystem zu testen und für eine klinische Verschleißanalyse von Kompositinlays (Visio Gem® Fa Espe®) einzusetzen. Im Rahmen einer ausführlichen Literaturstudie entstand eine detaillierte Übersicht über die verschiedenen Verfahren für In-vivo-Verschleißanalysen. Auf die Vor- und Nachteile der einzelnen Meßsysteme wird eingegangen. Bei dem eingesetzten 3D Meßsystem handelt es sich um einen Lichtschnittsensor, der nach dem Triangulationsverfahren arbeitet. Ein Laserstrahl wird als Lichtlinie auf das Messobjekt abgebildet. Mit einem CCD-Chip wird diese Linie erfasst. Der seitliche Versatz der Linie beinhaltet in Abhängigkeit vom Triangulationswinkel die Höheninformation. Zu Beginn existierte nur ein Prototyp des optischen 3D-Sensors. Durch größere Umbauten und durch Automatisierung wurde der Sensor bis zur Serienreife weiterentwickelt. Die Überlagerung der zu vermessenden Bilder erfolgt referenzpunktfrei mittels einer eigens entwickelten Matching-Software. Die Probenbefestigung im Prototyp des Sensors stellte ein erhebliches Problem dar, weil zur Vermessung die unterschiedlichsten Formen und Größen positioniert werden mussten. Zur Datenerhebung standen Einzelzahn, Quadranten- und ganze Kiefer- Modelle an. Die ersten Sensoren besaßen obendrein nur eine Kamera-Optik-Einheit. Alle Abtastungen, die Verschattungen aufwiesen, mussten daher von zwei Seiten aufgenommen werden, um abschattungsfreie Okklusalflächen generieren zu können. Daher wurde ein geeigneter Objektträger mit einem Aufsatz, der um 180° umzusetzen ist, entwickelt. Der industriell gefertigte Träger kann alle Objektgrößen (Einzelzahn-, Quadranten-, Kiefer- Modelle) aufnehmen. Testreihen zur Qualitätssicherung deckten einige Probleme der Software auf. Durch Korrektur einiger Parameter bzw. Implementierung neuer Programmteile in die Auswertungssoftware konnten diese beseitigt werden. Aus der Validierung des Gesamtsystems konnten die folgenden technischen Daten für den 3D-Laserscanner ermittelt werden: Auflösung in der x-Achse (seitlich; CCD-Chip) 25 µm Auflösung in der y-Achse (längs der Abtastrichtung; Schrittmotor) > 2 µm Auflösung in der z-Achse (Höhe) 5 µm Messzeit :40 ms/Linie (512 Messpunkte) 5.000 – 10.000 Oberflächenpunkte / sec. Tiefenmessbereich 15 mm Reproduziergenauigkeit 1 µm +/- 1 Gesamtgenauigkeit 10 µm +/- 3 Der Prototyp konnte durch die Weiterentwicklung (ab Sensor 2) für die Erhebung größerer Datenmengen eingesetzt werden. Durch die Verbesserung der Software bzw. die Entwicklung eines eigenen „matching“-Programms (match 3d) durch Gloger (1993) (KUNZELMANN 1998; S. 30-35) kann die Auswertung der gewonnenen Daten schnell und komfortabel erfolgen. Erstmals wurde der Laser-Scanner für die Auswertung klinischer Daten verwendet. Die Auswertung des Verschleißes von Kompositinlays aus Visio Gem® erfolgte an Gipsmodellen (New Fuji Rock®). Für die Untersuchung standen 32 Zähne bzw. Inlays zur Verfügung, 14 Prämolaren und 18 Molaren. Die durchschnittliche Verweildauer betrug 48,8 Monate, bei den Prämolaren allein 47,4 Monate und bei den Molaren allein 49,8 Monate. Bei 13 Zähnen war eine Ausmessung der Inlaygrösse möglich. Sie betrug im Durchschnitt 45% der sichtbaren Fläche, bei den Prämolaren 51%, bei den Molaren 39%. Die Bilddaten wurden in zwei Gruppen ausgewertet. Zum einen die Gesamtgruppe aus 32 Zähnen, zum anderen eine Auswahl der besten, bestehend aus sechs Molaren und 3 Prämolaren. Der Mittelwert der Standardabweichungen betrug 158 [µm] (Gruppe2: 88 [µm]). Genauer: Prämolaren 110 [µm] (Gruppe2: 85 [µm]), Molaren 196 [µm] (Gruppe2: 91 [µm]). Die Anforderungen der ADA (1989) für Seitenzahnfüllungen der Klasse II erfüllen die Visio Gem®-Inlays nicht.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Individuelle dreidimensionale Simulation von Weichteilveränderungen im Gesichtsbereich

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19

Play Episode Listen Later Apr 26, 2005


In dieser Studie wurde eine individuelle faziale Weichteilprognose mit der Finiten-Elemente-Methode getestet und deren Validität und Prognosegenauigkeit geprüft. Zum Vergleich wurden die Messwerte mit einem zweidimensionalen Verfahren, dem Dentofacial Planner Plus Version 2.01, verglichen. Für die Erstellung der Weichteilprognose stellten sich 12 erwachsene Probanden zur Verfügung, bei denen eine kombiniert kieferorthopädisch-kieferchirurgische Behandlung durchgeführt wurde. Zur präoperativen Prognose der Weichteilveränderungen wurde ein Profilfoto mit einer digitalen Kamera der Firma Canon, EOS 10D, und ein Fernröntgenseitenbild für die Weichteilprognose des zweidimensionalen Verfahrens hergestellt. Nach Eingabe der kephalometrischen Messpunkte in das interaktive Softwaretool des Dentofacial Planners konnte die Operation simuliert werden. Dazu wurden die Werte der Modelloperation hinzugezogen. Nach Verschiebung der Maxilla und Mandibula in sagittaler und vertikaler Richtung errechnete die Software die Weichteilprognose, die als Profillinie zweidimensional visualisiert wurde. Für die digitale Gesichtserfassung der Probanden wurden mittels 3-D Laserscanner die fazialen Weichteile für das dreidimensionale Verfahren erfasst. Die akquirierten Punktwolken konnten vereinigt und über spezielle Algorithmen in ein CAD-Modell verarbeitet werden. Über diese CAD-Schnittstelle war es möglich ein Finite-Elemente-Modell zu generieren. Die Simulation zur fazialen Weichteilprognose erfolgte mit der Software Design Space (Ansys Inc.). Im Unterschied zum zweidimensionalen Verfahren besteht beim Finite-Elemente-Verfahren die Möglichkeit einer falschfarbenkodierten Visualisierung der regionalen Weichteilveränderungen im dreidimensionalen Raum. Es kann neben der Prognose der Profillinie auch eine ästhetisch wichtige Beurteilung der Wangen, der Nasenflügel und Nasiolabialfalten getroffen werden. Bei vergleichenden Messungen zwischen den beiden Prognoseverfahren zeigen sich bezüglich der Validität und der Prognosegenauigkeit eindeutige Unterschiede. Der durchschnittliche Gesamtfehler des Dentofacial Planners ist fast doppelt so hoch, im Vergleich zum Fehler des Finite-Elemente-Verfahrens. Es konnten regionale Unterschiede festgestellt werden. Im Mittelgesicht ist die Prognose der beiden Verfahren als gut einzustufen, währenddessen die Prognose des unteren Gesichtsdrittels mit dem Dentofacial Planner hohe Abweichungen zum postoperativen Gesichtsprofil aufweist. Diese Ergebnisse wurden von Fischer (2002) in einer Dissertation bestätigt. Die Prognosegenauigkeit des Finite-Elemente-Verfahrens ist im unteren Gesichtsdrittel höher. Jedoch wurde am Messpunkt Weichteilmenton Abweichungen in vertikaler Richtung mit Messwerten von über 1,5 mm aufgezeigt. Eine mögliche Erklärung dafür ist die geringe Simulation der Autorotation des Unterkiefers bei der Bearbeitung des Finite-Elemente-Modells. Es muss jedoch berücksichtigt werden, dass trotz der besseren Beurteilung der individuellen, fazialen Weichteilverhältnisse in allen drei Dimensionen des Raumes im Vergleich zum zweidimensionalen Verfahren keine absolut perfekte Weichteilprognose getroffen werden kann. Um dieses Verfahren der Finiten-Elemente-Methode zu verfeinern sollten bei der Herstellung des Finite-Elemente-Modells die Weichgewebsschichten und die Autorotation des Unterkiefers berücksichtigt werden.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Hochauflösende Magnetresonanztomographie der hyalinen Wirbelkörperknorpelplatte und angrenzender Strukturen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19

Play Episode Listen Later Oct 9, 2003


Anhand von 15 unfixierten Präparaten von Lendenwirbelkörpern wurde in dieser Arbeit an 56 Wirbelsegmenten die Darstellbarkeit der hyalinen Knorpelabschlussplatte mit der hochauflösenden Magnetresonanztomographie untersucht. Die Präparate wurden von Leichen entnommen und sofort tiefgefroren. Es wurden Sägeschnitte von 3 mm Dicke mit einer Bandsäge an den tiefgefrorenen Präparaten durchgeführt. Dadurch konnten die Messergebnisse korreliert und auf Validität entsprechend der magnetresonanztomographischen Schnittführung überprüft werden (coronar beziehungsweise sagittal). Zur Dokumentation wurden sämtliche Präparate fotografiert und Kontaktradiographien hergestellt. Segmente mit Modellcharakter oder besonderen Pathologien wurden fixiert, gefärbt und histologisch untersucht. Trotz der nur geringen Knorpeldicken von 0,8 cm im Durchschnitt bei den Präparaten ließen sich diese durch die hochauflösende Magnetresonanztomographie gut darstellen. Bei den T1 gewichteten MRT-Bildern konnte man gut die hyaline Knorpelabschlussplatte als signalärmeren Bereich vom Diskus intervertebralis und signalreicheren Bereich von der knöchernen Abschlussleiste differenzieren. Bei den T2- und Protonendichte-gewichteten Bildern ließ sich diese Knorpelplatte hingegen nur erahnen. Gute Darstellungen der Knorpelplatte wurden mit den Gradientenechosequenzen erzielt. Bilder von Gradientenechosequenzen mit dreidimensionaler Bildgebung waren hinsichtlich der Darstellung der Knorpelplatte der zweidimensionalen überlegen. Beste Ergebnisse wurden mit der DESS Sequenz mit einem Anregungswinkel α 40° erzielt. Bei dieser Sequenz konnte die Knorpelplatte an insgesamt 84 Prozent der Messpunkte nachgewiesen werden. Bei den untersuchten Präparaten konnten Normvarianten zahreiche Pathologien gesehen und beschrieben werden: Bei 14 der 96 untersuchten Deck- und Grundplatten der Wirbelkörper fand sich ein Cupid’s bow Phänomen. An den untersuchten Präparaten jeder Altersgruppe konnten degenerative Prozesse der Bandscheibe, der hyalinen Knorpelplatte und der knöchernen Abschlussplatte nachgewiesen werden: Bei den insgesamt 96 untersuchten Deck- und Grundplatten der einzelnen Wirbelsegmente waren 29 Schmorl’sche Knoten nachweisbar. Desweiteren sah man als Prozeß der degenerativen Bandscheibenerkrankungen die erosive intervertebrale Osteochondrose. Es konnte gezeigt werden, dass die Defekte der Erosionen durch Knorpelproliferate von Faser- und Hyalinknorpel aufgefüllt sind. Im Falle der erosiven Osteochondrose wurde ein besonderer Prozess beobachtet, und zwar die Proliferation von Knorpelgewebe in die osseären Erosionen. Es scheint sich um einen unspezifischen Reparaturmechanismus im Finalstadium der Bandscheibendegeneration zu handeln. Dieser entwickelt sich, nachdem der Faserknorpel des Diskus intervertebralis, die hyaline Knorpelplatte und die knöcherne Abschlussplatte vollständig destruiert sind. Die histologisch nachgewiesenen Knorpelproliferate wurden auf MRT-Bildern entdeckt. Der genaue Mechanismus der Knorelproliferation ist noch unbekannt. Für die Klinik dürfte aber dessen Kenntnis und die eventuelle Reproduzierbarkeit enorme Bedeutung haben.