POPULARITY
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 7 sprechen wir ausnahmsweise nicht über einen Fall von Christoph. Der „deutsche Mike Ross“ und sein gefälschtes Zeugnis haben uns aber beschäftigt. Wie war es möglich, ohne Examina und mit einem offensichtlich gefälschten Zeugnis nicht in der Großkanzlei aufzufallen? Weshalb kann man die Zeugnisse überhaupt so leicht fälschen und wie ist der Schwindel letztlich aufgefallen? Last but not least: Warum bekommen wir nach so langer und harter Arbeit nur so einen unansehnlichen Wisch als Zeugnis in die Hand gedrückt? P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube.
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 6 hat Christoph uns einen Fall mitgebracht, der anfangs völlig aussichtslos erschien. Doch das „Spezialwissen“ eines Kollegen brachte eine unerwartete Wendung in das arbeitsrechtliche Verfahren. Stecken hinter der Kündigung vielleicht ganz andere Motive? P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube.
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 5 hat Christoph uns eine völlig aus dem Ruder gelaufene Hochzeit mitgebracht. Allerdings haben weder Braut noch Bräutigam für eine Eskalation gesorgt, sondern die von einem Nachbarn herbeigerufene Polizei. Über 5 Jahre dauert die Aufklärung des Falles nun. Und leider hat sich die Brandenburger Polizei nicht wirklich mit Ruhm bekleckert. Doch ein Gast bleibt hartnäckig und begehrt Auskunft nach Landespolizeigesetz und Schadensersatz. P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 4 hat Christoph uns erneut einen spektakulären Fall mitgebracht. Auch diesmal geht es um Auskunftsrechte, die seitens einer Sparkasse mit der Begründung zurückgewiesen werden, die Archive, um die es geht, hätten im Krieg einen Volltreffer erlitten. Blöd, wenn das Geldinstitut selbst in der Vergangenheit etwas veröffentlicht hat, das dem widerspricht und sich in den Pressearchive einer Lokalzeitung weitere Beweise finden. Da hilft es auch nicht, rasch ein Gesetzgebungsvorhaben voranzubringen. Nicht, wenn sich dem ein engagierter Anwalt entgegen stellen kann. P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 3 hat Christoph uns wieder einen spektakulären Fall mitgebracht. Einen Fall, den man sich nicht annähernd ausdenken könnte. Es geht um Beamte, die in Ministerien sitzen, aber vielleicht gar nicht für Ministerien arbeiten. Und vielleicht sitzen sie nicht einmal in den Ministerien. Wer versucht, mit einem Auskunftsanspruch durchzudringen, bekommt vielleicht vor Gericht recht, vielleicht sogar in allen denkbaren Instanzen, beißt aber bei der Vollstreckung auf Granit. Denn vielleicht wurden die verlangten Daten inzwischen gelöscht – streng nach den Löschfristen der DSGVO. P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 2 schauen wir uns mal an, wie sich einige Ministerien gegen Auskunftsansprüche zu wehren versuchen und dabei das Mandatsgeheimnis etwas missverstehen. Warum schreiben sich nicht einfach alle Transparenz auf die Fahnen? Warum investieren Ministerien horrende Summen, um sich gegen teilweise offensichtlich begründete Auskunftsansprüche zur Wehr zu setzen? Gute Fragen! P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube.
Bei „P+P - Plaudern mit Partsch“ dürfen wir einen Blick in die Akten von Dr. Christoph Partsch werfen. Die Verfahren haben es immer in sich und Christoph hat von seinen Mandantinnen und Mandanten die Erlaubnis, über seine Fälle zu sprechen. Jeder einzelne Fall ist besonders, spektakulär oder rechtlich anspruchsvoll. Wir sprechen über Journalisten, die keinen Zugang zu Wahlpartys bekommen, über die „F-Kommunikation“, über den BND, über geschwärzte Unterlagen und vieles mehr. In Episode 1 sehen wir uns an, wie es mit dem Verfahren „Welt gegen AfD“, das Ihr schon aus dem Podcast kennt, weitergegangen ist. Und ohne zu viel verraten zu wollen: Manchmal muss man sich im Dunklen auf den Hof eines Gerichtes stellen und laut schreien, um Gehör zu finden. Dank engagierter Richter und Gerichtsvollzieher kommt man allerdings auch am Wochenende zu seinem Recht. Bleibt die Frage: Ordnungsgeld in Höhe von 1000 € für eine Partei? Wirklich? P+P: Immer mittwochs auf allen Podcastplattformen, auf Instagram, TikTok und YouTube
Die EU-Staaten und das EU-Parlament haben ein neues Asylsystem beschlossen. Die Verfahren sollen an den Außengrenzen beschleunigt und Abschiebungen erleichtert werden. Noch warten Geflüchtete oft Jahre wie in Marokko vor der spanischen Exklave Ceuta. Von Linda Peikert, Matthias Reiche, Andre Zantow www.deutschlandfunkkultur.de, Weltzeit
Die Eizellspende und die Leihmutterschaft sind in Deutschland aktuell verboten. Dennoch wünschen sich viele kinderlose Paare eine Legalisierung. Die Verfahren bergen aber besonders für die Spenderinnen und Leihmütter körperliche und psychische Gefahren.
Zwischen 2020 und 2030 müssen die CO2-Emissionen halbiert und bis zum Jahr 2050 auf Null gebracht werden. Technologien, die der Erdatmosphäre Treibhausgase wieder entziehen, könnten beim Erreichen dieser Ziele helfen. Doch eine Analyse zeigt: Die Verfahren versprechen mehr als sie halten können.Von Volker Mrasekwww.deutschlandfunk.de, Forschung aktuellDirekter Link zur Audiodatei
Die Verfahren für den Bau neuer Anlagen und auch für Sanierungen bestehender Einrichtung dauerten heute zu lange, stellte Bundesrätin Simonetta Sommaruga am Vormittag vor den Medien fest. Weitere Themen: - Klimaschutz im Trend – neuerdings auch bei Economiesuisse - Swisscom-Chef Urs Schaeppi nimmt den Hut - Münchner Erzbischof für die Abschaffung des Pflichtzölibats - Der neue Kampfjet ist lauter als der alte: Betroffene unzufrieden - Michael Nawrath über die Zukunft der «Big Pharma»
Die Leipziger Prozesse zwischen 1921 und 1927 stellten einen Versuch dar, von deutschen Militärs während des 1. Weltkriegs begangene Kriegsverbrechen, Verstöße gegen die 1907 unterzeichnete Haager Landkriegsordnung, vor dem Reichsgericht zu verhandeln. Die Verfahren standen unter keinem guten Stern. Von Anfang an hieß es, dass nur die kleinen Chargen bestraft werden und die Generäle freigesprochen werden, und das Ausland empörte sich gegen die Milde der Strafen. Im Juli 1921 wurde der Prozess gegen den Generalleutnant Hans von Schack und Generalmajor Benno Kruska geführt, angeklagt in 1280 Mordfällen, weil sie einen Typhusausbruch im Kriegsgefangenenlager Kassel verursacht hätten. Das Gericht stellte fest, dass der Typhusausbruch, dem auch deutsche Wachmannschaften zum Opfer fielen, auf der Verteilung russischer Kriegsgefangener auf die einzelnen Lager beruhte, der von der Obersten Heeresleitung angeordnet war und den die Angeklagten lediglich befolgt hätten. Sie wurden freigesprochen. Unabhängig davon, wie dies letztlich zu bewerten ist, schäumte damals die französische Presse vor Wut und der sozialdemokratische Vorwärts verteidigte am 9. Juli sogar das an selber Stelle oft kritisierte Verfahren, und machte klar: Kriegsverbrechen können nationale Gerichte kaum verhandeln. Es liest Paula Leu.
Den vollständigen Tagesdosis-Text (inkl ggf. Quellenhinweisen und Links) findet ihr hier: https://kenfm.de/einsatzphilosophie-der-dresdner-polizei-von-norbert-haering-podcast Wer aus der Verfassung liest, wird mit Knie im Rücken auf dem Boden fixiert. Ein Kommentar von Norbert Häring. Ein verstörendes Video ist im Internet zu sehen. Darin liest jemand in Dresden aus der sächsischen Verfassung vor. Polizisten aus NRW werfen ihn brutal zu Boden und knien minutenlang ohne erkennbaren Grund auf ihm. Die Medien interessiert das kaum. Deshalb habe ich mit dem Betroffenen gesprochen und die Polizei gefragt, was da los war. Auf dem Video vom 18.4. ist zu sehen (1), wie der Architekt und Zimmermeister Sascha Wolff laut aus der sächsischen Verfassung vorliest. In beträchtlichem Abstand um ihn herum stehen einige Menschen einzeln und in Zweiergruppen und applaudieren gelegentlich. Ein Gruppe Polizisten kommt angefahren und hört zunächst zu. Wolff beendet seine Lesung und will, sein Fahrrad schiebend weggehen. Die Polizistinnen und Polizisten auf deren Uniformrücken NRW zu sehen ist, scheinen seinen Weg zu verstellen. Er wechselt die Richtung. Als er auf sein Fahrrad steigen will, wird er von von zwei Polizisten angesprungen, von denen ihn einer in den Schwitzkasten nimmt, der andere ihn am Kopf nach unten reißt. So wird er vom Fahrrad zu Boden geworfen. Dann knien sich die Beamten auf ihn und fixieren ihn minutenlang am Boden. Gegenwehr ist nicht erkennbar. Ein anderer Grund für das zu Boden Werfen und das lange Fixieren auch nicht. Herr Wolff, wann und wo hat sich der Vorfall auf dem Video ereignet? Das war am Samstag 17. April gegen 19 Uhr auf dem Postplatz in Dresden. An dem Tag sollte es eine Demonstration gegen die Corona-Maßnahmen in Dresden geben, die verboten wurde. Hatte ihre Lesung etwas damit zu tun, war das eine Art Demonstration? Nein. Ich habe mich nur auf einen Platz gestellt und aus der Verfassung vorgelesen, ohne Ankündigung und wie man auf dem Video sieht, vor kleinem Passantenpublikum. Ich lese zwar auch manchmal bei Demonstrationen aus Grundgesetz oder Verfassung vor, aber meistens tue ich das als Einzelaktion. Gern auch vor dem Landtag. Wie ist die Reaktion der Behörden darauf? Nicht sehr freundlich. Ich bin schon mehrmals abgeführt worden, unter anderem, weil man vor dem Landtag nicht demonstrieren dürfe. Mir ist schleierhaft, wie man das Vorlesen aus der Verfassung mit einer Demonstration gleichsetzen kann und wie man eine Straftat oder Ordnungswidrigkeit daraus konstruieren kann. Hatte das rechtliche Folgen für Sie? Bisher nicht. Die Verfahren sind jeweils sehr schnell eingestellt worden. Es sind wohl auch in den Behörden maßgebliche Menschen der Auffassung, dass das Vorlesen aus der Verfassung nicht strafbar ist. Auch wegen des Vorfalls am 17. April habe ich noch keinen Strafbefehl oder Ähnliches bekommen. Und Sie, wollen Sie sich gegen die Behandlung durch die Polizisten wehren? Ja. Ich werde straf- und zivilrechtlich dagegen vorgehen, unter anderem wegen Körperverletzung im Amt. Haben Sie den Polizisten Grund gegeben, Sie so zu behandeln? Haben Sie sich einer Aufforderung, stehen zu bleiben, widersetzt oder entzogen? Nein, eine solche Aufforderung gab es nicht. Ich hatte auch keinen Grund anzunehmen, dass die Polizisten etwas an meinem Verhalten auszusetzen hatten, nachdem sie zunächst einfach zugehört hatten und dann, einen Bogen um mich machend, vor mir vom Postplatz weggingen. Wissen Sie, warum die Beamten Sie so lange am Boden fixiert haben? Sie suchten mich nach einem Ausweisdokument ab. Ich hatte aber keines bei mir. Ich habe ihnen aber anstandslos gesagt, wer ich bin und wo ich wohne. Wie ging die Sache weiter? Nachdem man mich irgendwann aufstehen ließ, wurde ich längere Zeit am Polizeiauto festgehalten und sollte schließlich mitgenommen werden. Sächsische Polizisten, die dazukamen, sorgten aber schließlich dafür, dass diese unfassbare Situation ein Ende fand. Haben Sie gesundheitliche Schäden davongetragen? Durch den Sturz aufs Pflaster habe ich eine Knieverletzung erlitten, wegen der ich noch in Behandlung bin und Probleme habe. Vielen Dank für das Gespräch, Herr Wolff. Polizei Dresden nimmt Stellung... hier weiterlesen: https://kenfm.de/einsatzphilosophie-der-dresdner-polizei-von-norbert-haering/ +++ Jetzt KenFM unterstützen: https://de.tipeee.com/kenfm Dir gefällt unser Programm? Informationen zu weiteren Unterstützungsmöglichkeiten hier: https://kenfm.de/support/kenfm-unterstuetzen/ Du kannst uns auch mit Bitcoins unterstützen.Bitcoin-Account: https://commerce.coinbase.com/checkout/1edba334-ba63-4a88-bfc3-d6a3071efcc8 +++ Abonniere jetzt den KenFM-Newsletter: https://kenfm.de/newsletter/ +++ KenFM jetzt auch als kostenlose App für Android- und iOS-Geräte verfügbar! Über unsere Homepage kommt Ihr zu den Stores von Apple und Google. Hier der Link: https://kenfm.de/kenfm-app/ +++ Website und Social Media: https://www.kenfm.de https://www.twitter.com/TeamKenFM https://www.instagram.com/kenfm.de/ https://soundcloud.com/ken-fm See acast.com/privacy for privacy and opt-out information.
Wer findet sich schon im Bereich der Therapieverfahren zurecht. Es gibt eigentlich 4 wissenschaftlich anerkannte Verfahren, auf die auch in dieser Episode eingegangen werden kann. Die psychoanalytische Therapie ist eng mit dem Namen von Sigmund Freud verknüpft. Er legte auch die Grundlagen mit dem Phasenmodell der kindlichen Entwicklung, dem Instanzenmodell und den Abwehrmechanismen, die in jeder Psychoanalyse ein Thema sind. Die Verhaltenstherapie geht davon aus, daß psychische Erkrankungen sich aufgrund von fehlerhaften Lernprozessen entwickeln. Die Gesprächstherapie, die von Rogers begründet wurde ist mittlerweile anerkannt und liegt zwischen den beiden genannten Therapieverfahren. Die Verfahren sind in den letzten Jahren vielfältig geworden und sicherlich spielen die Entspannungsverfahren, Gestalttherapie und Psychoeduktion eine große Rolle, vor allem weil Kunden, die sich bewußt für eine Therapie entscheiden, durchaus ihre Meinung haben können. Der Heilpraktiker für Psychotherapie muß sich so einiges Rüstzeug aneignen, um in der Lage zu sein, Professionalität und Kompetenz auszustrahlen und auch auf die Wünsche des Kunden einzugehen. Selbstreflexion und Supervision sind fester Bestandteil der Arbeit als Heilpraktikers für Psychotherapie.
Die Verfahren der Zürcher Kinder- und Erwachsenenschutzbehörde KESB sollen weniger lange dauern und einfacher werden. Dies schöägt die Justizdirektorin Jacqueline Fehr vor. Sie hat die KESB überprüfen lassen. Weitere Themen: * Neues Gutachten zu Missständen an Unispital Zürich * Nur zwei Abstimmungslokale geöffnet in Zürich * Winterthur braucht neuen Datenschützer
Die Bluecodes Mobile-Payment-Initiative Der europäische Mobile-Payment-Anbieter Bluecode und die sechs Bezahldienste Momo Pocket (Spanien), Pagaqui (Portugal), Vipps (Norwegen), ePassi, Pivo (Finnland) sowie Alipay (China) bündeln ihre Kräfte und planen, ein einheitliches QR-Code-Format für mobiles Bezahlen zu etablieren. Ziel dieser "Mobile Wallet Collaboration" ist es, Smartphone-Zahlungen zwischen den teilnehmenden Anbietern, Händlern und Ländern kompatibel zu machen. Die Zusammenarbeit bildet dabei die technische Grundlage, um bisherige Einschränkungen nationaler Mobile-Payment-Angebote zu verringern und so eine für Endkunden möglichst breite Akzeptanz zu schaffen. Das Bluecode Mobile-Payment-System, auf welches in Deutschland und Österreich bereits mehr als 100 Banken vertrauen, ist einer der technischen Dienstleister, der dafür sorgt, dass die mobilen Zahlungen der teilnehmenden Partner zwischen Händlern, Banken und Endkunden korrekt abgewickelt werden. Ziel der Zusammenarbeit ist es, die technische Grundlage zu schaffen, damit Nutzer der verschiedenen nationalen Lösungen länderübergreifend bezahlen können. Anfang dieser Woche überraschte Bluecode also mit der Ankündigung einer technischen Harmonisierung von 6 verschiedenen QR-Code Mobilepayment Verfahren auf Basis des chinesischen Alipay Standards https://www.handelsblatt.com/24435272.html Die Verfahren wollen damit eine länderübergreifende Kompatibilität ermöglichen. Die Kooperation ist explizit offen für weitere europäische Paymentverfahren. Damit spielt Sie in die aktuelle heiße politische Diskussion zum deutschen/europäischen Paymentchampion https://paymentandbanking.com/das-deutsche-payment-scheme-naht-das-ende-des-flickenteppichs/ Jochen und Rafael haben die Chance genutzt und sich mit Dr. Christian Pirkner von Bluecode zu einem Podcast zusammengeschaltet. Sie versuchen erst ein wenig besser zu verstehen, was sich hinter der Pressemitteilung verbirgt und ob Alipay im akuellen Streit zwischen Europa und den US-Paymentchampions gar der lachende Dritte ist. Gleichzeitig versuchen Sie Mehrwerte von alternativen Mobilepayment-Verfahren zu Apple & Google zu identifizieren im Kontext der Relevanz beim Kunden. Schaffen es alternative Zahlverfahren getrieben von Banken gegen die Netzwerkeffekte und Relevanz der iOs und Android-Plattformen außerhalb von Nischen zu skalieren? Werden Banken im Payment den gleichen Weg anderer Industrien wie z.B. die Musikindustrie zu gehen? Ein Weg zu einer weiteren Marginalisierung der Kundenbeziehung und Marge?
IT Manager Podcast (DE, german) - IT-Begriffe einfach und verständlich erklärt
Unterstützt durch finally safe GmbH In einem spannendem Interview mit Herrn Diego Sanchez erfahren Sie, liebe IT Profis, wie man mithilfe von maschinellem Lernen Angriffe frühzeitig identifizieren und verhindern kann. Sie wollen selbst mal in einem Interview dabei sein? Oder eine Episode unterstützen? Dann schreiben Sie uns gerne eine E-Mail: ingo.luecker@itleague.de Kontaktdaten des Interviewpartners: Diego Sanchez sanchez@finally-safe.com Beantwortung von Fragen zu Cyberangriffen: https://www.finally-safe.com/anfrage/ Security News Artikel und Analyse: https://www.finally-safe.com/nachrichten/ BSI Empfehlungen: https://www.allianz-fuer-cybersicherheit.de/ACS/DE/_/downloads/BSI-CS_134.pdf?__blob=publicationFile&v=4 Buchempfehlungen: BLACKOUT - Morgen ist es zu spät: Roman von Marc Elsberg: https://amzn.to/2KYxIH8 ZERO – Sie wissen, was Du tust: Nachfolger von Blackout, auch vom Marc Elsberg: https://amzn.to/2V3NbJN Risiken der Industrie 4.0 – Eine Strukturierung von Bedrohungsszenarien der Smart Factory, Michael Hertel, 2015 I: Herzlich willkommen liebe IT-Profis zur heutigen Folge des IT-Manager Podcast zum Thema: Wie kann maschinelles Lernen Smartfactorys vor Cyberattacken schützen? Ja, ich weiß. Wir könnten nun eigentlich drei Episoden davon machen. Was versteht man unter maschinellem Lernen? Was sind Smartfactorys? Und wie muss ich mir Cyberattacken vorstellen? Doch heute haben wir dazu im Interview Diego Sanchez als Spezialisten zu diesem Thema. Herzlich willkommen! Stellen Sie sich doch bitte kurz selbst den IT-Profis vor. B: Ja, hallo. Mein Name ist Diego Sanchez. Ich bin Mitgründer der Firma Finally Save aus Essen. Ich selbst bin Wirtschaftsingenieur und seit der Gründung 2015 verantwortlich dafür, die Herausforderungen und Problemstellungen unserer Kunden und Interessenten zu identifizieren, zu verstehen und gemeinsam dafür Lösungen anzubieten. Dabei arbeiten wir immer eng im Team mit unseren Technikern und Entwicklern zusammen, um die passende Lösung mit Hilfe unserer Sicherheitslösung zur Erkennung von Cyberangriffen zur Verfügung zu stellen. I: Ja, ich hatte unser heutiges Thema zu Beginn schon erwähnt. Was können wir und die Hörer uns denn ganz konkret darunter eigentlich vorstellen? B: Also bei unserem Thema geht es darum, dass die Fabriken immer häufiger Ziel von Cyberangriffen werden. Ähnlich wie wir das in der letzten Podcast-Spezialfolge gehört haben. Wir stellen eine Technologie her, die ich heute beschreibe, um solche Angriffe frühzeitig zu erkennen. Damit schnell Gegenmaßnahmen ergriffen werden können, um Schäden entweder komplett zu vermeiden oder die Auswirkungen zu vermindern. Denn oft kann es zum Beispiel im medizinischen Bereich oder bei der Versorgung von Energie und Wasser, auch um Menschenleben gehen. Neben den Cyberangriffen haben wir noch die beiden Themen Smartfactory und maschinelles Lernen, die ich einmal an einem Beispiel erklären möchte. Wenn Sie sich vorstellen, ein Hersteller von chemischen Produkten, wie zum Beispiel Medikamenten. Ein solcher Hersteller verfügt über Produktionsanlagen, mit denen er verschiedene, chemische Stoffe kombiniert, dass am Ende das Medikament erzeugt wird. Diese Anlagen sind oft riesig und hochautomatisiert. Was bedeutet, dass Computer die einzelnen Prozessschritte steuern. Dazu kommt, dass viele erzeugte Daten, wie zum Beispiel Temperaturen, Drehzahlen, Schwingungen, dafür verwendet werden, um Vorhersagen über die Haltbarkeit von Maschinenteilen zu treffen. Was man predictive maintenance nennt. Oder um ganze Abläufe zu verbessern. Das bedeutet, dass Maschinen immer mehr zu eigenständigen, leistungsfähigen Computern werden, die Daten miteinander austauschen. Das Ganze nennt man Smartfactory oder die intelligente Fabrik. Maschinelles Lernen, oder auch Machine Learning genannt, ist ein Teilbereich der Künstlichen Intelligenz. Die Verfahren wurden schon in den fünfziger Jahren entwickelt, konnten aber erst in den letzten Jahren richtig nutzbar gemacht werden. Einmal durch die steigenden Datenmengen, die man benötigt, um solche Systeme anzulernen. Zum anderen auch durch die immer leistungsfähigeren Prozessoren. Kurz gesagt werden aus Datenbeständen durch Algorithmen Modelle erzeugt, um Muster und Gesetzmäßigkeiten aufzudecken. Anders ausgedrückt: Es wird künstliches Wissen aus Erfahrung generiert. Das Machine Learning verwenden wir nun, um die Daten, der vielfältigen komplexen Abläufe der Smartfactory intelligent auszuwerten. Zum Beispiel die Kommunikation zu und zwischen Maschinen, um Muster und Regeln abzuleiten. Das Ziel dabei ist es, Entscheidungen zu treffen. Was im Verkehr ist normal? Was ist anormal? Was ist gewollt oder nicht gewollt? Wo passieren verdeckte Dinge, die nicht vorgesehen sind? All das sind Hinweise oder können Hinweise sein auf versteckt ablaufende Angriffe. I: Welche Vor- beziehungsweise Nachteile gibt es denn gerade bei der Anwendung von Maschinenlernen in Smartfactorys? Weil, Sie haben jetzt ja viele Bereiche dargestellt und das ja auch so ein bisschen bildhaft gemacht, wie man sich das tatsächlich in der ja Produktionsanlage eines Herstellers auch so vorstellen kann, wie da die Maschinen miteinander agieren. Aber welche Vor- und Nachteile gibt es denn da konkret beim Einsatz solcher Techniken? B: Ich fange zuerst mal bei ein paar Nachteilen an. Selbstlernende Systeme sind immer nur so gut, wie auch die Datengrundlage, die sie erhalten. Wenn zum Beispiel ein bereits infiziertes Netzwerk als Grundlage genommen wird, kann das natürlich die Ergebnisse verfälschen. Zudem können auch dynamische Veränderungen wie kurzfristige Änderungen in Produktionsabläufen die Interpretation der Systeme beeinflussen. Was man dagegen tun kann? Wichtig ist es, sich nicht zu hundert Prozent auf die Algorithmen zu verlassen sondern diese immer im Zusammenspiel mit Experten zu verwenden. Solche Systeme also als Assistenten zu nutzen, um die gewünschten Ergebnisse zu erzielen. Kommen wir nun zu den Vorteilen. Die schieren Datenmengen, komplexe Muster und Abläufe können von Menschen zwar punktuell erfasst und interpretiert werden, jedoch nicht kontinuierlich zu jedem Zeitpunkt und voll automatisch. Dadurch werden Machine Learning Algorithmen benötigt, die diese Aufgabe übernehmen und mit der Hilfe von Menschen ständig optimiert werden. Zusätzlich verwenden Angreifer selbst hochautomatisierte Systeme und Software, um möglichst unbemerkt in Fabriken einzudringen und sich festzusetzen. Diese Änderungen und Hinweise können so klein sein, dass sie uns Menschen gar nicht auffallen. Zum Beispiel kann es die Veränderung jeder zweitausendsten Verbindung einer Maschine im Datennetz sein. Wir entwickeln Software, die Unternehmen hilft, ihre Datenströme zu nutzen, um Schaden von der Firma abzuwehren. Dazu müssen sie verstehen, wie und wohin die Daten fließen, die in jeder Sekunde entstehen. Das Ziel dabei ist es, Firmen vor Spionage und Manipulation zu schützen, die das Überleben der Firma oder das von Menschenleben bedrohen könnten. I: Okay. Das hört sich echt sehr komplex an, ehrlich gesagt, das ganze Thema auch. Gerade natürlich wenn man dann in solche Sachen reingehen muss. Das kann ich mir gut vorstellen, dass da viele Dinge vor allen Dingen analysiert werden müssen. Und wahrscheinlich dann auch über einen längeren Zeitraum. Woher kommt denn eigentlich Ihre Expertise in Ihrem Fachgebiet? B: Ja, das ist richtig. Wir haben mit klassischen Netzwerkanalysen bereits vor 14 Jahren am Institut für Internetsicherheit der Westfälischen Hochschule begonnen. Und in Zusammenarbeit mit dem BSI immer weiter entwickelt. Als in den letzten Jahren die Digitalisierung im Bereich Produktion und die Vernetzung von Maschinen zunahm, haben wir begonnen, uns mit diesem Bereich zu beschäftigen. In dem es im Kern ja auch um Datenströme geht. Da haben wir festgestellt: Maschinenkommunikation ist sehr gleichmäßig und folgt klaren Mustern. Also eine ideale Grundlage für ein Machine Learning, das wir zuvor schon in den klassischen Netzwerken eingesetzt haben. Mir persönlich hilft zudem als gelernter Wirtschaftsingenieur das Wissen über Produktionsabläufe und Kennzahlen, um Firmen besser zu verstehen. Um den Firmen und Kunden besser zu helfen, mit unserer Technik die Ziele zu erreichen. Die Ziele sind vor allem: Hohe Verfügbarkeiten, keine Unterbrechungen, Flexibilität der Produktionsanlagen, Stichwort Nullfehlerproduktion, und immer das Verhältnis zwischen Kosten, Zeit und Qualität auszubalancieren. Für viele Firmen ist die Sicherheit oder Cybersecurity immer eher ein unterstützender Faktor, der jedoch schnell zum Stolperstein für die übergeordneten Ziele werden kann. I: Und gibt es besondere Tipps zu dem Thema, die Sie unseren Zuhörern geben können? B: Ich habe mal zwei Tipps mitgebracht. Der erste: Man sollte niemals Systeme einfach vernetzen, ohne vorher kritisch die Sicherheit zu hinterfragen. Das gilt zum Beispiel auch im privaten Bereich, wenn man an Alexa, Fitnesstracker oder Smart Home Anwendungen denkt. Das andere ist: Man sollte sich nie nur auf die Technik verlassen, sondern immer auch den gesunden Menschenverstand einschalten. Zum Beispiel sollte man sich fragen, ob eine (Heizungssteuerung?) unbedingt frei im Internet verfügbar sein sollte für jedermann. #00:08:16-0# Oder dass man nicht immer auf jeden Link in der Email klickt. Im Zweifel Experten ansprechen, fragen, recherchieren. Das geht meistens auch schon kostenlos. I: Ja super. Vielen Dank für diese Tipps. Das ist immer großartig. Das kann man immer auf jeden Fall mitnehmen. Und gerade bei der ganzen Verbreitung von solchen Systemen wie Alexa und Co. muss man ja tatsächlich mal hinterfragen: Macht das wirklich so viel Sinn? Erleichtert es das Leben so ungemein, dass es wirklich erforderlich ist? Und was hole ich mir damit eigentlich auch für Sicherheitslücken eigentlich ins Haus? Gibt es bestimmte Mehrwerte, die Sie den Hörern noch zur Verfügung stellen können? Also gewisse Checklisten oder andere Dinge, wo auch die Hörer einfach nochmal ein bisschen ins Eingemachte tiefer steigen können? B: Ja, sehr gerne. Wir haben drei Punkte nochmal mitgebracht, die auch verlinkt sind. Und zwar zum einen Security News, die wir regelmäßig erstellen. Die man auf unsere Website findet oder über unseren Newsletter erhält. Darin sind auch Analysen zu Cyberangriffen enthalten. Als zweites beantworten wir sehr gerne Fragen zu Auffälligkeiten, zu Angriffen. Da kann man uns sehr gerne kontaktieren. Und als drittes gibt es auch sehr viele BSI Empfehlungen. Zum Beispiel haben wir verlinkt einen Leitfaden und eine Empfehlung wie man Anomalieerkennung und Monitoring in Prozessnetzwerken verwenden kann. I: Ja, die Informationen dazu, werden wir dann natürlich dann den Hörern in den Shownotes zur Verfügung stellen. Da packen wir die Links rein. Da kann man das jederzeit auch aufrufen und sich im Detail mal in Ruhe anschauen. Gibt es denn zu diesem Thema auch Buchempfehlungen? Wir haben immer ein bisschen die Situation bei anderen Themen, dass Buchempfehlungen manchmal gar nicht ausgesprochen werden, weil die IT-Branche sich ja so dermaßen schnell weiter entwickelt. Wie sieht es denn hier zu dem Thema hier mit den Cyberattacken der Smartfactorys aus? B: Ja, da habe ich auch mal wieder drei Dinge mitgebracht, und zwar ein Klassiker: Das Buch Blackout von dem Autor Marc Elsberg. Das ist schon etwas älter, von 2013, aber das ist heute genauso aktuell und zeigt dieses sehr abstrakte Thema IT, Cybersicherheit, was die Auswirkung auf das wahre Leben ist. Also immer noch eine Empfehlung, das Buch. Oder auch der Nachfolger mit dem Namen Zero von dem gleichen Autor. Und eine dritte Empfehlung, etwas technischer, ist das Buch Risiken der Industrie 4.0. Eine Strukturierung von Bedrohungsszenarien der Smartfactory von Michael Härtel. I: Ja auch zu diesen drei Büchern stellen wir dann natürlich entsprechende Links ein, damit man da direkt sich die Bücher auch besorgen kann. Ja, aufgrund des Interviews hier gibt es ein besonderes Angebot für unsere IT-Profis, um diese Lösung aus Ihrem Hause auch nutzen zu können. Sie sagen ja vorhin, dass Sie dort eine ganz spezielle Technik einsetzen. Haben Sie da was Spezielles für unsere Hörer im Angebot? B: Ja, wir würden unseren Hörern gerne eine Mehrzweckanalyse anbieten, mit unserem System. Das kann man sich als Suppliance vorstellen. Und das Ganze bei einer Dauer von 60 Tagen. Also im Grunde 2 Monaten für einen halbierten Preis von 3.600 Euro. Und das Angebot halten wir aufrecht bis Ende des Jahres 2019. I: Das heißt für 3.600, das heißt statt normalerweise 7.200, weil Sie sagten eben zum halben Preis. Und ich würde dann den Hörern noch hinzugeben: Je nachdem, welcher Unternehmensgröße Sie angehören, sollten Sie da immer nochmal prüfen, welche Möglichkeiten einer bundesweiten oder EU-Förderung Sie dort auch in Anspruch nehmen können. Da muss sich immer jeder mal schlau machen, in welchem Bundesland er da auch sitzt und was es da gerade für ihn gibt. Und je nach Größe des Unternehmens ist da auch schnell mal Schluss mit einer Förderung, wenn man bestimmte Umsatzgrenzen dort bereits durchbricht. Ja, vielen Dank Herr Sanchez für dieses tolle Interview und die Einblicke in diese Dinge. Auch wie diese ganzen Sachen ineinandergreifen und welche Möglichkeiten es dort heute gibt mit Maschinellem Learning dort in den Smartfactorys tatsächlich auch solche Cyberattacken abwehren und ja das Ganze im Prinzip auch damit schützen kann. Indem vorher gut ausgewertet hat, was da eigentlich so stattfindet, um dann natürlich die entsprechenden Sicherheitsmechanismen zu etablieren. Vielen Dank Ihnen!
Seit Anfang April ist das Asylwesen in der Schweiz neu organisiert. Die Verfahren sollen schneller gehen, aber auch fairer sein. Deshalb sind auch die Flüchtlingsorganisationen mit an Bord. Und in der Frage der Woche geht es um das Phänomen, dass die Kanzel in der Kirche immer unbeliebter wird.
Können die agilen Methoden, die aus der Softwareentwicklung kommen und maßgeblich dort weiterentwickelt wurden auf andere Branchen übertragen? Entwicklung das den Charakter des „Neuen“ und Unbestimmtheit innewohnt sind bei zusätzlich hohen Änderungsdruck von außen agile Methoden besonders geeignet. Die Verfahren und Methoden sind besonders dann… Weiterlesen
Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen. Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Degenerative Gelenkerkrankungen (Osteoarthrose) gehören zu den am weitesten verbreiteten chronischen Erkrankungen der älteren Bevölkerungsschicht. Die vorliegende Arbeit hatte zum Ziel, Bildverarbeitungsmethoden zu entwickeln, die eine frühzeitige Diagnose degenerativer Veränderungen des Knorpels oder eine Prognose über die Erkrankungswahrscheinlichkeit bzw. ihren Verlauf ermöglichen. Dies ist notwendig, um rechtzeitig mit einer geeigneten Therapie beginnen zu können. Dreidimensionale Rekonstruktion der Knorpelplatten aus MRT-Schichtbildern Als erster Schritt wurde eine Technik für die 3D-Rekonstruktion der Knorpelplatten aus den segmentierten Schichtbildern entwickelt. Das rekonstruierte Knorpelmodell bietet die Möglichkeit, die Gelenkflächengröße und die Größe der Knorpelknochengrenze exakt und reproduzierbar zu ermitteln. In der Gelenkflächengröße wird ein wichtiger Parameter für die Lastverteilung innerhalb der Gelenke gesehen. Zum anderen dient sie als Basis zur ortsaufgelösten Berechnung und Visualisierung der Gelenkflächenkrümmung und Signalintensität. Die Methode zur 3D-Rekonstruktion lässt sich in verschiedene Phasen unterteilen. In der ersten Phase werden die Konturen des segmentierten Bereiches jeder Schicht berechnet und die Reihenfolge der einzelnen Konturpunkte im mathematisch positiven Sinn geordnet. Unter Verwendung von "a priori"-Wissen über die Knorpelform wird die Gesamtkontur jeder Schicht in einen Gelenkflächen- und einen Knorpelknochengrenzen- Anteil unterteilt. Die Konturen, die gemeinsam einer Knorpelfläche (Gelenkfläche oder Knorpelknochengrenze) zugeordnet wurden, werden über ein Dreiecksnetz zu einem dreidimensionalen Modell der Fläche verbunden. Das Dreiecksnetz kann in unterschiedlichen Auflösungen erzeugt werden, je nachdem ob jeder Konturpunkt in dieses Netz einbezogen oder eine vom Benutzer definierte Anzahl übersprungen wird. Dadurch wird eine Glättung der Oberfläche möglich. Durch Summation der einzelnen Dreiecksflächen wird die Gesamtgröße der beiden Knorpelflächen berechnet. Die Bestimmung der Gelenkflächen- und Knorpelknochengrenzengröße wurde an verschiedenen Testkörpern (Kugel, Zylinder, Ebene) validiert. Die Abweichung von der theoretischen Flächengröße der Testkörper lag zwischen 0 und 4%. Die Präzision (CV%) der Messung verschiedener Gelenkflächen des Kniegelenks bei 14 Probanden (WE-FLASH Sequenz, Auflösung 1;5x0;31x0;31mm3, 4-fach Messung) lag zwischen 2,0 und 3,6 %. Es ergab sich ein Verhältnis zwischen der biologischen Variabilität und dem Messfehler von 3,7:1 (Patella, Knorpelknochengrenze) bis 7,7:1 (Femur, Knorpelknochengrenze). Dies zeigt, dass mit der Methode verlässlich zwischen Individuen mit großen und kleinen Gelenkflächen unterschieden werden kann. Der Vorteil dieses Verfahren gegenüber vergleichbaren Ansätzen besteht darin, dass der segmentierte Bereich automatisch in einen Gelenkflächen- und Knorpelknochengrenzen-Anteil aufgeteilt wird. Auf dieseWeise wird eine getrennte Analyse beider Flächenanteile möglich. Die 3D-Rekonstruktion ist weitgehend unabhängig von der ursprünglichen Schichtorientierung und ermöglicht somit morphologische Untersuchungen der Gelenkfläche, wie z.B. eine Krümmungsanalyse. Krümmungsanalyse des Gelenkknorpels In einem nächsten Schritt wurden Techniken für eine Analyse der Gelenkflächenkrümmung entwickelt. Die Krümmung dient als Maß zur Beurteilung von Inkongruenzen zwischen patellofemoraler bzw. tibio-femoraler Gelenkfläche. Da das Ausmaß der Inkongruenz zwischen zwei Gelenkflächen Einfluss auf die Größe der Kontaktfläche zwischen diesen hat, wird hierdurch die Lastverteilung im Gelenk entscheidend bestimmt. Es wurde eine regionale Gaußsche und eine indirekte Krümmungsanalyse entwickelt. Um die Gaußsche Krümmungsanalyse durchzuführen, wurde eine B-Spline-Fläche durch definierte Oberflächenpunkte des 3D-Modells der Gelenkfläche interpoliert. Da für die B-Spline-Fläche eine mathematische Beschreibung existiert, war eine Bestimmung der beiden Hauptkrümmungen jedes Punktes auf der Fläche möglich. Auf diese Weise konnte für jeden Flächenpunkt die mittlere, maximale, minimale und Gaußsche Krümmung berechnet werden. Die Verfahren wurde an 5 Testkörpern mit bekannten Krümmungseigenschaften (Kugel, Zylinder, Ebene, Paraboloid, Hyperbolisches Paraboloid) validiert. Die maximale Abweichung vom theoretischen Krümmungswert betrug ca. 2%. Die Präzision [1m] der Gaußschen Krümmungsanalyse an den Kniegelenken gesunder Probanden lag zwischen 2,9 und 10,5 1m. Ergänzend zur exakteren Gaußschen Krümmungsanalyse wurde die indirekte Krümmungsanalyse entwickelt. Hierbei wurde durch eine Flächenexpansion des 3D-Modells die relative Flächenvergrößerung berechnet. Auf Basis dieser relativen Änderung wurde eine Krümmungsmaßzahl bestimmt. Die Anwendung auf Testkörper zeigte, dass dieses Verfahren eher eine qualitative Aussage über die Gesamtkrümmung einer Fläche liefert und daher eine exakte Gaußsche Analyse vorzuziehen ist. Das in dieser Arbeit entwickelte Gaußsche Verfahren zur Krümmungsbestimmung von Gelenkflächen hat das Potential, ein quantitatives Maß der Inkongruenz von Gelenken zu liefern. Dadurch wird es möglich, Punkte maximaler Belastung zu ermitteln, was Hinweise auf die Initiation und Progression von Knorpelschäden liefern kann. Darüberhinaus kann ein Zusammenhang zwischen der lokalen Belastung und daraus folgenden biochemischen Eigenschaften des Knorpels hergestellt werden. Globale und regionale Signalintensitätsanalyse In einem dritten Schritt wurden die Voraussetzungen für eine detailierte Strukturanalyse des Knorpelgewebes mit der MRT geschaffen. Zu diesem Zweck wurde ein Verfahren entwickelt, mit dem sich die globale und regionale Signalintensität spezieller MRT-Sequenzen quantitativ und visuell (projiziert auf das 3D-Knorpelmodell) auswerten lassen. Je nach MRT-Sequenz lassen sich potentiell Aussagen über den Wasser-, Kollagen- oder Proteoglykangehalt des Knorpels in unterschiedlichen Regionen treffen. Dazu wird der segmentierte Knorpel automatisch in eine vom Benutzer definierte Anzahl von Tiefenzonen (Oberfläche - Knorpelknochengrenze) und Regionen (z.B. medial - lateral) eingeteilt. Die Signalintensität kann global über den gesamten Knorpel oder regional in den Tiefenzonen und Regionen ausgewertet werden. An 15 Probanden wurde für die Protonendichte ein signifikant (p < 0,001) höherer Wert des patellaren Knorpels gegenüber der lateralen Tibia festgestellt. Insgesamt konnte eine hohe Variabilität zwischen den Probanden beobachtet werden. Zwischen den männlichen und weiblichen Probanden ergab sich kein signifikanter Unterschied. Die Variation zwischen den Schichten war geringer als diejenige zwischen verschiedenen Individuen. Beim MT-Koeffizienten war eine signifikant niedrigere Signalintensität (p < 0,01) des Knorpels der medialen Tibia gegenüber der Patella und der lateralen Tibia zu beobachten. Es wurde ebenfalls eine hohe inter-individuelle Variabilität festgestellt. Auch beim MT-Koeffizienten war die Variation zwischen den Schichten geringer als diejenige zwischen verschiedenen Individuen. An 3 Probanden und 3 Präparaten wurde eine regionale Signalintensitätsanalyse der Protonendichte und einer Wasseranregungssequenz durchgeführt. Die Analyse der Protonendichte in den Tiefenzonen des Knorpels der Probanden ergab eine erwartete Abnahme hin zu tiefer gelegenen Knorpelbereichen. Insgesamt konnten konsistente Ergebnisse bei den untersuchten Probanden und Präparaten festgestellt werden. Sowohl die inter-individuellen Unterschiede als auch die signifikanten Unterschiede zwischen einzelnen Knorpelplatten korrelieren mit Ergebnissen aus der Literatur. Diese könnten in Zusammenhang mit unterschiedlichen mechanischen Belastungen der einzelnen Knorpelplatten stehen. Die konsistente Signalintensitätsverteilung bei den Probanden und Präparaten unterstützt die Vermutung, dass tatsächlich bestimmte Strukturkomponenten des Knorpels durch diese erfasst werden. Basierend auf den entwickelten Methoden sind verschiedene Untersuchungen zu den folgenden Themenkomplexen möglich: - Untersuchung funktioneller Anpassungsprozesse. - Dokumentation von Altersveränderung in der Knorpelzusammensetzung. - Diagnose der Osteoarthrose im Frühstadium. - Verlaufskontrolle bei Osteoarthrose. - Beurteilung des Therapieerfolgs und Evaluation neuer Medikamente. - Screening der Gewebezusammensetzung bei der In-vitro-Züchtung von Knorpelgewebe zur späteren Implantation.