POPULARITY
Ein Standpunkt von Jochen Mitschka. Leider verzögert oder verhindert Israel die Ausführung des Waffenstillstands mit der Hamas. Das passt zu den früher verbreiteten Nachrichten, dass der israelische Premierminister Benjamin Netanjahu den rechtsextremsten Teilen seiner Minister versprach, sinngemäß, dass man die Hamas schon noch vernichten werde, und den Waffenstillstand in Gaza zum Anlass nehmen könne, auf dem Westjordanland „vorzurücken“ und die „Anti-Terror-Aktionen“ durchzuführen. So sollte das Auseinanderbrechen der Regierung verhindert werden. Daher, und weil die IDF bis zum 11. März den Zugang von Hilfslieferungen, Wasser und Strom in die Trümmerwüste von Gaza verhindert, ist die Phase des Völkermordes noch nicht beendet und „nur“ in eine ethnische Säuberung übergegangen. Schauen wir uns die jüngsten Entwicklungen rund um die Expansion Israel in Palästina und den benachbarten Regionen an.GeiselnZunächst ein Wort zu den Geiseln. Familien von israelischen Geiseln der Hamas unterbrachen Netanjahus Rede, weil sie wussten, dass es Netanjahu überhaupt nicht um das Leben der Geiseln geht (1). Im Westen wurde nur von Geiseln „der Hamas“ berichtet. Dabei saßen in israelischen Gefängnissen, einige davon berüchtigt für ihre Foltermethoden, etwa 3000 Palästinenser, die meisten ohne Anklage. Man nannte es „Administrativhaft“, früher auch „Vorbeugehaft“. Ein Verfahren, das es ermöglicht, einen Menschen durch immer wieder wiederholte Bestätigung der „Administrativhaft“ auch über Jahre, teilweise über Jahrzehnte ohne Anklage, ohne Beweise, in Haft zu halten. Und immer wieder wurden sie durch die Haftbedingungen getötet. Wie sie psychisch und physisch aussahen, wenn sie durch ein Geiselaustauschprogramm freikamen, berichtete ich schon früher. Am 7. März 2025 befanden sich auch immer noch viele Frauen und Kinder in Haft, und seit dem 7. Oktober 2023 wurde der Tod von mindestens 53 Palästinensern durch Folter, Misshandlungen, Vergewaltigungen bekannt (2).Während die Hamas die ausstehende, bisher von Israel verweigerte Geiselfreilassung forderte (3), drohte Trump sinngemäß mit der Ermordung aller Zivilisten in Gaza, sollten die israelischen Geiseln nicht freikommen (4)....hier weiterlesen: https://apolut.net/kein-ende-der-massaker-in-sicht-von-jochen-mitschka/ Hosted on Acast. See acast.com/privacy for more information.
#64: In Folge 64 geht es mal wieder um eine Operationstechnik. Bei der sogenannten osteochondralen Transplantation wird an einer gesunden Stelle des Kniegelenkes ein Knorpel-Knochen-Zylinder entnommen und in den Bereich eines Defektes transplantiert. Ein Verfahren, was in den letzten Jahren etwas an Stellenwert verloren hat. Ob zu Recht oder zu Unrecht, über die Indikationen, technische Aspekte und die Nachbehandlung. Darüber sprechen wir in dieser Folge von Listen2Science.
Das auch in den 1920er Jahren überraschend weit verbreitete Wissen ob der Endlichkeit der Ressourcen, insbesondere der fossilen Brennstoffe, motivierte die Welt der Erfinder und Ingenieure, nach Alternativen zu suchen. Während die Schifffahrt-Industrie darüber jubelte, um wie viel effizienter der Antrieb mit Erdöl gegenüber der Kohle ist, wurde emsig geforscht, ob es nicht Antriebsarten gäbe, die von fossilen Brennstoffen unabhängig wären. Der Erfinder Anton Flettner, der bereits unzählige Patente eingereicht hatte, baute 1924 das Testschiff „Buckau“, auf dem drehbare Segelzylinder angebracht waren, die mittels des Magnus-Effekts einen Vortrieb des Schiffes produzierten. Ein Verfahren, das natürlich weiterhin, wie bei Segelschiffen, nur bei Wind funktionierte. Die Altonaer Neuesten Nachrichten vom 3. November 1924 berichten ganz begeistert. Und tatsächlich ist es ein Verfahren, das auch heute noch weiter erforscht wird und als Teil von Hybridantrieben von Schiffen zum Einsatz kommt. Frank Riede „flettnert“ für uns mit.
Ein Verfahren, was schon vor 2000 Jahren angewendet wurde – und Tierärzte seit Jahrzehnten noch heute erfolgreich umsetzen.
Simon, Doris www.deutschlandfunk.de, Kommentare und Themen der Woche
Zu Beginn des 17. Jahrhunderts kommt es im Königreich Ungarn zu einem Prozess, dessen Inhalt heute legendär ist. Die ungarische Gräfin Erzsébet Báthory und ihre Komplizen sollen hunderte Mädchen und Frauen sadistisch gequält und getötet haben. Ein Verfahren, das ihr zwei Guinness-Buch der Rekorde Einträge einbrachte und die „Blutgräfin“, die auf der Suche nach ewiger Jugend im Blut ihrer jungfräulichen Opfer gebadet haben soll, zur Legende machte. Doch was ist dran an der Geschichte? // Quellen & Shownotes // Thorne, T.; Countess Dracula. The Life and Times of Elizabeth Báthory, the Blood Countess; London 1998 Farin, M.; Heroine des Grauens. Wirken und Leben der Elisabeth Bathory in Briefen, Zeugenaussagen und Phantasiespielen; München 1996 Morgans, J.; In der Burgruine der wohl berüchtigtsten Serienmörderin der Welt; Auf: Vice, Artikel vom 23. September 2016; https://www.vice.com/de/article/gqnxvy/in-der-burgruine-einer-serienmoerderin-elisabeth-bathory Pallardy, R.; Elizabeth Báthory; In: Britannica, Eintrag vom 16. Februar 2024; https://www.britannica.com/biography/Elizabeth-Bathory Lost Sheroes – Frauen, die in den Geschichtsbüchern fehlen; Elisabeth Báthory: Serienmörderin oder Opfer einer Intrige?, Podcast Episode vom 22. Oktober 2023; https://www1.wdr.de/mediathek/audio/cosmo/lost-sheroes/audio-elisabeth-bathory-serienmoerderin-oder-opfer-einer-intrige-100.html Not just the Tudors Podcast; The Blood Countess: Elizabeth Bathory; Episode vom 23. Februar 2023; https://shows.acast.com/not-just-the-tudors/episodes/elizabeth-bathory // Folgt uns auf Instagram // https://www.instagram.com/frueher.war.mehr.verbrechen/?hl=de // Karte mit allen „Früher war mehr Verbrechen“-Tatorten // https://bit.ly/2FFyWF6 // Mail //: https://linktr.ee/fwmv // Kaffeekasse //: https://ko-fi.com/fwmvpodcast GEMAfreie Musik von https://audiohub.de
Handelsblatt Crime - spannende Wirtschaftskriminalfälle unserer Zeit
Die HSH Nordbank hinterzog mit Cum-Ex-Geschäften wohl Steuern in Millionenhöhe. Ein Verfahren gab es nie, dafür scharfe Kritik an der zuständigen Staatsanwaltschaft.
Nachhaltigkeitsmanagement I Donut-Ökonomie, Folge 18 Die Donut-Ökonomie wurde 2012 von der britischen Wirtschaftswissenschaftlerin Kate Raworth vorgestellt und seither weiterentwickelt. Die Donut-Ökonomie geht von einer Reihe planetarer und sozialer Grenzen aus: Klimawandel, Verlust der Artenvielfalt, Gesundheit und Bildung. Bei diesen Grenzen darf es kein Defizit geben. Der in Form eines Donuts visualisierte Spielraum für wirtschaftliches Handeln ergibt sich durch diese Grenzen. Es gehe darum, ökonomische Prioritäten neu zu fokussieren. Statt Wirtschaftswachstum um jeden Preis sind die ökologischen und sozialen Indikatoren als Randbedingungen zu berücksichtigen. Donut-Ökonomie ist kein generelles Postwachstumskonzept. Aber es ist diesbezüglich differenzierter. Die niederländische Hauptstadt Amsterdam hat als erstes zusammen mit Kate Raworth ein Konzept für die Stadt- und Wirtschaftsentwicklung nach der Donut-Ökonomie entwickelt. So soll die Energiegewinnung auf Solarstrom und Windkraft umgestellt und auf diese Weise der CO2-Ausstoß entscheidend gesenkt werden. Nach Möglichkeit sollen nur noch recycelte Rohstoffe zum Einsatz kommen – ab 2050 sogar zu 100 Prozent. Ein Verfahren zur Wiederverwertung von Zement wurde entwickelt. Eine Wohnungseigentümergemeinschaft baut klimaneutrale Häuser auf dem Wasser und der platzsparende Nahrungsmittelanbau mitten in der Stadt wird erprobt. Auch die Städte Kopenhagen, Philadelphia und Portland (Oregon) arbeiten an der Einführung der Donut-Ökonomie. In Deutschland stehen die Städte Bad Nauheim und Krefeld in den Startlöchern. Wie Sie hören, ist das durchaus ein umsetzbares Konzept für Wirtschafts- und Regionalpolitik. Wie jedoch einzelne Unternehmen damit nachhaltiger werden sollen, dass scheint mit der Donut-Ökonomie nicht beantwortet zu werden. Bleiben wir also noch ein Weilchen dabei, anzusehen, welche Ansätze es noch gibt, so auch in Folge 19. Auf wiederhören! Klaas Kramer, Studienbriefautor der Deutschen Akademie für Management Hier finden Sie alle Podcasts der Reihe Nachhaltigkeitsmanagement
Heute: Wenn das Grundgesetz komplett suspendiert wird. ++ Zu zwei Jahren und zehn Monaten Haft hat das Landgericht Bochum den Mediziner Dr. Heinrich Habig verurteilt. Der Haftbefehl ist sofort zu vollstrecken, so fügte Richterin Petra Breywisch-Lepping hinzu. Es gebe keine Gründe, das Verhalten von Dr. Habig zu entschuldigen. Sie warf ihm stattdessen sogar »rechtsfeindliche Gesinnung« vor. Ein Verfahren und ein Urteil, das alles hat, um das Skandalurteil des Jahres zu werden. Ein Gespräch über einen Prozess, bei sich das Gericht völlig bedenkenlos über eine Prozessordnung hinwegsetzte und der ganz offensichtlich dazu diente, als politischer Schauprozess andere Ärzte abzuschrecken. ++ Webseite: https://www.tichyseinblick.de
Ab Ende 2024 sollen am Dresdner Flughafen keine Lotsen mehr im Tower sitzen. Der Airport soll dann von Leipzig aus fernüberwacht werden. Ein Verfahren, das bereits erprobt ist.
Der Beginn der Geschichte ist kinotauglich: Eine Zufallsbegegnung in einem Eisenbahnabteil, zwei steinreiche Familien, erst Romantik und dann Hass. Die Folge war der aufwändigste Strafprozess der Weimarer Republik. Ein Verfahren, das auch antisemitisch instrumentalisiert wurde. Autor: Thomas Klug Von Thomas Klug.
Die Schweiz will Vermögenswerte in Höhe von mehr als 100 Millionen Franken des 2014 abgesetzten ehemaligen ukrainischen Präsidenten Viktor Janukowitsch beschlagnahmen und an die Ukraine zurückgeben. Ein Verfahren zur Einziehung der eingefrorenen Vermögenswerte wurde nach Angaben der Regierung eingeleitet. Ein Zusammenhang mit den gegen Russland wegen des Angriffs auf die Ukraine verhängten Sanktionen bestehe nicht. Weitere Themen: (01:21) Schweiz will Ukraine Janukowitsch-Gelder zurückgeben (08:27) Erstarkte russische Kampfkraft im Donbass (13:50) Waffengesetze polarisieren die USA weiter (19:57) In Ungarn gilt weiter der Notstand (22:54) EU will strengeres Sanktionsregime (26:41) Boris Johnson sagt einmal mehr Sorry (32:22) Die Inflation als Schlüsselthema am WEF (37:40) Lebensgefährlicher Journalismus in Palästina
Ein Verfahren wie ein Krimi, Korruption und Kurienreform – Das neueste aus dem Vatikan für diese Woche
Computer bestehen heutzutage fast ausschließlich aus elektrischen Chips. Unser Internet wird zu großen Teilen durch elektrische Kabelübertragen, doch hier haben Glasfaserkabel und das Licht als Übertragungsmedium bereits Einzug gehalten.Geht das bei Berechnungen auch? Wir sprechen in dieser Folge über SOLO (Scalable optical learning operator). Ein Verfahren, das Glasfaser Kabel für KIs verwendet.Quelle:https://www.nature.com/articles/s43588-021-00112-0
Lässt sich Saatgut mit der Genschere fit machen für den Klimawandel? Dazu mehr Vielfalt auf den Äckern und Tellern sowie ausreichend Ertrag für die wachsende Weltbevölkerung erzielen? Mit der Genschere Crispr wird es möglich werden, ohne das Einschleusen fremder Gene in Nutzpflanzen, Gemüsen und Früchten Eigenschaften wie Dürre- oder Schädlingsresistenzen wieder zu aktivieren, die in den Jahrtausenden aus den ursprünglichen Wildpflanzen zwecks Ertragssteigerung ausgezüchtet wurden. Der Landbau steht vor enormen Herausforderungen: •Die Weltbevölkerung dürfte in den nächsten 30 Jahren nochmals um 2 Mrd. Menschen anwachsen.•Mehr Menschen bedeutet, dass wir noch mehr Nahrungsmittel benötigen. Bis 2050 muss der landwirtschaftliche Ertrag um 50-70% gesteigert werden. •Bereits heute leiden 800 Mio. Menschen chronisch an Hunger, weit mehr noch sind mangelhaft ernährt. •Der Druck ist gross, die Felder auf Kosten natürlicher Räume wie Wälder und Moore zu erweitern. Mehr Menschen bedeutet aber auch ein fortschreitender Druck auf landwirtschaftlichen Boden für Siedlungen, Strassen, Schienen und zum Abbau von Rohstoffen.•Die grüne Revolution hat in den letzten Jahrzehnten zu einer enormen Steigerung des landwirtschaftlichen Ertrags geführt. Aber der Preis dafür ist hoch: Vergiftete Böden, giftige Rückstände im Grundwasser, eine Verminderung der Bio-Diversität.•Der Klimawandel wird dem Landbau zusetzen: Wassermangel, versalzene Böden, Hitze und Überschwemmungen dürften zunehmen. Das Thema brennt und es bedarf vieler Ansätze, um die globale Nahrungssicherheit für die nächsten Jahrzehnte zu gewährleisten. Mit meinem Gast, Matin Qaim von der Universität Göttingen, habe ich mich auf einen davon konzentriert – nämlich welchen Beitrag neue Technologien dazu leisten können. Mit neuen Technologien meine ich in erster Linie die Potenziale, die sich aus der Entdeckung der Gen-Schere Crispr ergeben: Ein Verfahren, mit dem ganz gezielt, relativ einfach und sicher einzelne Gene von Pflanzen ein- oder ausgeschaltet oder gar umgeschrieben werden können. Die beiden Entdeckerinnen, Jennifer Doudna und Emmanuelle Charpentier, haben dafür 2020 den Chemie-Nobelpreis erhalten. Prof. Matin Qaim hält den Lehrstuhl für Welternährungswirtschaft und Rurale Entwicklung an der Universität Göttingen und hat unlängst zusammen mit internationalen Kolleginnen und Kollegen in einer Stellungnahme dafür plädiert, dass gen-editierte Pflanzen von der Politik nicht gleich behandelt werden sollten, wie gen-technisch modifizierte Organismen.Worin unterscheidet sich genetisches Editieren von der bislang bekannten Gen-Technologie im Pflanzenbau? Warum sollte nach Meinung vieler Experten genetisches Editieren nicht unter das Verbot von gen-technisch veränderten Organismen fallen?Wo sind die Vorteile genetisch durch Crispr gezüchtetes Saatgut im Vergleich zu Gentech-Saatgut und der natürlichen Züchtung neuer Sorten und Pflanzen-Eigenschaften?Wo sind die spezifischen Risiken des Crispr-Verfahrens?•Wie wird Crispr bei der Adaption an den Klimawandel helfen?•Wie wird Crispr zur nachhaltigen Landwirtschaft beitragen? •Wie wird Crispr zu einer global gesünderen Ernährung beitragen?•Wie wird Crispr gegen die schwindende Artenvielfalt und Biodiversität helfen? •Wie wird Crispr im Kampf gegen Hunger und Armut helfen?
Ein Verfahren der Superlative: Mit der Genehmigung der 380-kV Salzburgleitung wurde ein Meilenstein für die Energiewende gesetzt. Der Verfassungsgerichtshof hat das UVP-Projekt mit einem fast 300 Seiten dicken Erkenntnis abgeschlossen, über welches Martin Niederhuber in dieser Folge von „3 Minuten Umweltrecht“ berichtet.
Lucas Hawrylak setzt sich für die Rechte und den Schutz der queeren Community ein. Zwei Jahre hat er die Kampagne #HomoBrauchtKeineHeilung vorangetrieben, um ein Verbot der Konversionstherapien zu erreichen. Ein Verfahren mit dem Homosexuelle auch in Deutschland „heterosexuell gemacht werden sollen“. Nach intensiver Aufklärungsarbeit, einer Petition und Gesprächen mit Entscheidungsträger*innen hat der Bundestag im Mai 2020 schließlich ein entsprechendes Gesetz verabschiedet. Lucas spricht im Schwarmzeit-Podcast über den Verlauf der Kampagne und gibt Tipps für die politische Arbeit. Der 28-jährige Aktivist hat selbst noch viel vor: Mit seiner aktuellen Petition #RegenbogenblutTutGut möchte er im Wahlkampfjahr 2021 das Thema der diskriminierungsfreien Blutspende auf die politische Agenda setzen. +++ Im Schwarmzeit-Podcast geht es um Demokratie, Partizipation und Engagement. Aktuell stehen Petitionen im Fokus. Wenn ihr Fragen habt oder euch bestimmte Gäste wünscht, schreibt mir eine Nachricht. Mehr Infos auf www.schwarmzeit.net.
Die Niederlande wollen die Regierung von Syriens Präsident Baschar al Assad wegen Menschenrechtsverletzungen zur Rechenschaft ziehen. Ein Verfahren am Internationalen Strafgerichtshof in Den Haag scheiterte am Veto Russlands. Nun soll es über die Anti-Folter-Konvention gelingen. Von Kerstin Schweighöfer www.deutschlandfunk.de, Europa heute Hören bis: 19.01.2038 04:14 Direkter Link zur Audiodatei
Heute mit diesen Themen: Jetzt ist klar, wann die Schweiz einen Teil ihrer Grenzen öffnen will Profi-Sportvereine sollen in der Krise einen dreistelligen Millionenbetrag erhalten Ein Verfahren vom Hals: Remo Stoffel kann die Therme Vals behalten Krisenwirtschaft: In Graubünden boomt der Absatz von Plexiglas
Die brennende Welt zerfällt zu Asche. Ein Soundtrack dröhnender Posaunen erweckt die Toten. Durch ein Inferno aus Feuer und Vernichtung zwingt sie eine Macht vor einen Richterthron. Dort wird ein unbestechliches Buch aufgetan. Ein Verfahren, in dem es um nichts weniger geht als die Ewigkeit. Szenen, die im Drehbuch eines Hollywood-Blockbusters stehen könnten, aber in – und trotz - ihrer fremdartigen Drastik Teil der Liturgie waren und, wenngleich seltener, immer noch sind.
Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) http://www.kit.edu/ erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik entwickelt. Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik. Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert. Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt. Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parataxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen. Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS) ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden. Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten. Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600x1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen. Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen. Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten. Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann. Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen. Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss. Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.Literatur und weiterführende Informationen D.Koester: A Guidance and Obstacle Evasion Software Framework for Visually Impaired People, Diplomarbeit an der Fakultät für Informatik, Karlsruher Institut für Technologie (KIT), 2013.D. Koester, B. Schauerte, R. Stiefelhagen: Accessible Section Detection for Visual Guidance, IEEE International Conference on Multimedia and Expo Workshops (ICMEW), 2013.
Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit beschäftigt sich mit der Evaluation von strukturfindenden Methoden, die die Items psychologischer Fragebogendaten in homogene Gruppen von ähnlichen Items zusammenfassen. Ein wesentlicher Unterschied zwischen Methoden, die zu diesem Zweck verwendet werden, ist, ob sie ein zugrundeliegendes Messmodell annehmen oder ob sie nur eine möglichst brauchbare Gruppierung der Items anstreben. Zum einen gibt es die modellbasierte Faktorenanalyse (FA), die auf dem Faktormodell basiert. Der mathematische Ansatz ist ähnlich der Hauptkomponentenanalyse, oder principal component analysis (PCA). In der FA wird im Unterschied zur PCA noch angenommen, dass die Antworten auf die Items kausal von zugrundeliegenden Faktoren plus einem einzigartigen Residualterm kausal erklärt werden. Und dieser spezifische Residualterm jedes Items wird als völlig unkorreliert zu allen anderen Items angenommen. Ein Verfahren, das keine Modellannahmen trifft, ist die Clusteranalyse (CA). Hier werden lediglich Objekte zusammengefügt, die sich auf einem bestimmten Kriterium ähnlicher sind als andere. So wie man Methoden darin unterscheiden kann, ob sie ein zugrundeliegendes Modell annehmen oder nicht, kann man auch bei der Evaluation von Methoden diese Unterscheidung treffen. Eine Evaluationtechnik, die ein Modell annimmt, ist die Monte Carlo Simulation. Eine Technik, die nicht zwangsweise ein Modell zugrunde legt, ist das Resampling. Es werden Stichproben aus einem echten Datensatz gezogen und das Verhalten der Methode in diesen Stichproben wird untersucht. In der ersten Studie wurde ein solches Resampling-Verfahren angewandt, das wir Real World Simulation nennen. Es soll das bestehende Problem der mangelnden Validität von Monte Carlo Studien zur FA beheben. Es wurde eine Real World Simulation an zwei großen Datensätzen durchgeführt und die Schätzer der Modellparameter aus dem echten Datensatz anschließend für die Monte Carlo Simulation als Modellparameter verwendet. So kann getestet werden, welchen Einfluss die spezifischen Datensatzcharakteristiken sowie kontrollierte Veränderungen von ihnen auf die Funktion der Methoden haben. Die Ergebnisse legen nahe, dass die Resultate von Simulationsstudien immer stark von bestimmten Spezifikationen des Modells und seiner Verletzungen abhängen und daher keine allgemeingültigen Aussagen getroffen werden können. Die Analyse echter Daten ist wichtig, um die Funktion verschiedener Methoden zu verstehen. In der zweiten Studie wurde mit Hilfe dieser neuen Evaluationstechnik ein neues k-means Clusterungsverfahren zur Clusterung von Items getestet. Die zwei Verfahren, die vorgeschlagen wurden, sind: k-means skaliertes Distanzmaß (k-means SDM) und k-means cor. In den Analysen zeigte sich, dass sich die neuen Verfahren besser eignen, Items zu Konstrukten zuzuordnen als die EFA. Lediglich bei der Bestimmung der Anzahl der zugrundeliegenden Konstrukte, waren die EFA-Verfahren genauso gut. Aus diesem Grund wird vorgeschlagen eine Kombination dieser beiden Verfahren zu verwenden. Ein großer Vorteil der neuen Methoden ist, dass sie das Problem der Unbestimmtheit der Faktorwerte in der EFA lösen können, da die Clusterwerte der Personen auf den Clustern eindeutig bestimmt werden können. Am Ende der Arbeit wird auf die unterschiedlichen Evaluierungs- bzw. Validierungstechniken für modellbasierte und nicht-modellbasierte Verfahren eingegangen. Für die Zukunft wird vorgeschlagen, für die Evaluation des neuen k-means CA Verfahrens zur Clusterung von Items, Real World Simulationen sowie Validierungen der Clusterwerte mit Außenkriterien anzuwenden.
Seit über 40 Jahren gibt es die Kunstkopf-Stereofonie. Ein Verfahren, das eine maximal realistische Hörsituation bietet und das Hörspiel damals revolutioniert hat. Optimal hören kann man Kunstkopf-Aufnahmen allerdings nur über geschlossene Kopfhörer, eine Tatsache, die zu Beginn viele Hörer am Radio ausschloss. Inzwischen haben sich die Hörgewohnheiten stark verändert und jüngere Hörspielmacher setzen die Technik wieder ein. Von den Anfängen, der Faszination und den Tücken des Kunstkopfs erzählen Hörspiel- und Kunstkopfveteran Ulrich Gerhardt und Paul Plamper, der in jüngster Zeit zwei Kunstkopf-Produktionen realisierte. // Zusammenstellung: Annegret Arnold / BR 2013 / www.hörspielpool.de
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit behandelt Fragen aus dem interdisziplinären Gebiet der Nanowissenschaften durch Untersuchungen mittels Rastertunnelmikroskopie und Computerchemie. Sie steht im Kontext der Entwicklung nanotechnologischer Herstellungsverfahren, die sich auf die "bottom-up"- Fertigungsstrategie beziehen. Diese Strategie verfolgt das Ziel, aus einzelnen elementaren Bausteinen (z.B. Molekülen) grössere funktionelle Strukturen und Systeme kontrolliert zusammenzusetzen. Kern dieser Arbeit ist die Vorstellung eines neuartigen Strukturbildungsprozesses auf molekularer Ebene und die Erschliessung dessen Potentials. Für diesen Prozess wird der Begriff "supramolekulare Festphasenbenetzung" vorgeschlagen. Damit wird ausgedrückt, dass die Ergebnisse als eine neue Bedingung für supramolekulare, spontane Strukturbildung (engl. self-assembly) interpretiert werden, die bei Raumtemperatur an der Grenze zwischen zwei festen Phasen stattfindet. Das vorgestellte Modell beschreibt diesen Prozess durch Nanokristalle, die – in einer Matrix suspendiert – bei Kontakt mit einer Kristalloberfläche ein Verhalten zeigen, das trotz vorhandener Festkörpereigenschaften (kristalline Ordnung) dem Verhalten flüssiger Tropfen bei der Benetzung von Oberflächen verwandt ist. Darauf aufbauend wird das technologische Potential des neuen Prozesses erschlossen: 1. Adsorbatstrukturen von einer Reihe organischer Halbleiter werden erstmals beschrieben. Damit wird zudem gezeigt, dass sich durch supramolekulare Festphasenbenetzung unlösliche Halbleitermoleküle sehr einfach und unter Umgebungsbedingungen geordnet adsorbieren lassen – ein Ergebnis, das sonst nur mit grossen Aufwand (z.B. Molekularstrahlepitaxie im Vakuum) möglich wäre. 2. Ein Erklärungsmodell wird entwickelt, mit dem sich die bislang unverstandene Möglichkeit molekularer Datenspeicherung mittels PTCDA- Moleküle theoretisch erklären und auf weitere, unter (1) vorgestellte Moleküle erweitern lässt. 3. Die Entwicklung eines Nanofabrikationskonzeptes wird vorgestellt, das eine lokale Kontrolle des Wachstums von Nanostrukturen ermöglicht. Der Vorteil gegenüber einer klassischen, Molekül für Molekül durchgeführten Nanostrukturierung liegt darin, dass durch die Spitze eines Rastertunnelmikroskops allein die Information über Wachstumsrichtungen in das System lokal einzubringen ist, die eigentliche Bildung der Strukturen jedoch durch selbständig ablaufende und somit qualitativ und zeitlich hoche¢ziente Wachstumsprozesse stattfindet ("geführtes Wachstum"). Damit lässt sich die bisherige Beschränkung von self-assembly auf streng periodische Strukturen durchbrechen und die vordefinierte Bildung komplexer Strukturen erreichen. 4. Ein Verfahren wird vorgestellt, das eine lokale Adsorption von Molekülen zu geordneten Schichten innerhalb einer Lage fremder Moleküle erlaubt und somit den Aufbau heterogener Adsorbatschichten ermöglicht.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Elliptische Galaxien sind homogene, von alten Sternen dominierte dynamische Systeme, die sich heute in einem Zustand annähernden Gleichgewichts befinden. Ihre Entstehung liegt zeitlich weit zurück und ihr jetziger Zustand lässt nur noch indirekte Rückschlüsse auf den genauen Zeitpunkt und die Art ihrer Entstehung zu. Moderne Theorien zur Strukturbildung im Universum sagen vorher, dass alle massereicheren Galaxien von Halos aus dunkler Materie umgeben sind. Die zentrale Dichte der dunklen Materie stellt sich dabei als ein indirektes Mass für die Entstehungsepoche der Galaxien heraus. Hinweise auf den Enstehungsprozess - die Literatur kennt im wesentlichen den Kollaps einer protogalaktischen Gaswolke oder die Verschmelzung mehrerer Vorläufergalaxien - ergeben sich aus der Verteilung der Sternbahnen in elliptischen Galaxien. Sowohl die Verteilung der Masse als auch die der Sternbahnen sind schwierig aus Beobachtungen zu bestimmen, weil elliptische Galaxien dreidimensionale Objekte sind und man nicht von vornherein weiß unter welchem Blickwinkel man sie beobachtet. Außerdem bilden ihre Sterne ein stossfreies dynamisches System, das beliebige Grade von Anisotropie annehmen kann. Seit etwa Anfang der 90er Jahre stehen mit den Messungen von projizierten Geschwindigkeitsprofilen Beobachtungsdaten zur Verfügung, die eine Rekonstruktion des genauen dynamischen Aufbaus einzelner Objekte zulassen. Erst seit etwa fünf Jahren hat die Entwicklung dynamischer Modelle ein vergleichbares Niveau erreicht, so dass es jetzt möglich ist, zumindest die volle Bandbreite achsensymmetrischer Modelle mit Beobachtungen einzelner Galaxien zu vergleichen. Die vorliegende Arbeit ist die erste Studie einer Stichprobe von mehreren Objekten mit achsensymmetrischen Modellen. Ähnlich umfangreiche Arbeiten waren bisher auf die Anwendung sphärisch-symmetrischer Modelle beschränkt, in denen weder Rotation noch Inklinationseffekte berücksichtigt werden können. Die Datenanalyse der vorliegenden Arbeit basiert auf der sog. Schwarzschild-Methode. Dabei wird zunächst aus Galaxienbildern das Gravitationspotential der sichtbaren Materie berechnet. Anschließend wird eine Bibliothek mit tausenden Sternbahnen angelegt, aus deren Überlagerung dann ein Modell konstruiert wird. Falls nötig, wird dunkle Materie hinzugefügt bis Modell und Daten im Rahmen der Messfehler übereinstimmen. Diese Methode wird im Rahmen der Arbeit weiterentwickelt: Eine gleichmässige Verteilung von invarianten Kurven einzelner Orbits in geeignet gewählten Poincaré-Schnitten wird als Kriterium für eine zuverlässige Berücksichtigung aller Bahntypen eingeführt. Ein Verfahren wird implementiert, dass ebenfalls Poincaré-Schnitte verwendet, um die Phasenvolumina einzelner Orbits und damit die Phasenraumverteilungsfunktion von Galaxien zu berechnen. Monte-Carlo Simulationen zeigen, dass mit optimierter Regularisierung sowohl interne Geschwindigkeiten als auch die Massenstruktur mit einer Genauigkeit von etwa 15 Prozent aus den vorliegenden Daten rekonstruiert werden können. Die untersuchten elliptischen Galaxien haben näherungsweise konstante Kreisgeschwindigkeiten außerhalb ihrer Zentren, ähnlich wie Spiralgalaxien. Die Halo Skalenradien einiger Ellipsen sind allerdings um einen Faktor zehn kleiner als die in gleichhellen Spiralen. Mit den flachen Rotationskurven sind 10 bis 50 Prozent dunkler Materie innerhalb des Effektivradius verknüpft. Die zentrale Dichte der dunklen Materie ist in Ellipsen um einen Faktor 25 höher als in Spiralgalaxien, was eine Enstehungsrotverschiebung von z = 4 impliziert. Soweit bestätigen die Modelle aus dieser Arbeit Resultate früherer Arbeiten mit sphärisch symmetrischen Modellen. In den Coma Galaxien mit den ältesten stellaren Populationen sind entweder - im Vergleich zu jüngeren Galaxien - mehr Sterne geringer Masse gebildet worden oder aber die dunkle Materie in diesen Galaxien folgt einer ähnlichen radialen Verteilung, wie die leuchtende Materie. Die Ergebnisse der Arbeit bestätigen kürzlich erschienene Arbeiten, nach denen elliptische Galaxien im grossen und ganzen eine homologe dynamische Familie bilden. Die verbleibende Streuung um entsprechende, aus dem Virialsatz ableitbare, globale Skalenrelationen sind auf eine systematische Verknüpfung des Drehimpulses mit der Leuchtkraftverteilung zurückzuführen. Der Ursprung dieser Relation ist noch unklar, aber ihr Vorhandensein erlaubt die Streuung in den Skalenrelationen um ein Drittel zu reduzieren. Dadurch könnte es in Zukunft möglich sein, die Entfernung einzelner Ellipsen mit grosser Genauigkeit aus ihrer Kinematik abzuleiten. Die Abflachung der untersuchten Galaxien kommt durch eine relative Unterhäufigkeit von Sternen auf Bahnen, die den Äquator mit hoher vertikaler Geschwindigkeit durchkreuzen, zustande. Eine solche Verteilung von Sternen maximiert ihre Entropie im Phasenraum, wodurch elliptische Galaxien zu einem hohen Grade dynamisch relaxiert scheinen. Allerdings offenbart eine genaue Untersuchung der Sternverteilung im Phasenraum eine reichhaltige Feinstruktur. Ein Objekt besteht aus der Überlagerung einer dünnen, rotierenden Scheibe und eines strukturlosen Sphäroids. In anderen Galaxien zeigt sich eine starke Asymmetrie zwischen rotierenden und gegenrotierenden Sternen in ihren Außenbezirken, gekoppelt mit relativ niedrigen stellaren Altern. Beides deutet daraufhin, dass die Sterne in diesen Regionen erst vor relativ kurzer Zeit zur Galaxie hinzugekommen sind. Über den beobachteten radialen Bereich zeigt keine Galaxie die typische Struktur nach einem Kollaps. Die Vielfalt der dynamischen Eigenschaften spricht eher für das Verschmelzungsszenario mit seiner natürlichen Variation an Ausgangskonfigurationen und -objekten.
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 01/06
1. Aus chromosomaler DNA von A. woodii wurde durch heterologe Starteroligonukleotide ein Bereich des Flagellingens mittels PCR amplifiziert. Durch die Verwendung dieses DNA-Fragmentes als Sonde wurden weitere 6 kBp an chromosomaler DNA von A. woodii kloniert, sequenziert und analysiert. 2. Innerhalb dieses klonierten DNA-Abschnittes wurden zwei partielle und fünf vollständige offene Leserahmen lokalisiert, die jeweils über eine Shine-Dalgarno-Sequenz verfügten und größer als 300 Bp waren. Durch Sequenzvergleiche ließ sich das Flagellingen (fliC) identifizieren. Stromaufwärts von fliC wurden offene Leserahmen (flgL, flgK) gefunden, die für die Haken-assoziierten Proteine 1 und 3 des A. woodii-Flagellums kodieren, sowie ein Leserahmen (orfA) dessen abgeleitetes Produkt keine Ähnlichkeit keinem bekannten Protein ähnlich ist. Durch die Expression von orfA in Minizellen von E. coli DK6 wurde aber gezeigt, daß orfA für ein Protein kodiert. Stromabwärts vom Flagellingen wurden keine Flagellengene identifiziert. Die abgeleiteten Produkte, der hier lokalisierten ORFs orfB und orfC zeigten keine Ähnlichkeiten zu in Datenbanken hinterlegten Proteinsequenzen. Am 3'-Ende des klonierten DNA-Abschnittes war ein partieller ORF (orfD) vorhanden, dessen abgeleitete Aminosäuresequenz große Ähnlichkeiten zu dNTP-Zucker modifizierenden Enzymen aufwies. 3. Aus Sphäroplasten von A. woodii wurden durch Solubilisierung, differentielle Zentrifugation und eine CsCl-Dichtegradientenzentrifugation ganze Flagellen inklusive des Haken-Basalkörper- Komplexes gereinigt. Durch die Analyse der Präparation in der SDS-PAGE wurden neben dem Flagellin sechs weitere Proteine als Bestandteil der Flagellen identifiziert. 4. Durch die elektronenmikroskopische Analyse der Haken-Basalkörper-Komplexe der Na + -abhängigen Flagellen von A. woodii konnte gezeigt werden, daß diese aus einem Haken, Stab und einem MS-Ring aufgebaut sind. Unterhalb des MS-Rings waren weitere Strukturen vorhanden. Diese Struktur entspricht den aus den H + -abhängigen Flagellen der Gram-positiven Organismen bekannten Strukturen. Durch die Gefrierbruchmethode konnten in der Cytoplasmamembran von A. woodii im elektronenmikroskopischen Bild Partikelringe nachgewiesen werden. Diese entsprechen in Struktur und Größe den Mot-Komplexen der H + -abhängigen Flagellen aus E. coli.5. Zur Analyse der Untereinheitenzusammensetzung der Na + -F1FO-ATPase von A. woodii wurden Antiseren gegen die Untereinheiten a, b, c1, c2/c3 und β generiert. Hierzu wurden die Untereinheiten a, b, c und β als MalE-Fusionen in E. coli produziert und gereinigt. Die Untereinheit c2/c3 wurde durch Chloroform:Methanol-Extraktion aus der Cytoplasmamembran von A. woodii angereichert und durch Elektroelution aus einer SDS-PAGE gereinigt. 6. Durch die Analyse der Cytoplasma- und Membranfraktion mit den fünf Antiseren ließen sich die Untereinheiten a, b, c1, c2/c3 und ˜ in der Cytoplasmamembran nachweisen. 7. Die Na + -F1FO-ATPase von A. woodii wurde durch Blue-Native-PAGE aus der Membranfraktion isoliert. Durch die Auftrennung der ATPase in ihre Untereinheiten und deren aminoterminale Sequenzierung wurden die Untereinheiten a, b, c2/c3, α , β γ,δ und ε identifiziert. 8. Durch immunologische Methoden wurde die Untereinheit c1, das in F1FO-ATPasen einmalige 16-kDa-Proteolipid, als Untereinheit der Na + -F1FO-ATPase von A. woodii erkannt. Die Na + -F1FO- ATPase von A. woodii ist die erste F1FO-ATPase mit einem Heterooligomer aus 8- und 16-kDa-Proteolipiden. 9. Die Untereinheit c1 wurde in A. woodii unabhängig vom Substrat und der Na + -Konzentration produziert. Allerdings wurden Hinweise auf eine erhöhte Expression des gesamten atp-Operons in Methanol-gezogenen-Zellen erhalten. 10. Ein Verfahren zur Reinigung der Na + -F1FO-ATPase unter Erhalt ihrer Untereinheitenstruktur wurde entwickelt. Die Na + -F1FO-ATPase wurde aus der Membranfraktion von A. woodii solubilisiert und durch Gelfiltration über Sephacryl S-400 und eine Glycerin-Dichtegradientenzentrifugation gereinigt. Das gereinigte Enzym besaß alle neun Untereinheiten. Die spezifische Aktivität der gereinigten ATPase betrug 7 U mg Protein -1 und seine molekulare Masse 600 kDa.