Podcasts about signalverarbeitung

  • 28PODCASTS
  • 29EPISODES
  • 1h 7mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • Dec 23, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about signalverarbeitung

Latest podcast episodes about signalverarbeitung

GELD - Geldhelden & Geldrezepte
Wirtschaftliche Auswirkungen des Anschlags in Magdeburg und internationale Investitionen

GELD - Geldhelden & Geldrezepte

Play Episode Listen Later Dec 23, 2024 60:10


Heute haben wir Thomas Pollard zu Gast, der über eine Vielzahl aktueller Themen spricht, die die Finanzmärkte bewegen. Gemeinsam mit unserem Host Marco Lachmann-Anke diskutiert er die Bedeutung der Diversifikation beim Investieren, insbesondere für Anleger mit begrenzten Mitteln, und die Vorteile von Sparplänen, auch mit kleinen Beträgen. Wir betrachten El Salvadors Entscheidung, Bitcoin nicht mehr als offizielles Zahlungsmittel anzuerkennen, und spekulieren über mögliche Einflüsse aus den USA. Zudem thematisieren wir den Anschlag auf den Weihnachtsmarkt in Magdeburg und dessen wirtschaftliche Auswirkungen, Elon Musks Unterstützung der AfD und die fortlaufende Diskussion über den potenziellen Crash von Aktien- und Kryptomärkten. Natürlich dürfen auch die Herausforderungen und Chancen von Meme-Coins und sicheren Investitionsstrategien nicht fehlen. Doch das ist längst nicht alles! Wir beleuchten die öffentliche Wahrnehmung von Deutschland, die Bedeutung von unternehmerischer Beteiligung in der Politik und spannende Perspektiven auf Bitcoin als digitalen Goldstandard. Schaltet ein, um all diese und viele weitere Themen mit uns zu erforschen und fundierte Einblicke in die Welt der Finanzen zu gewinnen. 00:00 Diskussion über Meme-Coins und Signalverarbeitung. 03:18 Auslandinvestitionen beeinflusst durch Deutschlands Sicherheitssorgen. 07:06 Zunehmende Fremdenfeindlichkeit und Unsicherheit in Deutschland. 12:43 Alternative Medien informieren früher als traditionelle Medien. 15:15 Finanzbehörde umgewandelt, Beamte entlassen, Politik unattraktiv. 21:01 Politiker sind oft durch Parteipflichten gebunden. 22:19 Politik bringt Wohlstand und sichert Lebensqualität. 26:39 Trump bestimmt Politik in Deutschland, abgestimmt mit Musk. 30:14 Elon Musk unterstützt AfD, beeinflusst deutsche Politik. 34:10 Dankbar für internationale Unterstützung und wirtschaftlichen Wohlstand. 38:02 Mit Diversifikation von Schulden zu Multimillionär. 41:48 Bitcoin in El Salvador: Ungeeignet als Zahlungsmittel. 43:37 Bitcoin als Wertaufbewahrung, bestehende Währungen für Zahlungen. 47:43 Unterschiedliche Anlagestrategien: 12-Wochen-Programm vs. Meme Coins. 49:42 Konservativ investieren und Gewinne frühzeitig sichern. 54:02 Memecoins als neue soziale Medieninvestitionen betrachtet. 58:18 Dank an Thomas für hilfreiche Chartanalysen. 59:30 Bitcoin unterstützt; Treffen nächsten Sonntag um 11 Uhr. Dein Weg zu mehr finanzieller Unabhängigkeit:

Anker-Aktien Podcast
Diese Chip-Aktien stecken im iPhone

Anker-Aktien Podcast

Play Episode Listen Later Nov 19, 2024 18:40


Das iPhone ist mehr als nur ein Smartphone – es ist ein Symbol für technologische Spitzenleistung. Doch hinter Apples Kreation verbergen sich zahlreiche Schlüsselkomponenten, die von börsennotierten Unternehmen geliefert werden. In dieser Analyse beleuchten wir die Akteure, die mit ihrer innovativen Technik das Herzstück des iPhones bilden. Broadcom zählt zu den wichtigsten Lieferanten, verantwortlich für die drahtlose Ladefunktion und die Verarbeitung von Hochfrequenzsignalen – essenziell für den kabellosen Datenverkehr. Texas Instruments sorgt für die USB-Schnittstellen und die effiziente Stromversorgung des Displays und spielt somit eine entscheidende Rolle in der täglichen Nutzung des iPhones. Für die Leistung und Schnelligkeit des Geräts zeichnet sich SK hynix mit hochentwickeltem Arbeitsspeicher aus. Cirrus Logic liefert Audio-Verstärker, die für kristallklaren Klang sorgen. Im Bereich des Energie-Managements und der eSIM-Technologie punkten Renesas Electronics und STMicroelectronics, die für nachhaltige und leistungsstarke Energieverteilung stehen. Ein weiterer, oft übersehener Akteur ist NXP Semiconductors mit seinem NFC-Controller, der kontaktloses Bezahlen reibungslos ermöglicht. Skyworks Solutions sichert mit seinen Kommunikationsmodulen die stabile Netzverbindung, während Qualcomm für Mobilfunktechnologie bekannt ist – eine Grundvoraussetzung für die globale Vernetzung des iPhones. Qorvo ergänzt das Portfolio mit seinen Lösungen zur Signalverarbeitung, die für die nahtlose Kommunikation zwischen den einzelnen Komponenten verantwortlich sind. Dieser Podcast richtet sich an Investoren, die über den Tellerrand hinausblicken und die treibenden Kräfte hinter der weltweit erfolgreichsten Smartphone-Technologie verstehen möchten. Welche dieser Chip-Aktien versprechen Potenzial für langfristiges Wachstum? Inhaltsverzeichnis00:00 Intro02:02 Broadcom04:45 Texas Instruments06:40 SK Hynix07:55 Cirrus Logic08:42 Renesas09:56 STMicroelectronics 11:18 NXP Semiconductors12:48 Skyworks Solutions13:58 Qualcomm15:30 Qorvo16:47 Zusammenfassung18:30 Danke fürs Einschalten! Börsen-Kompasshttps://analyse.maximilian-gamperling.de/kompass-warteliste Social Media- Instagram: https://www.instagram.com/maximilian_gamperling/- LinkedIn: https://www.linkedin.com/in/gamperling/- Newsletter: https://www.maximilian-gamperling.de/newsletter- Podcast: https://akademie.maximilian-gamperling.de/podcasts/anker-aktien-podcast Meine Tools- Charts*: https://de.tradingview.com/?aff_id=117182- Aktienfinder: https://aktienfinder.net- Finchat.io*: https://finchat.io/?via=maximilian- TransparentShare: https://bit.ly/3laA6tK- SeekingAlpha*: https://www.sahg6dtr.com/QHJ7RM/R74QP/- Captrader*: https://www.financeads.net/tc.php?t=41972C46922130T DisclaimerAlle Informationen beruhen auf Quellen, die wir für glaubwürdig halten. Trotz sorgfältiger Bearbeitung können wir für die Richtigkeit der Angaben und Kurse keine Gewähr übernehmen. Alle enthaltenen Meinungen und Informationen dienen ausschließlich der Information und begründen kein Haftungsobligo. Regressinanspruchnahme, sowohl direkt, wie auch indirekt und Gewährleistung wird daher ausgeschlossen. Alle enthaltenen Meinungen und Informationen sollen nicht als Aufforderung verstanden werden, ein Geschäft oder eine Transaktion einzugehen. Auch stellen die vorgestellten Strategien keinesfalls einen Aufruf zur Nachbildung, auch nicht stillschweigend, dar. Vor jedem Geschäft bzw. vor jeder Transaktion sollte geprüft werden, ob sie im Hinblick auf die persönlichen und wirtschaftlichen Verhältnisse geeignet ist. Wir weisen ausdrücklich noch einmal darauf hin, dass der Handel mit Aktien, ETFs, Fonds, Optionen, Futures etc. mit grundsätzlichen Risiken verbunden ist und der Totalverlust des eingesetzten Kapitals nicht ausgeschlossen werden kann.Aussagen über zu erwartende Entwicklungen an Finanzmärkten, insbesondere Wertpapiermärkten und Warenterminbörsen, stellen NIEMALS EINE AUFFORDERUNG ZUM KAUF ODER VERKAUF VON FINANZINSTRUMENTEN dar, sondern dienen lediglich der allgemeinen Information. Dies ist selbst dann der Fall, wenn Beiträge bei wörtlicher Auslegung als Aufforderung zur Durchführung von Transaktionen im o.g. Sinne verstanden werden könnten. Jegliche Regressinanspruchnahme wird insoweit ausgeschlossen. *Affiliate-Link #Chip-Aktien #Aktie #Börse

IQ - Wissenschaft und Forschung
Wie clever ist der Oktopus? - Ein Körper voll Gehirn

IQ - Wissenschaft und Forschung

Play Episode Listen Later Nov 21, 2023 24:37


Das Gehirn von Kraken ist bemerkenswert. Nur ein Teil davon befindet sich im Kopf, der Rest ist verteilt auf die acht Arme, so können sie sich auch unabhängig vom Zentralgehirn bewegen. Die Komplexität von Signalverarbeitung und Verhalten bei Kraken ist vergleichbar mit der von Wirbeltieren. Wie erklärt man sich das? Autorin: Prisca Straub

TopJobs im Wandel - DER Berufspodcast
Thomas Eichmann: Business Development Manager und Standortleiter bei der infoteam Software AG sucht Verstärkung

TopJobs im Wandel - DER Berufspodcast

Play Episode Listen Later Mar 27, 2023 25:07


«Teamlead Software Development Engineers in Test»   Wir setzen in verschiedenen Projekten in allen Behörden der Schweiz sog. SDETs ein. Das sind „Software Development Engineers in Test“, entweder mit Kenntnissen in der .NET-Entwicklung oder in Java. Die SDETs kommen von den infoteam-Standorten in Deutschland, Griechenland und der Schweiz. Die SDET‘s in der Schweiz nehmen neben der technischen Aufgabe auf Senior-Level auch die besondere Rolle des Teamleiters wahr und betreuen Projektmitarbeiter von anderen Standorten. Sie repräsentieren infoteam gegenüber den Kunden und zeigen an zwei Tagen pro Woche Präsenz vor Ort in Bern. Sie sind, wie alle Mitarbeiter an allen infoteam-Standorten, eng in die Organisationsstruktur des Geschäftsbereichs Public Service eingebunden. Dazu gehört z.B. ein intensives Onboarding am Hauptsitz, die kontinuierliche Betreuung durch einen persönlichen Coach und der intensive technische und informelle Austausch unter allen Mitarbeitern. Wir arbeiten immer agil im Team und unterstützen uns gegenseitig bei unseren Aufgaben. Wir bieten fachliche und organisatorische Karrierewege.   Thomas Eichmann ist Business Development Manager und Standortleiter bei infoteam und fokussiert sich auf die 4 infoteam Standbeine Public Services, LifeSciences, Industrie und Infrastruktur. Thomas ist gelernter Elektroingenieur HTL/ FH mit Weiterbildungen in Projektmanagement und Betriebswirtschaft. Nach dem Berufseinstieg hat er viele Jahre Embedded Software sowie digitale Signalverarbeitung für Hochfrequenz- und Aktiv-Infrarot Sensoren entwickelt. Später hat er Projektmanagement Aufgaben sowie die Bereichsleitung von mittelgrossen Entwicklungsabteilungen übernommen. Hierbei wurde SW für die Automatisierung von Bioreaktoren, im internationalen pharmazeutischen Anlagenbau und dem stark regulierten Umfeld, umgesetzt. Hier bei infoteam steht nun die Weiterentwicklung des Standortes Schweiz sowie der bestehenden und neuen Kunden im Vordergrund. Buchempfehlungen Kontakt zu Thomas Eichmann: LinkedIn, Infoteam-Stellenangebote, E-Mail   Dieser Berufspodcast richtet sich vor allem an Fach- und Führungskräfte und nicht nur, wenn sie auf Jobsuche sind. Wenn du an Karrierechancen interessiert bist, dann erhältst du für deine Stellensuche viele wertvolle Tipps von erfahrenen Experten. In Interviews kommen erfolgreiche Menschen mit Topjobs zu Wort. Was begeistert sie besonders bei ihrer Aufgabe? Wie haben sie ihre Führungsposition gefunden? Welche Aus- und Weiterbildungen waren für sie relevant? Erfahrene HR Profis informieren dich hier über die sich verändernden Anforderungen im Arbeitsmarkt. Damit bist du immer einen Schritt voraus und der Gestalter deiner erfolgreichen Karriere. CEO's und Geschäftsführer schildern ihren Weg an die Spitze, damit du von den Besten lernen kannst. Sie geben dir viele wertvolle Tipps für deine berufliche Karriere. Weiters sind immer wieder interessante und auch bekannte Redner, Coaches und Trainer dabei. Lass dich auch von ihnen inspirieren und gestalte deine Karriere möglichst erfolgreich. Mein Name ist Christoph Stelzhammer, Inhaber der C. Stelzhammer GmbH veredelt vermitteln und des Berufszentrum.ch. Mitarbeitende zu Höchstleistungen zu bringen und in die richtigen Teams zu integrieren, gehört zu meinen Leidenschaften. Menschen erfolgreich machen und sie dabei zu unterstützen, auf ihrem beruflichen Lebensweg sich selbst sein zu können. Nimm dein Leben in die eigene Hand, folge deiner Bestimmung und lebe deine Talente. Als Fach- und Führungskraft stets authentisch aufzutreten und sich und andere erfolgreich machen. Dafür brenne ich und dieser Podcast ist auch Ausdruck meines persönlichen Lebenszwecks.  

kHz & Bitgeflüster
#25: DSP – Fluch oder Segen? Mit Jens Wietschorke (Lyravox) und Karl-Heinz Fink (Fink Team)

kHz & Bitgeflüster

Play Episode Listen Later Dec 7, 2022 42:36


Digitale Signal-Prozessoren sind aus modernen Audio-Produkten nicht mehr wegzudenken. Ob in der Bluetooth-Box, dem Soundsystem im Auto oder dem Smartphone – DSP verbringen teilweise kleine akustische Wunder.Und doch machen klassische, passive Boxen ohne digitale Signalverarbeitung immer noch den weitaus größten Teil des HiFi-Markts aus. Bedeutet dies, dass – wenn es um wirklich guten Klang geht – die gute, alte analoge Technik weiterhin die Nase vorn hat? Genau über diese Frage unterhält sich Host Olaf mit zweien, die es wissen sollten:Jens Wietschorke ist Mitgründer und Chefentwickler von Lyravox, wo er ausschließlich hochwertige aktive Lautsprecher mit DSP entwirft.Karl-Heinz Fink, den ihr bereits in einer früheren Podcastfolge gehört habt, kennt sich als technischer Berater der Auto-Industrie ebenfalls bestens mit DSPs aus. Er selbst bevorzugt bei seinen eigenen Produkten aber die klassische, analoge Vorgehensweise. Hier prallen also unterschiedliche Meinungen respektvoll und kompetent aufeinander, vertreten durch zwei sympathische Menschen. So entsteht ein unterhaltsames Gespräch über die moderne Lautsprecher-Entwicklung und den Stand der Technik – viel Spaß beim Zuhören! Shownotes: kHz & Bitgeflüster Folge #25 Mehr zu den Produkten von Jens Wietschorke und Lyravox:https://lyravox.com/ Mehr zu Karl-Heinz-Fink und seinen Lautsprechern:Fink TeamEposkHz & Bitgeflüster Folge #12 mit Karl-Heinz:Der perfekte Lautsprecher - und warum es ihn nicht gibt Hosted on Acast. See acast.com/privacy for more information.

IQ - Wissenschaft und Forschung
Intelligenter Oktopus - Gehirn im ganzen Körper

IQ - Wissenschaft und Forschung

Play Episode Listen Later Jun 7, 2022 25:05


Das Gehirn von Kraken ist bemerkenswert. Nur ein Teil davon befindet sich im Kopf, der Rest ist verteilt auf die acht Arme, so können sie sich auch unabhängig vom Zentralgehirn bewegen. Die Komplexität von Signalverarbeitung und Verhalten bei Kraken ist vergleichbar mit der von Wirbeltieren. Wie erklärt man sich das?

Atlantic Talk Podcast
(37) Von HPD & HPE – oder wie eine FCAS-Cloud das Grundgesetz lernen muss

Atlantic Talk Podcast

Play Episode Listen Later May 25, 2022 35:53


Vereinfacht ausgedrückt handelt es sich bei HPD um eine durch Signale herbeigeführte Beeinträchtigung von Menschen, HPE steht für die Verschmelzung von Mensch und Maschine und eine FCAS-Cloud (Future Combat Air System) beschreibt das System künftiger Luftstreitkräfte, bestehend aus einem modernen Kampfflugzeug, das mit Drohnen, Satelliten und anderen Kräften vernetzt sein soll. Eigentlich ist »HPD« das Hauptthema dieser Podcast Folge 37, die »Signalinduced Human Performance Degradations«. HPD geschieht durch Signale, die mit der Absicht ausgestrahlt werden, Menschen Schaden an Körper, Geist und Seele zuzufügen. Diese Signale sind von den Betroffenen je nach Technik gar nicht wahrzunehmen, wie beispielsweise beim sogenannten „Havanna-Syndrom“. Bis heute ist nicht klar, was Schwindel, Übelkeit und Kopfschmerzen bei US-Diplomaten in der Botschaft in Havanna ausgelöst hat. Verursacher und Wirkung lassen sich äußerst schwer nachweisen. Dass es die HPD dennoch gibt, steht für unseren Gast, Prof. Dr. Wolfgang Koch fest. Er ist Chief-Scientist am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE). Auch die NATO nimmt die Bedrohung durch diese wenig erforschten disruptiven Technologien sehr ernst und wird sie auf dem von Koch mitinitiierten »Sensor und Elektronik-Technologie Panel« der »NATO-Wissenschafts- und Technologie-Organisation (STO)« intensiv diskutieren und erforschen. Im Verlauf des Gesprächs entwickelt sich zwischen Moderator Oliver Weilandt und dem Experten Koch, der auch Professor für Signalverarbeitung, Sensordatenfusion, Künstliche Intelligenz und Technische Autonomie an der Universität Bonn ist, eine Diskussion über ethische und gesellschaftliche Fragen, die weit über das Spektrum schädigender Signale und Impulse hinausgeht. Der Mensch – egal ob auf der Intensivstation oder auf dem Gefechtsfeld – erkennt seine begrenzten Fähigkeiten und erweitert sie deshalb, exkorporiert sein Sehen, Hören, Fühlen und Wollen in von mathematischen Algorithmen gesteuerte Maschinen. Dieses „Human Performance Enhancement“ (HPE) mit Verbindungen zwischen Mensch und Maschine wird immer enger: Erstens wird das menschliche Gehirn Teil dieses Informationssystems. Zweitens, sagt Koch, sei die Weiterentwicklung der Brain-Interface-Technologie in vollem Gang. Wenn aber das Wollen eines Gehirns mithilfe eines Brain-Interface eine Beinprothese steuern kann, warum sollte dann nicht in umgekehrtem Datenfluss ein Algorithmus auch das Wollen eines Gehirn steuern können? Wenn Menschen und Maschinen in hochkomplexen Anwendungsbereichen immer schwerer unterscheidbar werden, wie ist dann der in der Präambel des Grundgesetzes verankerte Begriff von der »Verantwortung vor Gott und den Menschen« bei der Gestaltung künftiger Wehrtechnik zu verstehen? Welche ethischen und rechtlichen Rahmenrichtlinien müssen dann vorausschauend bei der Planung zum Beispiel einer FCAS Air-Combat-Cloud als einem »System der Systeme« künftiger Luftabwehr implementiert werden? Welches Bild von einer verantwortlichen Pilotin, einem verantwortlichen Piloten lässt das Verschwimmen von Mensch und Maschine noch zu?

Hessen schafft Wissen
#083: Gesichtserkennung und Morphing-Angriffe – Prof. Dr. Christoph Busch über Biometrie

Hessen schafft Wissen

Play Episode Listen Later Mar 29, 2022 55:50


Die Biometrie, die eine automatische Erkennung von Bürgern, Verbrauchern und Arbeitnehmern ermöglicht, ist für das wirtschaftliche und soziale Wohlergehen der Menschen von zunehmender Bedeutung – davon ist der Gast dieser Episode von Hessen schafft Wissen überzeugt.Christoph Busch ist Professor für Biometrie am Fachbereich Informatik der Hochschule Darmstadt. Seine Forschungsinteressen liegen auf den Gebieten IT-Sicherheit und Signalverarbeitung. Er ist Mitglied im National Research Center for Applied Cybersecurity (ATHENE) und Vorstand in der European Association for Biometrics.In dieser Folge erläutert er, welche Potenziale und Risiken die Biometrie birgt und wie sich der Missbrauch entsprechender Identifikationsverfahren einschränken lässt.

radioWissen
Intelligenter Oktopus - Gehirn im ganzen Körper

radioWissen

Play Episode Listen Later Mar 11, 2022 23:29


Das Gehirn von Kraken ist bemerkenswert. Nur ein Teil davon befindet sich im Kopf, der Rest ist verteilt auf die acht Arme, so können sie sich auch unabhängig vom Zentralgehirn bewegen. Die Komplexität von Signalverarbeitung und Verhalten bei Kraken ist vergleichbar mit der von Wirbeltieren. Wie erklärt man sich das?

Brand Punkt On Air
Zu viel Sprit im Tank?

Brand Punkt On Air

Play Episode Listen Later Nov 17, 2021 23:51


Alkohol und seine gesellschaftliche Rolle Alkohol ist gesellschaftstauglich, gilt als Genussmittel und wird deshalb auch oft verharmlost. Trinkt man nicht mit, gilt man sogar als Spielverderber. Und natürlich schmeckt so ein Bier, ein Wein oder ein Äppler richtig gut. Was aber auch Fakt ist, in D haben wir 1,8 Mio Alkoholiker. Es gibt eine Menge Zahlen des Bundesgesundheitsministeriums zu Abhängigkeiten und die sind erschreckend. Menschen wollen entspannen und das ist in der veränderten Gesellschaft verständlich. Gerade der Alkohol ist allgegenwärtig. Wir sollten das Thema Ernst nehmen, denn Alkohol wirkt im Gehirn auf den Botenstoffwechsel und hemmt dabei die Signalverarbeitung. Kleine Mengen des Rauschmittels wirken auf den Körper entspannend und aufmunternd, doch je höher die aufgenommene Alkoholmenge, desto mehr schränkt der Alkohol die Wahrnehmung ein und beeinflusst auch das Verhalten. Unter Alkoholeinfluss fällt es dann schwerer, Entfernungen richtig einzuschätzen. Die Konzentration nimmt ab, ebenso die Reaktionsfähigkeit. Fazit: Passen Alkohol und Einsatz- oder Übungsdienst zusammen? NEIN, natürlich nicht. Deshalb heute wichtige Tipps für den richtigen Umgang mit Alkohol und anderen Rauschmitteln für Einsatzkräfte: Auf Medikamente können wir zum Teil natürlich nicht verzichten. Wenn dir dein Arzt etwas verschreibt, frag ihn, ob das den Einsatzdienst beeinträchtigen könnte. Drogen sind nicht umsonst illegal, mehr gibt es dazu nicht zu sagen. Crystal Meth, Kokain, Heroin und all das Zeugs ist tötlich und basta! Ob Cannabis jetzt legalisiert wird oder nicht, bleibt abzuwarten. Es ist eine bewusstseinsverändernde Substanz und hat damit im Einsatz nix verloren. Auch Kaffee und ständiges “online-sein” trägt nicht zur Entspannung bei. Break the cycle: Dass Alkohol zur Entspannung beiträgt, ist tatsächlich auch ein Trugschluss. In Wahrheit bewirkt er im Körper sogar das Gegenteil und hemmt auf Dauer deine Stressresistenz. Falsche Kameradschaft hat an der Stelle nix verloren. Sprich Kameraden/innen, die im Einsatz nach Alkohol riechen, darauf an, wenn du dich nicht traust, dann sprich deinen Vorgesetzten an. Body-Mindset: Hör auf deinen Körper und baue dir ganz bewusst Entspannungszeiten ein. Back to nature: Hört sich vielleicht sehr einfach an, aber so ist es eben. Die Natur hat eine ganz besondere Wirkung auf uns Menschen und trägt maßgeblich zur Entspannung bei. Sport macht frei: Es gibt viele Möglichkeiten sich zu entspannen - Sport ist einer der effektivsten Methoden schädliche Stresshormone abzubauen - und du tust noch was für deinen Körper - Win-Win, oder? Wenn es denn kein Sport sein soll - dann darf auch gerne die Couch herhalten. Mach es dir gemütlich mit einem Buch oder lenke dich mit einem guten Film ab. Last but not Least - natürlich fireproof360° - Hier lernst du, wie du mit belastenden Einsätzen umgehen sollst, als Einsatzkraft stressresistenter wirst und dich wieder an die wichtigen Aufgaben deines Feuerwehr-Daseins erinnerst. Hole dir jetzt deine fireproof360°-Lizenz und starte mit der wichtigen mentalen Ausbildung für deinen Feuerwehr- und Einsatzdienst: https://brand-punkt.de/e-learning-fireproof360-one/ TEILE DIESE PODCASTFOLGE Vielleicht befindet sich ein Kamerad oder Kameradin in einer Situation, bei der genau diese Folge eine wertvolle Unterstützung sein kann - deshalb bitten wir dich: Teile diese Folge und helfe somit auch denjenigen, die diesen kostenfreien Podcast noch nicht kennen.

Sounds of Sound Studies
Algorhythmik und Medienkritik. Shintaro Miyazaki über Computersignale, Verflechtung von Klang, Macht und Signalverarbeitung

Sounds of Sound Studies

Play Episode Listen Later Sep 15, 2021 33:56


Shintaro Miyazaki, Juniorprofessor für digitale Medien und Computation an der Humboldt-Universität zu Berlin, berichtet im Gespräch über Sonifikation als diagnostische Praxis in der frühen Computergeschichte, das Klangwissen von Computeringenieuren, Kritische Psychologie, Wegbereiter der zeitgenössischen Sound Studies und die notwendige Politisierung der Klangforschung.

Fraunhofer-Podcast: Forschung erleben – Zukunft hören

Durch die hohe Verfügbarkeit von Drohen und anderen Fluggeräten für den Privatgebrauch entstehen Bedro-hungsszenarien für sensible Gebiete wie Flughäfen oder Großveranstaltungen mit vielen Menschen. Um ange-messen reagieren zu können, braucht es Hilfsmittel zur Erkennung und Lokalisation potenzieller Gefahrenquel-len. Christian Rollwage, Leiter der Gruppe »Audiosignalverbesserung« beim Fraunhofer IDMT in Oldenburg, forscht an Lösungen zur besseren Signalverarbeitung und -verbesserung von Sprach- und Audiosignalen. Mit diesen Kompetenzen ist sein Team an unterschiedlichen Projekten zum Schutz von sensiblen Bereichen vor Be-drohung durch Flugobjekte beteiligt. Dabei kommen nicht nur leistungsstarke Mikrofone und Technologien für die Audiosignalverarbeitung zum Einsatz, sondern auch Verfahren des Maschinellen Lernens. Dadurch sind audi-ologische Daten selbst bei anspruchsvollen Umwelteinflüssen, wie etwa bei starkem Umgebungslärm, für akusti-sche Sensoren nutzbar. https://www.idmt.fraunhofer.de/de/hsa.html https://www.idmt.fraunhofer.de/de/hsa/research_fields/audio_signal_enhancement.html https://www.idmt.fraunhofer.de/de/Press_and_Media/press_releases/2021/Projekt_DeViSe.htmlhttps://www.idmt.fraunhofer.de/de/Press_and_Media/press_releases/2020/klick-ist-nicht-gleich-klick.html

New@FAU (QHD 1920)
Prof. Dr. Veniamin Morgenshtern - Multimediakommunikation und Signalverarbeitung 2017/2018

New@FAU (QHD 1920)

Play Episode Listen Later Aug 20, 2018 3:15


prof signalverarbeitung
Neues Terrain
Raumklang

Neues Terrain

Play Episode Listen Later Sep 21, 2017 163:10


Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang. Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte. Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet. Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat. Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten. Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument. Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt. Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht. Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis. Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist. Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat. Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich. Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde. Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert. Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht. Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen. Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss. Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden. Literatur und weiterführende Informationen S. Carlile: Psychoacoustics, Signification Handbook, Logos Publishing House, 2011. B. N. Walker, M. A. Nees: Theory of Sonification, Sonification Handbook, Logos Publishing House, 2011. A. Hunt, T. Hermann: Interactive Sonfication, Sonification Handbook, Logos Publishing House, 2011.M. A. Gerzon: Periphony: With-height sound reproduction, Journal of the Audio Engineering Society 21.1: 2-10, 1973. V. Pulkki: Virtual sound source positioning using vector base amplitude panning, Journal of the audio engineering society 45.6: 456-466, 1977. M. Noisternig, T. Musil, A. Sontacci, R. Holdrich: 3D binaural sound reproduction using a virtual ambisonic approach, Virtual Environments,  VECIMS ’03. 2003 IEEE International Symposium on Human-Computer Interfaces and Measurement Systems, 2003. Podcasts M. Völter, R. Vlek: Synthesizers, Omega Tau Podcast, Episode 237, 2017.  T. Pritlove, U. Schöneberg: CRE238 – Neuronale Netze, CRE Podcast,  Metaebene Personal Media, 2015. M. Völter, C. Osendorfer, J. Bayer: Maschinelles Lernen und Neuronale Netze, Omega Tau Podcast, Episode 259, 2017 S. Trauth: Klangdom, Funkenstrahlen Podcast, Episode 85, 2016 P. Gräbel: Der Schall, Nussschale Podcast, Episode 16, 2017. T. Pritlove, S. Brill: CRE206 – Das Ohr, CRE Podcast, Metaebene Personal Media, 2014. S. Plahl: Der Klang einer Armbewegung, SWR2 Wissen, 2013.

university film professor story performance system mit event journal prof software position museum hunt als studio dabei rolle definition musik durch jets bei kopf sinn einblick projekt haus sicht erfahrung raum kunst universit beziehung basis medien virtual reality signal verst festivals bereich herausforderung besuch einsatz technik punkt zusammen diskussion leider zusammenarbeit bewegung ohren besonders einf aufnahme daher vergleich wandel wirkung richtung gruppe eindr parallel ereignisse nutzen str signals ordnung eindruck institut der weg plattform recherche symposium mittel niveau geh wahrnehmung gehirn verr wand osaka projekten zentrum abstand schauspieler installation literatur zweck dadurch techniken gewinn aufwand systeme sweet spot anzahl einfl gestaltung werke kritiker punkten auseinandersetzung verfahren positionen modelle effekte maschinen kopfh hochschule verwendung sekunde karlsruhe darstellung komplexit klang spektrum positionierung feuerwerk auswirkung instituts richtungen studierende im gegensatz auff intensit diplom linz schultern bandbreite alternativ radius klicks spat praktisch sph mikrofone ein teil empfinden synthesizer korg donau instrumenten wahrnehmungen lautsprecher die aufnahme die gruppe pavillon im bereich music technology akustik durststrecke signalen eine herausforderung pegel installationen booten chirps meteorologie abbildung die ber raumakustik das institut karlheinz stockhausen musil reproduktion musikinstrument kopfes john richards lautsprechern subwoofer instituten ars electronica zkm aufnahmetechnik abschlussarbeiten sonification schallwellen ein aspekt medienkunst technologie kit neuronale netze synthesizern podcast sm audio engineering society das ohr die hochschule filterung ohrmuschel raumklang konzerterlebnis dolby surround diese analyse treibern hfg signalverarbeitung klanginstallation john chowning vertikalen sonifikation zur erfassung ansteuerung ambisonics empirisch staatlichen hochschule psychoakustik zur erzeugung kunstkopf ludger br kopfbewegung omega tau podcast gestaltung hfg diskretisierung klangdom audiokompression kugeloberfl metaebene personal media
Modellansatz
InSAR - SAR-Interferometrie

Modellansatz

Play Episode Listen Later Sep 24, 2015 40:14


Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen positionierter Streuer in einer Entfernungszelle.Die für die SAR-Interferometrie wesentliche Information aber ist die Phase. Sie kann allerdings nur genutzt werden, wenn zwei oder mehr Aufnahmen aus annähernd der gleichen Position vorliegen. Die grundlegende Idee dabei ist die Betrachtung von Doppeldifferenzen der Phase zweier Pixel zweier Aufnahmezeitpunkte. Um sie zu verstehen nehmen wir zunächst an, dass sich in beiden Auflösungszellen je ein dominanter, punktförmiger Streuer befindet, was so gemeint ist, dass die Phase einer Laufzeit entspricht. Da die Subpixelpositionen unbekannt sind und die Größe der Auflösungszelle um Vieles größer als die Wellenlänge ist, ist die Phasendifferenz zweier Pixel eines einzelnen Bildes nicht verwertbar. In der Doppeldifferenz heben sich die unbekannten Subpixelpositionen allerdings heraus. Die Doppeldifferenz ist in dieser idealisierten Situation die Summe dreier Anteile: des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien, des Laufzeitunterschiedes auf Grund einer relativen Positionsänderung der Streuer während der zwischen den Aufnahmen verstrichenen Zeit und des Laufzeitunterschiedes auf Grund der räumlichen und zeitlichen Variation der atmosphärischen Verzögerung. Diese drei Anteile können jeder für sich nützliche Information darstellen. Der Erste wird zur Gewinnung von Höhenmodellen genutzt, der Zweite zur Detektion von Deformationen der Erdoberfläche und der Dritte, obwohl meist als Störterm angesehen, kann bei der Bestimmung der Verteilung von Wasserdampf in der Atmosphäre genutzt werden. Es stellt sich aber die Frage, wie man diese Terme separiert, zumal noch die Mehrdeutigkeit aufgelöst werden muss, die darin liegt, dass die Phase nur bis auf ganzzahlige Vielfache von zwei Pi bekannt ist.Weitere Fragen ergeben sich, da in realen Daten diese Annahmen für viele Pixel nicht erfüllt sind. Stellt man sich beispielsweise eine Auflösungszelle mit mehreren oder vielen kleineren Streuern vor (z.B. mit Geröll), so ändert sich die Phase der überlagerten Returns mit dem Einfallswinkel des Signals. Sie ändert sich auch, wenn manche der Streuer bewegt wurden oder die beiden Aufnahmen nicht ausreichend genau zur Deckung gebracht wurden. Dies führt dazu, dass die Phase sich um einen schlecht quantifizierbaren Betrag ändert. Man spricht dann von Dekorrelation. Eventuell besteht nach Änderung der physischen Gegebenheiten in der Auflösungszelle keine Beziehung mehr zwischen den Phasenwerten eines Pixels. Dies ist etwa der Fall, wenn ein dominanter Streuer hinzu kommt oder nicht mehr anwesend ist, ein Gelände überschwemmt wird oder trocken fällt. Es stellt sich also die Frage, welche Pixel überhaupt Information tragen, bzw. wie ihre Qualität ist und wie sie extrahiert werden kann.Die Geschichte der SAR-Interferometrie begann nach dem Start des ESA-Satelliten ERS 1 im Jahr 1991 mit einfachen differentiellen Interferogrammen. Das berühmteste ist sicher das vom Landers-Erdbeben 1992 in Kalifornien. Zum ersten Mal in der Geschichte der Wissenschaft war es möglich, das Deformationsfeld eines Erdbebens flächig zu messen, wenn auch nur die Komponente in Sichtlinie des Sensors. Statt Werte hunderter in der Region installierter Messstationen stellte das Interferogramm ein Bild des Erdbebens mit Millionen Datenpunkten dar. Diese Fähigkeit, großflächig Deformationen der Erdoberfläche aufzuzeichnen, besitzt nur die SAR-Interferometrie! Allerdings ist zu bemerken, dass dieses Resultat seine Entstehung auch günstigen Umständen verdankt. Landers liegt in der Mojave-Wüste, so dass die Variation der atmosphärischen Verzögerung und die Dekorrelation vernachlässigbar waren. Dank der Verfügbarkeit eines guten Höhenmodells konnte der Anteil des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien eliminiert werden (man spricht dann von einem differentiellen Interferogramm). Ein weiterer Meilenstein war die Shuttle Radar Topography Mission des Space Shuttle Endeavour im Februar 2000, während der die Daten für ein Höhenmodell der gesamten Landmasse zwischen 54 Grad südlicher Breite und 60 Grad nördlicher Breite aufgezeichnet wurden. Für diesen Zweck wurde die Endeavour mit zwei SAR-Antennen ausgestattet, eine am Rumpf, eine an einem 60 Meter langen Ausleger. Dank zeitgleicher Aufnahmen waren die Phasenanteile auf Grund Deformation und atmosphärischer Verzögerung vernachlässigbar. Dekorrelation auf Grund von Änderungen der physischen Gegebenheiten spielt hier auch keine Rolle. Dem Wunsch nach einem weltweiten, dazu deutlich höher aufgelösten Höhenmodell kommt seit 2010 die TanDEM-X-Mission des DLR nach, bei der die beiden SAR-Antennen von zwei Satelliten im Formationsflug getragen werden. Auch in der Algorithmik gab es entscheidende Fortschritte. Einer der fruchtbarsten war die Erfindung von Permanent Scatterer Interferometric SAR (PSInSAR) um das Jahr 2000, das durch die Verwendung einer längeren Zeitreihe von differentiellen Interferogrammen und einiger neuer Ideen das Problem der Separierung der im vorangehenden Abschnitt genannten Terme löste. Der Ausgangspunkt hierfür war die Entdeckung, dass häufig eine größere Anzahl über lange Zeiträume phasenstabile Streuer, die sogenannten Permanent Scatterer (auch Persistent Scatterer oder PS), gefunden werden können, die man sich vereinfacht als Pixel vorstellen darf, deren Auflösungszelle einen dominanten, punktförmigen, über die Zeitreihe unveränderten Streuer enthält. Auf diese wird nun die Auswertung beschränkt, die vereinfacht folgende Schritte durchläuft: Definition eines Graphen mit den PS als Knoten und Paaren benachbarter PS als Kanten; Schätzung einer Modellphase für Deformation und Höhenmodellfehler an Hand der Doppeldifferenzen aller verwendeten differentiellen Interferogramme für alle Kanten; Entrollen von Originalphase minus Modellphase, d.h. Auflösen der Mehrdeutigkeiten; räumlich-zeitliche Filterung, um die Variation der atmosphärischen Verzögerung zu eliminieren. Als Produkt ergeben sich für jeden PS seine Bewegung in Sichtlinie des Sensors und eine Korrektur seiner Höhenlage relativ zum für die Erzeugung der differentiellen Interferogramme verwendeten Höhenmodell. Seither wurden diese Grundideen modifiziert und verfeinert. Vor allem müssen die Berücksichtigung verteilter Streuer (auch Distributed Scatterer oder DS) für die Deformationsanalyse erwähnt werden, was die Informationsdichte vor allem in ariden Gebieten drastisch erhöhen kann, sowie die SAR-Tomographie, die eine Analyse auch dann erlaubt, wenn zwei oder drei vergleichbar starke Streuer in einer Auflösungszelle vorhanden sind (z.B. wenn ein Streuer am Boden, eine Fensterniche und eine Dachstruktur den gleichen Abstand zum Sensor haben). Die SAR-Interferometrie, insbesondere die Deformationsanalyse, verwendet vor allem mathematische Methoden aus den Bereichen Stochastik, Signalverarbeitung, Optimierungstheorie und Numerik. Besondere Herausforderungen ergeben sich daraus, dass die Vielfalt natürlicher Phänomene sich nur bedingt durch einfache statistische Modelle beschreiben lässt und aus dem Umstand, dass die Datensätze in der Regel sehr groß sind (ein Stapel von 30 Aufnahmen mit komplexwertigen 600 Megapixeln ist durchaus typisch). Es treten lineare Gleichungssysteme mit mehreren Zehntausend Unbekannten auf, die robust gelöst sein wollen. Für die Auflösung der Mehrdeutigkeiten verwenden die fortgeschrittensten Algorithmen ganzzahlige Optimierung. Wavelet-basierte Filterverfahren werden genutzt, um die atmosphärische Verzögerung vom Nutzsignal zu trennen. Im Zusammenhang mit der Schätzung der Variation der atmosphärischen Verzögerung werden geostatistische Verfahren wie Kriging eingesetzt. Statistische Tests werden bei der Auswahl der DS, sowie zur Detektion schlechter Pixel eingesetzt. Bei der Prozessierung der DS spielen Schätzer der Kovarianzmatrix eine prominente Rolle. Die SAR-Tomographie nutzt Compressive Sensing und viele weitere Verfahren. Zusammenfassend lässt sich sagen, dass die SAR-Interferometrie auch aus Perspektive eines Mathematikers ein reichhaltiges und spannendes Arbeitsgebiet ist. Eine wichtige Anwendung ist die Deformationsanalyse durch die InSAR-Methode: Die SAR-Interferometrie zeichnet sich vor allen anderen Techniken dadurch aus, dass sie bei geeignetem Gelände sehr großflächige Phänomene mit sehr hoher Informationsdichte abbilden kann. Allerdings liefert sie relative Messungen, so dass in der Regel eine Kombination mit Nivellement oder hochgenauen GPS-Messungen verwendet wird. Ihre Genauigkeit hängt neben der Qualität der Daten von der Wellenlänge ab und zeigt bei 3cm Wellenlänge meist nur wenige Millimeter je Jahr Standardabweichung. Damit können selbst sehr feine Bewegungen, wie z.B. die Hebung des Oberrheingrabens (ca. 2mm/y), nachgewiesen werden. Allerdings können wegen der Mehrdeutigkeit der Phase Bewegungen auch zu stark sein, um noch mit PSInSAR auswertbar zu sein. In diesem Fall können längere Wellenlängen, höhere zeitliche Abtastung oder Korrelationsverfahren helfen. Trotz der diskutierten Einschränkungen lässt sich die Deformationsanalyse mit InSAR in vielen Zusammenhängen nutzensreich einsetzen, denn auch die Ursachen für Deformationen der Erdoberfläche sind vielfältig. Neben geologischen und anderen natürlichen Phänomenen werden sie von Bergbau, Förderung von Wasser, Erdgas, Erdöl, durch Geothermiebohrungen, Tunnelbau oder andere Bautätigkeiten ausgelöst. Meist steht bei den Anwendungen die Einschätzung von Risiken im Fokus. Erdbeben, Vulkanismus, aber auch Schäden an kritischer Infrastruktur, wie Deichen, Staudämmen oder Kernkraftwerken können katastrophale Folgen haben. Ein weiteres wichtiges Thema ist die Entdeckung oder Beobachtung von Erdbewegungen, die sich potentiell zu einem Erdrutsch entwickeln könnten. Allein in den Alpen gibt es tausende Bergflanken, wo sich größere Bereiche in langsamer Bewegung befinden und in Leben oder Infrastruktur gefährdende Hangrutsche münden könnten. Auf Grund der zunehmenden Erderwärmung nimmt diese Bedrohung überall dort zu, wo Permafrost zu tauen beginnt, der bisher den Boden stabilisierte. InSAR wird bei der Erstellung von Risikokarten genutzt, die der Beurteilung der Gefährdungslage und der Entscheidung über Gegenmaßnahmen dienen. In vielen Regionen der Erde werden Deformationen der Erdoberfläche durch veränderte Grundwasserstände verursacht. Nimmt das Grundwasser ab, etwa wegen Entnahme zur Bewässerung oder industriellen Verwendung, so senkt sich die Erdoberfläche. Nimmt das Grundwasser während regenreicher Zeiten zu, so hebt sich die Erdoberfläche. Das Monitoring mit InSAR ist hier aus mehreren Gründen interessant. Bewegungen der Erdoberfläche können Schäden an Gebäuden oder anderen Strukturen verursachen (Bsp. Mexico City). Übermäßige Wasserentnahme kann zu irreversibler Verdichtung der wasserführenden Schichten führen, was Konsequenzen für die zukünftige Verfügbarkeit der lebenswichtigen Flüssigkeit hat. Bei Knappheit muss die Entnahme reguliert und überwacht werden (Bsp. Central Valley, Kalifornien). Von besonderer Bedeutung sind durch geologische Phänomene wie Vulkanismus oder tektonische Bewegungen verursachte Deformationen der Erdoberfläche. Die von SAR-Satelliten gewonnenen Daten werden zur Einschätzung von Risiken benutzt, auch wenn eine sichere, frühzeitige und zeitgenaue Vorhersage von Erdbeben oder Vulkanausbrüchen mit den heutigen Methoden nicht möglich ist. Sie sind aber die Grundlage für eine ausgedehnte Forschungsaktivität, die unser Verständnis der Vorgänge in der Erdkruste stetig wachsen lässt und immer genauere Vorhersagen erlaubt. Dies ist in erster Linie den SAR-Satelliten der ESA (ERS-1, ERS-2, Envisat und aktuell Sentinel-1A) zu verdanken, die seit 1991 mit lediglich einer Lücke von zwei Jahren (2012-2014) kontinuierlich die gesamte Erde aufnehmen. Die Idee dabei ist, dass so in festem zeitlichen Rhythmus (bei ERS alle 35 Tage) jeder Punkt der Erde aufgenommen wird. Dadurch ist ein großes Archiv entstanden, das es nach einem geologischen Ereignis ermöglicht, dieses mit den Methoden der SAR-Interferometrie zu untersuchen, da die Vorgeschichte verfügbar ist. Eine Entwicklung der letzten Jahre ist die Nutzung bei der Erschließung von Erdgas und Erdöl. Die mit InSAR sichtbar gemachten Deformationen erlauben es, neue Einsicht in die Struktur der Lagerstätten zu erhalten, geomechanische Modelle zu kalibrieren und letztlich die Rohstoffe Dank optimierter Positionierung von Bohrlöchern effektiver und kostengünstiger zu fördern. Wer InSAR noch besser verstehen will, der findet in den InSAR Guidlines der ESA die Grundlagen sehr gut erklärt. Einen etwas breiteren Überblick über Anwendungsmöglichkeiten kann man sich auf der Homepage von TRE verschaffen, einem Unternehmen, das von den Schöpfern von PSInSAR gegründet wurde und im Bereich InSAR-Auswertungen nach wie vor führend ist. Die Wettbewerber ADS und e-GEOS bieten außer InSAR weitere Anwendungen von SAR-Daten. Aus wissenschaftlich/politischer Perspektive kann man sich in der Broschüre der DLR über Themenfelder der Erdbeobachtung informieren. Zu dem speziellen Thema der Erdbewegung auf Grund Absenkung des Grundwasserspiegels in den USA gibt es weitere Informationen. Literatur und weiterführende Informationen A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet: InSAR Principles: Guidelines for SAR Interferometry Processing and Interpretation, TM-19, ESA Publications, 2007. M. Fleischmann, D. Gonzalez (eds): Erdbeobachtung – Unseren Planeten erkunden, vermessen und verstehen, Deutsches Zentrum für Luft- und Raumfahrt e.V., 2013. Land Subsidence, U.S. Geological Survey. M. Even, A. Schunert, K. Schulz, U. Soergel: Atmospheric phase screen-estimation for PSInSAR applied to TerraSAR-X high resolution spotlight-data, Geoscience and Remote Sensing Symposium (IGARSS), IEEE International, 2010. M. Even, A. Schunert, K. Schulz, U. Soergel: Variograms for atmospheric phase screen estimation from TerraSAR-X high resolution spotlight data, SPIE Proceedings Vol. 7829, SAR Image Analysis, Modeling, and Techniques X, 2010. M. Even: Advanced InSAR processing in the footsteps of SqueeSAR Podcast: Raumzeit RZ037: TanDEM-X Podcast: Modellansatz Modell010: Positionsbestimmung Podcast: Modellansatz Modell012: Erdbeben und Optimale Versuchsplanung Podcast: Modellansatz Modell015: Lawinen

united states man fall er situation leben thema position phase ps geschichte arbeit dabei gef rolle blick definition zeiten grund sand bei idee diese entwicklung fokus hilfe dazu pi damit ideen einblick einen bedeutung unternehmen region qualit bild beziehung entscheidung signal dank mexico city neben wasser verst gonzalez esa punkt analyse schritte aufgabe modeling perspektive luft interpretation trotz unterschiede grad bewegung zum erde daten meter punkte wissenschaft methoden umst hinter positions kern allerdings signals regel homepage pixel schatten auswahl szene geb grundlage konsequenzen mittel allein risiken struktur vielfalt entstehung einsch die geschichte strukturen grenze bahn ursachen ds umgebung grundlagen linie bereiche paar abstand atmosph literatur kombination zweck nutzung dadurch schnee gel aufgrund techniken vieles einschr zusammenh orten anwendung anteil ereignis aufl sar anzahl stellt tm schulz vorg pixels verfahren bew infrastruktur returns regionen flugzeug zweite wellen modelle fortschritte kalifornien bedrohung die idee verwendung betrachtung variation rhythmus aufnahmen entdeckung meist erfindung positionierung alpen meilenstein sensor signale bestimmung sensors optimierung volumen bewegungen nimmt daneben summe dritte anwendungen central valley resultat erstellung magnitude beobachtung algorithmen verz erdbeben verteilung ausnahmen anteile auswertung baut einsicht gebieten seither abschnitt visualisierung komponente erd endeavour gegebenheiten raumfahrt terme landers schichten vorhersagen umstand paaren betrag breite kanten annahmen korrektur knoten beurteilung vorgeschichte rocca dlr permafrost eventuell ers erderw sensoren laufzeit erdgas geosciences konstellationen vegetation satelliten vorhersage fahrzeugen brosch bsp betrachtet stapel objekten geological survey gewinnung schienen mathematiker millimeter anwendungsm schwarz wei wellenl schlitten gegenma grundwasser bildes messungen deckung bergbau fleischmann erzeugung arbeitsgruppe mehrzahl zeitr erschlie fraunhofer institut diese f datens im zusammenhang themenfelder tageszeit ferretti zusammenfassend rumpf pfosten prati sensorik spektrums erdoberfl weitere fragen deformation erdrutsch vorzug vulkanausbr geos staud streuung verdichtung entnahme wasserdampf erdbebens eine entwicklung graphen bauwerken kernkraftwerken detektion reflektoren space shuttle endeavour wetterverh filterung mehrdeutigkeit der ausgangspunkt lagerst ettlingen zentimetern messstationen mathematisch zeitabst erdbeobachtung vulkanismus insar bohrl signalverarbeitung erdkruste grundideen informationsdichte wavelet prozessierung landmasse fernerkundung mojave w systemtechnik forschungsaktivit arbeitsgebiet hebung numerik vielfache envisat separierung deformationen sichtlinie formationsflug interferometrie gleichungssysteme abtastung fokusierung terrasar x
Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 05/06
Strukturelle und funktionale Analyse der Effektordomäne des pH-abhängigen Einkomponentensystems CadC in Escherichia coli

Fakultät für Biologie - Digitale Hochschulschriften der LMU - Teil 05/06

Play Episode Listen Later May 6, 2015


Das Einkomponentensystem CadC in Escherichia coli zählt zur Gruppe der ToxR-ähnlichen Transkriptionsregulatoren und aktiviert bei niedrigem pH-Wert die Expression des cadBA-Operons, einem Säure-induzierbaren Lysin-Decarboxylase-System. Transkriptionsregulatoren der ToxR-Familie zeichnen sich durch einen gemeinsamen modularen Aufbau aus und bestehen aus einer periplasmatischen Sensordomäne, einer Transmembranhelix und einer zytoplasmatischen Effektordomäne. Die Signalwahrnehmung, -weiterleitung und -verarbeitung erfolgt bei den ToxR-ähnlichen Transkriptionsregulatoren innerhalb eines einzelnen Proteins. Die molekularen Mechanismen der Reizwahrnehmung durch CadC sind bekannt, die Signalweiterleitung und -verarbeitung im Zytoplasma sind hingegen weitgehend ungeklärt. In CadC ist ein zytoplasmatischer Linker (51 Aminosäuren) essentiell für die Signaltransduktion von der sensorischen Domäne zur DNA-Bindedomäne. Im ersten Teil dieser Arbeit wurde der Mechanismus der Signalweiterleitung von der sensorischen Domäne zur DNA-Bindedomäne untersucht. Mit Hilfe der Kernspinresonanzspektroskopie konnte gezeigt werden, dass die Linkerregion unstrukturiert vorliegt. Im Rahmen einer umfangreichen Mutagenesestudie wurde beobachtet, dass sowohl eine Vielzahl an Aminosäuresubstitutionen (Veränderungen der Ladung, der Rigidität oder der Wahrscheinlichkeit zur Bildung einer α-Helix) als auch die Verlängerung des CadC-Linkers zu keiner funktionellen Beeinträchtigung führte. Jedoch wurde die Signalverarbeitung im Zytoplasma durch Verkürzung des Linkers modifiziert und verursachte ein invertiertes Expressionsprofil des Zieloperons cadBA oder die Entkopplung der Expression vom externen pH. Der Linkerregion in CadC konnte keine Rolle in der Oligomerisierung zugeordnet werden. Unabhängig vom Linker wurde in einer in vivo Interaktionsstudie eine pH-abhängige Interaktion (pH < 6,8) zwischen CadC-Monomeren gezeigt. Im zweiten Teil dieser Arbeit wurde die Röntgenkristallstruktur (2,0 Ångström) und in einem parallelen Ansatz die NMR-Struktur (0,46 backbone RMSD) der zytoplasmatischen Effektordomäne in CadC als erste dreidimensionale Struktur der DNA-Bindedomäne eines ToxR-ähnlichen Regulators aufgeklärt. In der Struktur von CadC1-107 wurde ein „winged Helix-Turn-Helix“-Motiv aus der Familie der OmpR-ähnlichen Transkriptionsregulatoren beobachtet. Im Gegensatz zu der Topologie bereits gelöster OmpR-ähnlichen Regulatoren enthält CadC am Übergang von DNA-Bindedomäne und Linkerregion einen zusätzlichen β-Strang (β-Strang 7), welcher sich stabilisierend auf die DNA-Bindung auswirken könnte. Im dritten Teil dieser Arbeit wurde der DNA-Bindemechanismus von CadC an den cadBA-Promotor untersucht. In in vitro Versuchen zur Bindung von löslichen CadC-Varianten an DNA konnte eine sehr geringe Dissoziationsrate beobachtet werden. Somit ist nicht die Affinität zur DNA sondern die Stimulus-abhängige Interaktion von CadC mit der α-Untereinheit der RNA-Polymerase essentiell für die Aktivierung des cadBA-Operons. Außerdem wurden, basierend auf der Kristallstruktur der DNA-Bindedomäne von CadC Aminosäuresubstitutionen durchgeführt. Die Aminosäure His66 in der Erkennungshelix α3 ist an der Interaktion mit der großen Furche der DNA beteiligt, während die Aminosäuren Lys95 und Arg96 die Interaktion mit der kleinen Furche der DNA vermitteln. Die Ergebnisse dieser Arbeit postulieren ein Modell zur Signalverarbeitung in CadC, in welchem die Signalwahrnehmung im Periplasma zu konformationellen Veränderungen des unstrukturierten CadC-Linkers führt und somit die räumliche Positionierung der DNA-Bindedomänen im CadC-Dimer ermöglicht wird.

GROBI.TV
Der neue TECHNISAT Receiver Digit Isio S 2 - die Alternative für den Satempfang

GROBI.TV

Play Episode Listen Later Sep 3, 2014


Mit diesem HDTV Satempfänger können Sie komfortabel Ihre Wunschprogramme empfangen und sehen. Die bewährte Technisat Technologie wurde auch in diesem äusserst kompakten Satreceiver integriert. So ist das Technisat Bedienermenü unverändert in seiner Struktur, wurde aber noch einmal verbessert in seiner Grafikqualität. Die neue Prozessortechnologie beschleunigt die Signalverarbeitung diverser Funktionen um bis das 18fache laut Technisat im Vergleich zu älteren Technisatreceivern. Umfangreiche Netzwerkfunktionen runden das Ausstattungspaket ab.Grund genug für uns, ein Video mit den Ausstattungsmerkmalen zu drehen und nun zu veröffentlichen.Der Technisat ISIO Digit S 2 ist ab sofort bei uns in der Ausstellung und ab Lager in schwarz und silber verfügbar.Hier finden Sie weitere Informationen:http://www.grobi-shop.tv/product_info.php?cPath=30_58&products_id=1815Wir wünschen Ihnen viel Spass bei ansehen unseres Videos.Wenn auch Sie Lust auf ein Kino in den eigenen 4 Wänden bekommen haben, dann melden Sie sich doch bei uns oder kommen Sie nach Kaarst bei Düsseldorf.Wir sind Ihr Ansprechpartner für alles rund um das Thema Unterhaltungselektronik und Heimkino. Weitere Informationen finden Sie hier http://www.grobi.tv.Telefon +49 2131 76 94 12Besuchen Sie auch das WATCHMI Videoportal oder installieren Sie sich die WATCHMI Software auf Ihren TECHNISAT ISIO Receiver. http://www.watchmi.tvAb sofort haben wir auch einen Podcast.http://grobitv.podcaster.de/GROBITV.rssInstallieren Sie sich doch auch direkt unsere APPs für Ihr Smartphone.Für Android System https://play.google.com/store/apps/details?id=com.Tobit.android.Slitte6009412130Für IOS System https://itunes.apple.com/de/app/grobi.tv/id566557005?mt=8

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Cortical actomyosin network organization in epithelial cells

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05

Play Episode Listen Later Jun 5, 2014


Epithelzellen, die Modell-Zelllinien dieser Dissertation, sind für die Aufteilung und Abtrennung verschiedener Kompartimente eines Organismus zuständig, indem sie sich zu Grenzflächen zusammenschliessen, welche häufig hohen physikalischen Spannungen und Kräften ausgesetzt sind. Um diese physikalischen Kräfte zu verarbeiten oder sie selbst zu produzieren, verwenden Epithelzellen, wie alle anderen Zelltypen auch, das Zytoskelett, das sich im Allgemeinen aus den Komponenten Mikrotubuli, Intermediär-Filamenten und Aktin sowie den damit korrespondierenden Motorproteinen Dynein, Kinesin sowie Myosin zusammensetzt. In dieser Dissertation wird das Zusammenspiel von Aktin und Myosin auf der apikalen Seite von Epithelzellen untersucht. Im Falle von konfluenten Zellen mit vollständig ausgebildeten Zell-Zell-Kontakten sind auf der apikalen Seite der Zellen Mikrovilli zu finden, kleine, mit Aktin-Bündeln gefüllte Ausstülpungen aus der Zelloberfläche, welche für die optimierte Nahrungsaufnahme sowie als Antennen für Signalverarbeitung zuständig sind. Im Zuge der Arbeit konnten wir feststellen, dass sich der Aktin-Myosin-Aufbau auf der apikalen Seite von Einzelzellen ohne Zell-Zell-Kontakte, sogenannten nicht-konfluenten Zellen, grundsätzlich ändert. Mittels Fluoreszenz-Mikroskopie und anderen experimentellen Methoden zeigen wir, dass zwar ähnliche Ausstülpungen auf der apikalen Oberfläche von Einzelzellen zu finden, diese jedoch häufig verlängert, gebogen, hoch-dynamisch und oft parallel zur Zellmembran orientiert sind. Wir zeigen mittels molekularbiologischer Methoden, dass ein zusätzliches, innerhalb der apikalen Zellmembran liegendes isotropes Akto-Myosin-Netzwerk für die dynamische Reorganisation der Mikrovilli-Ausstülpungen verantwortlich ist. Der Identifzierung des isotropen Akto-Myosin-Netzwerkes, welches eine der Hauptaussagen dieser Dissertation ist, wird eine detaillierte Analyse der dynamischen Netzwerkreorganisation angefügt, die mittels temporaler und örtlicher Bild-Korrelationsanalysen charakteristische Zeiten und Längen der Dynamik definiert. Des Weiteren entwickeln wir mehrere Bild- Analyseverfahren, allen voran die Methode der iterativen temporalen Bildkorellation sowie des optischen Flusses, wodurch wir eine Oszillation der Netzwerk-Reorganisationsgeschwindigkeit identifizieren und parametrisieren können. Verschiedene, auf Fluoreszenzmikroskopie und automatisierter optischer Fluss-Bildanalyse basierende Experimente geben Hinweise auf zwei mögliche Erklärungen für die identifizierten Oszillationen. Sowohl Myosin aktivitätsregulierende Proteine als auch spontan auftretende Spannungsfluktuationen im unter Zugspannung liegenden Netzwerk können mögliche Ursachen für die identifizierten Netzwerkoszillationen sein. Obwohl eine eindeutige zelluläre Funktion des apikalen Akto-Myosin-Netzwerkes im Rahmen dieser Doktorarbeit noch nicht identifiziert werden konnte, so können wir aufgrund von verschiedenen Resultaten dennoch postulieren, dass das hier identifizierte Netzwerk eine entscheidende Rolle bei der Zellmigration und Signaltransduktion einnimmt. Unabhängig davon repräsentiert das hier gefundene Netzwerk die faszinierende Möglichkeit, ein aktives, zweidimensionales Akto-Myosin-Netzwerk nicht nur in vitro, sondern in seiner natürlichen Umgebung studieren und biophysikalische Eigenschaften analysieren zu können.

CRE: Technik, Kultur, Gesellschaft

Das akustische Wahrnehmungssystem ist eines dieser unfassbaren Wunder der Evolution, das vom Menschen noch lange nicht vollständig verstanden ist. Trotzdem hat die Forschung in der Medizin, Biologie und Hirnforschung bereits eine so umfangreiche Vorstellung der Mechanismen erarbeitet, dass mittlerweile auch schwere Schädigungen des Hörsystems behoben oder zumindest teilweise umgangen werden können. Das Cochlea-Implantat stellt in diesem Zusammenhang die weitesten reichende Entwicklung dar, da hier akustische Signale direkt in der Hörschnecke elektrisch abgebildet werden können. Audiologe und Softwareentwickler Stefan Brill entwickelt entsprechende Algorithmen für die Signalverarbeitung und -erzeugung für solche Implantate und berichtet im Gespräch mit Tim Pritlove von der Funktionsweise des Gehörsystems vom Außenohr bis zum Hörnerv und mit welchen technischen Maßnahmen auch taube Menschen wieder zum Hören gebracht werden können.

Digitale Medien - WiSe 2009/2010 - Audio mit Folien
Zeichen und Schrift Teil 3 (HTML) & Grundlagen der Signalverarbeitung

Digitale Medien - WiSe 2009/2010 - Audio mit Folien

Play Episode Listen Later Feb 2, 2010 116:19


Das Thema HTML wird abgeschlossen und es wird eine elementare Einfuehrung in Techniken der Signalverarbeitung gegeben.

Digitale Medien - WiSe 2009/2010
Zeichen und Schrift Teil 3 (HTML) & Grundlagen der Signalverarbeitung

Digitale Medien - WiSe 2009/2010

Play Episode Listen Later Feb 2, 2010 116:28


Das Thema HTML wird abgeschlossen und es wird eine elementare Einfuehrung in Techniken der Signalverarbeitung gegeben.

Medizintechnik 2009/2010 (Audio)
5 - Medizintechnik - Signalverarbeitung und Endoskopie 2009/2010

Medizintechnik 2009/2010 (Audio)

Play Episode Listen Later Nov 4, 2009 90:42


medizintechnik endoskopie signalverarbeitung
Medizintechnik 2009/2010 (SD 640)
5 - Medizintechnik - Signalverarbeitung und Endoskopie 2009/2010

Medizintechnik 2009/2010 (SD 640)

Play Episode Listen Later Nov 4, 2009 91:14


medizintechnik endoskopie signalverarbeitung
Digitale Medien - WiSe 2008/2009 - Audio mit Folien
Zeichen und Schrift Teil III : Mehr zu HTML, Signalverarbeitung

Digitale Medien - WiSe 2008/2009 - Audio mit Folien

Play Episode Listen Later Jan 12, 2009 118:01


Das Thema HTML wird abgeschlossen und es wird eine elementare Einführung in Techniken der Signalverarbeitung gegeben.

Digitale Medien - WiSe 2007/2008 - Audio mit Folien

In Vorbereitung der folgenden Kapitel zu Einzelmedien werden Grundbegriffe der Signalverarbeitung eingeführt. Kernthema ist die Zusammensetzung von Signalverfläufen aus harmonischen Sinusschwingungen, also Fourieranalyse und Frequenzraum. Die Behnadlung dieses Stoffs erfolgt wenig mathematisch, mit vielen Anwendungsbeispielen und interaktiven Demonstrationen zur Veranschalulichung der Zusammenhänge. Die Demonstrationen sind (als exerne Applets) im WWW verfügbar; der Podcast enthält nur wenige Screenshots zu den durchgeführten Vorführungen.

Digitale Medien - WiSe 2008/2009
Zeichen und Schrift Teil III : Mehr zu HTML, Signalverarbeitung

Digitale Medien - WiSe 2008/2009

Play Episode Listen Later Dec 20, 2008 118:01


Das Thema HTML wird abgeschlossen und es wird eine elementare Einführung in Techniken der Signalverarbeitung gegeben.

Digitale Medien - WiSe 2007/2008
Signalverarbeitung

Digitale Medien - WiSe 2007/2008

Play Episode Listen Later Dec 19, 2008 62:23


In Vorbereitung der folgenden Kapitel zu Einzelmedien werden Grundbegriffe der Signalverarbeitung eingeführt. Kernthema ist die Zusammensetzung von Signalverfläufen aus harmonischen Sinusschwingungen, also Fourieranalyse und Frequenzraum. Die Behnadlung dieses Stoffs erfolgt wenig mathematisch, mit vielen Anwendungsbeispielen und interaktiven Demonstrationen zur Veranschalulichung der Zusammenhänge. Die Demonstrationen sind (als exerne Applets) im WWW verfügbar; der Podcast enthält nur wenige Screenshots zu den durchgeführten Vorführungen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19
Biomedizinische Relevanz der quantitativen EEG-Analyse

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 07/19

Play Episode Listen Later Nov 15, 2007


Die vorliegende Arbeit stellt eine Zusammenfassung der bisherigen EEG-Publikationen und Ergebnisse des Verfassers dar. Das Ziel der Dissertation besteht darin, die Möglichkeiten und biomedizinische Relevanz der rechnergestützten EEG-Analyse exemplarisch aufzuzeigen. Dies erfolgt mit geeigneten Methoden der Signalverarbeitung, Nachrichtentechnik, Informationstheorie, Mustererkennung, Chaostheorie und Statistik an Hand von EEG-Daten aus verschiedenen Forschungsbereichen. Dabei werden quantitative EEG-Veränderungen, insbesondere in Abhängigkeit von dem Alter, der Vigilanz, den Schlafstadien, dem Menstruationszyklus, der Intelligenz sowie entwicklungsneurologischen Störungen, speziell beim Down Syndrom, untersucht und z. Teil hochsignifikante Ergebnisse erzielt. Besonderer Schwerpunkt wird auf die Analyse der zeitlichen Ordnung bzw. Rhythmizität des EEG-Signals mit Hilfe der Chaosanalyse gelegt, die eine signaltheoretisch bedeutende Alternative zur klassischen Spektralanalyse darstellt. Eine Störung dieser zeitlichen Ordnung kann einen prädiktiven Wert bei funktionellen Störungen des zentralen Hirnstammsystems haben. Es kann gezeigt werden, dass die diagnostische Aussagekraft des EEGs durch den Einsatz der rechnergestützten EEG-Analyse wesentlich erhöht wird. Insbesondere bei morphologischen und funktionellen Störungen des ZNS können die maschinellen EEG-Parameter als ergänzende Faktoren zur Diagnosefindung herangezogen werden. Somit tragen die Parameter der automatischen EEG-Analyse zu einer erheblich differenzierten Betrachtungsweise des EEG bei und eröffnen zusätzliche diagnostische, therapeutische und verlaufsbeurteilende Perspektiven für die klinische Elektroenzephalographie.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Elektrophysiologische Ableitungen in der Magnetresonanztomographie

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19

Play Episode Listen Later Oct 25, 2004


Durch den Einsatz neuer MR-Bildgebungsverfahren und durch die Realisierung von störungsfreien elektrophysiologischen Ableitungen in der MRT konnten neue Methoden und Ergebnisse im Bereich der schnellen MR-Bildgebung erarbeitet werden. Die Ergebnisse waren vor allem die Entwicklung von Methoden der digitalen Signalverarbeitung zur Entstörung von EEG-Ableitungen in der MRT, die praktische Umsetzung dieser Methoden in einer klinischen Studie zur nicht invasiven Lokalisation epileptischer Herde durch EEG-geführte funktionelle MR-Bildgebung, weiter der experimentelle Nachweis der Stimulation peripherer Nerven bei schnellen MR-Bildgebungsverfahren mittels EMG-Ableitung in der MRT und schließlich die Programmierung eines umfassenden Modells zur Abschätzung einer Stimulation peripherer Nerven und des Myokards während schneller MR-Bildgebung. Bei medikamentös nicht einstellbarer fokaler Epilepsie verbleibt als einzige Therapieform eine Resektion des anfallauslösenden Cortexareals. Eine exakte Lokalisation des zu resezierenden Areals ist von entscheidender Bedeutung für den therapeutischen Erfolg. Das EEG ist der Goldstandard zur Diagnose von Epilepsien. Eine genaue dreidimensionale Lokalisation des Ursprungs epilepsietypischer Ereignisse ist mit nicht invasiven EEG-Ableitungen jedoch unmöglich. Mit der funktionellen Magnetresonanztomographie hingegen lassen sich aktive Cortexareale unübertroffen genau lokalisieren. Ziel der Arbeit war es, ein EEG in diagnostischer Qualität in der MRT abzuleiten, epilepsietypische Ereignisse im EEG zu detektieren, nach diesen Ereignissen die funktionelle MRT zu starten und somit Cortexareale mit epilepsietypischer Aktivität dreidimensional zu lokalisieren. Das EEG ist für elektromagnetische Störungen extrem anfällig. In der Umgebung der MRT mit Hochmagnetfeldern, Radiofrequenzen und niederfrequenten Magnetfeldern war ein EEG bisher nicht auswertbar. In dieser Arbeit wurden verschiedene Störeinflüsse der MRT auf das EEG untersucht. EKG-synchrone minimale Bewegungen des Kopfes der Patienten im Hochmagnetfeld induzieren Signale im EEG, die eine Erkennung epilepsietypischer Ereignisse im EEG verhindern. Algorithmen wurden entwickelt, die Störungen im EEG durch eine Korrelation zum EKG ermitteln und dann vom EEG subtrahieren. Mit diesen Algorithmen ließ sich ein EEG in diagnostischer Qualität im Hochmagnetfeld des MR-Tomographen realisieren. Während der Bildgebung ist das EEG durch elektromagnetische Induktion und durch Vibrationen bei den Schaltvorgängen der magnetischen Gradientenfelder gestört. Es konnte gezeigt werden, dass die im EEG induzierten Störfrequenzen aus diskreten harmonischen Frequenzen bestehen, die den Programmstrukturen der Bildgebungssequenzen entsprechen. Ein digitales Signalverarbeitungsverfahren wurde entwickelt, das die Fourier-Transformationen von gestörtem und ungestörtem EEG vergleicht, Störfrequenzen automatisch erkennt und schließlich aus dem EEG entfernt. Eine kontinuierliche Korrelation funktioneller MR-Daten mit der elektrischen Aktivität des Cortex wurde mit diesem Verfahren erstmals möglich. In einer Studie mit Patienten, die an fokaler Epilepsie leiden, wurde das EEG in der MRT abgeleitet und die entwickelten Algorithmen zur Entstörung des EEG wurden angewendet. Dabei wurde die funktionelle Bildgebung unmittelbar nach dem Auftreten epilepsietypischer interiktaler Spikes im EEG gestartet. Mehrere Datensätze wurden nach einem interiktalen Spike erfasst. Durch eine Korrelation der MR-Daten mit dem entstörten EEG konnten eindeutige MR-Datensätze einer statistischen funktionellen Auswertung zur Verfügung gestellt werden. Bei Patienten, die eine angemessene Zahl interiktaler Spikes während der Untersuchungszeit aufwiesen, ließ sich das interiktal aktive Cortexareal in hoher dreidimensionaler Auflösung darstellen. Die Signalintensitätsänderungen in den MR-Datensätzen durch den BOLD-Kontrast nach interiktalen Spikes betrug durchschnittlich 15 % und übertraf damit alle Signalintensitätsänderungen, die mit anderen funktionellen MR-Studien bei gleicher Feldstärke bisher erreicht werden konnten. Dem Einsatz neuer schneller MR-Bildgebungsverfahren mit deren erweiterten diagnostischen Möglichkeiten stehen Stimulationen peripherer Nerven, ausgelöst durch schnelles Schalten magnetischer Gradientenfelder, entgegen. Schaltet man magnetische Gradientenfelder von großer Amplitude in sehr kurzer Zeit, werden dadurch Ströme im Körper des Patienten induziert, die wiederum periphere Nerven stimulieren können. Die Regulierungsbehörden mehrerer Länder, wie auch das Bundesamt für Strahlenschutz, reagierten auf diese Umstände und empfahlen Grenzwerte für geschaltete magnetische Gradientenfelder in der MRT. Schädigende Wirkungen der Stimulation peripherer Nerven waren nicht bekannt, es wurde jedoch eine mögliche Erregung des Myokard befürchtet. In einer Projektarbeit für das Bundesamt für Strahlenschutz wurden mehrere Studien durchgeführt, um die Problematik der Stimulation peripherer Nerven durch schnell geschaltete magnetische Gradientenfelder in der MRT näher zu untersuchen. Die physiologischen Vorgänge bei der Stimulation peripherer Nerven durch geschaltete magnetische Felder wurden erläutert. Die Schwelle zur Erregung peripherer Nerven durch geschaltete magnetische Felder ist für motorische Nerven am geringsten. Wird ein motorischer Nerv erregt, führt dies zu einer Kontraktion des entsprechenden Muskels. In früheren Studien wurden Stimulationsschwellen durch das Befragen der Probanden bestimmt. Dabei wurde eine weite Streuung der Stimulationsschwellen unter den Probanden beobachtet und das subjektive Empfinden der Probanden als Ursache der weiten Streuung der Stimulationsschwellen konnte nicht ausgeschlossen werden. Mittels Elektromyographie (EMG) in der MRT konnte die Stimulation peripherer Nerven erstmals messtechnisch nachgewiesen werden. Durch einen Vergleich der Stimulationsschwellen, bestimmt durch die Aussagen der Probanden, mit den Stimulationsschwellen, die durch EMG-Ableitung bestimmt wurden, ließ sich zeigen, dass die Aussagen der Probanden gut mit dem EMG übereinstimmen und dass die Streuung der Stimulationsschwellen auf unterschiedlichen konstitutionellen Parametern der Probanden beruhen muss. Die Erregung peripherer Nerven mit elektrischen Strömen wurde in zahlreichen anderen Studien bereits ausführlich untersucht und ein breites Wissen ist in internationalen Veröffentlichungen zugänglich. Das Grundgesetz der Elektrostimulation, das Weiss-Gesetz, beschreibt die Stimulationswirkung eines Strompulses mit den neurophysiologischen Konstanten Rheobase und Chronaxie. Stimulationsexperimente wurden im Magnetresonanztomographen durchgeführt, mit denen sich die Werte von Chronaxie und Rheobase der einzelnen Probanden bestimmen ließen. Die Werte stimmen mit den Werten aus Studien der Elektrostimulation überein. Ein anderes Modell aus der Elektrostimulation, das SENN-Modell, beschreibt die Stimulation von oszillierenden Strömen in Abhängigkeit von deren Frequenz. In Stimulationsexperimenten konnte gezeigt werden, dass sich auch dieses Gesetz zur Beurteilung der Stimulationswirkung oszillierender magnetischer Felder in der MRT eignet. Ergebnisse aus der Elektrostimulation lassen sich also auf die Beschreibung der Stimulation peripherer Nerven durch magnetische Felder in der MRT übertragen. Die Literatur der Elektrostimulation bietet jedoch kein umfassendes Modell an, das die Stimulation einer beliebigen Schaltung von magnetischen Feldern beschreiben kann. Auf den Kenntnissen der Elektrostimulation aufbauend wurde ein umfassendes Modell programmiert, das einer Verallgemeinerung des Weiss-Gesetzes von konstanten zu zeitlich veränderlichen Strömen entspricht und das die Stimulation einer beliebigen Gradientenschaltung vorhersagen soll. Dem Modell liegt zugrunde, dass Ströme, die durch geschaltete Magnetfelder induziert werden, eine Ladung auf der Nervenmembran aufbauen. Überschreitet diese Ladung einen bestimmten Wert, wird die Erregung des Nerven ausgelöst. Das Modell wurde in entsprechenden Algorithmen umgesetzt, die aus der Gradientenschaltung ein Stimulationspotential berechnen. In mehreren Stimulationsexperimenten, in denen verschiedene Parameter der Gradientenschaltungen variiert wurden, wurde das Modell getestet. Die Simulationen des Modells konnten stets die Ergebnisse der Experimente reproduzieren. Da in das Modell die neurophysiologischen Parameter Chronaxie und Rheobase eingehen, konnte das Modell darüber hinaus auch das Stimulationsverhalten individueller Probanden vorhersagen. Eine optimale Ausnutzung der technischen Möglichkeiten zur schnellen MR-Bildgebung bei uneingeschränktem Komfort für den Patienten wird durch den Einsatz dieses sogenannten GSF-Modells möglich. Die Parameter Chronaxie und Rheobase sind auch für das Myokard bekannt. Durch einen Austausch der Parameter für periphere Nerven mit den Parametern des Myokards im GSF-Modell konnten Stimulationsschwellen des Herzens reproduziert werden, wie sie von einer anderen Forschungsgruppe an Hunden experimentell bestimmt wurden. Mit dem GSF-Modell für das Herz ließ sich zeigen, dass selbst mit den zur Zeit leistungsfähigsten Gradientensystemen keine Gefahr der Erregung des Myokards besteht. Aus der Kombination von zwei etablierten diagnostischen Verfahren, der schnellen MR-Bildgebung und der Aufzeichung elektrophysiologischer Signale, und durch die Lösung der in der Kombination auftretenden methodischen Schwierigkeiten, ließen sich in den vorgestellten Studien aktuelle wissenschaftliche Ergebnisse im Bereich der Magnetresonanztomographie erarbeiten, die von klinischer und sicherheitstechnischer Relevanz sind.