Podcasts about sonifikation

  • 18PODCASTS
  • 24EPISODES
  • 43mAVG DURATION
  • ?INFREQUENT EPISODES
  • Mar 21, 2024LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about sonifikation

Latest podcast episodes about sonifikation

Zeitfragen-Magazin - Deutschlandfunk Kultur
Sonifikation - Wie das Weltall hörbar gemacht wird

Zeitfragen-Magazin - Deutschlandfunk Kultur

Play Episode Listen Later Mar 21, 2024 6:31


Meyer, Guido www.deutschlandfunkkultur.de, Zeitfragen

Das Universum
DU082 - Partymusik im Katzenaugennebel

Das Universum

Play Episode Listen Later Jul 18, 2023 38:39


In Folge 82 gibt es die besten Hits der 80er, 90er und der letzten paar Milliarden Jahre! In Sommerfolge Nummer 2 hat Ruth ein paar Sonifikationen rausgesucht. So nennt man die Transformation von in diesem Fall optischer Information in akustische Signale. Und damit kann man sich zum Beispiel den Katzenaugennebel anhören. Oder ein paar supermassereiche schwarze Löcher. Außerdem ist das die letzte Folge, in der Florian noch Junggeselle ist! Wenn ihr uns unterstützen wollt, könnt ihr das hier tun: https://www.paypal.com/paypalme/PodcastDasUniversum. Oder hier: https://steadyhq.com/de/dasuniversum. Oder hier: https://www.patreon.com/dasuniversum.

Gemeinsam durch die Galaxis
Episode 34: Der klingende Himmel

Gemeinsam durch die Galaxis

Play Episode Listen Later Jun 22, 2023 42:30


Dass man Daten von kosmischen Objekten visualisieren kann und so beeindruckende Bilder erzeugt, wissen wohl die meisten. Paul und Susanne zeigen aber in dieser Folge ihres Podcasts, dass man Astro-Daten auch in Klänge verwandeln kann. „Sonifikation“ heißt das, und Paul ist als Musiker und Astronomie-Didaktiker dafür Experte. Auf dem Weg durch die faszinierenden Weiten des Alls liegen Phänomene, die Paul hörbar macht und mit live improvisierter Musik verbindet. Hat unser Sonnensystem den Blues? Haben rotierende Neutronensterne ein besseres Timing als Jazz-Schlagzeuger? Wird aus des Daten des Osterfestes eine Fuge im Stil von Bach? Unsere beiden Podcaster erklären nicht nur, was astronomisch hinter den Klängen des Himmels steckt, sondern es gibt natürlich auch Beispiele zu hören. Und wer Paul einmal live auf der Bühne erleben will, hat dazu im Rahmen der Aktionswochen zum Wissenschaftsjahr „Unser Universum“ am Donnerstag, dem 6. Juli, um 17:30 Uhr in der Bochumer Christuskirche die Gelegenheit. Eintritt frei und Faszination garantiert!

Breitband - Medien und digitale Kultur (ganze Sendung) - Deutschlandfunk Kultur
Roboter-Richter, Präsentation von Investigativ-Stories, Sonifikation (Sendung)

Breitband - Medien und digitale Kultur (ganze Sendung) - Deutschlandfunk Kultur

Play Episode Listen Later Apr 15, 2023 36:27


Vera, Linss; Böttcher, Martin; Gohlke, Norawww.deutschlandfunkkultur.de, Breitband

Breitband - Medien und digitale Kultur - Deutschlandfunk Kultur
Roboter-Richter, Präsentation von Investigativ-Stories, Sonifikation (Sendung)

Breitband - Medien und digitale Kultur - Deutschlandfunk Kultur

Play Episode Listen Later Apr 15, 2023 36:27


Vera, Linss; Böttcher, Martin; Gohlke, Norawww.deutschlandfunkkultur.de, Breitband

Breitband - Medien und digitale Kultur - Deutschlandfunk Kultur
Sonifikation - Datenjournalismus im Radio

Breitband - Medien und digitale Kultur - Deutschlandfunk Kultur

Play Episode Listen Later Apr 15, 2023 7:10


Finger, Matthiaswww.deutschlandfunkkultur.de, BreitbandDirekter Link zur Audiodatei

Breitband - Medien und digitale Kultur (ganze Sendung) - Deutschlandfunk Kultur
Roboter-Richter, Präsentation von Investigativ-Stories, Sonifikation (Sendung)

Breitband - Medien und digitale Kultur (ganze Sendung) - Deutschlandfunk Kultur

Play Episode Listen Later Apr 15, 2023 36:27


Vera, Linss; Böttcher, Martin; Gohlke, Norawww.deutschlandfunkkultur.de, BreitbandDirekter Link zur Audiodatei

Plaudertarium
Science to Sound - Die Kunst der Sonifikation

Plaudertarium

Play Episode Listen Later Dec 4, 2021 26:41


Ob durch Teleskope, auf spektakulären Hubble-Bildern oder im Planetarium, das Weltall nehmen wir meist durch Hinsehen wahr. Es spricht aber nichts dagegen das Weltall auch mit anderen Sinnen zu erforschen, zum Beispiel dem Hören. Wir zeigen euch heute einige Beispiele von Sonifikation, dem Aufbereiten von Daten in Audioform und diskutieren über dessen Schönheit und Sinnhaftigkeit. Sounds von der NASA: https://soundcloud.com/nasa/red-giant-star-edasich-pulsations in Minute 9:40-9:50 und 10:24-10:34 https://soundcloud.com/nasa/red-giant-star-74-draconis-pulsation in Minute 13:03-13:13 https://soundcloud.com/nasa/cats-eye-nebula-sonification in Minuten 15:45-21:45 alle lizenziert unter https://creativecommons.org/licenses/by-nc/3.0/ Climate Stripes von "sarahaenzi": https://soundcloud.com/user-697356561/ch-sonified-climate-stripes in Minuten 22:43-23:54 lizenziert unter https://creativecommons.org/licenses/by-nc-sa/3.0/ Wir bei Instagram: @das_Plaudertarium und Twitter: @plaudertarium und per Mail: plaudertarium@gmx.de

Sounds of Sound Studies
Algorhythmik und Medienkritik. Shintaro Miyazaki über Computersignale, Verflechtung von Klang, Macht und Signalverarbeitung

Sounds of Sound Studies

Play Episode Listen Later Sep 15, 2021 33:56


Shintaro Miyazaki, Juniorprofessor für digitale Medien und Computation an der Humboldt-Universität zu Berlin, berichtet im Gespräch über Sonifikation als diagnostische Praxis in der frühen Computergeschichte, das Klangwissen von Computeringenieuren, Kritische Psychologie, Wegbereiter der zeitgenössischen Sound Studies und die notwendige Politisierung der Klangforschung.

Schwimmsport – meinsportpodcast.de
51 So klingt Schwimmen

Schwimmsport – meinsportpodcast.de

Play Episode Listen Later Aug 20, 2021 60:49


Schwimmsport für die Ohren Heute gibt es nicht weniger als eine Revolution auf die Ohren! Wir machen Schwimmen hörbar und heben das Techniktraining auf ein völlig neues Level! Wie? Mit SofiSwim! Hört rein und bildet euch selbst eine Meinung! In diesem Video wird das Forschungsprojekt und die Sonifikation vorgestellt und Hier gehts zur Umfrage! Dank an die Berliner Schallbetriebe für die bisherige Zusammenarbeit! Beispielvideo De-Kicks Beispielvideo Brustschwimmen Beispielvideo Kraulschwimmen Zum Abschluss (ab Minute 36) widmen wir uns dann der am Donnerstag beginnenden 3. ISL Saison. Eine kurze Vorstellung aller Teams, der deutschen SchwimmerInnen und ihrer möglichen Einsatzchancen. Support Besucht den Swimcast auf Instagram, Twitter oder die Homepage im Web. Für Fragen, Kommentare, Anmerkungen nutzt Social Media oder die gute alte E-Mail: andre(at)swimcast.de Musik: www.zapsplat.com Du möchtest deinen Podcast auch kostenlos hosten und damit Geld verdienen? Dann schaue auf www.kostenlos-hosten.de und informiere dich. Dort erhältst du alle Informationen zu unseren kostenlosen Podcast-Hosting-Angeboten.

Schwimmsport – meinsportpodcast.de
51 So klingt Schwimmen

Schwimmsport – meinsportpodcast.de

Play Episode Listen Later Aug 20, 2021 60:49


Schwimmsport für die Ohren Heute gibt es nicht weniger als eine Revolution auf die Ohren! Wir machen Schwimmen hörbar und heben das Techniktraining auf ein völlig neues Level! Wie? Mit SofiSwim! Hört rein und bildet euch selbst eine Meinung! In diesem Video wird das Forschungsprojekt und die Sonifikation vorgestellt und Hier gehts zur Umfrage! Dank an die Berliner Schallbetriebe für die bisherige Zusammenarbeit! Beispielvideo De-Kicks Beispielvideo Brustschwimmen Beispielvideo Kraulschwimmen Zum Abschluss (ab Minute 36) widmen wir uns dann der am Donnerstag beginnenden 3. ISL Saison. Eine kurze Vorstellung aller Teams, der deutschen SchwimmerInnen und ihrer möglichen Einsatzchancen. Support Besucht den Swimcast auf Instagram, Twitter oder die Homepage im Web. Für Fragen, Kommentare, Anmerkungen nutzt Social Media oder die gute alte E-Mail: andre(at)swimcast.de Musik: www.zapsplat.com

Swimcast
51 So klingt Schwimmen

Swimcast

Play Episode Listen Later Aug 20, 2021 60:49


Heute gibt es nicht weniger als eine Revolution auf die Ohren! Wir machen Schwimmen hörbar und heben das Techniktraining auf ein völlig neues Level! Wie? Mit SofiSwim! Hört selber rein und bildet euch selbst eine Meinung! Dank an die Berliner Schallbetriebe für die bisherige Zusammenarbeit! Zum Abschluss (ab Minute 36) widmen wir uns dann der am Donnerstag beginnenden 3. ISL Saison. Eine kurze Vorstellung aller Teams, der deutschen SchwimmerInnen und ihrer möglichen Einsatzchancen.

IQ - Wissenschaft und Forschung
Sonifikation - Wenn Daten hörbar werden

IQ - Wissenschaft und Forschung

Play Episode Listen Later Sep 9, 2020 24:42


Abstrakte Datenmengen "hörbar" zu machen - das ist das Ziel der sogenannten "Sonifikation". Unser Ohr erweist sich dabei als erstaunliches Analyse-Instrument: fremde Welten werden akustisch erfahrbar.

Drückste mal record?
#22 Faxe, Sex & Sonifikation

Drückste mal record?

Play Episode Listen Later Sep 6, 2020 54:28


Wie klingt Sex? Die Erde? Gibt es einen natürlichen Klang oder ist das alles esoterischer Bullshit? Martina hat für diese Folge extra "sexy voice Dragees" eingenommen, singt wie ein Wal und brummt wie der Planet und Martin erklärt, wieso er den Anfang von "Tannhäuser" geil findet.

Messerscharf und Butterweich
#22 Faxe, Sex & Sonifikation

Messerscharf und Butterweich

Play Episode Listen Later Sep 6, 2020 54:28


Wie klingt Sex? Die Erde? Gibt es einen natürlichen Klang oder ist das alles esoterischer Bullshit? Martina hat für diese Folge extra "sexy voice Dragees" eingenommen, singt wie ein Wal und brummt wie der Planet und Martin erklärt, wieso er den Anfang von "Tannhäuser" geil findet.

Musik und Talk-Podcast
MUT[93] #INTERVIEW | DANIEL S. SCHOLZ | QUADRATISCH REKORDS |

Musik und Talk-Podcast

Play Episode Listen Later Aug 9, 2020 85:34


In der 93. Ausgabe haben wir das Vergnügen, Herrn Dr. Daniel Scholz bei uns begrüßen zu dürfen. Er ist bei quadratisch rekords (http://www.quadratisch-rekords.de/) und bei den Bands Ego Super, NaNaya, Dasch2, DDSSBB, Stør und Al a Malaka aktiv. In seiner Dissertation beschäftigte er sich mit der Sonifikation von Bewegungen. All das und noch viel mehr ist Thema dieser Ausgabe. quadratisch rekords ist ein unabhängiges Label aus Hannover. Es handelt sich um einen Zusammenschluss von verschiedenen Musiker*innen. Hauptsächlich wird Musik von den eigenen Projekten und Bands veröffentlicht. Bands wie Stør & Dasch2 bewegen sich im Bereich merkwürdig-avantgardistischer Jazz-Rock-Fusion, Al a Malaka & NaNaya durchstreifen den Weltmusik-Sektor, Ego Super machen Psycho Rap Rock. Auf der parallel erscheinenden Playlist könnt ihr euch die Bands anhören! PLAYLIST (https://audioboom.com/posts/7652643-playlist-93-quadratisch-records) Follow us on: podcasts.apple.com (https://podcasts.apple.com/de/podcast/mut-musik-und-talk/id1456038717) https://open.spotify.com/show/ (https://open.spotify.com/show/7uxQaQJuAk5ne02hSRSiUU?si=a5Hw5bBrSleAA4xWuif1dA) https://www.facebook.com/MusikUndTalk/ https://www.instagram.com/mut_musikundtalk/ RSS-Feed: https://audioboom.com/channels/4986083.rss

Zeit für Bayern
Feiertags-Feuilleton: Sterne

Zeit für Bayern

Play Episode Listen Later Jan 6, 2020 34:49


Stern als Symbol der Hierarchie + Klicks mit Konsequenzen + Was passierte mit den drei Weisen? Erzählung + Sterne hören - Sonifikation

ZKM | Karlsruhe /// Kunstwerke /// Artworks
Ludger Brümmer, Yannick Hofmann, Dan Wilcox: »NCS_Hypogean City«

ZKM | Karlsruhe /// Kunstwerke /// Artworks

Play Episode Listen Later Nov 5, 2019 3:13


IN VITRØ – artificial sønificatiøn | Sound Installation [21.09.2019 - 22.11.2019] Matera, Italy is considered to be one of the oldest cities in the world with distinctive cave-like dwellings carved out of limestone. Called "Tufo" by inhabitants of the region, this soft stone consists mainly of calcium carbonate, a chemical compound of the elements calcium, carbon, and oxygen, laid down as sediment millions of years ago. Over time, spaces have been hollowed out through the flow of water and human hands, extending back into a layered history. »NCS_Hypogean-City« is a multi-room sound installation of spatialized electroacoustic miniatures. Its textual characteristics and dramaturgical progressions are built upon the sonification of the area's timeline, geological data, and both the symbolic and numerologicalic aspects of calcium, carbon and oxygen: Ca (20), C (6), O (8). Through the dynamic placement of small-scale loudspeaker systems new (sound) connections are created within the space that artistically reflect Matera's geologically unique setting and stimulate the cave acoustics of the Casa Cava. The multi-room sound installation was exclusively developed in 2019 for IN VITRØ - artificial sønification as part of the Interfaces Project, co-funded by the Creative Europe Programme of the European Union. /// Matera, Italien, gilt als eine der ältesten Städte der Welt mit markanten höhlenartigen Behausungen aus Kalkstein. Dieser von den Bewohnern der Region "Tufo" genannte Weichgestein besteht hauptsächlich aus Kalziumkarbonat, einer chemischen Verbindung der Elemente Kalzium, Kohlenstoff und Sauerstoff, die sich vor Millionen von Jahren als Sediment abelagert hat. Im Laufe der Zeit haben Wasser und menschliche Hände Räume ausgehöhlt, hineinreichend in die geschichtete Historie des Ortes. NCS_Hypogean-City ist eine Multiroom-Soundinstallation räumlich verteilter elektroakustischer Miniaturen. Die textlichen Eigenschaften und dramaturgischen Verläufe basieren auf der Sonifikation der Zeitachse des Gebietes, dessen geologischen Daten sowie auf den symbolischen und numerologischen Aspekten von Kalzium, Kohlenstoff und Sauerstoff: Ca (20), C (6), O (8). Durch die dynamische Platzierung von Kleinlautsprechersystemen entstehen neue (Klang-)Verbindungen im Raum, die Materas geologisch einzigartige Umgebung künstlerisch widerspiegeln und die Höhlenakustik der Casa Cava stimulieren. Die Multiroom-Soundinstallation NCS_Hypogean City wurde 2019 exklusiv für IN VITRØ - artificial sønification im Rahmen des vom Creative Europe Programme der Europäischen Union kofinanzierten Interfaces-Projekts entwickelt.

IQ - Wissenschaft und Forschung
#01 Sonifikation - Wenn Daten hörbar werden

IQ - Wissenschaft und Forschung

Play Episode Listen Later Dec 19, 2018 26:18


Abstrakte Datenmengen "hörbar" zu machen - das ist das Ziel der sogenannten "Sonifikation". Unser Ohr erweist sich dabei als erstaunliches Analyse-Instrument: fremde Welten werden akustisch erfahrbar.

ZKM | Karlsruhe /// Veranstaltungen /// Events
Philipp Henkel (HMTM Hannover): Versuche zur Sonifikation

ZKM | Karlsruhe /// Veranstaltungen /// Events

Play Episode Listen Later Dec 31, 2017 27:06


next_generation 7.0: SENSORIK | Symposium 14.06.2017 bis 18.06.2017 Mit einem spannenden Vortragsprogramm bereicherte das Festival »next_generation 7.0 SENSORIK« An fünf Tagen und fünf Nächten bot next_generation 7.0 ein spannendes und dichtes Programm über die neuesten Positionen zu den Themen »Fixed Media«, »Raummusik« und »Live-Elektronik«. Damit garantierte next_generation 7.0 eine repräsentative Übersicht über das aktuelle kreative Schaffen der kommenden Komponierendengeneration im Kontext von Technologie und Kunst. /// 14.06.2017 to 18.06.2017 With an exciting lecture program enriched the festival »next_generation 7.0 SENSORIK« Over five days and five nights, next_generation 7.0 offered an exciting and packed program on the latest positions on topics such as »Fixed Media«, »Spatial Music« and »Live-Electronics«, showing off the current creativity of the younger generation of producers in the context of technology and art.

Neues Terrain
Vibrationsbänder

Neues Terrain

Play Episode Listen Later Dec 19, 2017 46:30


Richtungsinformationen lassen sich sehr gut über Vibrationen vermitteln. Dafür hat Patryk Dzierzawski im Rahmen seiner Abschlussarbeit Vibrationsbänder entwickelt, aufgebaut und evaluiert.Am Lehrstuhl vom Computer Vision for Human-Computer Interaction Lab (cv:hci) und dem Studienzentrum für Sehgeschädigte (SZS) werden nicht nur Assistive Technologien für Menschen mit Sehbehinderungen evaluiert und angeboten, sondern auch dazu unterrichtet. Weiterhin werden Studierenden Möglichkeiten geboten unter anderem mit Abschlussarbeiten in diesem Bereich sich direkt an der Forschung zu beteiligen. Patryk Dzierzawski stellt dazu hier im Gespräch mit Gerhard Jaworek seine Abschlussarbeit zu Vibrationsbändern zur Navigationsunterstützung an Arm oder Fuß vor. Die Arbeit bestand aus dem Design, der prototypischen Herstellung, einer Ansteuerung durch Smartphone und der Evaluation des vibrotaktilen Interfaces. Die Vibrationsbänder selbst bestehen aus mit 3D-Druck erstellten Band und Gehäuse, einem Mikrocontroller mit Batterie und Vibrationsmotoren. Bei der Erstellung war das Vorwissen um Wearable Computing und Robotik sehr hilfreich. Schon in der Folge 2 „Blind Orientieren“ dieses Podcasts wurden vorgestellt, wie vibrotaktile Interfaces zum Einsatz kommen können. Meisst gab es hier nur einfache Vibrationen, wo hingegen die Vibrationsbänder drei von einander unabhängig ansteuerbare Vibrationsaktoren eingesetzt werden. Damit können elementare und wichtigste Navigationsanweisungen zur Richtung und Warnmeldungen zum Anhalten sehr direkt vermittelt werden. Der große Vorteil der vibrotaktilen Vermittlung liegt dabei darin, dass der Hörsinn nicht wie bei Narration und Sonifikation eingeschränkt wird. Im Gegensatz zu kommerziellen Lösungen wie dem VibroTac System lag in der Arbeit der Fokus auf einer leichten und preiswerten selbstätigen Herstell- und Reparierbarkeit durch Rapid Prototyping Technologien mit der damit einhergehenden Reduzierung auf eine minimale Lösung, die noch die volle Navigationsunterstützung liefern kann. Die Literaturrecherche führte unter anderem zum „Gentle Guide“, wo an jedem Arm ein Vibrationsmotor eingesetzt wurde, wo durch die Nutzenden gerade die Nutzung zweier Bänder kritisch gesehen wurde, so wurde hier eine Lösung mit nur einem Band angestrebt. Interessanterweise hat sich diese reduzierte Lösung als sehr effektiv in einem Navigationstest erwiesen, wenn auch die Interpretation der Signale im Vergleich zur akustischen Ausgabe durch den Menschen etwas länger dauerte. Im FDM 3D-Druck kamen für das Armband ein flexibles TPU Filament und für den Gehäuseschutz für Platine und Batterie ein hartes Filament zum Einsatz. Für den Microcontroller Adafruit Feather 32u4 Bluefruit LE mit eingebautem Bluetooth Low Energy (BLE)-Modul musste auch die Ansteuerelektronik für die Motoren ausgelegt werden. Die Programmierung erfolgte mit der Arduino-Entwicklungsumgebung und ermöglichte die Ansteuerung durch Smartphones über Bluetooth LE. Für die technische Ansteuerung der Vibrationsbänder wurde auch eine App für Android Smartphones entwickelt. Dabei wurde auch auf die Barrierefreiheit geachtet, damit auch blinde Menschen die technischen Tests durchführen können. In den damit ermöglichten Praxistests wurde geprüft, in wie weit die gewünschte Funktion erfüllt wird, welche Vibrationsstärken und -dauer als sinnvoll und angenehm bewertet wurden. Dabei wurden die Tests sowohl in Ruhe als auch in Bewegung durchgeführt. Interessanterweise wurden am Armband zur sichereren Unterscheidbarkeit typischerweise länger und stärker gewünscht, am Fußband wurden die angesetzten Standardwerte gut akzeptiert. Die Tests beschränkten sich aber auf die reine Identifikation der Vibrationen, erweiterte Wizard-of-Oz Tests bei dem ein Mensch die Funktion einer erweiterten Software simuliert und die Hardware direkt ansteuert, sollen eine Navigation simulieren und sind Teil eines späteren Tests im Terrain-Projekt. Literatur und weiterführende Informationen S. Schätzle, T. Ende, T. Wüsthoff, C. Preusche: „Vibrotac: An ergonomic and versatile usable vibrotactile feedback device.“, RO-MAN, IEEE, 2010. A. Meier, D. J. Matthies, B. Urban, R. Wettach: „Exploring vibrotactile feedback on the body and foot for the purpose of pedestrian navigation.“ Proceedings of the 2nd international Workshop on Sensor-based Activity Recognition and Interaction. ACM, 2015.

Neues Terrain
Raumklang

Neues Terrain

Play Episode Listen Later Sep 21, 2017 163:10


Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang. Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte. Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet. Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat. Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten. Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument. Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt. Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht. Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis. Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist. Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat. Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich. Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde. Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert. Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht. Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen. Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss. Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden. Literatur und weiterführende Informationen S. Carlile: Psychoacoustics, Signification Handbook, Logos Publishing House, 2011. B. N. Walker, M. A. Nees: Theory of Sonification, Sonification Handbook, Logos Publishing House, 2011. A. Hunt, T. Hermann: Interactive Sonfication, Sonification Handbook, Logos Publishing House, 2011.M. A. Gerzon: Periphony: With-height sound reproduction, Journal of the Audio Engineering Society 21.1: 2-10, 1973. V. Pulkki: Virtual sound source positioning using vector base amplitude panning, Journal of the audio engineering society 45.6: 456-466, 1977. M. Noisternig, T. Musil, A. Sontacci, R. Holdrich: 3D binaural sound reproduction using a virtual ambisonic approach, Virtual Environments,  VECIMS ’03. 2003 IEEE International Symposium on Human-Computer Interfaces and Measurement Systems, 2003. Podcasts M. Völter, R. Vlek: Synthesizers, Omega Tau Podcast, Episode 237, 2017.  T. Pritlove, U. Schöneberg: CRE238 – Neuronale Netze, CRE Podcast,  Metaebene Personal Media, 2015. M. Völter, C. Osendorfer, J. Bayer: Maschinelles Lernen und Neuronale Netze, Omega Tau Podcast, Episode 259, 2017 S. Trauth: Klangdom, Funkenstrahlen Podcast, Episode 85, 2016 P. Gräbel: Der Schall, Nussschale Podcast, Episode 16, 2017. T. Pritlove, S. Brill: CRE206 – Das Ohr, CRE Podcast, Metaebene Personal Media, 2014. S. Plahl: Der Klang einer Armbewegung, SWR2 Wissen, 2013.

university film professor story performance system mit event journal prof software museum position hunt als studio dabei rolle definition musik jets durch bei kopf sinn projekt einblick haus sicht raum erfahrung kunst universit basis beziehung virtual reality medien signal verst festivals bereich besuch herausforderung punkt technik einsatz zusammen diskussion leider bewegung zusammenarbeit ohren daher aufnahme einf wandel besonders wirkung vergleich richtung gruppe eindr parallel nutzen ereignisse str signals ordnung institut eindruck plattform der weg recherche symposium mittel niveau geh wahrnehmung gehirn verr wand osaka abstand projekten schauspieler zentrum installation literatur zweck dadurch gewinn techniken aufwand sweet spot systeme kritiker anzahl einfl gestaltung werke punkten auseinandersetzung verfahren positionen maschinen modelle effekte kopfh hochschule karlsruhe verwendung sekunde darstellung klang komplexit feuerwerk positionierung auswirkung spektrum instituts richtungen studierende im gegensatz auff intensit linz diplom schultern bandbreite alternativ radius spat klicks praktisch sph mikrofone ein teil empfinden korg synthesizer donau instrumenten wahrnehmungen die aufnahme lautsprecher die gruppe im bereich pavillon music technology akustik durststrecke signalen eine herausforderung pegel installationen abbildung chirps booten meteorologie raumakustik die ber karlheinz stockhausen musil das institut reproduktion musikinstrument kopfes john richards lautsprechern subwoofer instituten ars electronica zkm aufnahmetechnik abschlussarbeiten sonification schallwellen medienkunst technologie kit ein aspekt neuronale netze audio engineering society podcast sm das ohr die hochschule synthesizern filterung ohrmuschel raumklang dolby surround treibern diese analyse hfg konzerterlebnis signalverarbeitung klanginstallation john chowning vertikalen sonifikation zur erfassung ambisonics empirisch ansteuerung staatlichen hochschule psychoakustik kunstkopf zur erzeugung ludger br omega tau podcast diskretisierung kopfbewegung gestaltung hfg klangdom audiokompression kugeloberfl metaebene personal media
ZKM | Karlsruhe /// Veranstaltungen /// Events
Thierry Delatour: Molecular Songs

ZKM | Karlsruhe /// Veranstaltungen /// Events

Play Episode Listen Later Dec 31, 2011 38:44


Molecular Aesthetics | Symposium Symposium at ZKM | Center for Art and Media, July 15 -17, 2011 in cooperation with DFG-Center for Functional Nanostructures (CFN) Karlsruhe Institute for Technology (KIT). Sonification - the study of the acoustic conversion of experimental data - covers various fields of application, such as monitoring and comprehension of physical phenomena, audio perception of the environment by visually impaired people, and musical composition. Among the various existing sonification techniques, the acoustic conversion of molecular vibrational spectra is well-suited for the exploration of microscopic structures. Non-audible oscillations naturally occur in molecules, at rates that are orders of magnitude faster than acoustic vibrations, in a frequency range extending from 30 GHz to 300 THz and can be recorded with spectrometers. Usual analyses of such spectra involve visual examinations, comparison of experimental data with spectral databases or computed spectra. An extended method for the acoustic and musical conversion of vibrational spectral data considers any piece of music as a combination of elementary waveforms. This method leads to molecular sounds, molecular scales and even molecular musical pieces. It translates into an audible signal the same physical phenomenon at different time scales. Its versatility allows the choice of the selected musical parameters and of the time scale descriptions of the corresponding waveforms, in order to obtain the most compelling musical results. /// Symposium im ZKM | Zentrum für Kunst und Medientechnologie, 15. -17. Juli 2011 In Kooperation mit dem DFG-Centrum für Funktionelle Nanostrukturen (CFN) des Karlsruhe Instituts für Technologie. Sonifikation - die Umwandlung experimenteller Daten in Klangereignisse - findet breite Anwendung, etwa in der Untersuchung und Überwachung physischer Phänomene, in akustischen Wahrnehmungshilfen für Sehbehinderte oder in der Musik. Die Transposition molekularer Schwingungsspektren in Tonsignale eignet sich ideal zur Erforschung mikroskopischer Strukturen. Moleküle oszillieren um ein Vielfaches schneller als Schallschwingungen in einem Frequenzbereich zwischen 30 GHz und 300 THz. Instrumente zur Aufzeichnung dieser Phänomene (Spektrometer) benutzen optische Komponenten und elektromagnetische Licht- und Infrarotstrahlung. Die Auswertung der höchst aufschlussreichen Schwingungsspektren erfolgt zumeist auf visuellem Weg oder durch den Vergleich mit gespeicherten oder rechnerisch erzeugten Spektren. Eine erweiterte Methode zur akustischen und musikalischen Darstellung molekularer Schwingungsfrequenzdaten definiert jedes beliebige Musikstück als Kombination elementarer Wellenformen. Die skizzierte Methode erzeugt molekulare Töne, molekulare Tonleitern und molekulare Musikstücke. Sie wird entlang verschiedener Zeitskalen in Tonsignale umgesetzt. Dieser flexible Ansatz ermöglicht die Auswahl der Ton- und Zeitparameter, die mit einer bestimmten Wellenform verbunden sind, und gewährleistet dadurch überzeugende musikalische Resultate.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19

Die Arbeit „Amplifikation von Prionen in vitro“ beruhte auf der Amplifikationsmethode die erstmals 2001 vorgestellt wurde (Saborio et al., 2001). Bei der PMCA wird erstmals PK-resistentes PrPres in ausreichender Menge in vitro hergestellt, welches molekularbiologisch dem Erreger spongiformer Enzephalopathien gleicht. Die PMCA erlaubt somit eine in vitro Untersuchung des pathologischen Umfaltungsprozess von PrPC zu PrPSc für diagnostische und therapeutische Studien. In dieser Arbeit wurden ausgiebig die Einzelschritte der PMCA Methode, insbesondere die Quantifikation der Western Blot Bande und die Auswirkungen der Sonifikationsleistung und der Inkubationszeit auf die Amplifikationseffizienz untersucht. Je nach Stärke der Sonifizierung ändert sich die Effizienz der PMCA Reaktion (Kap.‎3.1.2) . Eine Amplifikation ohne Sonifikation ist möglich, scheint aber nicht autokatalytisch aktives PrPres zu erzeugen und erfüllt somit nicht die Prion Hypothese ‎3.1.3 und ‎4.1). Neues PrPres kann als seed für weitere Amplifikationen dienen (Kap. ‎3.1.6). Parallelansätze zeigten die Reproduzierbarkeit der PMCA, so dass vergleichende Studien mit unterschiedlichen Reaktionsansätzen einen Vergleich der Amplifikationseffizienz ermöglichen (Kap ‎3.1.5). Die Intensitätsmessung von Western Blot Banden repräsentiert die Proteinmenge in vitro (Kap. ‎2.2.6). Es konnte gezeigt werden, dass PrPC und PrPSc essentiell für die Durchführung der Reaktion sind. Somit konnte gezeigt werden, dass die PMCA im Einklang mit der Prionhypothese steht, die besagt, dass ein pathogener PrPSc-Seed die Umfaltung von nativem PrPC initiiert. (Kap ‎3.1.4 und ‎3.2). Die molekulare Spezifität der PMCA Reaktion wurde hervorgehoben durch die Erkenntnis, dass rPrP die Amplifikation in vitro hemmt (Kap. ‎3.2, Bieschke et al., 2004). Prion Proteine binden Kupfer in vivo (Brown et al., 1997a) und in geringerer Affinität auch Ni, Mn und Zn (Jackson et al., 2001). Die Rolle von Metallen bei der Konversion von PrPC zu PrPSc ist noch nicht endgültig geklärt. In dieser Arbeit wurde erstmals gezeigt, dass bei Zugabe von Mn, Ni und Zink in ca. 10fach physiologischen Konzentrationen von 50µM und unphysiologischen 500µM die PrPres Amplifikation gefördert wird, während Cu keinen Effekt zeigt (Kap. ‎3.3.1). Gleichzeitig verringern alle Metallionen die Stabilität von neu entstandenem PrPres gegenüber PK (Kap. ‎3.3.2). Man kann sich den destabilisierten Zustand als ein Metallgebundenes PrP-Zwischenprodukt in der Umfaltung von PrPC zu PrPSc vorstellen (Sarafoff et al., 2005). Die PMCA Reaktion wie von Saborio et al. beschrieben hat einige Nachteile. Man arbeitet mit infektiösem Material in einem offenen System und verursacht eine Kontaminaton der Sicherheitswerkbank. Es wurden zwei Systeme zur automatischen Amplifikation im geschlossenen System entwickelt. Der Wasserbadamplifikator sonifizierte zyklisch das temperierte Becken in dem die Proben in einem Schwimmer genau positioniert wurden (Kap. ‎3.4.1). Es zeigte sich eine maximale Amplifikation von 14fach in der Mitte des Bades wohingegen die Konversionseffizienz zum Rand des Beckens hin gleichmäßig absank (Kap ‎3.4.2). Aufgrund der inhomogenen Ergebnisse mit dem Wasserbad wurde mit einem Microplate Horn der Munich Prion Cycler entwickelt, wo der gesamte Boden des Beschallungsbeckens vom Abstrahlkopf der Ultraschallsonotrode besteht, so dass eine homogene Leistungsverteilung erwartet wurde. Die Proben befanden sich in einer mit Plastikfolie versiegelten Mikrotiterplatte, so dass Verluste und Kontaminationen ausgeschlossen werden konnten (Kap. ‎3.4.3). Es konnte eine gleichmäßigere Amplifikation von 3,0 ± 0,7 gezeigt werden, wobei kein Abfall der Faktoren am Rand der Platte festzustellen war (Kap. ‎3.4.4). Es konnte mit den beiden hier vorgestellten Systemen zum ersten Mal eine Amplifikation von PrPres mit indirekter Sonifikation von verschlossenen Proben und dem Einfluss der Ultraschallleistung auf die Amplifikation gezeigt werden (Sarafoff et al., 2005). Dies zeigte auch, dass die Metalloberfläche der Sonotrode bei der manuellen PMCA keine katalytische Funktion bei der Konversion des Kupferbindenden PrPC zu PrPres innehat. Der Munich Prion Cycler ermöglicht eine homogene Amplifikation von Parallelproben im Mikrotiterformat. Die Entwicklung der ELISA Technologie zur Quantifizierung von PrP in Homogenaten wird in Zukunft ein limitierender Schritt in der Automatisierung der PMCA Reaktion sein (Kap. ‎2.2.7 und ‎4.4).