Podcasts about audiokompression

  • 4PODCASTS
  • 5EPISODES
  • 1h 29mAVG DURATION
  • ?INFREQUENT EPISODES
  • Sep 21, 2017LATEST

POPULARITY

20172018201920202021202220232024


Latest podcast episodes about audiokompression

Neues Terrain
Raumklang

Neues Terrain

Play Episode Listen Later Sep 21, 2017 163:10


Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang. Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte. Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet. Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat. Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten. Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument. Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt. Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht. Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis. Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist. Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat. Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich. Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde. Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert. Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht. Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen. Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss. Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden. Literatur und weiterführende Informationen S. Carlile: Psychoacoustics, Signification Handbook, Logos Publishing House, 2011. B. N. Walker, M. A. Nees: Theory of Sonification, Sonification Handbook, Logos Publishing House, 2011. A. Hunt, T. Hermann: Interactive Sonfication, Sonification Handbook, Logos Publishing House, 2011.M. A. Gerzon: Periphony: With-height sound reproduction, Journal of the Audio Engineering Society 21.1: 2-10, 1973. V. Pulkki: Virtual sound source positioning using vector base amplitude panning, Journal of the audio engineering society 45.6: 456-466, 1977. M. Noisternig, T. Musil, A. Sontacci, R. Holdrich: 3D binaural sound reproduction using a virtual ambisonic approach, Virtual Environments,  VECIMS ’03. 2003 IEEE International Symposium on Human-Computer Interfaces and Measurement Systems, 2003. Podcasts M. Völter, R. Vlek: Synthesizers, Omega Tau Podcast, Episode 237, 2017.  T. Pritlove, U. Schöneberg: CRE238 – Neuronale Netze, CRE Podcast,  Metaebene Personal Media, 2015. M. Völter, C. Osendorfer, J. Bayer: Maschinelles Lernen und Neuronale Netze, Omega Tau Podcast, Episode 259, 2017 S. Trauth: Klangdom, Funkenstrahlen Podcast, Episode 85, 2016 P. Gräbel: Der Schall, Nussschale Podcast, Episode 16, 2017. T. Pritlove, S. Brill: CRE206 – Das Ohr, CRE Podcast, Metaebene Personal Media, 2014. S. Plahl: Der Klang einer Armbewegung, SWR2 Wissen, 2013.

university film professor story performance system mit event journal prof software position museum hunt als studio dabei rolle definition musik durch jets bei kopf sinn einblick projekt haus sicht erfahrung raum kunst universit beziehung basis medien virtual reality signal verst festivals bereich besuch herausforderung punkt einsatz technik zusammen diskussion leider zusammenarbeit bewegung ohren besonders einf aufnahme daher vergleich wandel wirkung richtung gruppe eindr parallel nutzen ereignisse str signals ordnung eindruck institut plattform der weg recherche symposium mittel niveau geh wahrnehmung gehirn verr wand osaka projekten abstand zentrum schauspieler installation literatur zweck dadurch techniken gewinn aufwand systeme sweet spot anzahl einfl werke gestaltung kritiker punkten auseinandersetzung verfahren positionen modelle effekte maschinen kopfh hochschule verwendung sekunde karlsruhe darstellung komplexit klang spektrum positionierung feuerwerk auswirkung instituts richtungen studierende im gegensatz auff intensit diplom linz schultern bandbreite alternativ radius klicks spat praktisch sph mikrofone ein teil empfinden synthesizer korg donau instrumenten wahrnehmungen lautsprecher die aufnahme die gruppe pavillon im bereich music technology akustik durststrecke signalen eine herausforderung pegel installationen booten chirps meteorologie die ber abbildung raumakustik karlheinz stockhausen das institut musil reproduktion musikinstrument kopfes john richards lautsprechern subwoofer instituten ars electronica zkm aufnahmetechnik abschlussarbeiten sonification schallwellen ein aspekt medienkunst technologie kit neuronale netze podcast sm synthesizern audio engineering society das ohr die hochschule filterung ohrmuschel raumklang konzerterlebnis dolby surround diese analyse treibern hfg signalverarbeitung klanginstallation john chowning vertikalen sonifikation zur erfassung ambisonics empirisch staatlichen hochschule ansteuerung psychoakustik zur erzeugung kunstkopf ludger br kopfbewegung omega tau podcast gestaltung hfg diskretisierung klangdom audiokompression kugeloberfl metaebene personal media
Hackerfunk
HF-060 - Kompressionen

Hackerfunk

Play Episode Listen Later Sep 5, 2012 64:39


In der Folge 60 geht es ums Packen. Allerdings packen wir dieses Mal nicht die Koffer, sondern Daten. Axel und Venty besprechen verschiedene Methoden von Datenkompression. Falls die Tonqualität dieses Mal etwas ungewohnt ist, so liegt dies daran, dass wir notgedrungen live aus Axels Küche mit einem etwas improvisierten Equipment senden. Trackliste Ultrasyd – Tale of an undone invitation aMusic & Leviathan – Amphetamine Tears Nächste Sendung: Samstag, 6. Oktober 2012, 19:00 Uhr Huffman Kodierung :: Wikipedia über Huffman Kodierung Lempel-Ziv 77 :: Das Beispiel mit der ANANAS gzip :: Wikipedia über gzip Burrows-Wheeler-Transformation :: Wikipedia über die Burrows-Wheeler-Transformation Rotierende Kodierung :: Move-To-Front-Verfahren bzip2 :: Wikipedia über bzip2 LZMA :: empel-Ziv-Markow-Algorithmus Verlustbehaftete Kompression :: Wikipedia über Verlustbehaftete Kompression Psychoakustik :: Wikipedia über Psychoakustik im Artikel über Audiokompression Mehrfach komprimiert :: Die Hörbeispiele aus der Sendung als Tarball File Download (64:39 min / 89 MB)

technology tale falls wikipedia equipment daten methoden allerdings die h leviathan mb koffer tonqualit ananas packen mehrfach das beispiel trackliste psychoakustik amusic news & politics society & culture ultrasyd audiokompression
Hackerfunk
HF-060 - Kompressionen

Hackerfunk

Play Episode Listen Later Sep 5, 2012 64:39


In der Folge 60 geht es ums Packen. Allerdings packen wir dieses Mal nicht die Koffer, sondern Daten. Axel und Venty besprechen verschiedene Methoden von Datenkompression. Falls die Tonqualität dieses Mal etwas ungewohnt ist, so liegt dies daran, dass wir notgedrungen live aus Axels Küche mit einem etwas improvisierten Equipment senden. Trackliste Ultrasyd – Tale of an undone invitation aMusic & Leviathan – Amphetamine Tears Nächste Sendung: Samstag, 6. Oktober 2012, 19:00 Uhr Huffman Kodierung :: Wikipedia über Huffman Kodierung Lempel-Ziv 77 :: Das Beispiel mit der ANANAS gzip :: Wikipedia über gzip Burrows-Wheeler-Transformation :: Wikipedia über die Burrows-Wheeler-Transformation Rotierende Kodierung :: Move-To-Front-Verfahren bzip2 :: Wikipedia über bzip2 LZMA :: empel-Ziv-Markow-Algorithmus Verlustbehaftete Kompression :: Wikipedia über Verlustbehaftete Kompression Psychoakustik :: Wikipedia über Psychoakustik im Artikel über Audiokompression Mehrfach komprimiert :: Die Hörbeispiele aus der Sendung als Tarball File Download (64:39 min / 89 MB)

technology tale falls wikipedia equipment daten methoden allerdings die h leviathan mb koffer tonqualit ananas packen mehrfach das beispiel trackliste psychoakustik amusic news & politics society & culture ultrasyd audiokompression
Digitale Medien - WiSe 2007/2008 - Audio mit Folien
Audio Teil II : Audio-Kompression

Digitale Medien - WiSe 2007/2008 - Audio mit Folien

Play Episode Listen Later Jan 12, 2009 77:15


Es werden die Grundprinzipien verlustbehafteter Audiokompression erläutert, insbesondere die Funktionsweise der Codierung nach dem MP3- und verwandten Standards. Aufgrund eines weiteren technischen Problems sind keine Folien eingebunden, und es liegen an vielen Stellen kleinere Tonstörungen vor.

Digitale Medien - WiSe 2007/2008
Audio Teil II : Audio-Kompression

Digitale Medien - WiSe 2007/2008

Play Episode Listen Later Dec 19, 2008 77:15


Es werden die Grundprinzipien verlustbehafteter Audiokompression erläutert, insbesondere die Funktionsweise der Codierung nach dem MP3- und verwandten Standards. Aufgrund eines weiteren technischen Problems sind keine Folien eingebunden, und es liegen an vielen Stellen kleinere Tonstörungen vor.