Podcasts about skalen

  • 55PODCASTS
  • 73EPISODES
  • 44mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • Feb 26, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about skalen

Latest podcast episodes about skalen

Hörbar Rust | radioeins

Unser heutiger Gast intendiert sein aktuelles Album als "Aufruf zur spirituellen Reflexion in einer Zeit, die uns oft die Sprache verschlägt." Und in der Tat gibt "Raash ve Ruach", was sich als "Lärm und Wind" übersetzen lässt, einigen Anlass zum Nachdenken. Zum Beispiel über sogenannte Genregrenzen und darüber, welcher Gewinn es sein kann, sie zu überschreiten. Denn Alex Stolze, dessen Hauptinstrument die fünfsaitige Violine ist, findet in seiner Musik ungeahnte Anknüpfungspunkte zwischen zeitgenössischer Klassik und feingliedrigen Electro-Sounds, den fesselnden Klanglandschaften nahöstlicher Skalen und komplexen Polyrhthmen. Damit schafft er ein Werk, das mit seiner Offenheit und Vielschichtigkeit gleichsam dazu einlädt, diese auch auf das "echte Leben" zu übertragen.

Interviews | radioeins
Alex Stolze

Interviews | radioeins

Play Episode Listen Later Feb 26, 2025 34:56


Unser heutiger Gast intendiert sein aktuelles Album als "Aufruf zur spirituellen Reflexion in einer Zeit, die uns oft die Sprache verschlägt." Und in der Tat gibt "Raash ve Ruach", was sich als "Lärm und Wind" übersetzen lässt, einigen Anlass zum Nachdenken. Zum Beispiel über sogenannte Genregrenzen und darüber, welcher Gewinn es sein kann, sie zu überschreiten. Denn Alex Stolze, dessen Hauptinstrument die fünfsaitige Violine ist, findet in seiner Musik ungeahnte Anknüpfungspunkte zwischen zeitgenössischer Klassik und feingliedrigen Electro-Sounds, den fesselnden Klanglandschaften nahöstlicher Skalen und komplexen Polyrhthmen. Damit schafft er ein Werk, das mit seiner Offenheit und Vielschichtigkeit gleichsam dazu einlädt, diese auch auf das "echte Leben" zu übertragen.

Medienmagazin | radioeins

Unser heutiger Gast intendiert sein aktuelles Album als "Aufruf zur spirituellen Reflexion in einer Zeit, die uns oft die Sprache verschlägt." Und in der Tat gibt "Raash ve Ruach", was sich als "Lärm und Wind" übersetzen lässt, einigen Anlass zum Nachdenken. Zum Beispiel über sogenannte Genregrenzen und darüber, welcher Gewinn es sein kann, sie zu überschreiten. Denn Alex Stolze, dessen Hauptinstrument die fünfsaitige Violine ist, findet in seiner Musik ungeahnte Anknüpfungspunkte zwischen zeitgenössischer Klassik und feingliedrigen Electro-Sounds, den fesselnden Klanglandschaften nahöstlicher Skalen und komplexen Polyrhthmen. Damit schafft er ein Werk, das mit seiner Offenheit und Vielschichtigkeit gleichsam dazu einlädt, diese auch auf das "echte Leben" zu übertragen.

Marias Haushaltstipps | radioeins

Unser heutiger Gast intendiert sein aktuelles Album als "Aufruf zur spirituellen Reflexion in einer Zeit, die uns oft die Sprache verschlägt." Und in der Tat gibt "Raash ve Ruach", was sich als "Lärm und Wind" übersetzen lässt, einigen Anlass zum Nachdenken. Zum Beispiel über sogenannte Genregrenzen und darüber, welcher Gewinn es sein kann, sie zu überschreiten. Denn Alex Stolze, dessen Hauptinstrument die fünfsaitige Violine ist, findet in seiner Musik ungeahnte Anknüpfungspunkte zwischen zeitgenössischer Klassik und feingliedrigen Electro-Sounds, den fesselnden Klanglandschaften nahöstlicher Skalen und komplexen Polyrhthmen. Damit schafft er ein Werk, das mit seiner Offenheit und Vielschichtigkeit gleichsam dazu einlädt, diese auch auf das "echte Leben" zu übertragen.

Exzellent erklärt - Spitzenforschung für alle
Die Physik des Lebens: Das Rätsel um nachwachsende Gliedmaßen

Exzellent erklärt - Spitzenforschung für alle

Play Episode Listen Later Jul 31, 2024 35:18


In der Biologie gibt es noch viele Rätsel zu lösen. Beispielsweise verstehen wir noch nicht, wie es Tiere wie der Axolotl schaffen, Gliedmaßen nachwachsen zu lassen. Wir wissen auch nicht, wie Muskeln aufgebaut sind und funktionieren. All das versucht das Exzellenzcluster „Physik des Lebens“ mit den Werkzeugen der Physik zu entschlüsseln. Teilweise geschieht das durch Experimente, teilweise durch Simulationen. Es wird zudem auf verschiedenen Skalen gearbeitet, von der kleinsten mit RNA, DNA und Proteinen bis hin zu den größeren, sichtbaren Skalen.

Der Gitarren Podcast
#016 - So lernst du, das Griffbrett der Gitarre systematisch zu verstehen

Der Gitarren Podcast

Play Episode Listen Later Dec 7, 2023 22:56


Das Griffbrett der Gitarre ist für viele ein Mysterium und der Einstieg in das Thema nicht leicht. Wo soll man beginnen? Skalen, Töne, Intervalle? Wie lernt systematisch und nachhaltig das Griffbrett zu verstehen? Das alles sind Fragen, die in diesem Podcast angesprochen werden. Du erhältst eine Vogelperspektive und erfährst, wo deine persönlichen Schwachpunkte liegen. Für mehr Infos kannst du dich gern für ein unverbindliches Beratungsgespräch anmelden: ⁠https://www.shredfactory.de/beratungsgespr%C3%A4ch/⁠ Instagram: https://www.instagram.com/shredfactory_/ YouTube: https://www.youtube.com/channel/UCkca40KV0aOGRL0fLbshA7w Ich freue mich über jedes Feedback, Anregungen und Kritik, um den Podcast für dich noch interessanter zu machen.

Zuhören, Karriere machen
Schluss machen oder nicht: Wann sollte ich mich trennen?

Zuhören, Karriere machen

Play Episode Listen Later Nov 22, 2023 19:10


Ein komisches Gefühl: Ihr liebt euren Partner, aber die Beziehung erfüllt euch nicht mehr. Es gibt wenig Nähe, ihr streitet mehr, die Zeit für Zweisamkeit fehlt. Bei den meisten kommt dann die Frage auf: Ist das noch gut für mich – oder sollte ich mich trennen? Wir klären in dieser Folge, wann diese Frage aufkommt, warum viele sich nicht trennen, obwohl sie es eigentlich wollen – und was die häufigsten Gründe sind, wenn eine Beziehung dann doch auseinander geht. Shownotes: Studie "Wanting to Stay and Wanting to Go: Unpacking the Content and Structure of Relationship Stay/Leave Decision Processes": https://www.researchgate.net/publication/318845364_Wanting_to_Stay_and_Wanting_to_Go_Unpacking_the_Content_and_Structure_of_Relationship_StayLeave_Decision_Processes Umfrage ElitePartner zu den häufigsten Trennungsgründen: https://www.elitepartner.de/magazin/meistern/soll-ich-mich-trennen/ Wann sich Menschen dazu entscheiden, den Partner zu verlassen: https://www.welt.de/gesundheit/psychologie/article130829107/Wann-sich-Menschen-entscheiden-den-Partner-zu-verlassen.html Das Investment-Modell von Caryl Rusbult: https://www.researchgate.net/publication/247397020_Skalen_zum_Investitionsmodell_von_Rusbult Never Mind – Psychologie in 15 Minuten ist ein Podcast von Business Insider. Wir freuen uns über eure Ideen und Fragen an podcast@businessinsider.de. Oder ihr schickt uns eine Sprachnachricht an die Nummer 0170-3753084. Redaktion/Moderation: Fanny Jimenez/Derman Deniz, Produktion: Wake Word GmbH Impressum: https://www.businessinsider.de/informationen/impressum/ Datenschutz: https://www.businessinsider.de/informationen/datenschutz/ Learn more about your ad choices. Visit megaphone.fm/adchoices

Entropy - Das Universum als Podcast
Ein Experiment verändert GERADE die Physik für IMMER!

Entropy - Das Universum als Podcast

Play Episode Listen Later Oct 2, 2023 11:44


Trotz allem, was wir über die Natur des Universums gelernt haben - von der fundamentalen, elementaren Ebene bis hin zu den größten kosmischen Skalen, die wir ergründen können - sind wir absolut sicher, dass es noch viele große Entdeckungen zu machen gibt. Unsere derzeit besten Theorien sind spektakulär: die Quantenfeldtheorien, die die elektromagnetische Wechselwirkung sowie die starke und schwache Kernkraft beschreiben, die Allgemeine Relativitätstheorie, die die Auswirkungen der Schwerkraft beschreibt. Wo immer sie in Frage gestellt wurden, von subatomaren bis hin zu kosmischen Größenordnungen, haben sie stets gesiegt. Und doch können sie einfach nicht alles erklären, was es gibt. Mit der derzeitigen Physik können wir nicht erklären, warum es im Universum mehr Materie als Antimaterie gibt. Wir verstehen auch nicht, was die dunkle Materie ist, ob die dunkle Energie etwas anderes als eine kosmologische Konstante ist oder was genau vor dem Urknall war. Und auf einer fundamentalen Ebene wissen wir nicht, ob alle bekannten Kräfte in irgendeiner Weise unter einer übergreifenden Kraft vereint sind. Wir haben Hinweise darauf, dass es im Universum mehr gibt als das, was wir derzeit wissen, aber ist eine neue fundamentale Kraft darunter? Es ist möglich und es gibt zwei völlig verrückte Wege um dies zu untersuchen. Empfohlenes Video: https://www.youtube.com/watch?v=eXMxat0Bl9o Abonniere jetzt die Entropy, um keine der coolen & interessanten Episoden zu verpassen! Das unterstützt mich natürlich und hilft mir meinen Content zu verbessern und zu erweitern! Hier abonnieren: https://www.youtube.com/channel/UC5dBZm6ztKizdUnN7Puz3QQ?sub_confirmation=1 ♦ PATREON: https://www.patreon.com/entropy_wse ♦ TWITTER: https://twitter.com/Entropy_channel ♦ INSTAGRAM: https://www.instagram.com/roma_perezogin/ ♦ INSTAGRAM: https://www.instagram.com/entropy_channel/ ♦ DISCORD-SERVER: https://discord.gg/xGtUAaAw98 ♦ GOODNIGHT STORIES: https://open.spotify.com/show/5Mz5jx2lm7DXN3FizSigoJ

Mit Herz und Verstand
Jetzt – was bedeutet das? Tipps für die Woche

Mit Herz und Verstand

Play Episode Listen Later Sep 14, 2023 21:59


Jetzt – was bedeutet das? Tipps für die Woche Leben im Jetzt ist eine wichtige Lebensphilosophie, die dazu ermutigt, bewusst im gegenwärtigen Moment zu leben. In der Stille des gegenwärtigen Moments enthüllt sich uns eine spirituelle Welt, die wir mit dem Verstand allein nicht erfassen können. Buchtipp: Eckhart Tolles Buch "Jetzt! Die Kraft der Gegenwart" ist ein spiritueller Klassiker, der sich mit dem Konzept des gegenwärtigen Augenblicks und der Befreiung von gedanklicher Identifikation befasst. Zur Ergänzung: Die Quantenphysik ist ein Teilgebiet der Physik, das sich mit den fundamentalen Eigenschaften von Materie und Energie auf sehr kleinen, atomaren und subatomaren Skalen befasst. Quantenzeit: In der klassischen Physik wird Zeit als absolut und kontinuierlich betrachtet. In der Quantenphysik wird die Vorstellung von Zeit jedoch komplexer. Einige Quantenmodelle deuten darauf hin, dass die Zeit auf subatomarer Ebene nicht stetig ist, sondern diskret sein könnte. Dies könnte dazu führen, dass die klassische Vorstellung von Vergangenheit, Gegenwart und Zukunft in Frage gestellt wird. Medium Kristina Sacken unterstützt Menschen ihre medialen Fähigkeiten zu entwickeln. Kristina ist Juristin, Politologin und Medium. Seit ihrer Kindheit ist sie hellsichtig, wurde international ausgebildet und hat schon hunderte Menschen medial beraten. 2013 hat sie die Kristina Sacken Akademie gegründet, in der sie ihr Wissen über Medialität weitergibt. www.kristinasacken.com Körpertherapeut Harald Kitz Du willst mehr über Harald Kitz erfahren? Hier geht's zu seiner Website:

Hochpalliativ
Folge 4 - Schmerzen

Hochpalliativ

Play Episode Listen Later Sep 14, 2023 31:17


Im klinischen Alltag werden oft unterschiedliche Skalen zur Erfassung von Schmerzen eingesetzt. Dadurch soll das subjektive Schmerzerleben objektiviert und Therapieerfolge sichtbar gemacht werden. "Schmerz ist was die Betroffenen als Schmerz angeben", sagt Cicely Saunders. In Folge 4 wollen wir einen ersten Überblick zu Schmerzen aus palliativmedizinischer Sicht geben. Primär geht es um die gründliche Schmerzerfassung. Einleitend stellen wir das Total-Pain Konzept vor. Ein wichtiges multimodales Modell, welches die Dimensionen eines Symptoms am Beispiel Schmerz beschreibt.

Weniger aufschieben - entspannter leben (Schluss mit Prokrastination und Stress)

Heute sprechen wir einmal über das Thema Entspannung in Urlaub und Freizeit. Dazu gibt es viele Meinungen und auch ein paar Mythen, was man tun oder lassen sollte, um sich optimal zu entspannen. Wie immer finde ich, dass du herausfinden musst, was für dich am besten passt. Und dafür gebe ich dir drei (eigentlich sogar vier) Skalen, auf denen du dich selbst einordnen kannst, um die für dich (aktuell) passendste Entspannungsform zu finden.

FAZ Digitec
Besiegt Mark Zuckerberg nun Twitter?

FAZ Digitec

Play Episode Listen Later Jul 14, 2023 30:56


Der Meta-Konzern hat mit seinem neuen Angebot Threads einen offenbar enormen Erfolg erzielt: Schon nach nur wenigen Tagen nutzen es mehr als 100 Millionen Menschen. Dabei ist die an Instagram angedockte App prinzipiell nicht wirklich innovativ - sie besticht durch keine außergewöhnliche neue Funktionalität. Gleichwohl ist sie womöglich der gefährlichste Konkurrent, den die Kurznachrichten-Plattform Twitter bislang hatte. Denn hinter ihr steht ein zahlungskräftiger Konzern, der zugleich gerade über viel Erfahrung und Erfolg im Werbegeschäft sozialer Medien hat. Wird Mark Zuckerbergs Threads also am Ende sogar Elon Musks Twitter sozusagen besiegen? War der Schritt langfristig geplant oder eher spontan entschieden? Wie unterscheidet sich das Publikum auf beiden Plattformen? Oder ist sogar denkbar, dass es künftig zwei vergleichbare Angeboten gibt - trotz der weiter geltenden Skalen- und Netzwerkeffekte, die diesem Geschäft nun einmal zugrunde liegen? Über all das und mehr diskutieren wir in dieser Episode.

SWR2 Tandem
Heimat bauen: „Beit“ von Masaa

SWR2 Tandem

Play Episode Listen Later Apr 28, 2023 8:09


Das deutsch-libanesische Quartett Masaa spielt Musik zwischen Welt und Jazz. Arabischer Gesang und alte orientalische Skalen bekommen genau so viel Raum wie die Improvisation.

Shiny's Command - Der philosophische EDH Podcast
Shiny's Command #28: Ist alles eine Sieben? - Wir schauen den Powerskalen unter die Haube!

Shiny's Command - Der philosophische EDH Podcast

Play Episode Listen Later Mar 23, 2023 37:55


Moin, Servus und Hallo, heute sprechen Ove und Patrick über Powerskalen. Dabei schauen wir uns zwei Skalen genauer an und diskutieren, warum es auch mit diesen Tools nicht so einfach ist seine Decks richtig einzuschätzen. Viel Spaß! Hier mal der Link zum Kneteserver bzw. der MTG Battlebox: https://discord.gg/JxWbAt52 Schreibt uns bei Twitter: https://twitter.com/ove_xxl und https://twitter.com/CommandShiny Oder per Mail: shinyscommand@gmx.de

Etage 600 - Der Percy Jackson Podcast
2-03 - Formationen, Skalen und Lehrgänge (Percy Jackson - Im Bann des Zyklopen, Kapitel 4)

Etage 600 - Der Percy Jackson Podcast

Play Episode Listen Later Jan 14, 2023 82:24


Willkommen zurück im Aufzug auf dem Weg zur Etage 600. Während Percy, Annabeth und Tyson am Camp ankommen und dort gegen bronzene Hindernisse ankämpfen, werden Dennis und Marc nicht müde, sich in angrenzenden Themen zu ergehen. So wird über Sicherheitskonzepte, Schwertkampf und häufige Bruchstellen von Kugelschreibern geredet, während die jungen Helden sich wieder mal im Kampf beweisen. Viel Spaß beim Hören.

Entropy - Das Universum als Podcast
Wie viel Materie fließt jede Sekunde durch dich?

Entropy - Das Universum als Podcast

Play Episode Listen Later Nov 23, 2022 9:03


Irgendwas passt so ganz und gar nicht in unserem Universum zusammen. Auf den größten kosmischen Skalen finden wir überall das gleiche Problem: Es gibt nicht genug Materie, um die beobachteten Gravitationseffekte zu erklären. Was einfach ausgedrückt bedeutet: Die Materie verklumpt zu einem kosmischen Netz; Galaxienhaufen wachsen zu enormer Größe an mit sich schnell bewegenden Galaxien darin; einzelne Galaxien rotieren mit großer Geschwindigkeit, die bis zu ihren Rändern groß bleibt. Ohne das Vorhandensein von etwa fünfmal so viel Materie, wäre dies alles nicht möglich. Unser Bild vom Universum erfordert etwas, eine unsichtbare Masse die das Gewicht der Galaxien erklären kann. Wir brauchen die dunkle Materie, damit damit das alles erst einen Sinn macht. Wenn die dunkle Materie jedoch real ist, bedeutet das, dass auch unsere Milchstraße dunkle Materie besitzen muss und dass ein Teil dieser Materie durch das Sonnensystem, die Erde und sogar durch dich hindurchgeht. Aber wie viel an dunkler Materie genau geht durch dich durch? Damals im jungen Universum war alles heißer, dichter und gleichmäßiger als heute. Doch schon früh gab es Regionen mit einer ganz leichten Überdichte, in denen mehr Materie als im Durchschnitt vorhanden war. Die Gravitation zieht bevorzugt mehr Materie in eine solche Region, aber die Strahlung sorgt dafür, dass diese Materie wieder hinausgedrängt wird. Good Night Stories: Auf YouTube - https://www.youtube.com/channel/UCOGzvEVuggur7x8BxoL84-A Auf Spotify - https://open.spotify.com/show/5Mz5jx2lm7DXN3FizSigoJ Abonniere jetzt die Entropy, um keine der coolen & interessanten Episoden zu verpassen! Das unterstützt mich natürlich und hilft mir meinen Content zu verbessern und zu erweitern! Hier abonnieren: https://www.youtube.com/channel/UC5dBZm6ztKizdUnN7Puz3QQ?sub_confirmation=1 ♦ PATREON: https://www.patreon.com/entropy_wse ♦ TWITTER: https://twitter.com/Entropy_channel ♦ INSTAGRAM: https://www.instagram.com/roma_perezogin/ ♦ INSTAGRAM: https://www.instagram.com/entropy_channel/

datenleben
dl029: graphentypen – skalen und zeiger

datenleben

Play Episode Listen Later Sep 3, 2022 41:36


In dieser Folge soll es darum gehen, was es für konkrete Arten von Darstellungen für Daten gibt. Weil das aber zu umfangreich wäre, ist das vermutlich der Auftakt zu einer ganzen Reihe. Es gibt so viele verschiedene Datentypen und damit auch so viele Optionen, sie darzustellen, dass wir das nach und nach ergänzen möchten. Wir wollen in dieser Folge klein anfangen und haben uns quasi eine der kleinsten Einheiten rausgesucht: 1-dimenionale Daten. Genauer gesagt geht es um die Frage: Wie stellt man einen einzigen Wert dar? Dabei gehen wir auf Skalen ein, auf Zeigerdiagramme und auf Bullet Charts.

Chief of Anything
100 - Chief of Anything:100%Superstars

Chief of Anything

Play Episode Listen Later May 23, 2022 22:33


Wir feiern Jubiläum! Die 100. Folge der 1. Chief of Anything Staffel ist draußen. Passend dazu geht es um die Erreichung von 100% - Ich möchte, dass alle Teammitglieder zu 100% passen und ihren besten Beitrag liefern können. Wie erkenne ich dafür, ob ich die richtigen Superstars für mein Team habe und was bedeutet das für meine nächsten Handlungen als Teamlead? Um die Stärke von Performance aufzuteilen und zu benennen, stellen Christian und Michael praktische Skalen und Matrizen vor. Je nachdem, wo sich jemand darauf befindet, weiß ich als Chief, welche Schritte ich mit dieser Mitarbeiterin als nächstes gehe. Am Ende habe ich meine persönlichen Avengers: Ein Team, in dem jeder ein Superheld ist und seine eigene Kraft voll ausleben und damit etwas Gutes bewirken kann. Zum Abschluss geht es um die Frage: Ist 100% Leistung wirklich nötig? Pushe ich alle an ihre Belastungsgrenze? Oder habe ich eine ganz andere, hilfreiche und stärkende Absicht? Was wäre deine Superkraft, wenn du eine übernatürliche hättest? **Über die Podcaster** Michael auf LinkedIn: ► http://www.linkedin.com/in/michael-portz-362209 Christian auf LinkedIn: ► http://linkedin.com/in/christiankohlhof **Unser Buch** CHIEF OF ANYTHING: Wofür entspannt-produktive Führung die Welt verbessert Bestelle es dir noch heute auf amazon: ► https://amzn.to/2Z5IIXh **Über die CoA Academy** Weitere Informationen über die Academy, unsere Seminare und das CHIEF OF THE YEAR Remote Leadership Programm findest du auf unserer Website: ► https://coa.academy **Newsletter** Melde dich gerne zu unserem Newsletter an. Mit ihm verpasst du keine Neuigkeiten & Erfahrungen mehr von uns: ► https://bit.ly/3a9FoAQ **Und noch eine große Bitte an dich:** Abonniere unseren Podcast und bleibe auf dem Laufenden. Wenn er dir hilft, eine bessere Chefin oder ein besserer Chef zu werden, effektiver zu kommunizieren oder du ihn einfach unterhaltsam findest, freuen wir uns sehr über eine 5-Sterne-Bewertung und eine Rezension. **VIELEN HERZLICHEN DANK!**

Anerzählt
113 - Big Mac Happiness Report =^_^=

Anerzählt

Play Episode Listen Later Apr 22, 2022 8:56


Es gibt für alles mögliche Statistiken und Ranglisten, besonders interessant sind aber Vergleiche, die ganze Volkswirtschaften nebeneinander stellen. KKP Indices sind solche Skalen und auf einer der etablierten Listen ist Somalia auf Platz 113 im globalen Vergleich. Aber was heißt das eigentlich genau?

Kurswechsel - Wir machen Arbeit wert(e)voll

Hier kommt der zweite Teil unserer Mini-Podcast-Reihe zum Thema „Motivation“ In der letzten Episode haben wir bereits die Bedürfnispyramide von Maslow und die X-Y-Theorie von McGregor angesprochen. In der heutigen Episode folgen die übrigen 3 Kapitel. Kapitel 3: David McClelland Nach McClelland liegen uns Menschen drei Motivationsmotive zu Grunde. 1. Das Leistungsmotiv: Dabei geht es darum, Dinge selbst in die Hand zunehmen und dabei auch besser zu sein als, erstens andere, zweitens aber auch als man selbst. Allgemein würde man Menschen mit einem großen Leistungsmotiv als „ehrgeizig“ bezeichnen. 2. Das Zugehörigkeitsmotiv: Hierbei handelt es sich um ein sog. „Sein-Motiv“, also zum Zeitpunkt der Handlung ist dieses Motiv erfüllt. Bei den anderen Motiven handelt es sich um sog. Wirkungsmotive. Dies bedeutet, dass man Bestimmtes tut, damit sich im Anschluss ein gewisses Motiv erfüllt. Menschen mit einem ausgeprägten Zugehörigkeitsmotiv haben Freude an sozialen Kontakten. Es handelt such also einerseits um „klassische“ Netzwerker, anderseits auch um Menschen, die im Zweifel dafür sorgen, die Stimmung im Team wieder ins Lot zu bringen. 3. Das Machtmotiv: Hier ist Vorsicht geboten, denn Macht hat im deutschen keine besonders gute Assoziation. Der Originalbegriff aus dem Englischen ist „Power Motive“. Da kristallisiert sich die eigentlich bedeutet besser heraus. Es handelt sich dabei um eine Person, die gerne Dinge anschiebt, der gerne Einfluss nimmt und den Rahmen festsetzt. Menschen dieses Motivs sind außerdem Innovationsreiber. Menschen des Machtmotivs müssen also auch nicht zwingend den Chef-Parkplatz in der ersten Reihe haben oder in der klassischen Organisationspyramide ganz oben stehen (So wird es fälschlicherweise oft verstanden). Sie könnten sich auch in einer Zellstruktur wiederfinden, da sie auch dort die Möglichkeit der Einflussnahme haben bzw. sie sich dabei meist sogar noch mehr entfalten können als in der klassischen Pyramide. Was McClelland auch schon sehr früh erkannt hat ist, dass die jeweiligen Motive stark vom jeweiligen Kontext abhängen, in denen man sich gerade befindet. Außerdem basieren sie auf Erfahrungen, die ich bereits in der Vergangenheit gemacht haben und ich bin gewillt positive Erfahrungen zu wiederholen. Kapitel 4: Die Zwei-Faktoren-Theorie (Motivator-Hygiene-Theorie) von Frederick Herzberg Hierzu können wir die Darstellung von Wikipedia sehr empfehlen, die diese Theorie sehr schön veranschaulicht. Es gibt zwei voneinander unabhängige Skalen. Die erste geht von -100 bis 0 und repräsentiert die „Demotivatoren“ (Herzberg nennt diese Hygienefaktoren). Die zweite Skala ist von 0 bis 100 skaliert und repräsentiert die Motivatoren. Schaut man sich nun z.B. den Faktor „Verantwortung“ an, sieht man, dass es einen großen Ausschlag auf der Motivations-Skala gibt, wenn dieses Motiv zutrifft. Dahingegen schlägt die „Demotivations-Skala“ kaum aus, falls dieses Motiv nicht zutrifft. Das bedeutet übersetzt: Trägt man viel Verantwortung, sorgt das für viel Motivation. Trägt man aber keine Verantwortung, stört es einen gar nicht so sehr, bzw. es trägt nicht gleichstark zur Demotivierung bei. Daraus kann man Folgendes lernen: In Organisationen wird viel über Motivation gesprochen, weil man beobachtet, dass die Leute nicht motiviert sind. Es kann sich lohnen, Motivation und Demotivation mal getrennt voneinander zu betrachten. Manchmal reicht es schon, alle Motivationskiller zu beseitigen, bevor man sich überhaupt über Motivation Gedanken macht. Kapitel 5: intrinsische- und extrinsische Motivation von Deci und Ryan Die beiden haben in ihrer Forschung zwischen intrinsischen- und extrinsischen Motiven unterschieden. Auf den Punkt erklärt sich die Unterscheidung folgendermaßen: Man ist immer extrinsisch motiviert, wenn man Dinge tut „um zu…“. Intrinsisch ist man immer dann motiviert, wenn es um das Tun an sich geht. Zentrale Motive der intrinsischen Motivation sind: - Autonomie - Zugehörigkeit - K

ManagementJournal
Risikomanagement | Projektmanagement, Folge 5

ManagementJournal

Play Episode Listen Later Mar 21, 2022 2:51


Herzlich willkommen zur fünften Folge des Podcasts zum Thema „Projektmanagement“. Der Podcast besteht aus sieben Teilen. Heute im fünften Teil will ich Ihnen eine kurze Einführung geben in die Möglichkeiten und die Bedeutung eines aktiven Risikomanagements im Projektumfeld. Ein aktives Risikomanagement kann im Projektumfeld aus drei wesentlichen Schritten bestehen. Nämlich aus 1. der Risikoerkennung. 2. der Risikobewertung und ganz wichtig als 3. Schritt der Risikoabwehr. Im ersten Schritt ist es natürlich wichtig, sich an möglichen Schablonen zu orientieren und den Fokus zu weiten für mögliche Risikofelder. Hier spielen Risiken des Projektes wie bspw. fehlende Projektmanagementkompetenz oder fehlendes Fachwissen ebenso eine Rolle wie bspw. Planungsrisiken wie unvollständige oder zu eng gefasste Ziel- und Zeitplanungen. Aber auch im Projektumfeld finden sich oftmals Risiken wie Mitbewerber, rechtliche Risiken oder bspw. kulturelle oder Akzeptanzprobleme. Nach der Identifikation folgt der zweite Schritt. Der Schritt der Risikobewertung. Diese kann bspw. tabellarisch erfolgen, indem man in Spalten die Risikoart, das Risiko als solches, eine Bewertung von Eintrittswahrscheinlichkeit und Schadensausmaß sowie Maßnahmen zur präventiven und kompensierenden Risikoreduktion zuordnet. Das kann in Worten nach bekannten Skalen wie „niedrig, mittel und hoch“ stattfinden oder in Zahlenskalen. Unabhängig davon schließt sich oft die Matrixdarstellung in einem Koordinatensystem an. Dort werden die Risiken nach Schadensausmaß bspw. auf der x- und Eintrittswahrscheinlichkeit auf der y-Achse abgebildet. Und wie Sie bspw. aus der Stakeholderanalyse ebenfalls wissen, lassen sich Risiken dann clustern. Und zwar in eher problemlose Bereiche, die ein sehr geringes Schadensausmaß haben und gleichzeitig auch eine sehr geringe Eintrittswahrscheinlichkeit. Viel entscheidender für die Betrachtung ist der andere Pool, nämlich der der Risiken im hochriskanten Bereich mit einem sehr hohen Schadensausmaß bei gleichzeitiger sehr hoher Eintrittswahrscheinlichkeit. Gerade in diesem Fall sind kompensierende Maßnahmen unabdingbar. Gerne ausführlicher nachlesen können Sie zu diesen und weiteren Methoden des Projektmanagements im Modul 1351. Beste Grüße Ihr Matthias Matlachowski Dipl.-Sozialwissenschaftler (Univ.) Matthias Matlachowski, Tutor der Deutschen Akademie für Management Hier finden Sie alle Podcasts der Reihe Projektmanagement

Anerzählt
101 - Scoville und Olf =^_^=

Anerzählt

Play Episode Listen Later Dec 6, 2021 6:45


Es gibt absurde Skalen um die seltsamsten Dinge zu messen. Heute schaut sich der Anerzähler die Messung von Geruch und die Messung von Schärfe an.

Erfolgreich im Herzbusiness
Ü50, selbständig … und erschöpft

Erfolgreich im Herzbusiness

Play Episode Listen Later Oct 24, 2021 16:53


Erschöpfung, Burn out-Symptome und allgemein müde? Zeit für eine Inventur! Wir haben Dir 6 Fragen zur Selbsteinordnung mitgebracht. Überprüfe anhand dieser Fragen Deine Entfaltungsmöglichkeiten und somit Deine Energiespender. Wenn einer oder mehrere Punkte 7 oder kleiner sind, hast Du wichtige Indikatoren dafür, woher Deine Müdigkeit kommen könnte. Ordnest Du Dich auf den 6 Skalen eher bei der minimalen 1 oder bei einer maximalen 10 ein? Wir sind gespannt, wie es um Deine Schöpferkraft (bzw. Deinen Erschöpfungsgrad) bestellt ist.

Guitar Master Plan Podcast
Darum sind Skalen-Übungen so wichtig.

Guitar Master Plan Podcast

Play Episode Listen Later Oct 12, 2021 16:55


In dieser Episode gehen wir darauf ein, warum Skalen-/Tonleiter-Übungen so wichtig für dich sind. Richtig angewendet, wirst du damit jede Menge Spaß haben und deine Improvisationen werden stark klingen.

Andrea B. Kunz Sängerin
Tonarten & Skalen / Dur & Moll

Andrea B. Kunz Sängerin

Play Episode Listen Later Jun 2, 2021 12:32


ChorsängerInnen und GesangsschülerInnen sind fit für die Chorprobe oder den Gesangsunterricht. www.facebook.com/andreabkunzvocal

gesangsunterricht skalen chorprobe tonarten
Sound&Recording - Musikproduktion
Filmmusik - Emotionen erzeugen & transportieren - Malte & Niklas Melcher - Wochenrückblick #65

Sound&Recording - Musikproduktion

Play Episode Listen Later Apr 22, 2021 125:55


In dieser Episode sind die beiden Musiker & Filmmusik-Produzenten Malte und Niklas Melcher zu Gast. Mit den Brüdern, die unter dem Namen Sonority Arts ihre Musik produzieren und veröffentlichen, sprechen wir über das Erzeugen und Transportieren von Emotionen in der Filmmusik. Die beiden Musiker erklären, mit welchen Instrumenten, Akkorden, Skalen und Sounds sie arbeiten, um bestimmte Emotionen wie Trauer, Spannung, Angst oder Freude zu erzeugen und wie man sie im Kontext zum Bild transportiert, damit die Musik auch die Dramaturgie des Films unterstützt. Viel Spaß beim Hören!

Laberkacke
Eidechsenknappheit

Laberkacke

Play Episode Listen Later Apr 21, 2021 69:13


EidechsenKnappheit NoFiltarr definiert die Skalen der Eifersucht & der Kaputtheit neu. Jumbo Schreiner fährt Smart. Rico entdeckt zwei neue Spezies: Den „LotsenHirsch“ und die „Schwabbelige-schwabbelige-schwabbel-Kuh“! NoFiltarr besitzt seit heute eine Kategorie: „Unnützes Wissen präsentiert von Simon“! Angela Merkel schaut „Mitten im Leben“ & „Armes Deutschland“! Rico wird nachts aufgrund eines Selfiesticks für Pros geweckt & Simon riskiert alles für Content. Die beiden haben einen neuen Fall für Galileo Mystery oder für die Mythbusters & fordern Klärung im Fall „suizidale-Spielstraßen-Katze“!

Sozialpsychologie mit Prof. Erb

Ein Lineal misst relativ genau die Höhe einer Dose. In der Psychologie ist es wichtig, dass sogenannte Messinstrumente wie Tests oder Skalen psychologische Merkmale zuverlässig erfassen. Diese Zuverlässigkeit bezeichnen wir als Reliabilität. Judith Balzukat, M. Sc. erklärt im Gespräch mit Prof. Erb, wie man Reliabilität bestimmen kann und was eine gute Reliabilität ausmacht.

SWR2 Musikstück der Woche
Das Freiburger Barockorchester spielt Johann Sebastian Bach: Cembalokonzert Nr. 1 d-Moll BWV 1052

SWR2 Musikstück der Woche

Play Episode Listen Later Aug 8, 2020 21:32


Bachs Cembalokonzert ist mit seinen anspruchsvollen Tonleitern, schnellen Skalen und Trillerfiguren bis heute eines der berühmtesten Solokonzerte für Tasteninstrumente jener Epoche.

Entspannt & Schmerzfrei Leben Podcast
015 - Unterschiede Rücken- vs. Bandscheibenproblem, Intensität in der Reha, RPE-Skalen in der Reha feat. Silvan Schlegel

Entspannt & Schmerzfrei Leben Podcast

Play Episode Listen Later Jul 24, 2020 54:29


In der Rehabilitation von körperlichen Beschwerden wird häufig ein Fehler begangen: Die Menschen werden unterfordert. Sie bekommen Angst vor Belastung. Ein Teufelskreis entsteht. Silvan Schlegel ist Physiotherapeut in Berlin und geht einen anderen Weg. Er fordert seine Patienten, sodass sie nach einer Verletzung stärker werden als vorher und die Verletzung im besten Fall nicht wieder auftritt. Und weil ich seinen Ansatz so interessant finde, freue ich mich umso mehr, ihn als Gast im Podcast zu haben. In dieser Folge sprechen wir nicht nur darüber, wieso intensives Training in der Reha eine gute Idee ist, sondern auch darüber, wie du Intensität richtig planst, wie du Rücken- von Bandscheibenproblemen unterscheiden kannst und vieles, vieles mehr. Viel Spaß beim Hören! Silvan Schlegel auf Instagram: https://www.instagram.com/silvanschlegelpt/ der Podcast Training ohne Limit: https://www.instagram.com/trainingohnelimit/ Physiotherapie Scharf in Berlin: https://sportphysioscharf.com/ Rückenschmerzen und Bandscheibenprobleme endlich loswerden: https://www.felixkade.de/die-rueckenschmerzformel-3/

Methoden-Montag
Skalen-Abfrage mit Nele

Methoden-Montag

Play Episode Listen Later Mar 15, 2020 6:46


Heute zu Gast ist Nele Schön von Gruner+Jahr. Nele hat uns eine klassische Methode mitgebracht und jede Menge Ideen, wie man sie kreativ einsetzt. Auf einer Skala von 0 bis 10: Wie neugierig bist du auf die Folge?

SUPERGAIN TV
Gitarrist Peter Autschbach: Mein Weg zum Profimusiker – SUPERGAIN TV 47

SUPERGAIN TV

Play Episode Listen Later Dec 30, 2019 42:56


Peter Autschbach im Gespräch mit Michael über seinen Werdegang und über die Basics für jeden Gitarristen. Unterhaltsame Anekdoten und interessante Tipps zum Lernen von Skalen und Arpeggien. Das „Duo Saygili Autschbach“ hat beim deutschen Rock und Pop Preis 2019 gleich zwei Preise gewonnen: Platz 1 des Hauptpreises „Deutscher Singer Preis“ und darüber hinaus eine Auszeichnung in der Sonderkategorie „Bester Gitarrist“. www.autschbach.de In diesem Video sind folgende Kompositionen zu hören: "Suitcase-Blues" ist ein Stück von Rik Emmet, zuerst aufgenommen von ihm mit der kanadischen Rockband "Thriumph". "Wave" des unvergleichlichen Antonio Carlos Jobim.

Modellansatz
Kristallgittermodelle

Modellansatz

Play Episode Listen Later Nov 8, 2019 33:43


Gudrun spricht mit Axel Voigt. Er ist Professor für Wissenschaftliches Rechnen und Angewandte Mathematik an der TU Dresden. Axel war Ende Oktober 2019 zu Gast in Gudruns Arbeitsgruppe, um seine Modelle für Kristallgitter zu diskutieren. Der Wunsch der Gruppe war, sowohl die Modelle als auch die dafür passenden numerischen Verfahren besser zu verstehen. Sie sind insbesondere für die Simulation der Vorgänge in Akkumulatoren interessant, die im Rahmen das Graduiertenkollegs SiMET vorangetrieben werden. Viele feste Körper haben eine Gitterstruktur. Für z.B. Silizium, Aluminium und Stahl ist dies ein Kristallgitter. In der Schule wird es der Einfachheit halber oft so dargestellt, als wäre das Kristallgitter eine feste Größe für solche Stoffe. In der Natur sind es aber polykristalline Materialien. D.h. sie bestehen aus vielen unterschiedlichen Einzelkristallen. Diese sind durch Korngrenzen voneinander getrennt. Das Studium polykristalliner Materialien erfordert theoretische und rechnerische Techniken, die Untersuchungen auf unterschiedlich großen Skalen ermöglichen. Kristallgitterverformungen können mikroskopisch beschrieben werden, indem die Position der Atome explizit berücksichtigt wird, oder makroskopisch durch Kontinuumselastizität. Grobkörnige, mesoskalige Ansätze sind daher geeignete Werkzeuge, um Informationen über polykristalline Materialien bereitzustellen. In seiner Forschung betrachtet Axel sie als kontinuierliche elastische Felder, die aus einer atomistischen Darstellung der kristallinen Strukturen abgeleitet sind. So enthält sie auch wichtige Merkmale, die für die mikroskopische Skala typisch sind. Die Größe und Phase der Amplituden der Fourierspektrum, zusammen mit der kontinuierlichen Beschreibung der Dehnungen, sind in der Lage, Kristalldrehungen, Gitterverformungen und Versetzungen zu charakterisieren. Darüber hinaus stellen sie in Kombination mit der so genannten Amplitudenerweiterung des Phasenfeld-Kristallmodells ein geeignetes Werkzeug zur Überbrückung mikroskopischer bis makroskopischer Skalen dar. Die Amplitudenerweiterung des Phasenfeld-Kristallmodells ermöglicht es, die Kristallgittereigenschaften auf diffusen Zeitskalen zu beschreiben, indem sie sich auf kontinuierliche Felder konzentriert, die auf Längenskalen variieren, die größer als der Atomabstand sind. So ermöglicht es die Simulation großer Systeme, die noch Details des Kristallgitters beibehalten. Axel Voigt hat an der TU München studiert und promoviert. Nach einem Ausflug in die Wirtschaft war er ab 2001 Gruppenleiter am Forschungsinstitut caesar in Bonn und hat sich dort auch habilitiert. Seit 2007 ist er in Dresden an der TU als Professor tätig. Literatur und weiterführende Informationen M. Salvalaglio, A. Voigt, K. R. Elder: Closing the gap between atomic-scale lattice deformations and continuum elasticity. npj Computational Materials 5 (2019), 48 S. Praetorius, M. Salvalaglio, A. Voigt: An efficient numerical framework for the amplitude expansion of the phase-field crystal model. Modelling Simul. Mater. Sci. Eng. 27 (4) (2019), 044004 M. Salvalaglio, R. Backofen, K. R. Elder, A. Voigt: Defects at grain boundaries: a coarse-grained, three-dimensional description by the amplitude expansion of the phase-field crystal model. Phys. Rev. Materials 2 (2018), 053804 Podcasts S. Carelli, G. Thäter: Batteries, Conversation im Modellansatz Podcast, Episode 211, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. L. Wagner, G. Thäter: Elastoplastizität, Gespräch im Modellansatz Podcast, Folge 210, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

KLAPPE AUF!
KA24 - Das monatliche GRATIS-ÜBUNGSPAKET für Saxofon

KLAPPE AUF!

Play Episode Listen Later Nov 3, 2019 17:54


Viele Üben und profitieren nicht wirklich von ihrem geübten Material Das Problem: sie wechseln zu schnell den Übungsstoff, sie üben heute dies, morgen das. Oder vielleicht 3-5 Tage oder vielleicht eine Woche. Eine Woche ist ja der typische Rhythmus, weil ja viele als Schüler Wöchentliche Unterrichtsstunden genommen haben, Und daher jede Woche neue Aufgaben aufbekamen, oder die alten wiederholen mussten. Wenn man aber den Übungsstoff zu kurz übt, also der Übungszeitraum zu kurz ist, Dann vertieft sich der Stoff leider nicht. Natürlich hat man einen gewissen Teil "begriffen", aber es könnte viel mehr Wirkung also Vertiefung haben. Es geht also heute um eine Kernfrage des Musizierens: Wie lange muss man die selben Übungen, Stücke, Skalen, Melodien spielen, damit die Wirkung optimal ist, also die Töne, Griffe automatisch ins Unterbewusstsein aufgenommen werden? Die erste Antwort ist: Ca. 3 - 4 Wochen. Die 2. Antwort ist: aber nur, wenn man in dieser Zeit regelmäßig - möglichst jeden Tag - übt! Und dazu starte ich jetzt ein Experiment: Ich biete ab November für mehrere Monate ein Gratis-Lernpaket an: Der Saxmonat: Wer sich dazu mit Mailadresse anmeldet Erhält monatlich ein Paket bestehend aus 3 zentralen Bereichen des Übens: - Ein Musikstück - Ein bis zwei Basisübungen - Gehörbildungsübungen Wenn du dieses Paket regelmäßig übst, dann wirst du garantiert deutlich voran kommen. Die Idee dahinter: Wir brauchen beim Üben eine gesunde Mischung: Spaß-Spielfreude, dazu unablässige Basisübungen ohne die man einfach nicht auskommt und Vielleicht das zentrale Element für den Fortschritt: Gehörtraining! Alle drei Elemente hängen zusammen und fördern sich gegenseitig - Im Prinzip übt man eigentlich immer alles Im Grunde ist eine solche Kombination nichts ungewöhnliches, Aber wir kombinieren diese 3 Bereiche mit einem entscheidenden Element: der Zeitdauer! Wir müssen dasselbe Material über einen längeren Zeitraum üben. Egal wie einfach oder schwierig! Experten sprechen von mindestens 3 Wochen, wobei sie tägliches Üben meinen. Ich runde den Zeitraum ab und verlängere auf einen Monat, denn hin und wieder werden wir ein paar freie Tage einlegen. Also zusammenfassend: Ein Musikstück - 1 - 2 Basisübungen - 1 Übung Gehörtraining - EINEN MONAT lang üben. Die Bereiche sind die perfekte Mischung aus Pflicht und Kür: Musikstücke sollen Spaß machen Basisübungen und Gehörtraining sind die Motoren für deinen Fortschritt Mit der Übungsdauer von einem Monat geht dir der Lernstoff in Fleisch und Blut über! Am Ende beherrscht du den Stoff wie im Schlaf! Ich will jetzt das Thema "Gehörtraining" und dessen Bedeutung im Detail erklären: - Man spielt nur so gut, wie man hört! - Im Idealfall hört man seine Melodien, Akkorde im Kopf bevor man sie spielt - Und auch im Solo: man improvisiert indem man seine musikalischen Ideen vorher hört und gleich mit dem Instrument umsetzt - das ist der Idealfall Gehörtraining wird unterschätzt bzw. zu wenig beachtet, weil es vielleicht ungewohnt, oder lästig ist oder man hat eben keine geeignete Methode. Und hier setzte ich an: Viele probieren Gehörtraining mit Apps, wo sie im Multiple Choice verfahren Intervall und Akkorde identifizieren müssen. Das habe ich auch probiert, funktioniert aber bei mir überhaupt nicht. Deshalb habe ich mir überlegt, wie man hier am besten vorwärts kommt. Und die Lösung ist dann überraschend einfach: Man wiederholt einfach eine einzige Übung über längere Zeit, bis man nicht mehr nachdenkt und das Gehörte sofort erkennt, wie eine Farbe: Man sieht auf eine Wiese und sieht sofort die grüne Farbe, ohne Nachdenken zu müssen. Das ist das Ziel im Gehörtraining. So lernen wir Intervalle, Akkorde und auch Akkordfolgen zu erkennen. Meine Methode hat 2 Säulen: Einfachheit (eine Übung) und Ausdauer Wir üben z.B. täglich nur ein Intervall über einen Monat - und zwar mehrmals täglich im Idealfall - dazu brauchst du gar nichts. Du kannst dir bei jeder Gelegenheit das Intervall im Kopf vorste

KLAPPE AUF!
KA19 - 30 Übungen OHNE Saxofon

KLAPPE AUF!

Play Episode Listen Later Sep 28, 2019 47:28


Ich konnte es am Anfang nicht glauben: Einer meiner ersten Lehrer erzählte mir, dass er selber im Studium eine Etüde im Zug ohne Instrument gelernt hat. Er hatte die Übung vergessen und versuchte die Griffe, die Melodie rein durch das Durchlesen und Mitgreifen zu lernen und es funktionierte. Rudresh Mahanthappa erzählte mir im letzten Jahr, dass er meist nur eine Stunde am Tag geübt hat. Auch Branford Marsalis sagte mir einmal, er hat immer sehr wenig geübt. Wie haben sie ihr Niveau trotzdem geschafft: Mein Lehrer, Rudresh, Branford? Sie haben sich neben dem Üben am Instrument zusätzlich dauernd mit Musik intensiv auseinander gesetzt. Zunächst haben sie gehört. Aber Hören alleine reicht natürlich nicht. Sie haben im Kopf Musik weiter produziert, sie haben innerlich geübt! Vieles spielt sich dabei im Kopf ab, das Instrument ist nur mehr ein Ausdrucksmittel. Das bedeutet man kann sehr viel ohne Instrument üben, Klangvorstellungen, Intervalle, Akkorde, Harmonief 30 Übungen die du ohne Instrument machen kannst Singe, Greife und höre innerlich Falls du am Beginn mit dieser Methode unsicher bist dann: - Spiele die Tonleiter zuerst am Klavier oder Saxofon - dann singe sie sofort - Spiele den Dreiklang mit dem Instrument einmal, und dann singe ihn sofort ein paar mal - Laut Singen/summen ist wirkungsvoller als "innerliches Singen) - Innerliches Singen ist anspruchsvoller und schwieriger - Greife beim Singen mit - also ob du Saxofon spielen würdest - Starte sehr langsam, wenn du zu schnell bist, oder Schwierigkeiten hast, reduziere sofort das Tempo - Konzentriere dich auf ein bis zwei kurze Übungen am Tag: z.B. ein Intervall die Quart aufwärts - diese Quart singst du 5 - 10x hintereinander mehrmals am Tag. - Bleibe bei einer Übung mindestens 1 Woche - besser sind 3 - 4 Wochen - Die Übungen starten einfach (1.) und werden immer schwieriger (30.) - Habe Geduld! Die Wirkung ist enorm, aber dieses Hören lernen ist ein lebenslanger möglichst täglicher Prozess! 1. Singe deine Lieblings-Saxofon-Melodien, greife sie im Kopf mit (spiele sie zuerst mit dem Instrument, zuerst mit Noten, dann ohne Noten) 2. Singe einfache Melodien aus deinen Saxofon-Noten - wenn notwendig zuerst mit Saxofon vorspielen (eine Zeile mehrmals wiederholt reicht) 3. Singe alle Dur- und Molltonleitern und greife sie mit 4. Singe alle Dreiklänge mit Umkehrungen, auch im Kreis 5. Singe vom Dreiklang nur die untere Terz 6. Singe vom Dreiklang nur die obere Terz immer wieder 7. Singe alle Vierklänge mit Umkehrungen, auch im Kreis 8. Singe vom Vierklang: Grundton und Quint 9. Singe vom Vierklang: Terz und Sept 10. Singe vom Vierklang: Grundton und Sept (sehr schwierig) 11. Übe 3-Tonreihen aus Melodien im Kreis: cdedcdefed 12. Übe 4-Tonreihein aus Skalen, Tonleitern im Kreis: cdefedcdefedc 13. Übe 5-Tonreihein aus Skalen, Tonleitern im Kreis: cdefgfedcdefgfe.. 14. Transponiere Licks durch alle 12 Tonarten 15. Singe alle Intervalle Von unten Nach Oben 16. Singe alle Intervalle von Oben nach Unten 17. Lerne die Bluesform, indem du die Grundtöne singst 18. Lerne die Bluesform, indem du Grundton, Terz und Sept eines jeden Akkordes singst (spiele vorher am Klavier, Saxofon und Singe sie nach) 19. Singe die Vierklänge der Bluesform 20. Lerne die Harmonieform von Liedern, Songs, Standards: pro Monat 1 - 3 Standards 21. Lerne die Melodie dieser Lieder, Songs, Standards 22. Singe die Grundtöne der Harmonieform 23. Singe die Dreiklänge der Harmonieform 24. Singe die Vierklänge der Harmonieform 25. Singe die Terz und Sept der Harmonieformakkorde 26. Singe Solos oder Teile von Solos auswendig 27. Singe Etüden ohne Instrument, greife mit den Fingern mit 28. Singe und Spiele im Kopf von Songs im Radio die Bassmelodie mit 29. Singe Von Radiosongs die Akkorde 30. Singe und spiele im Kopf die Melodie von Radiosongs Wenn dich diese Übungen im Detail interessieren, dann schreib mir, ich werde dir dann gratis kurze Lernvideos senden.

KLAPPE AUF!
KA18 - Mit der Mundstückübung zu einem besseren Ton - Teil 4

KLAPPE AUF!

Play Episode Listen Later Sep 20, 2019 22:40


Die Mundstückübung ist wahrscheinlich die effizienteste Methode, um schnellstmöglich den idealen Ansatz für einzelne Töne zu finden, aber wahrscheinlich auch die schwierigste! Ich habe die Übung von Christian Maurer (Musikhochschule Wien) und Dave Liebmann (New York) gezeigt bekommen. Vielen Dank an beide Saxofongroßmeister! Wichtiges Ziel: Wir versuchen, auf dem Mundstück bestimmte Töne zu spielen. Diese Töne gelingen nur, wenn wir den idealen Ansatz (Lippe, Zunge, Rachen, Hals) formen. Fehlstellungen werden nicht verziehen, denn der Ton würde nicht ansprechen. Was musst du dabei beachten: - Die Mundstückübung funktioniert am besten mit Mundstücken mit mittlerer oder enger Bahnöffnung. Offene Mundstücke sind sehr schwer zu spielen, da man hier einen enormen "Luftstrahl" durch das Mundstück jagen muss - Der intensive Luftstrom ist der entscheidende Faktor: Viele Schüler können am Beginn mit dem bloßen Mundstück keinen Ton spielen. Der Grund: zu geringer Luftstrom. - Daher Fokus auf intensive Zwerchfellatmung: Übe vor der Mundstückübung mindestens 5 intensive Atemzüge mit langen Pusten auf Ö (mindestens 3 Sekunden intensiv mit sehr spitzem Mund auspusten) - Spiele die Mundstückübungen tendenziell zunächst mit hoher Lautstärke! Im ersten Schritt musst du es zunächst schaffen, überhaupt einen Ton mit bloßem Mundstück zu spielen! - Forme dazu deinen Ansatz wie immer, als ob du mit Saxofon spielen würdest - Halte das Mundstück waagrecht in dem Winkel, als ob es auf einem Saxofon stecken würde! - Tonhöhenunterschiede ○ machst du nur mit der Veränderung der Luftintensität ○ Mit der Höhenposition der Zunge ○ NICHT mit der Lippenspannung - Die Lippenspannung bleibt unverändert. - Hast du die Zieltöne a-g-f erreicht, so spielst du ALLE Töne mit dieser Lippenspannung. Die Tonänderung erfolgt durch Luft und Zunge. - Wiederhole die Übung regelmäßig über mehrere Wochen, vor allem beim Beginn deiner Übungseinheiten - Beobachte und fühle die Unterschiede in der Luftintensität und der Zungenposition, welche du für deine Zieltöne brauchst. Folgende Referenztöne für Mundstückübungen - die Töne sind KLINGEND!!! Altsaxophon: A für Klassik, gegriffen ein FIS G für Jazz, gegriffen ein E Tenorsaxophon: G für Klassik, gegriffen ein A F für Jazz, gegriffen ein G Referenzton auf Saxofon oder Klavier spielen. Achtung das sind klingende Töne: Ein klingendes G bedeutet auf dem Altsaxofon gegriffen E , auf dem Tenorsaxofon gegriffen A 1. Übung: den gewünschten Referenzton auf dem Mundstück finden und spielen 2. Übung: Nachbartöne spielen: einen Ton tiefer, einen Ton höher (große und kleine Sekunden) 3. Übung: Pentatonik spielen: Referenzton als 3. Ton in Dur-Pentatonik 4. Übung: kleine Melodien spielen 5. Skalen, Dreiklänge und Tonleitern spielen 6. Übung: improvisiere mit kleinen Melodien Schreib mir, wenn du noch weitere Ideen hast, damit wir sie einfach der Community als Tipp weitergeben können! Die Shownotes zu dieser Episode findest du unter www.saxofonlernen.com/E18 Wenn du Lust hast, geh bitte auf i-tunes und hinterlasse eine Bewertung für den Podcast, Das hilft mir einfach, noch mehr Menschen mit dem Podcast zu erreichen. Wenn du Saxofon-Themen hast, die Dich interessieren, schreib mir: joe@saxofonlernen.com Und ich versuche, das Thema ins Programm aufzunehmen

Komponist?
Intervall Basis Kurs - Lesson 6 - Die Natur der Skalen

Komponist? "Kann man davon leben?"

Play Episode Listen Later Apr 1, 2019 47:11


Nun reden wir mal über die "Natur der Skalen". Erfahre in dieser Episode, warum das Formula 2 - 2 - 1 - 2 - 2 - 2 - 1 so wichtig ist und warum Frank mit Holzleim den Kühlschrank repariert! :) Wenn du gewisse Dinge outsourcen möchtest, schau dir einfach mal https://www.fiverr.com/ an! Falls ich euch weiterhelfen kann im Bereich Komposition, ihr frustriert seid mit euren musikalischen Ergebnissen, dann tretet einfach mit mir in Kontakt: https://musicintervaltheory.academy/contact/ Verschwende keine Zeit und melde dich an, damit du noch heute besser komponieren können wirst: https://musicintervaltheory.academy/ Erhalte Infos, freie Materialien und Updates rund um das Thema Intervall-Theorie, direkt von unserer Akademie: https://musicintervaltheory.academy/email/

Komponist?
Intervall Basis Kurs - Lesson 6 - Die Natur der Skalen

Komponist? "Kann man davon leben?"

Play Episode Listen Later Apr 1, 2019 47:11


Nun reden wir mal über die "Natur der Skalen". Erfahre in dieser Episode, warum das Formula 2 - 2 - 1 - 2 - 2 - 2 - 1 so wichtig ist und warum Frank mit Holzleim den Kühlschrank repariert! :) Zum Outsourcen: https://www.fiverr.com/ an! Hier die Seite meiner Akademie: https://musicintervaltheory.academy/ Erhalte Infos, freie Materialien und Updates rund um das Thema Intervall-Theorie, direkt von unserer Akademie: https://musicintervaltheory.academy/email/

Mandelbrot Talks
MBT029_Nacht der Wissens 2019

Mandelbrot Talks

Play Episode Listen Later Feb 1, 2019 60:36


Hier ist Folge 29 unserer Mandelbrot Talks! In dieser Folge präsentieren wir Euch unsere Diskussionsrunde vom 26. Januar 2019, die wir mit drei Gästen im Rahmen der Göttinger Nacht des Wissens geführt haben. Unser Oberthema waren dabei Biophysik und die Arbeit im Labor. Unsere Gäste waren: Jörg Enderlein: Professor Enderlein studierte an der Universität Odessa Physik und schloss an dieses Studium eine Promotion der Humboldt-Universität Berlin an. Nach Aufenthalten in Los Alamos, Regensburg, am Forschungzentrum Jülich und Tübingen ist er seit 2008 Professor am dritten physikalischen Institut an der Universität Göttingen. Er forscht mit seiner Gruppe an Einzelmolekül-Fluoreszenzmikroskopie und deren Bildgebung und an Protein Dynamik und der Faltung selbiger. In seiner Gruppe forschen Physiker, Biologen und Informatiker an Methodenverbesserung, in Zusammenarbeit mit dem Sonderforschungsbereich 937 und vielen weiteren auch internationalen Gruppen. Jan-David Nicolas: Jan-David studierte an der Universität Göttingen Physik und promovierte hier dann von 2015 bis 2018 am Institut für Röntgenphysik. Sein Thema war die Röntgenanalyse von biologischen Zellen und Gewebe durch Streuung, sowie kohärente Bildgebung auf verschiedenen Skalen. Nach der Promotion ist er in Göttingen geblieben und arbeitet weiter an diesen Themen. Michael Berger: Michael studierte an der Universität Bochum Physik und spezialisierte sich während seines Studiums auf dem Gebiet der Neuroinformatik. Anschließend promovierte er am Deutschen Primatenzentrum, DPZ, hier in Göttingen. Dabei untersucht er, wie das Gehirn Armbewegungen plant und ausführt. Nach seiner Promotion arbeitet er auch weiterhin am DPZ an diesem Thema. Mit diesen drei Gästen haben wir zunächst einzeln über ihre Forschung, bevor wir dann zu gemeinsamen Themen gekommen sind, darunter die Zeitskalen von Forschungsprojekten, die Bedeutung wissenschaftlicher Kooperationen, das Leben und die Karriereplanung im Wissenschaftsbetrieb sowie das Gelingen guter Wissenschaftskommunikation. Uns hat dieses etwas andere Format sehr viel Spaß gemacht, wir hoffen, euch gefällt diese Folge ebenfalls. Liebe Grüße, Jeanette und Christoph

Modellansatz
Rechenschieber

Modellansatz

Play Episode Listen Later Oct 25, 2018 114:38


Wie es kam, dass es kam, dass es so ist, wie es ist, mit dem Rechenschieber. Zu einer gemeinsamen Folge vom damalsTM-Podcast zur Technikgeschichte und dem Modellansatz zur Mathematik trafen sich Prof. Dr. Ralph Pollandt, Stephan Ajuvo und Sebastian Ritterbusch in der Hochschule für angewandte Wissenschaften in Karlsruhe zu diesem mathematisch-technischen Thema aus vergangenen Zeiten. Stephan Ajuvo hatte den Rechenschieber schon länger auf seiner Liste seiner Wunschthemen. Er konnte nach der hackover-Konferenz nach Karlsruhe kommen, wo am 4. Mai 2018 die 9. Lange Nacht der Mathematik stattgefunden hatte, die von Sebastian Ritterbusch moderiert wurde, und wo Ralph Pollandt den Rechenschieber in einem Publikumsvortrag vorgestellt hatte. Die lange Nacht der Mathematik wurde an der damaligen Fachhochschule Karlsruhe im Jahr 2000, dem Weltjahr der Mathematik, gestartet, und fand seither alle zwei Jahre mit sehr großem Besucherandrang statt. Vor Einzug der Taschenrechner, wie beispielsweise dem SchulRechner 1 oder SR1, waren Rechenschieber im Schulbetrieb allgegenwärtig. Es gab unter anderem Typen von Aristo oder von VEB Mantissa Dresden. Die Basis der grundsätzlichen Methode hinter dem Rechenschieber wurde mit dem Beginn der Nutzung von Logarithmentafeln (um 1600) gelegt. In der DDR wurden diese für Schulen vom Verlag Volk und Wissen gedruckt. Sie umfassten neben den Logarithmen auch eine Formelsammlung für Mathematik, Physik und Chemie. Auch die Bordwährung der c-base orientierte sich an der logarithmischen Skala. Ein Weg den Logarithmus einzuführen geht über die Exponentialfunktion, die viele Wachstumsprozesse in der Natur bis zur Sättigung beschreibt. Da diese Entwicklungen oft sehr schnell ansteigen, bietet es sich an, die Werte mit der Umkehrfunktion zu beschreiben, und das ist genau der Logarithmus: Exponentiell ansteigende Werte wie die 2-er Potenzen 1, 2, 4, 8, 16, 32, ..., werden nach Anwendung des Logarithmus Dualis zur Basis 2 linear zu 0, 1, 2, 3, 4, 5, ..., und damit deutlich einfacher zu begreifen. Auch in der Musik werden aus Frequenzen von Tönen nach Anwendung des Logarithmus Dualis ganzzahlig zu Oktaven und im nicht-ganzzahligen Rest zu den Tönen. Für die Nutzung mit Logarithmentafeln und dem Rechenschieber sind die Logarithmenregeln äusserst wichtig: In Logarithmentafeln ist sehr häufig der dekadische Logarithmus zur Basis 10 abgedruckt, da dies bei der Nutzung mit Zahlen im Dezimalsystem sehr hilfreich ist. Dabei wird typisch nur eine Dekade in der Tafel abgedeckt, da höhere Dekaden einfach ganzzahlige Differenzen im Wert darstellen. Da diese Betrachtung außerhalb der Tafeln stattfindet, müssen diese Größenordnungen während der Rechnung mitgeführt und am Ende dem Ergebnis abgerechnet werden. Da Rechenschieber wie gegenüber liegende Lineale sehr einfach addieren können, wird aus der Schieblehre bei Nutzung der Logarithmenregeln ein mächtiges Multiplikationsgerät. Das kann man sich am Selbstbau-Rechenschieber gut vor Augen führen: Der Rechenschieber besteht typischerweise aus einem bedruckten äußeren Körper, einer darin ebenfalls bedruckten beweglichen Zunge und einem oben aufliegenden bis auf Linien transparenten Läufer. Die aufgedruckten Skalen können zum einen einfache logarithmische Skalen für die Multiplikation und Division sein (hier die Skalen C und D über eine Dekade), oder auch ganz andere Funktionen beinhalten, wie für das Bauwesen die Festigkeit, dem Elastizitätsmodul, der Druckfestigkeit oder die Zinseszins-Rechnung. Oft waren wichtige Konstanten wie die Kreiszahl π oder die Lichtgeschwindigkeit c angenähert auf der Rückseite abgedruckt. Für die Bedruckung und Anwendung haben sich verschiedene Systeme etabliert, wie das System Darmstadt, das System Rietz oder Duplexstäbe, es gab aber auch nationale Unterschiede durch Traditionen, Notationen oder Hersteller. Das typische Tischformat hatte eine Länge von rund 30cm, es gab sie aber auch im Taschenformat oder in lebensgroßen 2 Metern, und entsprechendem Gewicht. Ein sehr verbreiteter Rechenschieber in Kreisform ist der Benzin-Rechner: Ein weiterer interessanter Aspekt ist, dass Rechenschieber auch irrationale Konstanten wie die Euler'sche Zahl e, die Kreiszahl π oder einfach Werte der Wurzelfunktion scheinbar exakt auf den analogen Skalen abbilden konnten, und damit einen Analogrechner darstellen. Das Rechnen mit dem Rechenschieber stammt von den Logarithmentafeln ab. Will man die Zahlen 2 und 3 multiplizieren, so kann man die Logarithmen der Zahlen 2 und 3 nachschlagen, das sind bei dem dekadischen Logarithmus auf 3 Stellen die Zahlen 0,3010 und 0,4771. Diese Zahlen werden nun addiert zu 0,7781 und nach umgekehrter Suche findet man als Ergebnis die Zahl, die diesem Logarithmus zugeordnet ist, die Zahl 6. Der Rechenschieber nimmt einem nun das Nachschlagen und Addieren ab, in dem die Skalen C und D logarithmisch aufgetragen sind und die Addition durch das Verschieben der Zunge erfolgt. Die gleiche Rechnung kann man auch mit den Skalen A und B durchführen, die gleich zwei Dekaden von 1-100 abdecken, wenn sie auf dem Schieber zur Verfügung stehen. Rechnet man kombiniert zwischen A und C oder B und D, so kann man gleichzeitig Wurzelziehen oder Quadrieren, muss aber den Läufer verwenden, um die Skalen genau ausrichten zu können. Die Erfindung des Läufers wird Sir Isaac Newton zugeschrieben. Die verschiedenen Skalen ermöglichen die Abbildung fast beliebiger Funktionen, auf fast allen Rechenschieber sind beispielsweise die trigonometrischen Funktionen enthalten, jedoch nur auf eingeschränkten Skalen. Hier muss man entweder die Symmetrieeigenschaften der jeweiligen Funktionen kennen, oder für tiefe Werte besondere Techniken oder Approximationen wie Taylorreihenentwicklungen kennen. Eine Nutzung des Rechenschiebers setzt auch immer die Fähigkeit zur Überschlagsrechnung voraus, bei der man vorab eine Abschätzung zum erwarteten Ergebnis bestimmt. Das bietet einen gewissen Schutz vor Fehlbedienungen, ist aber auch bei der Verwendung von Computern sinnvoll, da es immer wieder zu Fehlern in der Hardware kam, wie beispielsweise beim Pentium-FDIV-Bug, wo Rechnungen schlicht falsch ausgeführt wurden. Nicht nur vermeintlich korrekte Rechenergebnisse können zu Irrtum führen, auch ein blindes Verlassen auf Signifikanztests ist ebenso nicht zielführend, in dem Artikel Why Most Published Research Findings Are False schreibt John P. A. Ioannidis, wieso man sogar beweisen kann, dass inzwischen die meissten solcher Arbeiten auf begrenzten Arbeitsgebieten falsch sein müssen, da sie ihre Abhängigkeit von früheren Arbeiten nicht berücksichtigen. Einen Einblick in die Komplexität der Abschätzung des Treibstoffsverbrauchs bei Flugrouten bekommt man bei Folge 262 und Folge 263 im OmegaTau-Podcast beim Flug nach Hong Kong und zurück. Auch in Folge 291 zum Buschfliegen wird das Thema der Flugplanung berührt. Lange waren runde Rechenschieber zur Berechnung des Treibstoff-Verbrauchs im Flugzeug im Einsatz. Bei der langen Nacht der Mathematik gab es auch eine Ausstellung von Rechenmaschinen, die durch ihre mechanische Bauweise einen sonst verborgenen Einblick in die Rechentechnik liefern. Der angesprochene MegaProzessor zur Visualisierung der Rechentechnik aktueller Prozessoren wurde in FreakShow 222 besprochen und wird im Video zum MegaProzessor vorgestellt. Es gibt regelmäßige Treffen der deutschsprachigen Rechenschieberfreunde, die Rechenschieber-Sammler-Treffen (RST), zuletzt nach Publikation dieser Folge am 20. Oktober 2018 in Bruchsal. Eine interessanter Rechentrick ist die Berechnung von Additionen mit Hilfe von Division und Multiplikation auf dem Rechenschieber. Hier wird der Zusammenhang genutzt. Zur Addition wird damit der Quotient von x und y berechnet, um 1 addiert und wieder mit y multipliziert. Beim Rechnen mit dem logarithmischen Rechenschieber ist eher der relative gegenüber dem absoluten Fehler im Fokus. Genau das gilt auch für die Rechnung in Fließkommazahlen im Computer, wo das logarithmische Rechenstab-Prinzip durch den Exponentialteil zum Teil ebenfalls zu Anwendung kommt. Neben dem dekadischen Logarithmus zur Basis 10, der bei Logarithmentafeln und Rechenschieber zum Einsatz kommt, oder dem Logarithmus Dualis zur Basis 2 aus der Musik oder im Computer, gibt es auch einen natürlichen Logarithmus. Was bedeutet hier natürlich? Der natürliche Logarithmus ist die Umkehrfunktion der Exponentialfunktion, der Potenzfunktion zur Basis e. Diese Funktion hat die Eigenschaft, dass sie als einzige Funktion unter Differenziation, also z.B. der Berechnung von Geschwindigkeit aus Positionen, und Integration, also z.B. der Berechnung von Positionen aus Geschwindigkeiten, unverändert bleibt. Dies kann man sich auch an der Potenzreihenentwicklung der Exponentialfunktion veranschaulichen: Dann ist die Ableitung: Dadurch ist hat die Exponentialfunktion eine große Bedeutung für Modelle und Differenzialgleichungen. Darüber hinaus ist die Exponentialfunktion auch mit den trigonometrischen Funktionen in den komplexen Zahlen direkt miteinander verknüpft: Entsprechend beinhaltet auch der natürliche Logarithmus den Zusammenhang mit Analysis, Numerik und Trigonometrie und kann auf den komplexen Zahlen auch als ewige Spirale dargestellt werden. CC BY-SA 3.0: Leonid 2 In der Kryptographie spielen diskrete Logarithmen eine besondere Rolle, da Potenzfunktionen Kern des RSA-Verfahrens und der elliptischen Kryptographie sind: Im RSA-Verfahren werden Nachrichten auf endlichen Ringen mit einem Schlüssel potenziert, meisst 65537 beim öffentlichen Schlüssel, in der elliptischen Kryptographie wird die Nachricht abschnittsweise in den Exponenten geschrieben und auf einer speziellen elliptischen Kurve berechnet. Auch wenn es zum aktuellen Zeitpunkt noch keine grundsätzliche Lücken in den beiden Verfahren gibt, so ist es wichtig, diese auch korrekt umzusetzen. Ein berüchtigtes Beispiel ist die Perfect Forward Secrecy, die durch fahrlässige Implementationen zur LogJam-Attack führte. Ralph Pollandt hatte in der Polytechnischen Oberschule (POS) in den Klassenstufen 1-8 noch keine Vertiefung in die Mathematik vor Augen. Seine Faszination für Mathematik entstand aus Interesse an Knobelaufgaben in der Erweiterten Oberstufe (EOS) in den Klassen 9-12, wo er die Hochschulreife erlangte, und neben den Optionen zu Naturwissenschaften oder dem Lehramt, sich für das Studium und Promotion in der Mathematik entschied. Nach mehrjähriger ingenieurstechnischer Tätigkeit im Bauwesen, erlangte ihn der Ruf zur Mathematik-Professur an der Hochschule für angewandte Wissenschaften in Karlsruhe, wo er nun reich mit der Erfahrung aus der Anwendung zur Mathematik im Bauingenieurwesen lehrt. Literatur und weiterführende Informationen R. Pollandt: Bastelanleitung Rechenschieber R. Pollandt: Bedienungsanleitung zum Rechenschieber Seite der deutschsprachigen Rechenschieber-Sammler Rechenschieber im Rechnerlexikon, der Enzyklopädie des mechanischen Rechnens Podcasts K. Landzettel, T. Pritlove: Old School Computing, CRE: Technik, Kultur, Gesellschaft, Episode 193, Metaebene Personal Media, 2012. B. Ullmann, M. Völker: Analog Computers, Omega Tau Podcast, Episode 159, Nora Ludewig und Markus Völker, 2014. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, damalsTM Podcast, Episode 58, 2018. J. Müller, S. Ajuvo: Büromaschinen damals, damalsTM Podcast, Episode 50, 2017. K. Leinweber, S. Ajuvo: Taschenrechner, damalsTM Podcast, Episode 37, 2017.

video er hong kong prof thema computers dabei dar rolle promotion zeiten musik integration bei wissen fokus hilfe gesellschaft beispiel einblick suche schl bedeutung erfahrung analysis augen basis fehler kultur lange natur neben beginn nacht genau wert einsatz interesse liste hardware arbeiten unterschiede nachrichten zeitpunkt zusammenhang werte entwicklungen zahlen nachricht studium stellen ergebnis oft methode treffen schutz addition ruf zahl funktion schulen literatur ddr nutzung abh techniken anwendung aspekt fehlern systeme typen funktionen gewicht positionen verfahren flugzeug traditionen modelle rechnung flug ringen konferenz optionen geschwindigkeit hochschule verwendung hersteller betrachtung karlsruhe komplexit ausstellung chemie klassen verlassen physik zunge eigenschaft mathematik freakshow cc by sa flie kurve skala entsprechend visualisierung tafel spirale irrtum rechnungen metern linien quotient ein weg dekade wissenschaften berechnung differenzen die basis sir isaac newton john p computern frequenzen leonid vertiefung publikation tafeln die erfindung lehramt rechnet verschieben ullmann dekaden absch abbildung geschwindigkeiten enzyklop taschenrechner bauweise einen einblick konstanten bauwesen aristo festigkeit prozessoren lange nacht schulbetrieb multiplikation diese zahlen schieber kryptographie elastizit bruchsal skalen technikgeschichte wunschthemen diese funktion markus v bauingenieurwesen rechenschieber oktaven wachstumsprozesse nachschlagen sr1 flugrouten klassenstufen exponenten hochschulreife addieren numerik additionen potenzen rechenmaschinen ajuvo logarithmus dezimalsystem perfect forward secrecy omega tau podcast trigonometrie sebastian ritterbusch das rechnen analogrechner nora ludewig metaebene personal media rechentechnik modellansatz
Max’ Guitar Hangout - Der Podcast mit Gitarren-Tipps, die dich wirklich weiterbringen

055: Heute mit der letzten Folge vor der Sommerpause und mit einem ganz spannenden Thema: Wie kann man Improvisation so üben, dass man sich stetig verbessert, alle Skalen und Tricks so einsetzt, dass man einfach tolle Musik macht? Wie stoppt man das Genudel und macht die eigene Stimme hörbar?Darüber reden wir in der heutigen Episode, viel Spaß dabei! 

Spätfilm
SF158 – Der faule Diskurs des solipsistischen Ichs, das sich trivial überzeugen lässt (feat. Jan)

Spätfilm

Play Episode Listen Later Mar 17, 2018 130:35


Aus einer Twitter-Diskussion zwischen Jan und Daniel über die Frage, ob Filmkritik subjektiv ist oder objektiv, entstand diese Folge. In über zwei Stunden geht es um Road House, die Intention des Künstlers, Symbolsysteme, Expertenargument, Skalen, richtige und falsche Interpretationen, Regelbrüche, den faulen Diskus, ums Rechthaben und nicht zuletzt Philosophie. Da machen wa ne eigene Folge draus!

Brain Your Ear - Gehörbildung für Musiker
Brain Your Ear - Folge 1

Brain Your Ear - Gehörbildung für Musiker

Play Episode Listen Later Feb 16, 2018 15:55


Brain Your Ear ist ein Podcast zur Gehörbildung für Musiker. Ziel ist: Intervalle, Akkorde und Skalen beim Hören zu erkennen und und zu identifizieren. Wir arbeiten uns Schritt für Schritt vor und beginnen mit Intervallen. Mit jeder Folge kommen neue Intervalle dazu. Später werden wir dann Dreiklänge, Tonleitern usw. dazu nehmen.

Modellansatz
Kinetische Theorie

Modellansatz

Play Episode Listen Later Dec 21, 2017 25:52


Gudrun wollte sich mit unserem neuen Kollegen über sein hauptsächliches Forschungsthema, die kinetische Theorie unterhalten. Diese Denkweise wurde zur Modellierung von Gasen entwickelt und ist inspiriert von physikalischen Vorstellungen, die kinetische Energie als inhärente Eigenschaft von Materie ansieht. Die kinetische Gastheorie schaut auf die mikroskopische Ebene, um schließlich makroskopische Größen wie Wärme und Temperatur besser zu erklären. Im sogenannten idealen Gas bewegen sich unfassbar viele kleine Massepunkte entsprechend der Newtonschen Mechanik frei, ungeordnet und zufällig im Raum, stoßen dabei ab und zu zusammen und wir empfinden und messen den Grad der Bewegungsaktivität der Teilchen als Wärme. Die Einheit, die man dieser Größe zunächst zuwies war Kalorie von lat. Calor=Wärme. Heute ist die richtige SI-Einheit für Energie (und damit auch Wärme) das Joule. Die messbare Größe Temperatur ist damit vereinfacht ausgedrückt die mechanische Engergie im Gassystem und das Modell liefert eine kinetische Theorie der Wärme. Man kann es aber auch als Vielteilchensystem von mikroskopischen Teilchen ansehen aus denen sich in klar definierten (unterschiedlichen) Grenzwertprozessen makroskopische Größen und deren Verhalten ableiten lassen. Die Untersuchung dieser Grenzwerte ist eine mathematisch sehr anspruchsvolle Aufgabe und bis heute ein offenes Forschungsfeld, in dem nur Stück für Stück spezielle Fragen beantwortet werden. Eine Schwierigkeit ist dabei nämlich, dass automatisch immer sehr unterschiedliche Skalen nebeneinander existieren und in ihrer Interaktion richtig gefaßt und verstanden werden müssen. Außerdem ist in der Regel jeder Grenzwert, für den sich interessante Forschungsergebnisse ergeben, innerhalb der Theorie eine Singularität. Schon Hilbert hatte 1900 die axiomatische Fassung der Physik zwischen Mechanik und Wahrscheinlichkeitsrechnung als eines der wichtigen mathematischen Probleme für das 20. Jahrhundert dargestellt. Wir sind seitdem vorangekommen, aber es bleibt noch sehr viel zu tun. Zum Beispiel ist die mögliche Korreliertheit zwischen den Teilchenbewegungen für Gase eine offene Frage (außer für kurze Zeiten). Ein Vorteil gegenüber der Zeit Hilberts ist heute, dass wir inzwischen auch den Computer benutzen können, um Modelle zu entwickeln und zu analysieren. Dafür muss man natürlich geeignete numerische Methoden entwickeln. In der Arbeit von Martin Frank sind es in der Regel Integro-Differentialgleichungen mit hyperbolischer partieller Differentialgleichung für die Modellierung von Bewegungen ohne Dämpfung. Diese haben schon durch die Formulierung viele Dimensionen, nämlich jeweils 3 Orts- und 3 Geschwindigkeitskomponenten an jedem Ort des Rechengebietes. Deshalb sind diese Simulationen nur auf großen Parallelrechnern umsetzbar und nutzen High Performance Computing (HPC). Hieraus erklärt sich auch die Doppelrolle von Martin Frank in der Verantwortung für die Weiterentwicklung der HPC-Gruppe am Rechenzentrum des KIT und der Anwendung von Mathematik auf Probleme, die sich nur mit Hilfe von HPC behandeln lassen. Sehr interessant ist in dieser Theorie die gegenseitige Beeinflussung von Numerik und Analysis in der Behandlung kleiner Parameter. Außerdem gibt es Anknüpfungspunkte zur Lattice Boltzmann Research Group die am KIT das Software-Paket OpenLB entwickeln und anwenden. Auch wenn sich geschichtlich gesehen die kinetische Theorie vor allem als Gastheorie etabliert hat, ist die Modellierung nicht nur in Anwendung auf Gase sinnvoll. Beispielsweise lassen sich Finanzmärkte aus sehr vielen unabhängig handelnden Agenten zusammensetzen. Das Ergebnis der Handlungen der Agenten ist der Aktienpreis - sozusagen die Temperatur des Aktienmarktes. Es lassen sich dann aufgrund dieses Modells Eigenschaften untersuchen wie: Warum gibt es so viele Reiche? Außerdem geht es auch darum, die richtigen Modellannahmen für neue Anwendungen zu finden. Zum Beispiel ist ein Resultat der klassischen Gastheorie das Beer-Lambertsche Gesetz. Es besagt, dass Photonen durch Wolken exponentiell abgeschwächen werden. Messungen zeigen aber, dass dies bei unseren Wolken gar nicht gilt. Wieso? Dafür muss man schon sehr genau hinschauen. Zunächst heißt das wohl: Die zugrunde liegende Boltzmann-Gleichung ist für Wolken eine zu starke Vereinfachung. Konkret ist es die Annahme, dass man sich die Wolken als homogenes Medium vorstellt wahrscheinlich nicht zutreffend, d.h. die Streuzentren (das sind die Wassertropfen) sind nicht homogen verteilt. Um ein besseres Modell als die Boltzmann-Gleichung herzuleiten müsste man nun natürlich wissen: Welche Art der Inhomogenität liegt vor? Martin Frank hat Mathematik und Physik an der TU Darmstadt studiert, weil er schon in der Schulzeit großes Interesse an theoretischer Physik hatte. Im Studium hat er sich schließlich auf Angewandte Analysis spezialisiert und darin auch nach dem Diplom in Mathematik an der TU Darmstadt weiter gearbeitet. In dieser Zeit hat er auch das Diplom in Physik abgeschlossen. In der Promotion an der TU Kaiserslautern wurde es aber die numerische Mathematik, der er sich hauptsächlich zuwandte. In der eigenen universitären Lehre - aber auch in speziellen Angeboten für Schülerinnen und Schüler - pendelt er zwischen Projekt- und Theorie-zentriertem Lehren und Lernen. Literatur und weiterführende Informationen M. Frank, C. Roeckerath: Gemeinsam mit Profis reale Probleme lösen, Mathematik Lehren 174, 2012. M. Frank, M. Hattebuhr, C. Roeckerath: Augmenting Mathematics Courses by Project-Based Learning, Proceedings of 2015 International Conference on Interactive Collaborative Learning, 2015. Simulating Heavy Ion Beams Numerically using Minimum Entropy Reconstructions - SHINE M. Frank, W. Sun:Fractional Diffusion Limits of Non-Classical Transport Equations P. Otte, M. Frank: Derivation and analysis of Lattice Boltzmann schemes for the linearized Euler equations, Comput. Math. Appl. Volume 72, 311–327, 2016. M. Frank e.a.: The Non-Classical Boltzmann Equation, and Diffusion-Based approximations to the Boltzmann Equation, SIAM J. Appl. Math. 75, 1329–1345, 2015. M. Frank, T. Goudon: On a generalized Boltzmann equation for non-classical particle transport, Kinet. Relat. Models 3, 395-407, 2010. M. Frank: Approximate models for radiative transfer, Bull. Inst. Math. Acad. Sinica (New Series) 2, 409-432, 2007.

Modellansatz
Lokale Turbulenzen

Modellansatz

Play Episode Listen Later Sep 27, 2017 84:56


Nikki Vercauteren erforscht an der Freien Universität Berlin die mehrskalige Analyse von atmosphärischen Prozessen und traf sich mit Sebastian Ritterbusch in der Urania Berlin, um über ihre Forschung und ihre Experimente auf Gletschern zu sprechen. Zum Zeitpunkt der Aufnahme fand in der Urania das Banff Mountain Film Festival, des Banff Centre for Arts and Creativity aus Kanada, statt. Auf dem Campus des Banff Centre befindet sich auch die Banff International Research Station (BIRS), ein Forschungsinstitut und Tagungsort nach Vorbild des Mathematischen Forschungsinstituts Oberwolfach, das sich der mathematischen Forschung und internationalen Zusammenarbeit verschrieben hat, und welches Nikki Vercauteren Anfang des Jahres zu einem Workshop besuchen konnte. Das Forschungsgebiet der Meteorologie umfasst viele Phänomene, von denen einige durch Fluiddynamik beschrieben werden können. Dabei geht es um eine große Menge von Skalen, von der globalen Perspektive, über kontinentale Skalen zur Mesoskala im Wetterbericht und der Mikroskala zu lokalen Phänomenen. Die Skalen bilden sich auch in den Berechnungsmodellen für die Wettervorhersage wieder. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) betrachtet die globale Perspektive mit Hilfe von Ensemblevorhersagen. Von dort verfeinert das aus dem lokalen Modell des Deutschen Wetterdienstes (DWD) entstandene COSMO Modell die Vorhersage auf die europäische und schließlich nationale Ebenen. Hier geht es um die sehr lokale Analyse von Windgeschwindigkeiten, die bis zu 20mal pro Sekunde gemessen werden und damit die Analyse von lokalen Turbulenzen bis zum natürlichem Infraschall ermöglichen. Die Erfassung erfolgt mit Ultraschallanemometer bzw. ultrasonic anemometers, wo bei manchen Typen durch die Erfassung des Doppler-Effekts bewegter Staubteilchen die Bewegungsgeschwindigkeit der Luft durch mehrere Sensoren räumlich bestimmt wird. Teilweise werden auch Laser-Anemometer eingesetzt. Im Rahmen ihrer Promotion in Umweltwissenschaften an der École Polytechnique Fédérale de Lausanne (EPFL) bekam Sie die Gelegenheit selbst vor Ort eine Messanlage auf einem Gletscher mit aufzubauen und in Stand zu halten. Der See- und Landwind sind typische Phänomene in der mikroskaligen Meteorologie, die Nikki Vercauteren zu ihrer Promotion am Genfersee zur Analyse von turbulenten Strömungen von Wasserdampf untersucht hat. Mit mehreren Laser-Doppler-Anemometern in einer Gitter-Aufstellung konnte sie so die Parametrisierung einer Large Eddy Simulation dadurch testen, in dem sie die im Modell angesetzte Energie in den kleinen Skalen mit den tatsächlichen Messungen vergleichen konnte. Kernpunkt der Betrachtung ist dabei das Problem des Turbulenzmodells: Als Verwirbelung in allen Skalen mit teilweise chaotischem Verhalten ist sie nicht vorhersagbar und kaum vollständig mathematisch beschreibbar. Sie spielt aber wegen der wichtigen Eigenschaften der Vermischung und Energietransfers eine elementare Rolle im Gesamtsystem. Glücklicherweise haben Turbulenzen beobachtete statistische und gemittelte Eigenschaften, die modelliert und damit im gewissen Rahmen und diesem Sinne mit Hilfe verschiedener Modelle durch identifizierte Parameter simuliert werden können. Besonderes Augenmerk liegt dabei auf der Betrachtung der Grenzschicht über dem Erdboden, die zum einen durch die Sonneneinstrahlung besonders durch die Aufwärmung und Abkühlung der Erdoberfläche beinflusst wird und gleichzeitig den Bereich beschreibt, wo das bewegte Fluid Luft auf die stehenden Erde reagiert. Eine meteorologische Eigenschaft der unteren Grenzschicht ist das theoretische logarithmische Windprofil, das aber bei Sonneneinstrahlung oder Nachts durch Verformung der Turbulenzen Korrekturterme erforderlich macht. In einer Temperaturinversion wird die Grenzschicht stabiler und es bildet sich weniger Turbulenz aus, wodurch sich Schadstoffe auch weniger verteilen können. In diesen Wetterlagen kann sich durch den fehlenden Luftaustausch im Stadtgebiet leichter Smog bilden. Entgegen der Theorie kann es interessanterweise trotz stabiler Schichtung zu Turbulenzen kommen: Ein Grund dafür sind Erhebungen und Senken des Bodens, die Luftpakete beeinflussen und damit lokale Turbulenzen erzeugen können. Eine besondere Fragestellung ist hier die Frage nach der Intermittenz, wann ein stabiles dynamisches System chaotisch werden kann und umgekehrt. Ein anschauliches Beispiel von Intermittenz ist das Doppelpendel, das von einem sehr stabilen Verhalten plötzlich in chaotisches Verhalten umschwenken kann und umgekehrt: Trajektorie eines DoppelpendelsCC-BY-SA 100 Miezekatzen Leider ist bisher die Intermittenz in der Wettervorhersage nicht alleine aus der Theorie zu berechnen, jedoch kann man die Richardson-Zahl bestimmen, die den Temperaturgradienten in Verhältnis zur Windscherung stellt. Dieses Verhältnis kann man auch als Verhältnis der Energieverteilung zwischen kinetischer Bewegungsenergie und potentieller Wärmeenergie sehen und daraus Schlüsse auf die zu erwartende Turbulenz ziehen. Als ein dynamisches System sollten wir ähnlich wie beim Räuber-Beute Modell eine gegenseitige Beeinflussung der Parameter erkennen. Es sollte hier aus der Theorie auch eine kritische Zahl geben, ab der Intermittenz zu erwarten ist, doch die Messungen zeigen ein anderes Ergebnis: Gerade nachts bei wenig Turbulenz entstehen Zustände, die bisher nicht aus der Theorie zu erwarten sind. Das ist ein Problem für die nächtliche Wettervorhersage. In allgemeinen Strömungssimulationen sind es oft gerade die laminaren Strömungen, die besonders gut simulierbar und vorhersagbar sind. In der Wettervorhersage sind jedoch genau diese Strömungen ein Problem, da die Annahmen von Turbulenzmodellen nicht mehr stimmen, und beispielsweise die Theorie für das logarithmische Windprofil nicht mehr erfüllt ist. Diese Erkenntnisse führen auf einen neuen Ansatz, wie kleinskalige Phänomene in der Wettervorhersage berücksichtigt werden können: Die zentrale Frage, wie die in früheren Modellen fehlende Dissipation hinzugefügt werden kann, wird abhängig von der beobachteten Intermittenz mit einem statistischen Modell als stochastischen Prozess beantwortet. Dieser Ansatz erscheint besonders erfolgsversprechend, wenn man einen (nur) statistischen Zusammenhang zwischen der Intermittenz und der erforderlichen Dissipation aus den Beobachtungen nachweisen kann. Tatsächlich konnte durch statistisches Clustering und Wavelet-Analyse erstmalig nachgewiesen werden, dass im bisher gut verstanden geglaubten so genannten stark stabilen Regime es mehrere Zustände geben kann, die sich unterschiedlich verhalten. Für die Entwicklung der Wavelet-Transformation erhielt Yves Meyer den 2017 den Abelpreis. Im Gegensatz zur Fourier-Transformation berücksichtig die Wavelet-Transformation z.B. mit dem Haar-Wavelet die von der Frequenz abhängige zeitliche Auflösung von Ereignissen. So können Ereignisse mit hohen Frequenzen zeitlich viel genauer aufgelöst werden als Ereignisse mit tiefen Frequenzen. Das von Illia Horenko vorgeschlagene FEM-BV-VARX Verfahren kann nun mit den Erkenntnissen angewendet werden, in dem die verschiedenen Regimes als stochastische Modelle berücksichtigt und durch beobachtete bzw. simulierte externe Einflüsse gesteuert werden können. Darüber hinaus konnten weitere interessante Zusammenhänge durch die Analyse festgestellt werden: So scheinen im stabilen Regime langsame Wellenphänomene über mehrere Skalen hinweg getrennt zeitliche schnelle und lokale Turbulenzen auszulösen. Andere Phänomene verlaufen mit stärkeren Übergängen zwischen den Skalen. Aus der Mathematik ist Nikki Vercauteren über die Anwendungen in der Physik, Meteorologie und Geographie nun wieder zurück in ein mathematisches Institut zurückgekehrt, um die mathematischen Verfahren weiter zu entwickeln. Literatur und weiterführende Informationen N. Vercauteren, L. Mahrt, R. Klein: Investigation of interactions between scales of motion in the stable boundary layer, Quarterly Journal of the Royal Meteorological Society 142.699: 2424-2433, 2016. I. Horenko: On the identification of nonstationary factor models and their application to atmospheric data analysis, Journal of the Atmospheric Sciences 67.5: 1559-1574, 2010. L. Mahrt: Turbulence and Local Circulations Cesar Observatory, Cabauw site for meteorological research. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. I. Waltschläger: Windsimulationen im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruhe Institut für Technologie (KIT), 2014. L. Wege: Schwebestaub und Wassertröpfchen. Wie Wolken Wetter machen. Folge 5 im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, 2017. M. Wendisch: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. R. Heise, K. Ohlmann, J. Hacker: Das Mountain Wave Project, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 042, 2010. B. Marzeion: Gletscher, Podcast Zeit für Wissenschaft von Melanie Bartos, Universität Innsbruck, 2015. B. Weinzierl: Die Atmosphäre, Raumzeit Podcast von Tim Pritlove, Metaebene Personal Media, 2011.

stand system mit arts creativity berlin journal als dabei dar rolle workshop promotion campus entwicklung hilfe energie beispiel ort schl universit bereich analyse rahmen verh prozess sinne perspektive luft zusammenarbeit menge zusammenhang verhalten erde aufnahme wissenschaft technologie ereignisse str tats gelegenheit institut forschung ansatz regime vorbild zahl theorie modell eigenschaften kanada zentrum literatur ebenen zusammenh aufl typen einfl erkenntnissen verfahren ereignissen modelle zust abk betrachtung sekunde experimente prozessen physik beobachtungen anwendungen innsbruck eigenschaft mathematik im gegensatz nachts smog modellen aufw ein grund regimes frequenz parameter lokale teilweise annahmen turbulenzen entgegen fragestellung fakult atmospheric science sensoren vorhersage beeinflussung gletscher frequenzen senken heise erfassung schadstoffe zum zeitpunkt messungen erdboden clustering freien universit geographie banff centre wetterbericht meteorologie urania wettervorhersage quarterly journal forschungsinstitut bodens besonderes augenmerk erdoberfl stadtgebiet erhebungen vermischung das europ karlsruher institut dieser ansatz gletschern der see diese erkenntnisse podcast zeit sonneneinstrahlung dissipation genfer see lausanne epfl tim pritlove wasserdampf wassertr wetterlagen technologie kit skalen kernpunkt polytechnique f gesamtsystem infraschall banff mountain film festival royal meteorological society karlsruher instituts energieverteilung turbulenz tagungsort verformung die erfassung schichtung bewegungsenergie parametrisierung staubteilchen luftaustausch markus voelter das forschungsgebiet sebastian ritterbusch windscherung grenzschicht modellansatz podcast nora ludewig metaebene personal media
Max’ Guitar Hangout - Der Podcast mit Gitarren-Tipps, die dich wirklich weiterbringen

027: Hast du dich schon oft gefragt, was das Geheimnis dafür ist, dass manche Musiker toll mit anderen Musikern spielen? Warum manche wie von Zauberhand geführt auf die Musik eingehen können, diese weiterentwickeln und in ihren Soli wirklich mit der Band und dem Publikum interagieren können? Dann bist du hier richtig: Denn heute dreht sich alles um die geheime Technik, die Theorie, Skalen und Soli erst zu Musik werden lässt. Es ist nicht die unheimliche Menge an Material, die man lernt. Sondern die Fähigkeit, dieses in einem für die Musik notwendigen Sinn anwenden zu können. Wir reden heute also über dein Gehör und vor allem, wie du es trainieren kannst. Viel Spaß dabei! Hier findest du das PDF mit deiner ersten Ear Training-Übung:https://www.maxfranklacademy.com/blog/027

Musikwerkstatt Rimbach Podcast
011) Gehörbildung

Musikwerkstatt Rimbach Podcast

Play Episode Listen Later Feb 12, 2017 46:18


Es geht um das akustische Erkennen von Grundtönen, Intervallen, Akkorden und Skalen. Man spielt immer nur so gut, wie man auch hören kann. Wir sprechen über Ideen und Trainingskonzepte zur Schulung des Gehörs.

Countdown Podcast
CD036 Der Nerdfaktor sprengt alle Skalen

Countdown Podcast

Play Episode Listen Later Aug 27, 2016 153:40


In einer neuen Folge des Countdown Podcast haben wir Probleme bei den Themen zu bleiben und driften ob in andere Gefilde ab. Aber dadurch ist eine sehr interessante Folge entstanden, bei der ihr viele lernen könnt. Und hoffentlich ist es nicht zu verwirrend, wie wir durch die Themen springen. Viel Spaß beim hören!

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05
Anisotropic galaxy clustering measurements in Fourier space and cosmological implications from the BOSS DR12 sample

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05

Play Episode Listen Later Apr 5, 2016


Moderne Rotverschiebungs-Galaxiendurchmusterungen können mittels Mehrfach-Faser-Spektroskopie große Bereiche des Himmels abdecken. Dank der immer größer werdenden Datensätze hat sich die Analyse der großskaligen Galaxienverteilung im Universum zu einer unschätzbaren Wissensquelle für die Kosmologie entwickelt. Zusammen mit den Beobachtungen des kosmischen Mikrowellenhintergrunds (MWH) und Entfernungsbestimmungen anhand von großen Typ-Ia-Supernova-Datensätzen (SN) bilden die Galaxiendurchmusterungen ausschlaggebende Indikatoren für die Korrektheit der Paradigmen des kosmologischen Weltbilds, des ΛCDM-Modells. Die Auswertung der Galaxienverteilung erlaubt mit Hilfe des Standardlineals, das durch die Baryonisch-akustischen Oszillationen gegeben ist, Entfernungsmessungen von ungesehener Präzision. Dies gewährt Einblick in die zugrundeliegende physikalische Natur der Dunklen Energie (DE), welche für die Beschleunigung der Ausdehung unseres Universums verantwortlich gemacht wird, indem die zeitliche Entwicklung der DE-Zustandsgleichung einge- schränkt werden kann. Zudem kann aus dem Signal der Verzerrungen im Rotverschiebungsraum die Wachstumsrate von kosmologischer Struktur bestimmt werden. Dies stellt einen Test der Relativitätstheorie dar, weil mögliche erweiterte Gravitationstheorien abweichende Wachstumsraten vorhersagen können. Die abgeschlossenen Rotverschiebungsmessungen des ‘Baryon Acoustic Oscillation Survey’-Programms (kurz BOSS) brachten einen Galaxienkatalog hervor, der ein bisher unerreichtes Volumen abdeckt. In dieser Dissertation wird die kosmologische Information, die im räumlichen Leistungsdichtespektrum (LDS) der Rotverschiebungsraum-Galaxienverteilung des BOSS-Katalogs enthalten ist, genutzt, um den Parameterraum des ΛCDM-Modells und der wichtigsten möglichen Erweiterungen einzuschränken. Vorherige Analysen des anisotropen Galaxien-LDS waren auf die Messung der Multipolzerlegung beschränkt. Für die hier präsentierte Analyse wurde das Konzept der sogenannten ‘Clustering Wedges’ auf den Fourierraum übertragen, um einen komplementären Ansatz zur Vermessung des anisotropen LDS zu verfolgen. Dazu wird der varianzoptimierte Schätzer für LDS-Wedges definiert und an die Galaxiengewichtung, die unvermeidbare Beobachtungsfehler im BOSS-Katalog behebt, angepasst. Zudem wird auch der Formalismus zur Beschreibung der Fensterfunktion auf die Wedges erweitert. Das verwendete Modell für das anistrope Galaxien-LDS ist auf neuartigen Ansätzen zur Modellierung der nichtlinearen Gravitationsdynamik und der Verzerrungen im Rotverschiebungsraum aufgebaut, welche die Genauigkeit der Modellvorhersagen speziell im Übergang in den nichtlinearen Bereich signifikant verbessern. Daher kann das LDS bis zu kleineren Skalen als in vorherigen Analysen ausgewertet werden, wodurch engere Einschränkungen des kosmologischen Parameterraums erreicht werden. Die Modellierung wurde mit Hilfe von synthetischen Katalogen, die auf großvolumigen Mehrkörpersimulationen basieren, verifiziert. Dazu ist eine theoretische Vorhersage der Kovarianzmatrix der anisotropischen Vermessung der Galaxienverteilung nötig, wofür ein Gaußsches Vorhersagemodell entwickelt wurde. Dieses ist neben den Wedges auch für die komplementäre Multipolzerlegung sowohl des LDS als auch dessen Fouriertransformierten, der Zwei-Punkt-Korrelationsfunktion, anwendbar. Die LDS-Analyse anhand von Clustering Wedges, wie in dieser Arbeit präsentiert, ist Teil der kombinierten Analyse des finalen Galaxienkatalogs im Rahmen der BOSS-Kollaboration. Unter Verwendung von zwei sich nicht überschneidenden Rotverschiebungsbereichen wird die Winkeldurchmesserentfernung zu D_M(z_eff = 0.38) (rfid_d / r_d) = 1525 +-24 h^-1 Mpc und D_M(z_eff = 0.61) (rfid_d / r_d) = 2281 +42 -43 h^-1 Mpc bestimmt. Weiterhin wird der Hubbleparameter zu H(z_eff = 0.38) (r_d / rfid_d) = 81.2 +2.2 −2.3 km s^-1 Mpc^-1 und H(z_eff = 0.61) (r_d / rfid_d) = 94.9 +-2.5 km s^-1 Mpc^-1 vermessen (alle hier angegebenen Bereiche entsprechen einem Konfidenzintervall von 68%). Die Wachstumsrate wird eingeschränkt auf fσ_8 (z_eff = 0.38) = 0.498 +0.044 -0.045 und fσ_8 (z_eff = 0.61) = 0.409 +-0.040. Zusammen mit den Ergebnissen der komplementären Methoden, die innerhalb der BOSS-Kollaboration zur Clustering-Analyse des finalen Galaxienkatalogs eingesetzt werden, werden diese Resultate zu einem abschließenden Konsensergebnis zusammengefasst. Nur mit den Clustering-Weges-Messungen im Fourierraum, kombiniert mit MWH- und SN-Daten, kann der Materiedichteparameter auf Ω_M = 0.311 +0.009 -0.010 und die Hubble-Konstante auf H_0 = 67.6 +0.7 -0.6 km s^-1 Mpc^−1 unter Annahme des ΛCDM-Modells eingeschränken werden. Wird ein Nichtstandard-Modell für DE angenommen, so ergibt sich ein DE-Zustandsgleichungsparameter von w_DE = 1.019 +0.048 -0.039. Modifikationen der Wachstumsrate, parametrisiert durch f(z) = [Ω_M(z)]^γ, werden auf γ = 0.52 +- 0.10 eingeschränkt. Diese beiden Messungen sind in perfekter Übereinstimmung mit den Vorhersagen des ΛCDM-Modells, ebenso wie weitere Ergebnisse, die sich unter der Annahme eines noch großzügigeren DE-Modells (welches eine zeitliche Entwicklung von w_DE erlaubt) ergeben. Daher wird das ΛCDM-Modell durch die hier beschriebene Analyse weiter gefestigt. Die Summe der Neutrinomassen wird zu sum(m_ν) < 0.143 eV bestimmt. Dieses obere Limit befindet sich nicht weit entfernt von der unteren Schranke, die sich aus Teilchenphysik-Experimenten ergibt. Somit ist zu erwarten, dass die kosmologische Signatur, die massebehaftete Neutrinos in der großskaligen Struktur des Universums hinterlassen, in naher Zukunft detektiert werden kann.

Modellansatz
Dynamische Randbedingungen

Modellansatz

Play Episode Listen Later Mar 3, 2016 41:48


David Hipp hat am Projekt Cooking Math mitgearbeitet. In seinem darin vorgestellten Forschungsprojekt betrachtet er eine relativ einfache Form der Wellengleichung, die jedoch gut für die Beschreibung von akustischen Wellen geeignet ist. Die Gleichung beschreibt die Wellenausbreitung im Raum mit Hilfe einer partiellen Differentialgleichung. Die Lösung der Wellengleichung ist eine Funktion deren Variablen die Zeit und der Ort sind. Konkret werden in der Gleichung zeitliche und räumliche Änderungen des Zustands, also der Funktion, in Beziehung gesetzt, um die Wellenausbreitung zu beschreiben. Das mathematische Modell für Wellenausbreitung in beschränkten Gebieten umfasst neben der partiellen Differentialgleichung (die hier die Wellengleichung ist) auch noch die Anfangsbedingung, die den Zustand und die Geschwindigkeit zu Beginn des Prozesses festlegt, sowie die Bedingungen am Rand des Gebietes. Physikalisch ist klar, dass Wellen, wenn sie auf die Oberfläche am Rand treffen beispielsweise reflektiert, gebrochen oder gestreut werden können - je nachdem welche Materialeigenschaften der Rand hat. David Hipp untersucht in seiner Forschung insbesondere den Einfluss der Randbedingungen auf die Simulationen solcher Probleme - in seinem Fall also die Wellenausbreitung im Raum. Klassisch wird häufig die Dirichlet oder Neumann-Randbedingung gewählt bzw. die Robin Bedingung als Mischung der beiden. Diese drei Bedingungen auf dem Rand sind allerdings nicht immer realistisch genug, weil sie keine Bewegungen auf dem Rand erlauben.. Deshalb untersucht man derzeit dynamische Randbedingungen - das sind eben solche Bedingungen, die Bewegungen der Welle auf dem Rand zulassen. Damit kann die Wellen Energie an die Wand abgeben und die Wand selbst aktiver Teil der Wellenausbreitung wird. Das kann dann sogar zu Oberflächenwellen auf der Wand führen. Konventionelle numerische Verfahren müssen auf diese neuartigen Randbedingungen erst angepasst werden. Zwar kann David Hipp auf die Finite Elemente Diskretisierung im Raum in Kombination mit klassichen Zeitschrittverfahren zurückgreifen, jedoch muss geprüft werden ob diese Verfahren immer noch so gute Ergebnisse liefern, wie man sie von üblichen Anwendungen gewohnt ist. Eine Herausforderung der dynamischen Randbedingungen ist es, dass unterschiedliche Skalen im Prozess auftreten können, die dann auch so berücksichtigt werden müssen. Zum Beispiel schwingen die Wand und die akustische Welle mit unterschiedlichen Geschwindigkeiten oder Frequenzen. Im Moment genügt es für seine Testrechnungen, das Randgitter der FE-Diskretisierung zu belassen. In Zukunft geht es aber auch darum, hier Anpassungen für unterschiedlichste Materialien möglich zu machen um den verschiedenen Skalen gerecht zu werden. David Hipp ging im Cooking Math Projekt sehr offen und mit wenigen konkreten Vorstellungen in die Zusammenarbeit mit der Hochschule für Gestaltung (HfG) hinein. Schlussendlich ist das vorliegende Ergebnis der Zusammenarbeit mit Oliver Jelko von der HfG eine Mischung aus Lehrvideo zur Mathematik der Wellenausbreitung und professioneller Animation numerischer Testrechnungen für drei unterschiedliche Randbedingungen: Dirichlet, Neumann und akustische Randbedingung. Die akustische Randbedingung ist eine dynamische Randbedingung, die auf der modellhaften Vorstellung beruht, dass die Wand aus vielen winzigen Federn besteht, welche zu schwingen beginnen, wenn sie durch auftreffende akustische Wellen dazu angeregt werden. Als Mathematiker gehört die visuelle Darstellung der Ergebnisse zu unserer Arbeit und ist z.B. auch eine Form von Verifizierung. Aber die professionelle Animation zu Dirichlet-, Neumann und akustischen Randbedingungen durch einen Gestalter ist leichter zugänglich und erlaubt ein intuitives Verständnis. Das Video aus dem Cooking Math Projekt Literatur und Zusatzinformationen J. T. Beale, S. I. Rosencrans: Acoustic boundary conditions, Bull. Amer. Math. Soc. 80, 1276-1278, 1974. S. Larsson, V. Thomee: Partial Differential Equations with Numerical Methods, Springer, 2003. V. Rao: Boundary Condition Thinking, ein populärwissenschaftlicher Zugang zu Randbedingungen, 2011. R.P. Vito and S.A. Dixon: Blood Vessel Constitutive Models, 1995–2002, Annual Review of Biomedical Engineering 5, 413-439, 2003. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration

Anerzählt Archiv 1-300
113 – Big Mac Happiness Report

Anerzählt Archiv 1-300

Play Episode Listen Later Jan 26, 2016 8:56


Es gibt für alles mögliche Statistiken und Ranglisten, besonders interessant sind aber Vergleiche, die ganze Volkswirtschaften nebeneinander stellen. KKP Indices sind solche Skalen und auf einer der etablierten Listen ist Somalia auf Platz 113 im globalen Vergleich. Aber was heißt das eigentlich genau?

Anerzählt Archiv 1-300
101 – Scoville und Olf

Anerzählt Archiv 1-300

Play Episode Listen Later Jan 10, 2016 6:45


Es gibt absurde Skalen um die seltsamsten Dinge zu messen. Heute schaut sich der Anerzähler die Messung von Geruch und die Messung von Schärfe an.

Stage Bound Show mit Sylvia Lee (Singe selbstsicher in einer Band)
Gefühlvoller improvisieren: Baue Deine Klangbibliothek auf – SB012

Stage Bound Show mit Sylvia Lee (Singe selbstsicher in einer Band)

Play Episode Listen Later Oct 1, 2015 43:46


Ich saß mit anderen Jazzmusik- Studenten im Kurs "Jazztheorie Level" und war beglückt: Zum ersten Mal verstand ich so wirklich, was der Sinn und Unsinn von den verschiedenen Kirchentonleitern war. Und zwar nicht nur intellektuell, sondern auch vom Hörerlebnis her. Der Dozent war Wolf Kerschek (heutiger Leiter der Jazzabteilung an der Hochschule für Musik & Theater in Hamburg). Er hatte ein einfaches Arbeitsblatt vorbereitet, auf dem er die unterschiedlichen Tonleitern von hellen bis nach dunklen Klang auflistete, spielte dann die verschiedenen Skalen und wir durften hören und von den Farben einordnen.

Weltvollzugsbeamte
Episode 31 - What The World Needs Now

Weltvollzugsbeamte

Play Episode Listen Later Aug 6, 2015 41:30


Gepflogenheiten, Wahrheiten, Torheiten und Jazz Beschluss nach Aktenlage: Pattern, Skalen, Variationen und Spiel Ferner unter: Conways Spiel des Lebens – Wikipedia - Die freie Enzyklopädie Dualismus - Wikipedia - Die freie Enzyklopädie John Coltrane - Wikipedia - Die freie Enzyklopädie Giant Steps(Jazzstandard) - Wikipedia - Die freie Enzyklopädie Jamey Aebersold - Wikipedia - Die freie Enzyklopädie Jazz Improvisation - Wikipedia - Die freie Enzyklopädie Stevie Wonder - Overjoyed 1st take 1983 - Youtube Teilnehmer: Herb Frankfurter Franz Blum

Vollzugsbeamte-Netzwerk
WvB Episode 31 - What The World Needs Now

Vollzugsbeamte-Netzwerk

Play Episode Listen Later Aug 6, 2015 41:30


Gepflogenheiten, Wahrheiten, Torheiten und Jazz Beschluss nach Aktenlage: Pattern, Skalen, Variationen und Spiel Ferner unter: Conways Spiel des Lebens – Wikipedia - Die freie Enzyklopädie Dualismus - Wikipedia - Die freie Enzyklopädie John Coltrane - Wikipedia - Die freie Enzyklopädie Giant Steps(Jazzstandard) - Wikipedia - Die freie Enzyklopädie Jamey Aebersold - Wikipedia - Die freie Enzyklopädie Jazz Improvisation - Wikipedia - Die freie Enzyklopädie Stevie Wonder - Overjoyed 1st take 1983 - Youtube Teilnehmer: Herb Frankfurter Franz Blum

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 05/05

Das kosmologische Prinzip der Homogenität und statistischen Isotropie des Raumes ist eine fundamentale Annahme der modernen Kosmologie. Auf dieser Basis wird die Existenz einer inflationären Phase im jungen Universum postuliert, welche wiederum primordiale Gaußverteilte Fluktuationen vorhersagt, welche sich im kosmischen Mikrowellenhintergrund als Temperatur- und Polarisationsanisotropien manifestieren. Die Grundidee meiner Arbeit war die Weiterentwicklung einer modellunabhängigen Untersuchungsmethode, welche die Gauß’sche Hypothese für die Dichtefluktuationen testet, wobei die Gaußianität eines Ensembles mit der Zufallsverteilung der Fourier Phasen im Phasenraum definiert wird. Die Methode basiert auf einer nichtlinearen Datenanalyse mit Hilfe von Surrogatkarten, welche die linearen Eigenschaften eines Datensatzes imitieren. Im Rahmen der Surrogatmethode habe ich unter Verwendung zweier verschiedener Bildanalyseverfahren, nämlich den Minkowski Funktionalen und den Skalierungsindizes, beide sensitiv auf Korrelationen höherer Ordnung, Karten der kosmischen Mikrowellenhintergrundstrahlung des WMAP und des Planck Experimentes auf skalenabhängige Phasenkorrelationen untersucht. Ein Schwerpunkt lag hierbei auf Studien zu hemisphärischen Asymmetrien und zum Einfluss der galaktischen Ebene auf die Resultate. Aus der Analyse der Phasenkorrelationen im Phasenraum entwickelte ich neue Methoden zur Untersuchung von Korrelationen zwischen Statistiken höherer Ordnung im Ortsraum und den Informationen des Phasenraumes. Beide Bildanalyseverfahren detektierten Phasenkorrelationen auf den größten Skalen des kosmischen Mikrowellenhintergrundes in vergleichbarer Ausprägung. Der Einfluss der galaktischen Ebene auf diese Resultate zeigte sich in Cutsky Analysen und beim Vergleichen verschiedener Vordergrundsubtraktionsverfahren innerhalb der zwei Experimente als vernachlässigbar gering. Hemisphärische Anomalien auf den größten Skalen der Hintergrundstrahlung wurden wiederholt bestätigt. Die Parametrisierung von Nicht-Gaußianität durch den fNL-Parameter zeigte sich beim Vergleich von fNL-Simulationen mit experimentellen Daten als unzureichend. In Analysen der Daten mit Hilfe von Bianchi-Modellen zeigten sich Hinweise auf eine nicht-triviale Topologie des Universums. Die Resultate meiner Arbeit deuten auf eine Verletzung des standardmäßigen Single Field Slow-Roll Modells für Inflation hin, und widersprechen den Vorhersagen von isotropen Kosmologien. Meine Studien eröffnen im Allgemeinen neue Wege zu einem besseren Verständnis von Nicht-Gauß'schen Signaturen in komplexen räumlichen Strukturen, insbesondere durch die Analyse von Korrelationen der Fourier-Phasen und deren Einfluss auf Statistiken höherer Ordnung im Ortsraum. In naher Zukunft können die Polarisationsdaten des Planck Experimentes weiteren Aufschluss über die Anomalien der kosmischen Mikrowellenhintergrundstrahlung bringen. Die Beschreibung des polarisierten Mikrowellenhintergrundes innerhalb einer Phasenanalyse wäre eine wichtige Ergänzung zu klassischen Studien.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19
Diagnostik positiver Antwortverzerrungen bei forensischen Begutachtungen

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 18/19

Play Episode Listen Later Apr 27, 2015


Bei forensischen Begutachtungen können testpsychologische Untersuchungen fragestellungsrelevanter Persönlichkeitsmerkmale nur dann einen sinnvollen Beitrag zur Gesamtbeurteilung liefern, wenn die Ergebnisse valide interpretiert werden können. Da die Befunde von den Probanden durch Antwortverzerrungen verfälscht werden können, bedarf es bei jeder Begutachtung einer multimodalen Diagnostik des Antwortverhaltens. Allerdings sind für positive Antwortverzerrungen, d.h. das Herunterspielen und Leugnen von Auffälligkeiten und Beschwerden, bislang kaum validierte Testverfahren verfügbar. Die Supernormalität-Skala (SN-S) wurde entwickelt, um diese Lücke zu schließen. Ziel der vorliegenden Arbeit war eine umfassende empirische Überprüfung der autorisierten deutschen Übersetzung. Die diagnostische Validität wurde mit einem experimentellen Design anhand einer heterogenen Kontrollstichprobe (N = 201) mithilfe eines Onlinefragebogens mit Standardinstruktion und Fake-Instruktion bestimmt. Für die Überprüfung weiterer Aspekte der Kriteriums- und der Konstruktvalidität, insbesondere der Frage, ob die mit der SN-S erfassten Antwortverzerrungen Auswirkungen auf (test-)psychologische Befunde haben, wurden zudem Daten von 108 Begutachtungsprobanden analysiert. Die SN-S zeigte eine ausreichende diagnostische Validität (AUC = .86), wobei insbesondere die Sensitivität (94%) und der negative Vorhersagewert (96%) hoch waren, Spezifität (69%) und positiver Vorhersagewert (62%) waren dagegen nicht zufriedenstellend. Damit bedürfen auffällige SN-S-Werte einer weiteren Überprüfung mit anderen Verfahren. Sowohl die Subskalen der Originalversion als auch die mithilfe einer Faktorenanalyse extrahierten Skalen wiesen eine deutlich schlechtere Klassifikationsgüte auf. Überwiegend moderate bis hohe Korrelationen (r = .24-.80) mit anderen Skalen zur Erfassung positiver und negativer Antwortverzerrungen zeigen, dass Supernormalität kein eindimensionales Konstrukt ist; mit der SN-S werden soziale Erwünschtheit und Dissimulationstendenzen, aber auch Aggravation und Simulation erfasst. Je nach Fragestellung der Begutachtung (Schuldfähigkeit, Rückfallprognose, sozial- und zivilrechtliche Fragestellungen) zeigten zwischen 38% und 88% der Probanden supernormales Antwortverhalten. Probanden mit auffälligem SN-S-Ergebnis berichteten gegenüber Probanden mit unauffälligem Antwortverhalten eine signifikant niedrigere Aggressionsbereitschaft. Sie minimierten auch weitere klinische Persönlichkeitsmerkmale. Aus diesem Grund ist davon auszugehen, dass Fragebögen zur Erfassung von Persönlichkeitsstörungen bei Personen mit Antwortverzerrungen im forensischen Kontext nicht zu validen Ergebnissen führen. Die SN-S ist ein brauchbares Instrument zur Überprüfung positiver Antwortverzerrungen bei forensischen Begutachtungen, als alleiniger Indikator aber noch unzureichend, um Dissimulation zu belegen.

Radio Nukular
Episode 18: Zucker und Fett mit Frühstückscerealien in alter Rezeptur

Radio Nukular

Play Episode Listen Later Apr 26, 2015 343:08


Wir noggern uns einen, nehmen zwei, frühstücken Weizenfelder und fressen uns gedanklich durch das beste Junkfood der 80er, 90er und von heute. Wer hätte es gedacht? Wenn die drei Schwergewichte unter den deutschen Podcastern übers Essen reden, nimmt das Gespräch natürlich erst nach fünf Stunden ein Ende. Eine Nährwerttabelle für diese Episode wollen wir Euch nicht antun – sie würde alle Skalen sprengen. Einen Kontrast zu unserer ungesunden Ernährungsjugend tritt als angenehmer – diesmal wirklich ehrlich echter – Sponsor dieser Folge die Firma Frosta in Euer Leben. Gemeinsam mit den Schöpfern der legendären Spätzlepfanne gibt es in dieser Woche auch noch ein kleines Gewinnspiel, seid gespannt. Die Regeln unseres achtzehnten Trinkspiels: Level 1: Wann immer jemand Frosta sagt, wird getrunken. Level 2: Wenn IHR denkt oder sagt „ohja, das war lecker!“ – Prost. Level 3: Jedes Mal wenn Ihr während des Podcasts Hunger bekommt ODER Euch schlecht wird, wird ausgetrunken. Für Bonuspunkte trinkt Ihr für jedes „Was ist da denn los?“ und wenn es Anspielungen auf Tic Tac Toe („Jetzt kommen die Tränen wieder auf Knopfdruck!“ etc.) gibt. Erlebnisberichte bitte in die Kommentare (wir rufen hiermit keinesfalls zu einem übermäßigen oder unverantwortungsvollen Konsum von Alkohol auf – aber wenn Ihr sowieso ein Trinkspiel spielt, wieso nicht dieses?) Danken möchten wir Maik, der zum zweiten Mal für uns zum Zeichenstift griff und auch das „Vogel-Shirt. Danke! Hinweis: Auch in diesem Podcast haben wir zahlreiche Fehler versteckt. Wer welche Fehler findet, ab damit in die Kommentare!

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU

Die Relevanz der kognitiven Basisfunktionen Arbeitsgedächtnis und der Fähigkeit zum Shifting sowie der fluiden Intelligenz für viele kognitive Leistungen wurde wiederholt gezeigt. Insbesondere das Arbeitsgedächtnis ist wichtig für das Lernen und sollte bei Entscheidungen hinsichtlich instruktionaler Unterstützungsmaßnahmen berücksichtigt werden. In der ersten Studie der vorliegenden Arbeit wurde untersucht, ob der Effekt einer Lernumgebung mit hohem Grad an instruktionaler Unterstützung durch Lösungsbeispiele verglichen mit einer Lernumgebung mit niedrigem Grad an instruktionaler Unterstützung (Problemlösen) auf den Wissenserwerb von der Arbeitsgedächtniskapazität, der Shifting-Fähigkeit sowie der fluiden Intelligenz moderiert wird. In den beiden Lernumgebungen lernten 76 Studierende aus den Fachrichtungen Pädagogik, Psychologie und Schulpsychologie mit Problemen aus der Domäne Statistik. Die Ergebnisse zeigten, dass die Fähigkeit zum Shifting und die fluide Intelligenz, nicht aber die Arbeitsgedächtniskapazität einen moderierenden Einfluss auf den Erwerb anwendungsorientierten Wissens haben. Die kognitive Belastung war nicht mit der Arbeitsgedächtniskapazität, aber der fluiden Intelligenz, konzeptuellem und anwendungsorientiertem Vorwissen sowie Skalen eines Fragebogens zur Erfassung aktueller Motivation korreliert. Den Ergebnissen der ersten Studie zu Folge könnten die Fähigkeit zum Shifting und die fluide Intelligenz für die Bestimmung des optimalen Grads an instruktionaler Unterstützung wichtig sein. Vor dem Hintergrund der Bedeutung kognitiver Basisfunktionen und einer Vielzahl neuerer Studien zu Arbeitsgedächtnistrainings wurde in der zweiten Studie dieser Arbeit eine Metaanalyse zu Arbeitsgedächtnistrainings durchgeführt. In dieser Metaanalyse wurden mehrere, bisher nicht beachtete Trainingsbedingungen als potentielle Moderatoren berücksichtigt. Es wurden 47 Studien mit 65 Gruppenvergleichen analysiert. Die Ergebnisse zeigten, dass Arbeitsgedächtnistrainings nahe Transfereffekte auf Kurzzeit- und Arbeitsgedächtniskomponenten erzielen, die zum Follow-up erhalten bleiben. Weite Transfereffekte auf andere kognitive Fähigkeiten und Fertigkeiten (nonverbale und verbale Fähigkeit, Fertigkeit zur Wortdekodierung, mathematische Fähigkeiten und Fertigkeiten) waren klein, auf die nonverbale und verbale Fähigkeit beschränkt und blieben nicht zum Follow-up erhalten. Unter den Moderatoren hatten der Interventionstyp, die Trainingsdosis, die Sessiondauer, die Supervision während des Trainings und der Trainingsort einen Einfluss auf nahe und weite Transfereffekte. Den Ergebnissen der zweiten Studie zufolge können Arbeitsgedächtnistrainings robuste, nahe Transfereffekte auf andere Aufgaben erzielen, die Kurzzeit- und Arbeitsgedächtniskomponenten erfassen. Die Bedingungen für Transfereffekte, insbesondere weite Transfereffekte, sind noch schlecht verstanden. Arbeitsgedächtnistrainings mit optimierten Trainingsbedingungen könnten jedoch zu praktisch relevanten Transfereffekten führen.

Naturmorgon
Öringfiske hjälper flodpärlmusslan

Naturmorgon

Play Episode Listen Later Nov 2, 2013 92:37


Lördagen den 2 november besöker Naturmorgon en liten västsvensk å. En å där det både finns äkta blodiglar och flodpärlmussla. Vi ska få veta mer om hur elfiske efter öring kan vara ett led i att hjälpa den exklusiva musslan att leva kvar i ån. Vi får också höra hur man hjälper grodor och paddor att ta sig över trafikerade vägar. Eller kanske snarast tar sig under! Vidare tittar vi på en konstutställning och besöker några bohuslänska strandängar. Överallt där ser man krossade musselskal. Skalen gör marken kalkrik och då blir det en speciell flora.

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU

Ziel der vorliegenden Arbeit ist die Entwicklung und Bereitstellung von unterschiedlichen Skalen, die die Beziehungen junger Erwachsener zu ihren Eltern und zu ihren Partnern aus einem modernen individuationstheoretischen Blickwinkel erfassen. Zunächst erfolgt daher eine Betrachtung der Lebensphase junges Erwachsenenalter aus unterschiedlichen theoretischen Blickrichtungen. Dass auch in diesem Altersbereich die Beziehung zu den Eltern bedeutsam ist kann beispielsweise bindungstheoretischer begründet werden. Die Verbundenheit in Beziehung zu den Eltern besteht weiterhin, wobei die jungen Leute in immer mehr Bereichen Autonomie entwickeln und erhalten. Parallel werden eigene Partnerschaften zunehmend wichtiger. Sie lassen sich ebenfalls durch eine Mischung aus Autonomie und Verbundenheit charakterisieren. Es zeigen sich unterschiedliche Verhaltensweisen und Entwicklungen bei jungen Männern und Frauen, aber auch in Beziehung zu Müttern und Vätern. Ein Blick auf äußere Kontextfaktoren zeigt, dass sich einerseits aktuelle europaweite Entwicklungen auf das Leben der jungen Erwachsenen auswirken und zu einer Verlängerung der Jugendphase führen. Andererseits beeinflussen länderspezifische wohlfahrtsstaatlichen Strukturen konkrete Lebensbereiche der jungen Erwachsenen und führen zu Unterschieden insbesondere zwischen nordischen und südeuropäischen Staaten, die vom Auszugsalter bis zu den Familien¬gründungen reichen und die somit wiederum gesamtgesellschaftliche Folgen haben. In vorliegender Arbeit wird mittels kulturvergleichender Validierungsstudie die Äquivalenz der Skalen des Network of Relationship Inventory (NRI), des Münchner Individuationstest der Adoleszenz (MITA) und der Filial Responsibility Scale (FRS) überprüft. In einer Fragebogenstudie wurden junge Erwachsene zwischen 20 und 30 Jahren aus den drei europäischen Großstädten München (Deutschland), Mailand (Italien) und Göteborg (Schweden) zu wesentlichen Themen des jungen Erwachsenenalters befragt (YAGISS-Studie). Für die vorliegenden Analysen wurden Daten von rund 600 Studierenden aus den drei Städten berücksichtigt. Es erfolgt eine schrittweise Testung auf Äquivalenz bzw. Bias im Kulturvergleich durch konfirmatorische Multigruppenanalysen im Rahmen von Strukturgleichungsmodellen. Es werden gemeinsame Multigruppenmodelle für die Länder getestet, die Modellanpassungen über verschiedene Fit-Indizes überprüft. Die Modelle sind durch zunehmende Identitätsrestriktionen genestet und erlauben Differenztests der Modellanpassung. Es konnten inhaltlich basierte und sinnvolle Modelle für alle drei Instrumente umgesetzt werden, in allen Beziehungen und für alle Länder, wobei teilweise Originalskalen übernommen werden konnten, teilweise aber auch tiefgreifende Modifikationen notwendig wurden. Die Berücksichtigung der Länder erwies sich bei allen Instrumenten als wesentlich. Es konnten schließlich für alle Instrumente Modelle mit metrischer Invarianz zur Verfügung gestellt werden. Entsprechend sind Vergleiche auf Skalenebene innerhalb der Länder zulässig, zwischen den Ländern nur begrenzt. Schließlich werden Anwendungsempfehlungen zu den Instrumenten NRI, MITA und FRS gegeben, sowie alle relevanten Statistiken zur Verfügung gestellt. Länder-, aber insbesondere auch beziehungsspezifische Unterschiede in der Struktur der Instrumente konnten nachgewiesen werden. Diese bestätigte sich in den anschließenden instrumentenübergreifenden Analysen der Zusammenhänge der Skalen. Darüber hinaus unterscheiden sich die Beziehungen vor allem zu den Müttern und Partnern nicht nur nach Land, sondern insbesondere nach Geschlecht der jungen Erwachsenen deutlich. Vor allem für junge Erwachsene in Schweden konnten Effekte der Wohnsituation auf die Beziehungen nachgewiesen werden.

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU
Die psychische Belastung bei Pflegekindern: Vorhersage ihrer posttraumatischen Symptomatik und Adaption eines neuen Instruments zur Erfassung ihrer allgemeinen psychischen Belastung

Fakultät für Psychologie und Pädagogik - Digitale Hochschulschriften der LMU

Play Episode Listen Later Jul 8, 2010


Es wurden 74 fremduntergebrachte Kinder und Jugendliche im Alter zwischen 10 und 18 Jahren sowie deren Pflegeeltern befragt. Es wurden unter anderem Informationen zu folgenden Punkten gesammelt: Grund der Fremdunterbringung, traumatische Vorkommnisse in der Herkunftsfamilie, vergangene und aktuelle Befindlichkeit und Belastung des Pflegekindes, grundsätzliches Vorkommen und Ausmaß der Symptome einer Posttraumatischen Belastungsstörung (PTBS). Dabei wurden eine Reihe von Instrumenten eingesetzt: Die Child Behavior Checklist (CBCL), Child Dissociative Checklist (CDC), Assessment Checklist for Children (ACC), die Familienklimaskalen (FKS), ressourcenorientierte Anfangsfragen für das Pflegekind, das Interview zu Belastungsstörungen für Kinder und Jugendliche (IBS-KJ), der Childhood Trauma Questionnaire (CTQ) und ein halbstandardisiertes exploratives Interview für Pflegeeltern (H-EIP). Es zeigte sich bezogen auf Forschungsaspekt 1 (Vorhersage der kindlichen PTBS-Belastung), dass die akutelle (internalisierende, externalisierende und dissoziative) Symptomatik sowie das Geschlecht einerseits und das Ausmaß kindlicher Traumatisierung in der Herkunftsfamilie sowie die Anzahl an Gründen für die Herausnahme andererseits als Prädiktoren zur Vorhersage der aktuellen PTBS bei Pflegekindern geeignet scheinen. Bezogen auf Forschungsaspekt 2 (Adaption der ACC für den deutschsprachigen Bereich) ergab sich, dass die Inhaltsvalidität der deutschen ACC gegeben sein dürfte. Die testtheoretischen Analysen sind für Skalen 2 bis 5 sowie Skalen 8 und 9a bzw. 9 und die Skalen NZ und SW als akzeptabel zu bezeichnen, so dass für diese Skalen eine vorläufig abschließende positive Beurteilung auf Basis der hier vorliegenden Daten erteilt werden konnte, die restlichen Skalen bedürfen erneuter Überprüfung an einer größeren Stichprobe. Die ersten Ergebnisse sprechen jedoch für eine klinische Nützlichkeit der ACC, Ökonomie und sonstige testtheoretische Kriterien (wie Reliabilität und Validität) konnten als zufriedenstellend beurteilt werden.

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Probing Early Dark Energy and primordial non-Gaussianity with cosmological simulations

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05

Play Episode Listen Later Feb 5, 2010


Die Entwicklung des ersten präzisen kosmologischen Modells, des LCDM Modells, ist eine bedeutende Errungenschaft der modernen, beobachtenden Kosmologie. Trotzdem bleiben eine Reihe von wichtigen Fragen über Zusammensetzung und Entwicklungsgeschichte des Universums unbeantwortet: Abgesehen von der Natur der Dunklen Materie ist der physikalische Ursprung der Dunklen Energie eine der ganz großen Fragen der theoretischen Physik. Ebenso bedürfen die statistischen Eigenschaften der anfänglichen Dichtefluktuationen im frühen Universum einer genauen überprüfung. Kleinste Abweichungen von den Gauß'schen Fluktuationen des Standardmodells würden, sofern sie nachgewiesen werden, eine Vielzahl von Informationen über die Physik des frühen Universums enthalten. In dieser Arbeit benutze ich numerische Verfahren, um neue, hochpräzise Vorhersagen zur kosmischen Strukturbildung in generalisierten Dunkle Energie Kosmologien zu treffen. Außerdem berücksichtige ich Modelle mit nicht-Gauß'schen Anfangbedingungen. Im ersten Abschnitt untersuche ich die nicht-lineare Strukturentstehung in sogenannten `Early Dark Energy' (EDE) Modellen und vergleiche sie mit dem LCDM Standardmodell. Interessanterweise zeigen meine Ergebnisse, dass der Sheth and Tormen (1999) Formalismus, mit dem üblicherweise die Anzahldichte von Halos aus Dunkler Materie geschätzt wird, in EDE Kosmologien weiterhin anwendbar ist, im Widerspruch zu analytischen Berechnungen. In diesem Zusammenhang untersuche ich auch das Verhältnis zwischen Masse und Geschwindigkeitsdispersion der Dunklen Materie in Halos. Dabei stelle ich eine gute übereinstimmung mit der Normalisierung der LCDM Kosmologien fest, wie sie in Evrard et al. (2008) beschrieben ist. Allerdings führt das frühere Anwachsen der Dichtestrukturen in EDE Modellen zu großen Unterschieden in der Massenfunktion der Halos bei hohen Rotverschiebungen. Dies könnte direkt in Beobachtungen gemessen werden, indem man die Anzahl der Gruppen als Funktion der Geschwindigkeitsdispersion der enthaltenen Galaxien entlang der Sichtlinie bestimmt. Insbesondere würde dadurch das Problem der mehrdeutigen Massebestimmung von Halos umgangen. Schließlich ermittele ich die Beziehung zwischen dem Konzentrationsparameter von Halos und der Halomasse in den EDE Kosmologien. Im zweiten Teil meiner Arbeit verwende ich ein Set an hochaufgelöste hydrodynamische Simulationen um die globalen Eigenschaften der thermischen und kinetischen Sunyaev Zeldovich (SZ) Effekte zu untersuchen. Dabei stellen wir fest, dass in den SZ-Beobachtungskarten der EDE Modelle der Compton-y-Parameter systematisch größer ist als im LCDM Modell. Erwartungsgemäß finde ich daher auch, dass das Leistungsspektrum der thermischen und kinetischen SZ Fluktuationen in EDE Kosmologien größer ist als im Standardmodell. Allerdings reicht diese Steigerung für realistische EDE Modelle nicht aus, um die theoretischen Voraussagen in übereinstimmung mit aktuellen Messungen der Mikrowellenhintergrundanisotropie bei großen Multipolwerten zu bringen. Eine Zählung der durch den SZ Effekt detektierbaren Halos in den simulierten Karten zeigt nur einen leichten Anstieg in den massereichsten Haufen für EDE Kosmologien. Ebenso sind Voraussagen für zukünftige Zählungen von SZ-detektierten Haufen durch das South Pole Telescope (SPT Ruhl, 2004) stark durch Unsicherheiten in der Kosmologie beeinträchtigt. Schließlich finde ich, dass die Normalisierung und die Steigung der Relation zwischen thermischem SZ-Effekt und Halomasse in vielen EDE Kosmologien unverändert bleibt, was die Interpretation von Beobachtungen des SZ Effekts in Galaxienhaufen vereinfacht. In weiteren Untersuchungen berechne ich eine Reihe von hochaufgelösten Vielteilchensimulationen für physikalisch motivierte nicht-Gauß'sche Kosmologien. In umfangreichen Studien untersuche ich die Massenverteilungsfunktion der Halos und deren Entwicklung in nicht-Gauß'schen Modellen. Zudem vergleiche ich meine numerischen Experimente mit analytischen Vorhersagen von Matarrese et al. (2000) und LoVerde et al. (2008). Dabei finde ich eine sehr gute übereinstimmung zwischen Simulation und analytischer Vorhersage, vorausgesetzt bestimmte Korrekturen für die Dynamik des nicht-sphärischen Kollapses werden berücksichtigt. Dazu werden die Vorhersagen dahingehend modifiziert, dass sie im Grenzfall sehr seltener Ereignisse einem geeignet veränderten Grenzwert der kritischen Dichte entsprechen. Desweiteren bestätige ich jüngste Ergebnisse, nach denen primordiale nicht-Gauß'sche Dichtefluktuationen eine starke skalenabhänginge Verzerrung auf großen Skalen verursachen, und ich lege einen physikalisch motivierten mathematischen Ausdruck vor, der es erlaubt, die Verzerrung zu messen und der eine gute Näherung für die Simulationsergebnisse darstellt.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19
Untersuchungen zur Konstruktvalidität des Verhaltens- und Erlebensinventars (VEI) an einer klinischen Stichprobe

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 10/19

Play Episode Listen Later Mar 25, 2009


Die vorliegende Dissertation umfasst mehrere Studien zur Überprüfung der Konstruktvalidität des Verhaltens- und Erlebensinventars (VEI) an einer psychiatrischen Stichprobe. Das VEI ist die deutsche Adaption des Personality Assessment Inventory (PAI), ein komplett neu entwickelter klinischer Persönlichkeitsfragebogen (Morey, 1991). Die Adaption des PAI beinhaltete die sorgfältige Übersetzung der Items, die Überprüfung der Itemäquivalenz und einer abschließenden Überarbeitung der Items. Die endgültige Version des VEI wurde an einer repräsentativen Bevölkerungsstichprobe der Bundesrepublik (N=749) normiert. Der Validierungsprozess eines neuen klinischen Instruments erfordert die Bestimmung der konvergenten und diskriminanten Validität. Im Zuge dessen wurde die Effektivität der Validitätsskalen und –indizes des VEI im Vergleich zu denen des Minnesota Multiphasic Personality Inventory-2 (MMPI-2; Butcher, Dahlstrom, Graham, Tellegen & Kaemmer, 1989; deutsche Adaption: Engel, 2000) untersucht. Die ursprünglichen Validitätsskalen [Inkonsistenz (I), Seltenheit (S), Ungünstiger Eindruck (U) und Günstiger Eindruck(G)] des VEI identifizierten 16% der Protokolle als ungültig, wobei ein erhöhter I-Wert mit 7% der häufigste Grund für Ausschluss war. Bei zusätzlicher Berücksichtigung der neueren Validitätsindizes des VEI [Simulationsindex (MAL), Defensiv-Index (DEF), Rogers Diskriminanzfunktion (RDF) und Cashels Diskriminanzfunktion (CDF)] wurden anhand des DEF weiter 5% der Protokolle als ungültig erklärt. Die jeweils ursprünglichen Validitätsskalen der beiden Inventare fanden gleich viele ungültige Bögen und zeigten insgesamt eine hohe Testübereinstimmung (73%). Durch die vorliegenden Ergebnisse konnte die Gültigkeit der Validitätsskalen und –indizes mit den empfohlenen Grenzwerten des VEI nachgewiesen werden. Zur Überprüfung der diskriminanten Validität der VEI-Skalen wurden die VEI-Mittelwertsprofile von acht Diagnosegruppen (Angst, Depression, Manie, Schizophrenie, Paranoide Schizophrenie, Alkoholmissbrauch, Borderline-Persönlichkeitsstörung und Aufmerksamkeitsstörung) anhand von ICD-10-Diagnosen erstellt und miteinander verglichen. Die konvergente Validität der VEI-Skalen wurde anhand von Korrelationen mit inhaltlich ähnlichen Skalen des MMPI-2 und des AMDP-Systems überprüft. Die Ergebnisse sprachen insgesamt für eine gute Konstruktvalidität der VEI-Skalen. Dabei zeigte sich eine gute Differenzierbarkeit der diagnostischen Gruppen anhand der VEI-Skalen, wobei sich Gruppen mit deutlich unterschiedlicher psychopathologischer Symptomatik besser von einander unterschieden als Gruppen mit ähnlicher Symptomatik. Weiterhin lieferten die Ergebnisse der Korrelationen vielfache Unterstützung hinsichtlich der konvergenten Validität der einzelnen VEI-Skalen. Die zugrundeliegenden Konstrukte der VEI-Skalen konnten überwiegend bestätigt werden. Diese werden einzeln aufgeführt und ausführlich beschrieben und diskutiert. Als letzte Validierungsstudie wurde eine Replikation der Faktorenstruktur anhand von Skaleninterkorrelationen und Faktorenanalyse durchgeführt. Die Korrelationsmuster der VEI-Skalen zueinander entsprachen den bisherigen Befunden. Die Faktorenstruktur des VEI hinsichtlich Anzahl und Inhalte der extrahierten Faktoren bestätigte frühere Ergebnisse bei der Analyse aller VEI-Vollskalen. Bei ausschließlicher Berücksichtigung der klinischen Voll-skalen ergaben sich in der vorliegenden Studie nur zwei anstatt der überwiegend drei Faktoren. Die gute Replizierbarkeit der Faktorenstruktur weist auf eine stabile Konstruktvalidität hin und unterstützt die Annahme, dass die deutsche Version des PAI auf ähnlichen Konstrukten basiert wie das amerikanische Original. Insgesamt konnten die Untersuchungen einen guten Beitrag zur Validierung des VEI leisten. Die Ergebnisse der einzelnen Studien lieferten brauchbare Hinweise, dass das VEI eine gute Konstruktvalidität besitzt und in der praktischen Anwendung als unterstützendes klinisches Instrument bei der Diagnosefindung, Therapieplanung und –evaluation einsetzbar ist.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19
Untersuchung zur Lebensqualität bei Patienten mit Akuter Myeloischer Leukämie und Myelodysplastischem Syndrom

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 08/19

Play Episode Listen Later Mar 14, 2008


Die vorliegende Arbeit untersucht die Lebensqualität von 49 Patienten mit Akuter Myeloischer Leukämie (AML) und Myelodysplastischem Syndrom (MDS), die im Rahmen der AMLCG99-Therapiestudie an der Medizinischen Klinik III am Universitätsklinikum München, Standort Großhadern, behandelt wurden. Als Instrument zur Erfassung der Lebensqualität diente der QLQ-C30-Fragebogen der EORTC. Ziel der Arbeit war die Untersuchung der zeitlichen Veränderungen der Lebensqualität der Patienten, der Vergleich mit der deutschen Normalbevölkerung und die Beschreibung von Einflussfaktoren auf die Lebensqualität. Zu Beginn der Therapie war die Lebensqualität der Patienten in fast allen Skalen deutlich schlechter als die der Normalbevölkerung. Im weiteren Therapieverlauf kam es jedoch zu einer Verbesserung der Lebensqualität in den meisten Skalen. Dennoch zeigten die Patienten ein Jahr nach abgeschlossener stationärer Therapiephase in vielen Skalen statistisch signifikant schlechtere Werte und klinisch noch mäßig bis sehr große Unterschiede zur Normalbevölkerung. Einzig der allgemeine Gesundheitsstatus, die physische Funktion sowie wenige Symptomskalen unterschieden sich zu diesem Zeitpunkt nicht mehr von der Normalbevölkerung. In der Subgruppenanalyse zeigte sich, dass ein Jahr nach Beendigung der stationären Therapiephase ältere Patienten Lebensqualitätswerte erreichten, die sich von der Normalbevölkerung entweder nicht mehr unterschieden oder sogar besser waren. Auch nicht allogen transplantierte Patienten zeigten in beinahe allen Skalen Werte, die sich nicht mehr von der Normalbevölkerung unterschieden. Jüngere und allogen transplantierte Patienten wiesen hingegen eine teilweise deutlich eingeschränkte Lebensqualität im Vergleich zur Normalbevölkerung auf. Die im Rahmen der AMLCG99-Studie untersuchte Therapieintensivierung in der Induktionstherapie hatte keinen Einfluss auf die Lebensqualität der Patienten. Die Skala allgemeiner Gesundheitsstatus im QLQ-C30-Fragebogen misst vor allem körperliche Aspekte der Lebensqualität, da sie am besten mit der physischen Funktion und physischer Fatigue korreliert.

Psychologie und Pädagogik - Open Access LMU - Teil 02/02
Psychische Belastung, Alkoholabhängigkeit und Rauchen

Psychologie und Pädagogik - Open Access LMU - Teil 02/02

Play Episode Listen Later May 1, 2007


Die Prävalenz des Tabakkonsums ist bei Personen mit einer Neigung zur Depression höher als in der Allgemeinbevölkerung. Gleiches gilt für Personen mit einer Erkrankung aus dem schizophrenen Formenkreis. Alkoholabhängige Patienten weisen eine höhere psychische Belastung auf als nichtabhängige Personen. Bislang ungeklärt ist, inwiefern sich die rauchenden von den nichtrauchenden alkoholabhängigen Personen hinsichtlich ihrer psychischen Belastung unterscheiden. Es wurden Daten von 1403 Patienten mit der Hauptdiagnose „Alkoholabhängigkeit“ aus 40 Suchtrehabilitationskliniken zu Beginn der stationären Behandlung erhoben. 84% der Stichprobe sind Raucher. Die Messung der subjektiv empfundenen psychischen Symptombelastung erfolgte mittels der neun Skalen des Brief Symptom Inventory (BSI). Innerhalb der untersuchten Population der alkoholabhängigen Patienten weisen die zusätzlich rauchenden Patienten in den Bereichen Zwanghaftigkeit (T-Werte: 58 vs. 55), Depressivität (T-Werte: 64 vs. 61), Aggressivität (T-Werte: 59 vs. 55) und Psychotizismus (T-Werte: 63 vs. 59) signifikant höhere Werte auf als die Vergleichsgruppe. Diese Ergebnisse implizieren eine im Durchschnitt höhere Symptombelastung von rauchenden Alkoholpatienten im Vergleich zu nichtrauchenden Patienten. Dies impliziert eine klarere Diagnostik dieser Patientengruppe sowie das Bereitstellen von intensiveren Tabakentwöhnungsmaßnahmen für spezifische Subgruppen von Rauchern. Die Ergebnisse können als mögliche Erklärung herangezogen werden, weshalb diesen Patienten eine Aufgabe des Tabakkonsums besonders schwer fällt. Zu diskutieren bleibt die Richtung der Kausalität.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Der Einfluss der repetitiven Transkraniellen Magnetstimulation auf CCK-4-induzierte Panikattacken

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Jan 25, 2007


Angst- und Panikstörungen sind in der Bevölkerung häufig auftretende Krankheitsbilder, von denen zu großem Teil auch junge Menschen betroffen sind. Es stehen mit der Verhaltenstherapie und der Pharmakotherapie bereits etablierte Therapiestandards zur Verfügung. Jedoch kommt es bei den behandelten Patienten langfristig in bis zu 25% der Patienten zu einer Therapieresistenz bzw. zu belastenden Nebenwirkungen durch die Pharmakotherapie. Es besteht daher weiterhin der Bedarf an neuen alternativen Therapiestrategien. Mit der Transkraniellen Magnetstimulation (TMS) steht ein interessantes Paradigma bereit, welches vor dem Hintergrund der postulierten Wirksamkeit bei depressiven Störungen auch in der Behandlung von Angststörungen ein mögliches Potential besitzt. In einer placebo-kontrollierten cross-over-Studie wurde bei 11 gesunden Probanden eine 1-Hz-Verum- oder Placebo-rTMS an zwei verschiedenen Tagen über dem rechten dorsolateralen präfrontalen Kortex durchgeführt. Unmittelbar nach der Stimulation wurde durch die Gabe eines Cholezystokinin-Tetrapeptids (CCK-4) eine experimentelle Panik-Auslösung durchgeführt. Die Panik-Reaktion nach CCK-4-Gabe wurde durch Anwendung klinischer Skalen, Messung der Herzfrequenz und Untersuchung der Blutspiegel auf ACTH und Cortisol ermittelt. Alle Probanden zeigten sowohl nach Verum-rTMS als auch nach Placebo-rTMS eine der CCK-4-Gabe folgende deutliche Panik-Reaktion. Eine ANOVA-durchgeführte Analyse zeigte keine signifikanten Unterschiede in einer der untersuchten Parameter zwischen beiden Bedingungen. Im Gegensatz zu vorherigen Untersuchungen an Patienten mit Angststörungen wurde die durch CCK-4 ausgelöste Panik an gesunden Probanden nicht durch eine niedrigfrequente rTMS beeinflusst. Zukünftige Studien sollten untersuchen, ob eine rTMS vielleicht bei Patienten mit Panikstörungen die Reaktion auf CCK-4-Gabe beeinflusst.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19
Anwenderperformanz und- variabilität der Glasgow-Koma-Skala

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19

Play Episode Listen Later Jul 28, 2005


Die Glasgow-Koma-Skala ist heutzutage eine der am meisten eingesetzten Skalen, um den Zustand bewusstseinsgetrübter Patienten prä- oder innerklinisch zu beurteilen. Doch erst die Kenntnis der methodischen Gütekriterien dieser Skala ermöglicht es, den wahren Wert der Glasgow-Koma-Skala in Wissenschaft und klinischer Praxis sowie innerhalb des akutmedizinischen Qualitätsmanagements abzuschätzen. Ziel der vorliegenden Studie war es, die Objektivität der Glasgow-Koma-Skala zu erfassen. Untersucht wurden drei Kohorten: Medizinstudenten, Ärzte sowie Rettungsdienstmitarbeiter, die jeweils in einem standardisierten Setting zweimal den GCS-Befund erheben mussten. Insgesamt liess sich feststellen, dass der (akut-)-medizinische Ausbildungsstand einer Testperson erhebliche, bisweilen signifikante Auswirkungen auf die korrekte, reproduzierbare und damit sichere Anwendung der Glasgow-Koma-Skala hat.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19

Im Zuge der zunehmenden Mobilität erfährt das Thema der Fahrkompetenz im Alter und bei neurologischen Erkrankungen eine wachsende Relevanz. Hinsichtlich der diagnostischen Abklärung der Fahrfähigkeit sind einige Fragen offen, da Testverfahren oftmals ausschließlich an jüngeren, gesunden Probanden validiert werden. Der Bedeutung ausgewählter kognitiver, psychologischer und sensorischer Einzelfunktionen für die Vorhersage der Fahrleistung wird in dieser Studie nachgegangen. Mit einer Batterie standardmäßig eingesetzter Verfahren, die neben der Untersuchung von Seh-, Informationsverarbeitungs- und Aufmerksamkeitsleistungen auch eine Fahrt im Simulator sowie eine reale Fahrprobe umfassten, wurden jüngere und ältere Fahrer sowie Patienten mit erlittener Schädigung des Zentralnervensystems untersucht. Die Ergebnisse bestätigen den viel diskutierten Leistungsabfall der beiden Untersuchungsgruppen im Vergleich zu jüngeren Gesunden. Im Falle der Älteren lag der Fokus der Einschränkungen eher auf Prozessen der Informationsverarbeitungsgeschwindigkeit und der Fähigkeit, die Aufmerksamkeit auf mehrere Reize aufzuteilen, im Falle der Patienten standen motorische Einschränkungen sowie eine Beeinträchtigung der Erfassung eines visuellen Felds im Vordergrund. Die festgestellten spezifischen Schwächen fanden sich in den den jeweiligen Anforderung entsprechenden Skalen der Fahrverhaltens-beobachtung wieder. Allerdings fielen die testpsychologischen Daten vor allem für die Gruppe der Senioren negativer aus, als die tatsächliche Fahrerbeobachtung. Dies deutet auf das Greifen von kompensatorischen Strategien hin und spricht im Falle der Notwendigkeit einer diagnostischen Beurteilung für eine zusätzliche Durchführung von Fahrproben. Die Aussagekraft der verschiedenen diagnostischen Instrumente sowie die Relevanz von zentralen und peripheren Sehfunktionen wird diskutiert.

Psychologie und Pädagogik - Open Access LMU - Teil 02/02
Konzeption und Evaluation eines Zufriedenheitsfragebogens für Teilnehmende externer universitärer Fortbildungsmaßnahmen

Psychologie und Pädagogik - Open Access LMU - Teil 02/02

Play Episode Listen Later Apr 1, 2004


Um dem allgemeinen Bildungsauftrag gerecht zu werden und um neue finanzielle Ressourcen zu erschließen, bieten Universitäten zunehmend auch für Nichtstudierende kostenpflichtige Weiterbildung an. Die vorliegende Untersuchung berichtet von der Erstellung und Analyse eines Zufriedenheitsfragebogens. Aufbauend auf einer Analyse von Fragebögen zu universitären Lehrveranstaltungsevaluationen wird ein Instrument entwickelt, bei dem auf zwei Skalen die Zufriedenheit mit dem Dozenten sowie mit dem Seminar erfragt werden. Beide Skalen erweisen sich nach Antwortanalyse der Teilnehmenden aus 15 Veranstaltungen mit einer Reliabilität von über .85 und korrigierten Itemtrennschärfen von über .60 als messgenau. Eine Regression der Gesamtzufriedenheit auf die beiden Skalen erweist sich als signifikant und erklärt über 70% der Varianz des Kriteriums. Unterschiedliche Reihenfolgebedingungen des Fragebogens ergeben keine systematischen Unterschiede.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Veränderung der Stimmungslage und der Befindlichkeit durch niederfrequente repetitive transkranielle Magnetstimulation

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19

Play Episode Listen Later Jul 10, 2003


Die repetitive transkranielle Magnetstimulation (rTMS) findet seit einigen Jahren zunehmende Beachtung als potentielle Behandlungsform für eine Reihe von neurologischen und psychiatrischen Erkrankungen. Die umfangreichste Datenbasis liegt bisher für die behandlung depressiver Störungen vor. In früheren rTMS-Studien wurde ein antidepressiver Effekt nach hochfrequenter Stimulation des linken dorsolateralen präfrontalen Kortex (DLPFC) und nach niederfrequenter Stimulation des rechten DLPFC nachgewiesen. In den ersten Studien mit hochfrequenter rTMS bei gesunden Probanden wurde über hemisphärisch lateralisierte Effekte berichtet, mit einer Stimmungsverschlechterung nach Stimulation des linken DLPFC und Stimmungsverbesserung nach Stimulation des rechten DLPFC. Weitere Studien mit ähnlichen Stimulationsparameter konnten diese Ergebnisse jedoch nicht verifizieren. Stimmungseffekte nach niederfrequenter Stimulation wurden bei gesunden Probanden bislang nur in einer Studie untersucht. Effekte nach Stimulation des anteromedialen präfrontalen Kortex (AMPFC) wurden bislang nicht systematisch untersucht. Weitere, nicht stimmungsbezogene Befindlichkeitsqualitäten wurden bisher kaum einbezogen. Fragestellung der Arbeit war, ob sich auch bei niederfrequenter rTMS signifikante lateralisierte Stimmungseffekte nachweisen lassen. In einem explorativen Teil wurde zusätzlich untersucht, ob sich Veränderungen weiterer Befindlichkeitsqualitäten zeigen. Zusätzlich wurde explorativ der Einfluß bestimmter Persönlichkeitszüge auf die Reagibilität der Probanden bei den einzelnen Untersuchungsbedingungen untersucht. In einem randomisierten cross-over Design erhielten 16 rechtshändige Probanden eine niederfrequente rTMS (0,5 Hz, 150 Stimuli pro Sitzung, 120% der individuellen motorischen Schwelle) des rechten und linken DLPFC, rechten und linken AMPFC sowie des occipitalen Kortex. Die Messung der Stimmung und der Befindlichkeit erfolgte mit einer standardisierten Selbstrating-Skala (Eigenschaftswörterliste, Globalform) mit 15 Subskalen sowie mit 8 visuellen Analogskalen. Zur Messung der Persönlichkeitszüge wurden der NEO-FFI und der Sensation-Seeking-Test (SSS, Globalskala) eingesetzt. Bei allen Skalen zeigten sich deutliche individuelle Unterschiede und inkonsistente Reaktionen. Bei den Stimmungsskalen ergaben sich nach α-Korrektur keine signifikanten Effekte, Tendenzen waren jedoch erkennbar. Auch im direkten Vergleich zwischen den einzelnen Regionen fanden sich keine signifikanten Unterschiede. Bei den Befindlichkeitsskalen waren die Effekte z.T. stärker als bei den Stimmungsskalen. Nach rechts dorsolateraler Stimulation kam es vor allem zu einer Abnahme von Extravertiertheit, Vertrautheit, Konzentriertheit und des globalen Zustandes. Links dorsolateral fand sich im Wesentlichen eine Abnahme der Erregtheit sowie eine Zunahme der Verträumtheit und der Ruhe. Nach rechts anteromedialer Stimulation kam es vor allem zu einer Zunahme der Selbstsicherheit und von Ärger. Links anteromedial war eine Zunahme von Introvertiertheit und Benommenheit sowie eine Abnahme von Aktiviertheit, Empfindlichkeit und der Angst zu verzeichnen. Nach occipitaler Stimulation fanden sich kaum Änderungen. Im Vergleich zur occipitalen Kontrollbedingung zeigten sich rechts dorsolateral eine Zunahme der Empfindlichkeit und eine Abnahme der Aktiviertheit und der Vertrautheit, links dorsolateral eine Abnahme der Aktiviertheit und der Konzentriertheit. Rechts anteromedial fand sich eine Abnahme der Ängstlichkeit, links anteromedial eine Abnahme der Extravertiertheit und der Aktiviertheit. Im Direktvergleich rechts vs. links ergaben sich dorsolateral signifikante Seitenunterschiede in den Skalen „Extravertiertheit“, „Erregtheit“ und „Verträumtheit“, anteromedial bei den Skalen „Aktiviertheit“, “Benommenheit“ und „Extravertiertheit“. Auch im Vergleich dorsolateral vs. anteromedial ergaben sich signifikante Unterschiede: rechts bei den Skalen „Extravertiertheit“ und „Globaler Zustand“, links bei „Aktiviertheit“ und „Empfindlichkeit“. Bei der explorativen Untersuchung des Einflusses von Persönlichkeitsfaktoren fanden sich im Bereich der Stimmungsskalen keine signifikanten Korrelationen mit dem NEO-FFI. Bei der Persönlichkeitseigenschaft „Sensation Seeking“ (SS) ergaben sich Hinweise auf eine Beteiligung des linken AMPFC: In einem Extremgruppenvergleich kam es nach rTMS des linken AMPFC bei der Gruppe mit hohem SS zu einer leichten Stimmungsverbesserung, bei Probanden mit niedrigem dagegen eher zu einer Stimmungsverschlechterung. Tendenziell kam es nach rTMS im Vergleich beider Gruppen zu einer Angleichung der Stimmungslage. Der SSS könnte damit ein Prädiktor für ein unterschiedliches Ansprechen von Probanden auf niederfrequente rTMS des linken AMPFC sein. Die auf der Basis des explorativen Teils der vorliegenden Arbeit generierten Hypothesen müssen in zukünftigen kontrollierten Probandenuntersuchungen spezifisch getestet werden. Von zunehmender Bedeutung dürften dabei die Kombination mit weiteren Verfahren wie z.B. funktionelle Bildgebung, Neuronavigation, brain-mapping sein. Insgesamt zeigt sich, daß die Methode der rTMS ein wertvolles Forschungsinstrument zur Untersuchung der komplexen Funktion des prä-frontalen Kortex darstellt und damit zu einem verbesserten Verständnis der Regulation von Stimmung, Emotionen und Befindlichkeit beitragen kann.

Psychologie und Pädagogik - Open Access LMU - Teil 02/02
Religion ist irrational und Irrationalität ist dysfunktional?

Psychologie und Pädagogik - Open Access LMU - Teil 02/02

Play Episode Listen Later Mar 1, 2003


Der Rational-Emotiven-Theorie (RET) von Albert Ellis zufolge sind irrationale Gedanken eine zentrale Ursache für dysfunktionale psychopathologische Zustände. Auch Religiosität wird in diesem Sinne als irrational dargestellt. Hieraus wird abgeleitet, dass religiösere Menschen in höherer Weise zu dysfunktionalen irrationalen Gedanken neigen, die wiederum die Lebenszufriedenheit negativ beeinflussen. Zur Hypothesenprüfung beantworteten Probanden in einer Fragebogenstudie Skalen zur Erfassung verschiedener Religiositätsaspekte (intrinsische und extrinsische Religiosität, Durch-Gott-Mediierte Kontrolle) und klinisch validierte Skalen zu irrationalen Einstellungen sowie eine Frage zur Lebenszufriedenheit. Es zeigen sich signifikante Zusammenhänge zwischen den Religiositätsskalen und Irrationalitätsskalen. Insbesondere die extrinsische Religiosität, die als oberflächlicher Glaube zur bloßen Sicherung von sozialer Akzeptanz konzipiert ist, korreliert signifikant stärker mit klinischen Irrationalitätsskalen als die intrinsische Religiosität, die als verinnerlichter, verantwortlich gelebter Glaube definiert ist. Die Irrationalitätsskalen wiederum korrelieren hypothesenkonform signifikant mit der Lebenszufriedenheit. Quasiexperimentelle Extremgruppenvergleiche zwischen schwach und stark religiösen Personen erbringen für letztere signifikant erhöhte Irrationalitätswerte.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19
Psychiatrische und psychometrische Befunde bei PatientInnen mit Chronic Fatigue Syndrom

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 01/19

Play Episode Listen Later May 16, 2002


Seit den 80er Jahren wurde das sogenannte „Chronic Fatigue Syndrom“ mit dem sehr unspezifischen und weitverbreitetem Hauptsymptom „chronische Erschöpfung“ vermehrt zum Gegenstand medizinischen Forschung, wobei bald konzeptionelle, terminologische und klassifikatorische Probleme auftraten. Mit dem Ziel, eine Grundlage für den klinischen Zugang in der Praxis und eine pragmatische Basis für die medizinisch-wissenschaftliche Forschung zu schaffen, wurden Ende der 80er Jahre mehrere Falldefinition für das Chronic Fatigue Syndrom vorgestellt, wobei vor allem auf den Ausschluß von Erkrankungen, die maskiert als CFS auftreten können, Wert gelegt wurde. Die aktuellste und am meisten eingesetzte Falldefinition wurde von einer Expertengruppe des Center for Disease Control and Prevention, Atlanta/ USA, 1994 herausgegeben und ist auch Grundlage der vorliegenden Arbeit. In dem Bemühen, die in der Literatur vorherrschende Dichotomisierung in somatische bzw. psychologischen Untersuchungsansätze zu vermeiden, wurden im Rahmen einer primär explorativen Studie am Friedrich-Baur-Institut der Universität München 38 PatientInnen mit Chronic Fatigue Syndrom interdisziplinär untersucht. Durch enge Kooperation von Neurologie, Innerer Medizin und Psychiatrie wurden auf breiter Basis Daten erhoben mit dem Ziel, spezifische Charakteristika von CFS Patienten zu identifizieren, um somit einen Beitrag zur genaueren Erfassung und zielgerichteten Therapie leisten zu können. Zu diesem Zweck wurden alle PatientInnen sowohl internistisch und neurologisch unter Einbeziehung zahlreicher Laborparameter als auch eingehend psychiatrisch unter Berücksichtigung psychometrischer Parameter untersucht. Für die Erfassung letzterer wurden folgende Selbst- bzw. Fremdbeurteilungsskalen eingesetzt: Minnesota Multiphasic Personality Inventory = MMPI; Hopkins Symptom Check List = SCL-90-R; Montgomery Asberg Depression Rating Scale = MADRS und die Hamilton Depression Scale = HAMD). Die somatischen Untersuchungsergebnisse, die in einer anderen Arbeit dargestellt werden (Späth et al., in Vorbereitung), lassen sich an dieser Stelle dahingehend zusammenfassen, daß keine spezifischen Parameter zur Charakterisierung der CFS-PatientInnen gefunden werden konnten, wogegen die psychiatrischen und psychometrischen Untersuchungsergebnisse, auf die sich vorliegende Arbeit konzentriert, eine Reihe von Auffälligkeiten zeigten. So ergab sich in über 90% der Fälle eine psychiatrische Diagnose, wobei am häufigsten somatoforme Störungen, Neurasthenie und affektive Störungen diagnostiziert wurden. Hierzu korrespondierte, dass 82% der Patienten vor Aufnahme in die Studie bereits von Seiten Dritter eine psychiatrische, nervenärztliche oder psychotherapeutische Behandlung empfohlen worden war, allerdings nur knapp 30% zum Untersuchungszeitpunkt auch in einer solchen Behandlung waren. In ihrem subjektiven Krankheitsverständnis ging der Großteil der PatientInnen von einem überwiegend somatischen Modell der Verursachung von CFS aus und dementsprechend zeigten auch weniger als 10% eine gute Motivation für eine psychotherapeutische Behandlung. Auch die Auswertung der psychometrischen Skalen MADRS und HAMD verwies auf das Vorliegen von depressiver Symptomatik bei den CFS-PatientInnen. Bei den Selbstbeurteilungsinstrumenten MMPI und SCL-90-R waren vor allem die T-Werte derjenigen Skalen über die Norm erhöht, welche in Bezug zu den somatoformen Störungen und zur Neurasthenie stehen. Auf Basis klinischer Überlegungen wurden zwei Untergruppen von CFS Patienten gebildet, die sich bezügliche des Beginns der Symptomatik, das heißt akut versus protrahiert, unterschieden. Die kleinere Gruppe „CFS-akut“ umfaßte alle PatientInnen mit akutem Einsetzen der Symptome, die dann rasch zum Vollbild von CFS führten. Nach Auswertung der psychometrischen Instrumente fiel auf, daß sehr wenige Skalenwerte auffällig erhöht waren und die PatientInnen in der Nähe des Normalkollektivs lokalisiert waren. Erhöht waren die Werte jener Skalen, die im Zusammenhang mit somatischen Beschwerden stehen. Die größere Gruppe „CFS-protrahiert“ umfaßte alle PatientInnen mit protrahiertem Einsetzen der Symptome. Hier fanden sich auf allen psychiatrischen Instrumenten multiple erhöhte Skalenwerte, die auf eine ausgeprägte Psychopathologie in Richtung somatoforme Störungen schließen ließen. Weiterhin wurde deutlich, daß die psychosoziale Situation der CFS-PatientInnen von besonderer Bedeutung ist. Die PatientInnen dieser Studie waren in hohem Maße psychosozialen Belastungen ausgesetzt, hielten eine psychosomatische Genese ihrer Beschwerden aber ganz überwiegend für unwahrscheinlich und lehnten zumeist eine psychiatrische, nervenärztliche oder psychotherapeutische Behandlung ab. In diesem Sinne wurde das Chronic Fatigue Syndrom als abnormes Krankheitsverhalten nach Mechanic (1961) bzw. Somatisierungsprozeß nach Lipowski (1988b) verstanden.Im Einklang mit der Literatur lieferte auch die vorliegende Studie weder bezüglich der somatischen noch der psychiatrischen Befunde eindeutige Ergebnisse, die für das Chronic Fatigue Syndrom spezifisch wären. Die Resultate weisen vielmehr darauf hin, daß CFS-PatientInnen keine einheitliche Gruppe bilden, sondern tendenziell aus Untergruppen bestehen, die sich bezüglich Art und Ausprägungsgrad ihrer psychischen Auffälligkeiten unterschieden. Eine mehr an dieser psychischen Problematik orientierte Therapie, z.B. eine syndromorientierte antidepressive Therapie für die Untergruppen mit depressiver Symptomatik bzw. ein psychotherapeutisches Vorgehen, das – analog zu anderen funktionellen Erkrankungen – die Somatisierungsprozesse der PatientInnen berücksichtigt, könnte, zumindest bis bessere Therapieansätze zur Verfügung stehen, hilfreich sein.