Podcasts about kenngr

  • 29PODCASTS
  • 34EPISODES
  • 26mAVG DURATION
  • ?INFREQUENT EPISODES
  • Jan 12, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about kenngr

Latest podcast episodes about kenngr

Leben ist mehr
Unser Mond – eine besondere Idee unseres Schöpfers

Leben ist mehr

Play Episode Listen Later Jan 12, 2025 3:51


Ist der Mond etwa nur eine hübsche Verzierung am Nachthimmel? Oder doch mehr? Er ist ein absolut notwendiges Glied in jener Kette von Bedingungen, die das Leben auf der Erde überhaupt erst möglich machen. Es ist der Mond, der die Drehachse der Erde mit ihrem Neigungswinkel von 23,5 Grad stabil hält. Maßgebend hierfür ist sein außergewöhnlich großer Bahndrehimpuls um die Erde. Ohne die stabilisierende Wirkung des Mondes würde die Erde nach den Gesetzen der Chaostheorie im Raum taumeln und sich dabei auch der Sonne nähern. Das wäre der Tod allen Lebens. Für die Erde ist er weiterhin unbedingt erforderlich, da er durch den Ebbe-Flut-Mechanismus ständig die Meere durchmischt.Eine wichtige physikalische Kenngröße rotierender Körper ist der Drehimpuls. Es ist höchst bemerkenswert, dass der Bahndrehimpuls des Mondes um die Erde größer ist als der Rotationsdrehimpuls der Erde um ihre eigene Achse, und zwar um den Faktor 4,8. Bei allen anderen Planet-Mond-Systemen ist der Bahndrehimpuls des jeweiligen Satelliten nur ein kleiner Bruchteil des Rotationsdrehimpulses des Planeten. Der Bahndrehimpuls des größten Jupitermondes macht nur 0,0000004 % des Rotationsdrehimpulses seines Planeten aus.Die Liste der unwahrscheinlichen Ereignisse, die uns das Leben auf der Erde erst ermöglichen, könnte fast endlos fortgesetzt werden. Anders ausgedrückt: Die Existenz unseres Universums und des Lebens auf unserer Erde hängt nicht nur an einem, sondern an Tausenden von seidenen Fäden, die alle gleichzeitig vorhanden sein müssen. Würde auch nur einer fehlen, gäbe es uns nicht. Wie gut, dass ein weiser Schöpfer alles so präzise geplant und ausgeführt hat!Werner GittDiese und viele weitere Andachten online lesenWeitere Informationen zu »Leben ist mehr« erhalten Sie unter www.lebenistmehr.deAudioaufnahmen: Radio Segenswelle

Schneller schlau - Der tägliche Podcast von P.M.

Dürrekatastrophen, tödliche Stürme, sintflutartige Regenfälle: Künstliche Intelligenz sammelt Daten über extreme Wetterphänomene. Mit ihnen entwickelt Klimaforscher Laurens Bouwer Risikomodelle zu den Auswirkungen des Klimawandels. Er berechnet, wo in Deutschland künftig am ehesten die Keller volllaufen und erklärt, wie gute Stadtplanung das verhindern kann. Im Schneller Schlau-Spezial „Hereon Academy“ befragen ihn Tech-Journalistin Svea Eckert und Torsten Fischer vom Helmholtz-Zentrum Hereon. +Das Helmholtz-Zentrum Hereon unterstützt den Podcast „P.M. Hereon Academy“ mit der wissenschaftlichen Recherche und stellt Audio-Dateien zur Verfügung. +Shownotes: Laurens Bouwer, Bio und Kontakt: https://www.gerics.de/about/team/077939/index.php.de +Klima Atlas: https://interaktiv.morgenpost.de/klimawandel-hitze-starkregen-deutschland-karte/ +Forschung von Climate Service Center Germany (GERICS) zu KI: https://www.openaccessgovernment.org/machine-learning-helps-to-improve-climate-services/175686/ +Wie Klimawandel krank macht, GERICS/ BKK Studie: https://www.gerics.de/about/news_and_events/news/103043/index.php.de + Weitere Studien und Fakten aus dem Podcast: Hitze in Deutschland: https://www.rki.de/DE/Content/Gesundheitsmonitoring/Gesundheitsberichterstattung/GBEDownloadsJ/Focus/JHealthMonit_2023_S4_Hitze_Sachstandsbericht_Klimawandel_Gesundheit.pdf?__blob=publicationFile +Wissenschaftler der Universitäten Stanford und Colorado State haben im Rahmen einer Studie künstliche Intelligenz eingesetzt, um den kritischen Zeitpunkt der Erderwärmung vorherzusagen: https://www.theguardian.com/environment/2023/jan/30/climate-crisis-global-heating-artificial-intelligence + Zu dem Stromverbrauch von KI und dem Vergleich mit Island: „In 2021, Google's total electricity consumption was 18.3 TWh, with AI accounting for 10%–15% of this total.2 The worst-case scenario suggests Google's AI alone could consume as much electricity as a country such as Ireland (29.3 TWh per year)”: https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3 + Forschende nutzten ein Deep-Learning-System, um mehr als 100.000 wissenschaftliche Studien zu den Auswirkungen des Klimawandels auszuwerten. Eines der Ergebnisse der Metaanalyse: Über 80 Prozent der globalen Landfläche sind inzwischen nachweislich vom menschengemachten Klimawandel betroffen. https://www.nature.com/articles/s41558-021-01168-6.epdf?sharing_token=fW-UnjSySsP1mzP0QlX2WdRgN0jAjWel9jnR3ZoTv0PwAcRfhcoupIk0A95eY8_-lUvstnryI-SR9UaIsiFOg2CdF-TlyNfOb92Bx8kLLL-nQOKc4717hfAPmNx1_oS6R3_2i9sabnYtUpZgvBnMIrT_bGVCm4G2qUSkVsDAak5iCQmR7OTXL6q1Mj9LbK1zKW0gmBhAkb4x8pTH-hICzr8DOjr4H827iuDa_uRnPuY%3D&tracking_referrer=www.derstandard.de + Eine Studie untersuchte die klimatischen Verhältnisse von vier Messstationen in Berlin für den Zeitraum 2001-2015 anhand der beiden Kenngrößen „Heiße Tage“ und „Tropennächte“. Während an den unterschiedlich gelegenen Stationen die Anzahl Heißer Tage vergleichbar hoch war, traten Tropennächte an der innerhalb dichter, innerstädtischer Bebauungsstrukturen gelegenen Station wesentlich häufiger (mehr als 3 mal so oft) auf, als auf Freiflächen. https://www.umweltbundesamt.de/sites/default/files/medien/4031/publikationen/uba_krug_muecke.pdf + KI ist auch in der Klimaforschung voreingenommen - mit schwerwiegenden Folgen, beispielsweise falschen Prognosen für CO2-Emissionen: https://www.nature.com/articles/s44168-023-00056-3 +++Unsere allgemeinen Datenschutzrichtlinien finden Sie unter https://art19.com/privacy. Die Datenschutzrichtlinien für Kalifornien sind unter https://art19.com/privacy#do-not-sell-my-info abrufbar.

Börsenradio to go Marktbericht
Börsenradio Schlussbericht Mi., 12.06.24: Zinshoffnungen dank besserer US-Inflation

Börsenradio to go Marktbericht

Play Episode Listen Later Jun 12, 2024 17:52


Schlusskurse Frankfurt: DAX +1,4 % bei 18.631 Punkten. MDAX +1,2 % bei 26.773 Punkten. Auch Wall Street und Techwerte sind gut aufgelegt. Grund für die gute Stimmung sind wieder einmal die Hoffnungen auf sinkende Zinsen, auch in den USA. Genährt durch leicht bessere Inflationsdaten. Die Teuerung in den USA liegt nur noch bei 3,3 % nach 3,4 %. Sicherlich nur eine leichte Verbesserung, aber der Markt macht daraus die wichtigste Kenngröße der Woche. Ob die Fed sich tatsächlich beeindrucken lässt, erfahren Anleger erst nach Börsenschluss. Die Zahl der erwarteten Zinssenkungen ist schrittweise nach unten korrigiert worden in den ersten sechs Monaten des laufenden Jahres. Deutsche Autowerte sind am Mittwoch auf der Verliererstraße. Die EU hat happige Strafzölle auf Elektroautos aus China angekündigt. Das könnte sich aber als Bumerang erweisen, weil China seinerseits auf deutsche Autos Zölle erheben wird. Zinsen, Rohstoffe und Kryptoassets sind die wichtigsten Themen in unseren heutigen Interviews, die Sie wie immer in Auszügen hören. Die Langfassung jeweils für registrierte Hörer kostenfrei bei Börsenradio.de.

Triathlon Querbeet mit Michael, Vedat und Henning
#169 Von einer Tomatenmarkdose zum Lumen-World-Champion - made in Germany

Triathlon Querbeet mit Michael, Vedat und Henning

Play Episode Listen Later Jan 24, 2024 70:43


Eine lange Episode wartet auf die Zuhörer rund um das Thema Fahrradbeleuchtung.Dazu gibt David Gedanitz von Supernova viele Einblicke und Tipps. Das Motto im Radbereich heißt "Sehen & Gesehen werden". Die Zuhörer bekommen von David Tipps zum Kauf einer geeigneten Leuchte für ihr Rad. Außerdem werden die physikalischen Kenngrößen Lux und Lumen sehr verständlich erklärt und warum billige Leuchten auf dem Markt gefährlich sein können. Alle Fragen rund um die Beleuchtung wie z.B. was macht eine gute Beleuchtung aus, was ist ein gutes Leuchtbild, was ist die Zukunft für Radleuchten, wo geht die Entwicklung hin und wie kann ich meine Leuchte bei einem Neukauf eines Rades im Rahmen des Jobrad's/Bikeleasings sehr kostengünstig finanziert, werden in dieser Episode ausführlich besprochen.Gleichzeitig geben Michi & Henning Einblicke in die eigenen Erfahrungen mit den Leuchten von Supernova. Warum Michi nun der Lichtkönig von Mölln ist? Hört es Euch an!

Wohlstand für Alle
Ep. 181: Wie das BIP zur mächtigsten Zahl der Welt wurde

Wohlstand für Alle

Play Episode Listen Later Jan 25, 2023 28:24


Das Bruttoinlandsprodukt ist die vielleicht mächtigste Zahl der Welt. Wie gut es einem Land geht, drückt sie angeblich unmissverständlich aus. Das BIP zu erhöhen, ist das Ziel aller kapitalistischer Staaten, nicht zuletzt, um in der internationalen Konkurrenz bestehen zu können. Jährlich wird die Produktivkraft einer Volkswirtschaft mit dem BIP ausgewiesen, doch diese Kenngröße existierte nicht schon immer. Jahrhunderte lang interessierte man sich für den volkswirtschaftlichen Gesamtwert allenfalls peripher, erst im dem Zweiten Weltkrieg wird das Bruttosozialprodukt, das ähnlich wie das BIP berechnet wird, zu einer für die US-Regierung eminent wichtigen Zahl. Was einst gedacht war, um zu ermitteln, wie wehrhaft und produktiv die Kriegswirtschaft sein kann, wurde nach 1945 fortgeführt und bald von allen westlichen Volkswirtschaften übernommen. Nach 1989 kam diese Berechnungsmethode dann in allen Ländern dieser Erde an. Doch es gibt viel Kritik am BIP, denn es sagt wenig darüber, wie gut es Menschen in einer Volkswirtschaft geht oder ob diese klimaverträglich organisiert ist. Die Rede vom BIP verschleiert oft mehr als sie erhellt. In der neuen Folge von „Wohlstand für Alle“ zeichnen Ole Nymoen und Wolfgang M. Schmitt die Geschichte des BIPs nach und zeigen dessen Schwächen auf. Literatur: Mathias Brüggmann im „Handelsblatt“ über Russlands Wirtschaft: https://www.handelsblatt.com/politik/international/ukraine-krieg-russlands-wirtschaft-droht-der-zusammenbruch/28919870.html?nlayer=Newsticker_1985586. Stephan Kaufmann zum BIP: https://www.fr.de/meinung/waechst-denn-10995929.html. Stephan Kaufmann über Aufrüstung und BIP: https://www.rifs-potsdam.de/sites/default/files/files/13.8.fr_lepenies.pdf. Philipp Lepenies: Die Macht der einen Zahl. Eine politische Geschichte des Bruttoinlandsprodukts, Suhrkamp. Am 25. Januar diskutiert Ole online mit Ulrike Herrmann: https://www.youtube.com/watch?v=PoigG6ZSMXM. Am 8.2. tritt Wolfgang an der Uni Kassel auf: https://twitter.com/MXPichl/status/1614972612647460865. Ihr könnt uns unterstützen - herzlichen Dank! Paypal: https://www.paypal.me/oleundwolfgang Konto: Wolfgang M. Schmitt, Ole Nymoen Betreff: Wohlstand fuer Alle IBAN: DE67 5745 0120 0130 7996 12 BIC: MALADE51NWD Patreon: https://www.patreon.com/oleundwolfgang Steady: https://steadyhq.com/de/oleundwolfgang/about Twitter: Ole: twitter.com/nymoen_ole Wolfgang: twitter.com/SchmittJunior Die gesamte WfA-Literaturliste: https://wohlstand-fuer-alle.netlify.app

InterACT Insights
#94 Über eine Renditeformel für Social Impact : InterACT Insights mit Werner Knips (Partner Emeritus Real Estate, Private Equity and CEO & Board Practice Heidrick & Struggles GmbH & Co. KG)

InterACT Insights

Play Episode Listen Later Oct 7, 2022 42:10


Drei Jahrzehnte lang war er DER Karrieremacher in der deutschen Immobilienwirtschaft: Werner Knips. Für die internationale Personalberatung Heidrick & Struggles baute er die Immobiliensparte auf und besetzte Geschäftsführer- und Vorstandsposten. Heute treibt der gebürtige Rheinländer Themen wie Good Governance und Social Impact Investing voran. „Immobilienprojekte brauchen neben einer wirtschaftlichen Rendite auch eine ökologische und eine soziale Rendite“, sagt Knips. Als Stellvertretender Vorstandsvorsitzender des Instituts für Corporate Covernance in der deutschen Immobilienwirtschaft (ICG) will der die oftmals rein profitgetriebene Industrie zu einer nachhaltigeren Form des Wirtschaftens einladen. Dafür lobt das ICG in diesem Herbst erstmalig zusammen mit dem Immobilien Manager Verlag einen Award aus, der an Projekte verliehen wird, die einen besonderen ökologischen und sozialen Beitrag leisten. Parallel dazu erstellt das ICG wissenschaftliche Studien und arbeitet auch an einer neuen Renditeformel, die auch ökologische und soziale Kenngröße abbildet. Der Rotonda Business Club präsentiert in Partnerschaft mit Gira, Orgatec und rheinfaktor die neue Stimme der Immobilienwirtschaft. DER BUSINESS CLUB DES 21. JAHRHUNDERTS Der Rotonda Business Club ist das größte aktive Netzwerk für unternehmerisch denkende und handelnde Menschen in Deutschland. Unsere 8 Clubstandorte bieten Raum für Beziehungen und neue Ideen. Hier können Sie sich in einem zukunftsorientierten, professionellen Ambiente mit interessanten Menschen austauschen und neue Impulse für Ihr Business gewinnen. Als Mitglied stehen Ihnen unsere Räume und Veranstaltungen in allen wichtigen Städten Deutschlands offen. Unsere Clubmanager sind persönlich für Ihre Anliegen da und kümmern sich aktiv um Ihre Themen und Anforderungen. Selbstverständlich profitieren Sie auch von unserem starken Netzwerk, vielfältigen Services und hochkarätigen Veranstaltungen. Sprechen Sie uns an. Wir freuen uns auf Sie! InterACT Insights ist auch Ihr Podcast! Wir laden Sie ein zum Austausch, Diskutieren und Mitgestalten. Schicken Sie uns Ihr Feedback, Ihre Anregungen und Themenvorschläge per Mail an podcast@rotonda.de!

Männlichkeit stärken - Im Gespräch
#128 So lang solltest du beim Sex durchhalten (stat. Durchschnitt vs. guter Sex)

Männlichkeit stärken - Im Gespräch

Play Episode Listen Later Jul 31, 2022 8:05


Wäre Sex nur eine exakte Wissenschaft... trotzdem gibt es ein paar interessante Kenngrößen, die für den Mann sehr interessant sein können, wenn es um die Dauer beim Sex geht. Wie lange sollte Sex dauern und was ist der statistische Durchschnitt? Genau darum geht es in dieser Episode. Folge direkt herunterladen

Irgendwas mit Daten - Datenanalyse in der Industrie

Die Weibull-Verteilung ist die Verteilung, die am häufigsten im Bereich Zuverlässigkeit & Lebensdauer eingesetzt wird. Der Name "Weibull-Verteilung" ist tatsächlich ein Plagiat. Viele Jahre vor der Veröffentlichung von Waloddi Weibull hatten andere dieselbe Verteilung unter "Rosin-Rammler-" oder RRSB-Verteilung beschrieben. In dieser Folge werden Anwendungsbeispiele für die Weibull-Verteilung beschrieben und Methoden vorgestellt, mit denen Ausfallsteilheit und charakteristische Lebensdauer sowie weitere Kenngrößen ermittelt werden.

Elektrotechnik Podcast by Giancarlo
Elektrotechnik-Podcast #43: Regelkreisverhalten (Stör- und Führungsverhalten)

Elektrotechnik Podcast by Giancarlo

Play Episode Listen Later Apr 16, 2022 13:42


Das Wort Regelkreisverhalten selbst sagt den meisten nur wenig. Aber wusstet ihr, dass das Wissen über Stör- und Führungsverhalten erst dazu geführt hat, dass z.B. die Homogenisierung von Milch in dem Maße möglich gemacht wurde, wie wir sie heute kennen?Das Störverhalten eines Regelkreises bezieht sich auf einen sogenannten Störgrößensprung und das Führungsverhalten, auf einen Führungssprung am Regler. Zur Beurteilung der Qualität dieser beiden Verhaltensweisen, dienen gewisse Kenngrößen (die Überschwingweite und die Ausregelzeit).Warum es wichtig ist, das Verhalten eines Regelkreises zu kennen, um entsprechend einen passenden Regler auswählen zu können und was es mit den genannten Kenngröße aus sich hat, erfahrt ihr in dieser Folge des Elektrotechnik-Podcast.Support this podcast at — https://redcircle.com/elektrotechnik-podcast/donationsAdvertising Inquiries: https://redcircle.com/brandsPrivacy & Opt-Out: https://redcircle.com/privacy

Elektrotechnik Podcast by Giancarlo
Elektrotechnik-Podcast #41: Regelstrecken mit Ausgleich

Elektrotechnik Podcast by Giancarlo

Play Episode Listen Later Apr 2, 2022 18:33


Fällt z.B. die Regelung aus, so stellt sich bei einer Regelstrecke mit Ausgleich, die Regelgröße X immer auf einen neuen festen Wert ein (dabei spricht man auch vom sog. Beharrungszustand der Regelgröße X).In dieser Folge des Elektrotechnik Podcast nimmt Giancarlo the Teacher Regelstrecken mit Ausgleich ganz genau unter die Lupe. Welche Streckentypen mit Ausgleich gibt es, wie werden diese gekennzeichnet und was hat die eulersche Zahl damit zu tun?Anhand sehr verständlicher Beispiele, die jeder aus seinem Alltag kennt, wirst auch Du die Kenngrößen KS und T, sowie die Begriffe Verzugs- und Ausgleichszeit, dieser Strecken verstehen und auslesen können.Support this podcast at — https://redcircle.com/elektrotechnik-podcast/donationsAdvertising Inquiries: https://redcircle.com/brandsPrivacy & Opt-Out: https://redcircle.com/privacy

Sweetspot-Training.at
FTP, VLamax, Vo2Max? Kenngrößen und deren Relevanz - Sweetspot Podcast: Formschraube #30

Sweetspot-Training.at

Play Episode Listen Later Jan 14, 2022 38:42


Nach viel Plauderei wirds wieder Zeit für eine Formschraube - wir stellen uns also mal wieder die Frage: Wie werden wir schneller? Heute soll es mal ganz konkret um Kenngrößen gehen, und dabei nicht nur um die allseits bekannte FTP, sondern um weit mehr. Außerdem sprechen wir darüber, wieso diese Werte so interessant sind, und vor allem: Für wen! Viel Spaß beim Hören! Habt ihr Feedback oder Fragen: info@sweetspot-training.at FB: https://www.facebook.com/Sweetspottrainer Insta:https://www.instagram.com/sweetspottraining Anchor:https://anchor.fm/sweetspot-training Youtube: https://bit.ly/3cq9Btm

HERDING - Akademie - Der Podcast
1.2 Staub und sicherheitstechnische Kenngrößen

HERDING - Akademie - Der Podcast

Play Episode Listen Later Jan 4, 2022 21:39


Heute sprechen wir über Staub: Wann spricht man von Stäuben? Wann geht von Ihnen eine Gefahr aus? Welche sicherheitstechnische Kenngrößen gibt es um Stäube genauer zu beschreiben?

freaky finance
Einkommensoptionäre: Optionstrade in der TWS - Marktüberblick, Parameter, Laufzeit und Limitorders

freaky finance

Play Episode Listen Later Dec 25, 2021 46:58


In dieser 10. Folge der "Einkommensoptionäre" sprechen Luis Pazos vom Blog "Nur Bares ist Wahres" und ich wie angekündigt über das Aufsetzen eines Trades in der TWS und welche Parameter und Kenngrößen bei uns beiden Beachtung finden. In der nächsten Folge sprechen wir dann über die Überwachung eines laufenden Trades und wie man diesen bearbeitet, rettet, adjustiert, rollt und so weiter. Dieser Podcast als Video:

Sternzeit - Deutschlandfunk
Kenngrößen zur Beschreibung des Klimas - Die Klimavariablen und die Messung aus dem All

Sternzeit - Deutschlandfunk

Play Episode Listen Later Nov 12, 2021 2:32


Der Zustand unseres Klimas lässt sich mit Hilfe der 54 "wesentlichen Klimavariablen" charakterisieren, die die Fachleute definiert haben. Dazu gehören die Oberflächentemperatur der Erde, die Ausdehnung der Eiskappen an den Polen oder der Grundwasserspiegel.Von Dirk Lorenzenwww.deutschlandfunk.de, SternzeitHören bis: 19. Januar 2038, 04:14Direkter Link zur Audiodatei

freaky finance
Die Einkommensoptionäre: Wie wir geeignete Basiswerte finden - Auswahl des Underlyings für den Optionshandel

freaky finance

Play Episode Listen Later Oct 25, 2021 50:10


In dieser 9. Folge der "Einkommensoptionäre" sprechen Luis Pazos vom Blog "Nur Bares ist Wahres" und ich über die Auswahl eines Underlyings (Basiswert) für den Optionshandel. In der nächsten Folge gehen wir darauf ein, wie wir einen solchen Trade in der TWS umsetzen und welche Parameter und Kenngrößen hier Beachtung finden. In einem weiteren Teil werden wir dann die Beobachtung eines laufenden Trades besprechen und wie man diesen bearbeitet, rettet, adjustiert, rollt und so weiter.

AWAKE Mobility Podcast
#23 Hypergrowth E-Scooters - mit Marvin Püth (Director of Expansion @TIER Mobility)

AWAKE Mobility Podcast

Play Episode Listen Later May 17, 2021 49:05


Heute haben wir Marvin Püth zu Gast. Der Director of Expansion bei TIER Mobility erzählt zunächst von seiner Vergangenheit bei BMW, seiner Begeisterung für On-Demand- und Micro-Mobility und seinem Einstieg bei TIER. Er erklärt, wie sich das Geschäftsmodell seit der Gründung von TIER verändert hat und warum für sie die Gig-Economy keine Option bei der Expansion war. Außerdem spricht Marvin über die Rolle von Wiederverwendung und Recycling bei der Instandhaltung von E-Scootern. Bei der Expansion verdeutlicht Marvin, wieso TIER zuerst Trial & Error versuchte, aber jetzt die Erfahrungen gesammelt hat, um neue Städte aufgrund von konkreten Kenngrößen und Faktoren auszuwählen. Zuletzt beschreibt er die Relevanz von dezentralen Entscheidungsstrukturen bei schnellem Wachstum und beantwortet nachvollziehbar die Königsfrage hinsichtlich des Parkens der Scooter. Wir wünschen euch viel Spaß mit der Folge!

Triathlon Querbeet mit Michael, Vedat und Henning
#38 FTP - Was ist das denn? Vedat & Henning sind auf der Spur der FTP / Konkreter Trainingsplan für ein Trainingslager@Home

Triathlon Querbeet mit Michael, Vedat und Henning

Play Episode Listen Later Mar 24, 2021 71:22


Jeder hat sich irgendwann mal die Frage gestellt, ob sein Radtraining seine Leistung verbessert hat. Wie kann Jedermann & Jedefrau das ganz einfach selber messen und anschließend auswerten. Dazu geben Vedat & Henning praktische Tipps und bringen Licht ins Dunkle der Kenngröße FTP. Gleichzeitig sprechen beide über den Trainingsplan vom Coach für Hennings Trainingslager@Home.

I Love Cashflow - Der Podcast für alle Liebhaber des passiven Einkommens
#098: Der einzig wahre Schw...vergleich: Der Passiv-Einkommens-Quotient (PEQ)!

I Love Cashflow - Der Podcast für alle Liebhaber des passiven Einkommens

Play Episode Listen Later Jan 18, 2021 27:55


Alle Infos zu unseren Onlinekursen: www.larskrause.com/produkte Alle Infos zu unserem Tool, dem Cashflow Manager Pro: www.larskrause.com/tool Unser gratis eBook für den Schnellstart: www.larskrause.com/ebook Es treibt mich als Passiv-Einkommens-Investor schon seit Monaten um: Ich wollte endlich eine Kenngröße haben, mit der man seinen persönlichen Lifestyle in Bezug zu seinen Finanzen ermitteln kann. Genau das ist dabei rausgekommen: Der Passiv-Einkommens-Quotient (PEQ). In dieser Kenngröße sind verschiedene Faktoren wie Höhe des aktiven Einkommens, die Arbeitszeit, die Höhe des passiven Einkommens und der Zeitaufwand für die Verwaltung dafür integriert. Der Quotient wird wie folgt ermittelt: PEQ = „Höhe mtl. aktives Einkommen in Euro“ x (1+ „Freizeit/Woche in h“) + („Höhe mtl. passives Einkommen in Euro“ x 10) / 1 + („mtl. Zeitaufwand für Verwaltung“ x 0,5) x 100 Dieser auf den ersten Weg komplizierte Rechenweg bildet vor allem das Ziel ab, dass du nicht 100% weg von der aktiven Arbeit kommen sollst, sondern viel mehr zweigleisig fährst, also ein aktives Einkommen aufbaust, das aus einem Beruf resultiert, die dir Spaß macht. Zum Zweiten bekommt derjenige einen hohen Quotienten, der zusätzlich noch ein passives Einkommen mit möglichst wenig Verwaltungsaufwand aufbaut.   Viel Spaß mit dieser Folge;-)   ACHTUNG: Es handelt sich um KEINE Anlageberatung oder Kaufempfehlung! Alle Angaben zu Renditen etc. sind ohne Gewähr, sondern basieren nur auf eigenen Erfahrungen!      ____________________________________ Der Podcast mit Reality-Check und 100% Echtheitsgarantie! ____________________________________ Schau dir mein aktuelles eBook für den Aufbau deines passiven Einkommens auf www.larskrause.com an. Eine wahre Wissensbombe mit der Echtheitsgarantie (100% selber gelebt). Wenn du immer up-to-date in Sachen „passives Einkommen“ sein möchtest, dann trage dich direkt auf www.larskrause.com/ebook ein. In regelmäßigen Abständen sende ich dir meine neusten Erkenntnisse, spannendsten Hacks und konkrete eigene Investmenterfahrungen! Have fun;-) Dein Lars Krause https://www.larskrause.com/impressum/ https://www.larskrause.com/datenschutz/

Erfolgswissen für Mensch und Wirtschaft

http://www.edithkarl.com So mancher fühlt sich durch Kennzahlen unter Druck gesetzt. Andere schwören auf die Aussagekraft von Messgrößen. Meine Meinung dazu: je nachdem und es kommt drauf an. Ich erzähle dir hier ein Beispiel aus meiner Praxis als Coach und Leiterin von Klausuren. Mit diesen Schritten, die ich dir hier vorstelle, erarbeitet der Führungskreis die für das Unternehmen und die derzeitige Situation am besten geeigneten Kenngrößen. In diesem Projekt erkannten die Mitarbeiter deutlich, an welchem Platz sie in der Organisation stehen und wie wichtig ihre Arbeit ist. Sie haben mit noch mehr Engagement gedankt. Es sind oft einfache Maßnahmen, die große Wirkung zeigen, vor allem dann, wenn eine wertschätzende Einstellung dabei deutlich wird. Halt uns auf dem Laufenden und hinterlasse uns deine Kommentare und Fragen. Noch in diesem Jahr öffnen wir unsere Akademie für Leben und Beruf. Da warten viele Schmankerln auf dich und: es gibt hervorragende Kurse für Führungskräfte und für deine ganz persönliche Exzellenz. Willst du zu den ersten gehören, die mehr darüber erfahren? Dann trag dich hier in diese Warteliste ein.  www.diemutbotschafterin.com So bleibst du sicher auf dem Laufenden.

Agiles Projektmanagement
#004 Wie du den NPS (Net Promotor Score) manipulieren kannst

Agiles Projektmanagement

Play Episode Listen Later Aug 10, 2020 16:47


Der NPS gilt in Unternehmen wie Apple, Ebay, Facebook, Amazon, Aldi, Telekom, Automobilkonzernen, Banken, ... als wichtige Kenngröße für Unternehmenserfolg. Und da er mit nur einer EINZIGEN FRAGE auskommt, wird er gern in die Jahresziele von Managern, Projektleitern, Product Ownern und UX-Experten aufgenommen. Hör dir diese Folge an, um das Rüstzeug im Zielgespräch mit deiner Führungskraft zu haben. Lerne in dieser Folge: - Der NPS anhand eines Beispiels einfach erklärt - Vor- und Nachteile dieser Methode - Wie kannst du den NPS manipulieren

Planet Wissen
Corona: Kann man der Reproduktionszahl trauen?

Planet Wissen

Play Episode Listen Later May 9, 2020 5:37


R - die Reproduktionszahl gilt als wichtigste Kenngröße dafür, wie gut wir das Coronavirus im Griff haben. Sie gibt an, wie viele weitere Menschen ein Infizierter ansteckt - rein statistisch. Sinkt sie unter 1, gilt die Seuche als beherrschbar. Doch die Zahl hat auch ihre Tücken. Philip Häusser erklärt, wie man sie interpretieren muss.

Lost in the Cloud?
Episode 36 - mit Florian Schweikert: Wichtige Messgrößen für den Erfolg von Instagram Kampagnen

Lost in the Cloud?

Play Episode Listen Later May 22, 2019 30:21


Florian Schweikert ist Advertising Lead bei der Werbeagentur Cloudthinkn und erklärt uns, welche Kenngrößen bei der Bewertung von Instagram Content-Kampagnen erkennen lassen, ob die gewählten Zielgruppen gut zum Instagram-Content passen und damit auch die Community wächst.

DIGITAL LEADERSHIP | GENIUS ALLIANCE
Welchen digitalen Reifegrad hat Dein Unternehmen?

DIGITAL LEADERSHIP | GENIUS ALLIANCE

Play Episode Listen Later Jul 16, 2017 12:11


Ja ja, die Wissenschaft … Über den Sinn und Nutzen der Digitalisierung gibt es Expertisen wie Sand am Meer. Alles ist durchgerechnet, und solche Programme haben auch einen großen Nutzen insofern, als sie sowohl dem unbedarftesten Laien als auch dem kritischsten Experten den Sinn beweisend unter die Nase reiben. So wäre es doch interessant, einmal zu hinterfragen, ob und wie Firmen, die eigentlich dem „Low-Tech“-Bereich angehören, digitalisiert werden können; ob sich das überhaupt lohnt und welche Rationalisierungseffekte sich daraus ergäben.   Um dies herauszubekommen, bedient man sich – was sonst? – digital berechneter Algorithmen, die auf sog. QCA-Vergleichsanalysen beruhen. Liest sich kompliziert, ist aber eigentlich logisch: Der US-amerikanische Soziologieprofessor Charles Ragin ersann diese Methode, um ausrechnen zu können, ob z.B. bestimmte, noch nie ausprobierte Geschäftsideen Erfolg haben können oder nicht. Sämtliche bekannten Determinanten (Einflussgrößen) ökonomischer, soziologischer, personalpolitischer, steuerrelevanter etc. Natur (also alles) werden in die Algorithmen qualitativ einbezogen, quantitativ eingepreist und auf der Grundlage betriebswirtschaftlicher Kenngrößen gegen- und miteinander abgewogen. Das Kürzel „QCA“ steht für Qualitative Comparative Analysis. Das Ergebnis der QCA-Analyse gibt dann sehr eindeutig Auskunft über den Sinn oder Unsinn einer Investition.   Die QCA-Methode anzuwenden macht überall dort Sinn, wo es z.B. um Investitionen in neue technische Anwendungen geht, die zwar all überall empfohlen, deren Wirtschaftlichkeit aber noch unbekannt ist oder angezweifelt werden muss. Genau dies ist bei kleinen Low-Tech-Unternehmen oftmals der Fall.   Nun kommt bei den Analysen fast durchgehend (und eigentlich wenig überraschend) heraus, dass sich sogar für noch so kleine Low-Tech-Klitschen, die schon allein aufgrund ihres Angebotsportfolios eine ganz besonders geringe Technologieneigung aufweisen, Investitionen in digitale Technologien dennoch mehr als lohnen. Ein entsprechendes Potential ist, sogar wenn es auf den ersten und auch den zweiten Blick nicht so erscheinen mag, immer vorhanden. Immer. Deshalb ist auch der Politik zuzuraten, ihren Blick auf kleine und kleinste Unternehmen zu richten. Übrigens nicht nur aus ökonomischen Gründen, sondern auch, weil gerade kleine Unternehmen, hinsichtlich ihres Humankapitals von unschätzbarem kulturellem und innovativem Wert für eine Gesellschaft sind. Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) klassifiziert Unternehmen anhand einer auf technologischen Standards basierenden Skala in hoch-, mittelhoch, mittel- und niedrig technisiert, hinzu kommen die Forschungs-und Entwicklungsintensitäten, die die erfassten Firmen aufweisen. Wir nennen es den „digitalen Reifegrad“.   Klassische Low-Tech-Firmen sind kleine Unternehmen, die typischerweise der Lebensmittel-, Getränke-, Textil-, Papier-, Druck- und Schuhbranche angehören. Sie weisen traditionell nur sehr geringe Forschungs- und Entwicklungsneigungen und, wenn überhaupt, sehr kleine Forschungs- und Entwicklungsbudgets auf, in Prozenten gerechnet weniger als 1 %. Im Vergleich dazu buttern Hochtechnologiefirmen durchschnittlich 7 % ihrer Umsätze in technische Investitionen.   Nichtsdestotrotz können natürlich auch Niedrigtechnologiefirmen technisch, also digital, aufgerüstet und so erheblich wirtschaftlicher und effizienter werden. Dass solche Unternehmen bis jetzt kaum auf dem Radar der Politik erschienen bzw. von dieser vernachlässigt worden sind, mag darauf zurückzuführen sein, dass „Low Tech“ syllogistisch mit „Low Innovation“ gleichgesetzt wird. Ein fataler Irrtum. Und ein Trauerspiel.   Zwar sind die Low-Tech -Firmen per Definitionem Support the show (https://www.paypal.com/cgi-bin/webscr?cmd=_s-xclick&hosted_button_id=2PU5W9H752VZJ&source=url)

DIGITAL LEADERSHIP | GENIUS ALLIANCE
Humane Ressourcen als Sogkraftverstärker von Marken

DIGITAL LEADERSHIP | GENIUS ALLIANCE

Play Episode Listen Later Jun 2, 2017 10:44


  Wir hatten bereits dargelegt, dass der Begriff der Ressource für Menschen zwar aus ethisch-moralischen Gründen umstritten ist, weil zuweilen Zweifel daran geäußert werden, dass Menschen und Menschengruppen auf der Grundlage ihrer ökonomischen Verwendbarkeit bewertet werden dürfen, wie dies im Fall von Ressourcen üblich ist.   Dies konnte jedoch entkräftet werden: Das Konzept des Human Resource Management steht nämlich in Opposition zu den alten, aus den USA stammenden Tayloristischen Maßgaben, die den Menschen zur betrieblichen, wirtschaftlich auszubeutenden Kenngröße degradierten.   Gerade die neuen digitalen Techniken haben den Menschen aus dem alten Korsett zeitlich und motorisch getakteter Arbeitsabläufe befreit. Zur Betrachtung des Menschen als Sinn- und Freiheitssuchendem Individuum gibt es, zum Glück, keine Alternative mehr.   Wenn wir von betrieblichen Ressourcen sprechen, meinen wir Kapazitäten und Potentiale, die für die Performance und Belastbarkeit sowie den wirtschaftlichen Erfolg der Marke stehen. Zu diesen Potentialen und Kapazitäten gehören an allererster Stelle die Fähigkeiten von gesuchten wie von bereits vorhandenen Mitarbeitern, um die sich das Human Resource Management kümmert.   Human Resource Management wie wir es verstehen, ist auch als Bestandteil des strategischen Controllings aufzufassen. Menschen und ihre Fähigkeiten werden gesucht, gemanagt, geschult und projektbezogen eingesetzt. Dabei stehen Soft Facts, die mit den psychischen Einstellungen der Mitarbeiter im Zusammenhang stehen, im Vordergrund: Freude an der Arbeit, Identifikation mit der Marke, sinnvolles Handeln, Nachhaltigkeit etc. Mitarbeiter, die die erwähnten Eigenschaften aufweisen, werden ihre Aufgaben motivierter angehen und dies auch entsprechend nach außen kommunizieren.     Nun dient alles, was ein Markenkonstrukt ertüchtigt, gleichzeitig der Verstärkung dessen Sogwirkung.   Es mag banal klingen, bedarf aber, weil die Digitalisierung zuweilen mit einer menschenfernen „Automation des Geistes“ assoziiert wird, der wohldosierten Wiederholung: Alles, was in Unternehmen geschieht – von der Idee über die Kostenrechnung bis zur (hoffentlich) bereits vollzogenen Digitalisierung – strahlt in das Markenkonstrukt hinein und beeinflusst dessen Sogwirkung.   Da Marken von Menschen für Menschen ausgedacht, gemacht, gemanagt und vermarktet werden, spielt alles, was sich um die als Soft Facts bezeichneten psychischen Formate von Mitarbeitern dreht, eine besonders große Rolle: Motivation, Loyalität und Identifikation mit der Marke sind wichtige Bedingungen für deren Erfolg. Aber Herz allein genügt nicht. Was noch mehr zählt, ist die Qualifikation: Der Kopf!   Human Resource Management  als „unternehmensinterne Dienstleistung“   Beim immer schärfer werdenden Wettbewerb um die besten Köpfe kommt dem Personalmanagement  eine immer wichtigere Rolle im Unternehmen zu. Dies gilt in besonderem Maße für international agierende, multinationale Unternehmen; aber auch für den regional verwurzelten Mittelstand werden die Anforderungen und Problemstellungen im Bereich der Personalwirtschaft immer komplexer.   Gründe für die Wettbewerbsverschärfungen sind neue Anforderungen an Mitarbeiter, die mit der Globalisierung und dem unvermeidlichen digitalen Wandel einhergehen. Dieser Wandel wiederum fordert neuen und bereits vorhandenen Mitarbeitern Fähigkeiten ab, die sie entweder bereits besitzen oder die sie sich erst noch erarbeiten müssen. Vor allem für bereits länger in Unternehmen Beschäftigte können die mit der Digitalisierung verbundenen neuen Anforderungen als Bedrohung erscheinen. Hinzu kommen demographische Probleme, die eine massive Knappheit geeigneter Fachkräfte verursachen.   Zurzeit sind die PersonalabteilungSupport the show (https://www.paypal.com/cgi-bin/webscr?cmd=_s-xclick&hosted_button_id=2PU5W9H752VZJ&source=url)

DIGITAL LEADERSHIP | GENIUS ALLIANCE
Der Mensch als Ressource

DIGITAL LEADERSHIP | GENIUS ALLIANCE

Play Episode Listen Later May 26, 2017 11:40


  Eine Diskussion   Im Verlauf der Debatte über den in Deutschland herrschenden Fachkräftemangel trifft  man immer häufiger auf den Begriff des „Human Resource Management“.   Wenn wir sagen, dass Marken Wertekonzentrate sind, müssen wir uns mit der Frage auseinandersetzen, ob und inwiefern es gerechtfertigt sein kann, Menschen unter einen Begriff zu subsumieren, der sich üblicherweise auf physische Objekte bezieht.   Die Betrachtung des Menschen als Ressource suggeriert nämlich, dass auch Menschen letztendlich der Sphäre bilanzierbarer Wirtschaftsgüter zugehören, jedenfalls wenn es um ihre betriebliche Verwertbarkeit geht.   Für die Belange des Personalmanagements müsste zunächst geklärt werden, was eine Person überhaupt ist und aufgrund welcher Merkmale sich eine Person von einer Ressource unterscheidet. Dass es sich hierbei nicht um einen trivialen Unterschied handelt, ist offensichtlich: Menschen, die als Ressourcen betrachtet werden, können schon aus der selbsterklärenden Perspektive des Begriffs heraus nicht den gleichen Status haben wie Personen. Mit Ressourcen wird von vornherein anders verfahren als mit Menschen. Was also ist der Unterschied zwischen einer Person und dem Menschenbild des Ressourcenansatzes?   Da wir größten Wert auf ethisch vertretbare, nachhaltige Konzeptionen der digitalen Markenführung legen, ist es uns ein Anliegen, dieser Frage auf den Grund zu gehen.     Human Resource Management   Human Resource Management als wissenschaftliche Disziplin ist als Teil des strategischen Managements zu denken. Es beschäftigt sich mit allen operativen Dispositionen in Unternehmen, die in irgendeiner Weise mit Menschen und deren Verhalten zu tun haben.   Sämtliche Organisationen, Institutionen und Unternehmen werden von Menschen betrieben. Die betriebswirtschaftlichen Praxis legt nahe, Menschen im Rahmen von Kennzahlensystemen wie materielle Ressourcen zu behandeln, die gekauft, verkauft, verändert – und nach Gebrauch entsorgt werden können. Vom ethischen Standpunkt aus muss deshalb die zentrale Frage sein: „Ist es opportun, Menschen wie Objekte zu behandeln?“ Wir können die Frage auch anders herum stellen: „Warum eigentlich nicht?“   Neben Denkern aller Couleur haben sich die Geistes- und Sozialwissenschaften an der klaren Unterscheidung von Menschen und der übrigen physischer Welt abgearbeitet. Das banale, auf der Hand liegende Ergebnis: Nur menschliche Individuen besitzen einen Willen und ein psychisch-geistiges Innenleben. Zwar hat die Verhaltenspsychologie wissenschaftlich haltbare Rahmenvorgaben erarbeitet, auf deren Grundlagen es möglich ist, einen Menschen anhand objektiver Maßgaben zu charakterisieren. Dennoch führt auch dieser Ansatz zu keinem vollständigen Bild. Der Grund hierfür ist, dass Menschen als hochkomplizierte, dynamische Prozesse – und nicht als Zustände – aufgefasst werden müssen. Psychodynamische Modelle wiederum greifen zu weit. Unternehmen sind keine heiltherapeutischen Anstalten.   Dennoch haben vor allem in der zweiten Hälfte des letzten Jahrhunderts diverse humanistische Strömungen in die Managements von Unternehmen hineingewirkt, die sich von den starren Tayloristischen Vorstellungen absetzen.   Frederick Winslow   Taylor betrachtete den Menschen als betriebswirtschaftliche Kenngröße, als Objekt, das sein Leben, sein Fühlen und Wollen notwendigerweise der Gewinnmaximierung des Betriebs unterzuordnen hatte. Dank den auf dem Feld der Organisationsentwicklung führenden Rensis Likert, Abraham Maslow, Chris Argyris, Douglas McGregor und Martha Nussbaum  wurde aus dem abhängigen Angestellten der sensible Mitarbeiter. Seine Bedürfnisse, Eigenschaften und Fähigkeiten finden in den betriebswirtschaftlichen Kalkülen seit dem nicht nur mehr BerücksichtiguSupport the show (https://www.paypal.com/cgi-bin/webscr?cmd=_s-xclick&hosted_button_id=2PU5W9H752VZJ&source=url)

DANIEL HOCH | autor-speaker
Fachartikel: 10 Schritte zur Umsatzsteigerung

DANIEL HOCH | autor-speaker

Play Episode Listen Later Nov 18, 2016 10:27


Wer im Verkauf oder Vertrieb arbeitet, hat sich mit der betriebswirtschaftlichen Kenngröße Umsatz auseinanderzusetzen. Um typische Fehler und die größten Erfolgsaussichten zu erkennen, sind die Antworten aus meiner Umfrage analysiert worden. Hieraus sind Tipps für die Praxis entstanden, um den Verkauf und Vertrieb erfolgreicher zu gestalten. Wer als Mitarbeiter im Vertrieb und Verkauf diese Tipps […]

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05
Spatially resolved electronic and optoelectronic measurements of pentacene thin film transistors

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 03/05

Play Episode Listen Later Oct 18, 2010


Organische Halbleiter gewinnen zur Zeit als elektronische und optoelektronische Bauelemente zunehmend an Bedeutung. Während organische Leuchtdioden, die oft auf Polymeren basieren, bereits Marktreife erreicht haben, sind organische Transistoren noch im Forschungsstatus. Für organische Transistoren verwendet man üblicherweise geordnete dünne Schichtstrukturen aus kleinen organischen Molekülen wie Pentacen, da hier im Vergleich zu den ungeordneten Polymeren höhere Ladungsträgerbeweglichkeiten erzielt werden können. Trotz intensiver Forschung sind die elektronischen Transportmechanismen und optischen Eigenschaften in solchen Systemen nicht völlig verstanden. Der Ansatz der vorliegenden Arbeit besteht darin, die elektronischen und optoelektronischen Eigenschaften von Pentacen-Dünnfilmtransistoren ortsaufgelöst zu untersuchen. Die dadurch erhaltenen Messdaten ermöglichten es, verschiedene Einflüsse auf das Transportverhalten in Pentacen aufzuschlüsseln und den verschiedenen Bereichen innerhalb des Transistors zuzuordnen. Es wurden zwei verschiedene Versuchsaufbauten realisiert. Um Abhängigkeiten des Transports von der Pentacenschichtdicke zu untersuchen, wurden elektronische in-situ Messungen während des Aufdampfprozesses durchgeführt. Laterale Ortsauflösung wurde hingegen durch einen optischen Aufbau realisiert, mit dem kleine Bereiche des Transistorkanals beleuchtet wurden. Bei den elektronischen in-situ Messungen wurden kontinuierlich während des Aufdampfens von Pentacen die charakteristischen Kenngrößen der Transistoren bestimmt. Neben der Lochbeweglichkeit untersuchten wir im Speziellen die Verschiebung der Schwellwertspannung und die Hysterese der Transistoren, da diese durch lokale Fallenzustände ausgelösten Phänomene eine besonders wichtige Rolle bei den Transporteigenschaften organischer Halbleiter spielen. Das Verhalten der Hysterese konnte durch ein Modell, das lokale Fallenzustände an der Oberfläche der Pentacenschicht berücksichtigt, erklärt werden. Die Entwicklung der Schwellwertspannung sowie der Hysterese während des Aufdampfens erlaubten es desweiteren, die Debye-Länge in Pentacen zu bestimmen. Der zweite Aufbau ermöglichte es, einerseits optische Eigenschaften wie Photolumineszenz und Reflektionsvermögen und andererseits optoelektronische Eigenschaften, insbesondere die Photoantwort, d.h. die lichtinduzierte Veränderung des Transistorstromes, in Abhängigkeit des Ortes der Beleuchtung zu untersuchen. Mit Hilfe der Reflektionsmessungen gelang es, unterschiedliche Absorption einzelner Pentacenkörner aufzulösen. Dies konnte auf eine Davydov-Aufspaltung zurückgeführt werden. Die Photoantwort unserer Transistoren besteht aus einer langsamen Komponente, die unabhängig vom Beleuchtungort auftrat, sowie einer schnellen Komponenten, die nur durch Einstrahlung an den Kontakten ausgelöst wurde. Aufgrund der Zeitskala und der Gatespannungsabhängigkeit wurde die langsame Komponente als bolometrischer Effekt interpretiert. Wärme, die durch Absorption in der Probe erzeugt und in den Halbleiterfilm transportiert wird, befreit Löcher aus Fallenzuständen, wodurch die Konzentration der freien Ladungsträger und damit der Gesamtstrom im Transistor erhöht wird. Die schnelle Photostromkomponente wird durch einen elektronischen Prozess, der auf einer Exzitonentrennung durch das hohe elektrische Feld am Kontakt beruht, erklärt. Die große Ausdehnung des Signals wurde auf eine hohe Interkombinationsrate von Singulett-Exzitonen zu Triplett-Exzitonen, die aufgrund ihrer langen Lebensdauer große Diffusionslängen besitzen, zurückgeführt. Diese hohe Interkombinatinosrate wurde durch die sehr schwache Photolumineszenzausbeute bestätigt.

Betriebswirtschaft - Open Access LMU - Teil 02/02
Determinanten der Eigenkapitalrendite von Sparkassen

Betriebswirtschaft - Open Access LMU - Teil 02/02

Play Episode Listen Later Sep 1, 2010


Vorliegende Studie analysiert die Determinanten der Eigenkapitalrendite deutscher Sparkassen. Die Untersuchung erfolgt auf Basis eines Paneldatensatzes, der die Bilanzdaten sowie regulatorischen Kenngrößen aller Sparkassen in Deutschland zwischen 1999 und 2007 beinhaltet. Die Ergebnisse der empirischen Analyse dokumentieren die wesentliche Bedeutung der Refinanzierung mittels Kundeneinlagen für die Höhe der Eigenkapitalrendite und liefern Hinweise auf eine nicht risikoadäquate Bepreisung der Geschäftskundenkredite. Weiterhin werden ein signifikant negativer Zusammenhang zwischen der Höhe der Eigenkapitalausstattung eines Institutes und der Eigenkapitalrendite sowie eine signifikant positive Beziehung zwischen den Zinserträgen in Relation zur Summe aus Zins- und Provisionserträgen und der Eigenkapitalrendite festgestellt. Die Analyse zeigt ferner, dass der Zusammenhang zwischen der Größe sowie der Personalintensität eines Instituts und der Eigenkapitalrendite signifikant negativ ausfällt, während die durchschnittliche Zweigstellengröße die Rentabilität positiv beeinflusst. Die Arbeit ordnet sich innerhalb der Rentabilitätsstudien von Kreditinstituten in den Zweig empirischer Studien zu Bestimmungsfaktoren auf Basis von Bilanzkennzahlen ein. Erstmals wird isoliert die Rentabilität der deutschen Sparkasseninstitute analysiert, wodurch die Besonderheiten des Sparkassensektors explizit berücksichtigt werden können. Die Untersuchungsergebnisse besitzen sowohl wichtige Implikationen für die Weiterentwicklung der Methoden zur Bewertung und Bepreisung mittelständischer Kreditrisiken im Sparkassensektor als auch für die strategische Ausrichtung bzw. die Geschäftsplanung eines Sparkasseninstitutes.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19
Die prognostische Aussagekraft onkologischer Biomarker im operablen Stadium des nicht-kleinzelligen Lungenkarzinoms

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 11/19

Play Episode Listen Later Jun 17, 2010


Die Prognose beim Lungenkarzinom ist trotz großer Fortschritte in Diagnostik und Therapie weiterhin, auch in frühen, potentiell kurablen Stadien, sehr schlecht. Auf der Suche nach Variablen, die eine Abschätzung der Prognose erlauben, wurden viele Parameter untersucht, unter denen das UICC-Stadium auf Grund seiner großen Aussagekraft einen hohen Stellenwert besitzt. Neben den klinischen Faktoren, wie UICC-Stadium, Alter, Geschlecht, Histologie oder Grading, wurden in den letzten Jahren zunehmend auch onkologische Biomarker in Bezug auf ihre prognostische Aussagekraft untersucht. Die in der Literatur beschriebenen Ergebnisse solcher Prognoseauswertungen sind für die einzelnen Parameter sehr heterogen. Die Zahl der Studien, insbesondere mit multivariater Analyse, die sich mit onkologischen Biomarkern im Vergleich zu etablierten Prognosefaktoren und anderen laborchemischen Routineparameter beschäftigt haben, ist sehr gering. In der vorliegenden Arbeit wurden neben den etablierten klinischen Prognosefaktoren (Alter, Geschlecht, Histologie, pT-Status, pN-Status, UICC-Stadium) die onkologischen Biomarker CEA und CYFRA 21-1 bei Patienten mit operiertem, nicht-kleinzelligen Lungenkarzinom analysiert. Diese beiden Parameter sind bei Patienten mit nicht-kleinzelligem Lungenkarzinom sowohl für die Prognoseabschätzung als auch für das Therapieansprechen und im Rahmen der Nachsorge am Bedeutendsten. Darüber hinaus wurden gängige laborchemische Variablen in die Betrachtung mit einbezogen (Natrium, Kalium, Kalzium, Hämoglobin, Erythrozytenzahl, Leukozytenzahl, Thrombozytenzahl, GOT, y-GT, LDH, aP, CHE, Kreatinin, CRP, Glukose), wobei schon früh versucht wurde, aus Veränderungen dieser laborchemischen Parameter prognostische Daten abzuleiten. Die Betrachtung der klassischen Variablen wurde allerdings mittlerweile durch immer „neue“ Biomarker nahezu vollständig verdrängt. Daher wurden in der vorliegenden Arbeit sowohl Parameter der klassischen Labordiagnostik als auch „neue“ onkologische Biomarker evaluiert. Zunächst wurde eine Beeinflussung der Wertlagen der klinisch-chemischen Parameter durch die klinischen Faktoren und eine mögliche Korrelation der klinisch-chemischen Parameter untereinander analysiert. Hierbei zeigte sich ein sehr heterogenes Bild. Es fiel jedoch auf, dass die Mehrzahl der Parameter in ihrer Wertlage durch die Tumorinfiltrationstiefe oder das UICC-Stadium beeinflusst wurden. Parameter, die keine Beeinflussung durch eine dieser beiden Größen zeigten, waren LDH, Kalzium, Kreatinin, GOT und Glukose. Daneben waren zwei weitere Punkte sehr auffällig: Zum Einen wurde keiner der Laborparameter in seiner Ausprägung signifikant durch den pN-Status beeinflusst. Zum Anderen zeigte Kalzium, als einziger Wert, keine Abhängigkeit seiner Wertlage von einer der klinischen Kenngrößen. In der univariaten Analyse der klinischen Parameter zeigte sich eine negative prognostische Aussagekraft für männliches Geschlecht, Alter größer 65 Jahre sowie zunehmendes pT-, pN- und UICC-Stadium. Bei der univariaten Betrachtung der klinisch-chemischen Variablen lag eine negative prognostische Relevanz vor für CEA größer 8 ng/ml, CYFRA 21-1 größer 2 ng/ml, Natrium kleiner 135 mmol/l, Kalzium kleiner 2,25 mmol/l, CRP größer 0,5 mg/dl, Kreatinin bei Frauen größer 1,0 mg/dl, LDH größer 210 U/l, CHE kleiner 10500 U/l, Hämoglobin bei Männern kleiner 13 g/dl sowie Erythrozytenzahl bei Männern kleiner 4,5 T/l. Für die multivariate Analyse dieser Arbeit wurde zunächst ein Modell, das ausschließlich aus klinischen Variablen bestand, erstellt. Dabei erwies es sich als optimal, Geschlecht, Alter mit einem Grenzwert von 65 Jahren, pT-Status und pN-Status getrennt zu berücksichtigen. Im Anschluss erfolgte eine Signifikanzprüfung für alle Laborparameter (stetig logarithmiert zur Basis 2). In dieser Prüfung zeigten sich CEA, CYFRA 21-1, Hämoglobin und Erythrozytenzahl als signifikante Parameter. Im nächsten Schritt erfolgte eine Prüfung derjenigen Parameter auf Signifikanz, für die in der univariaten Betrachtung ein möglicher Grenzwert ermittelt werden konnte. Hierbei verblieb als einziger signifikanter Parameter die Laktatdehydrogenase (LDH) mit einem Grenzwert von 210 U/l. Abschließend wurden alle im Modell verbliebenen Variablen auf Wechselwirkungen sowie auf Zeitabhängigkeit getestet, wobei sich einzig für die LDH eine Zeitabhängigkeit zeigte. Es wurden zwei mögliche Prognosemodelle aus den untersuchten klinischen und laborchemischen Parametern erstellt. Modell I umfasste Alter, Geschlecht, pT- und pN-Status sowie die onkologischen Biomarker CEA und CYFRA 21-1, wobei die beiden onkologischen Biomarker jeweils in logarithmierter Form zur Basis 2 integriert wurden. In Modell II gingen neben Alter, Geschlecht, pT- und pN-Status CEA, LDH und Hämoglobinwert ein. CEA und LDH wurden wiederum in logarithmierter Form zur Basis 2 eingeschlossen. LDH wurde einerseits Grenzwert bezogen (Cut-off 210 U/l) und andererseits zeitabhängig in das Modell eingeschlossen. Aus beiden Modellen wurden mit Hilfe der zugehörigen ß-Koeffizienten Scores erstellt und die Patienten in Tertile gruppiert, wobei der Score aus Modell II auf Grund der größeren Zahl eingeschlossener Parameter in verschiedenen klinischen Subgruppen (Trennung nach Geschlecht, Alter, Histologie oder UICC-Stadium) getestet wurde. Mit Hilfe des Scores war es möglich, sowohl im Gesamtkollektiv als auch in den einzelnen Subgruppen signifikant zwischen günstigen und ungünstigen Prognosegruppen zu trennen. Somit lässt sich, vor allem in Hinblick auf die Heterogenität der in der Literatur dargestellten Ergebnisse zu möglichen Prognosefaktoren, feststellen, dass eine Prognoseabschätzung eher durch multifaktorielle Modelle als durch die Betrachtung von Einzelfaktoren erfolgen sollte. Des Weiteren sollten in solchen Modellen neben neuen, vielversprechenden laborchemischen Parametern auch etablierte Laborvariablen sowie klinische Faktoren berücksichtigt werden.

Fakultät für Chemie und Pharmazie - Digitale Hochschulschriften der LMU - Teil 03/06

Die vorliegende Arbeit beschreibt die Synthese und Charakterisierung ein- und mehrkerniger Diol-, Polyol- und Kohlenhydrat-Verbindungen von Elementen der vierten, fünften und sechsten Hauptgruppe des Periodensystems. Im Zentrum der Untersuchungen standen dabei Spiro-Derivate des fünfwertigen Phosphors, Arsens und Antimons, des vierwertigen Selens und Tellurs sowie spirocyclische Ester der Orthokohlensäure. Ferner wurden alpha-Hydroxycarbonsäuren, Aminosäuren, Aminole und Hydroxythiole auf ihre Eignung als Chelatoren untersucht. Der molekulare Bau der meisten dargestellten Verbindungen konnte auf der Grundlage von Einkristall-Röntgenstrukturanalysen gesichert werden. Das Verhalten der Zielverbindungen in Lösung wurde mittels multinuklearer NMR-Spektroskopie untersucht und charakteristische Kenngrößen hinsichtlich des coordination induced shift für alle untersuchten Kerne wurden herausgearbeitet. Eine umfassende Sammlung weiterer physikalischer Daten der untersuchten Verbindungen wurde erstellt. Die Stabilität der einzelnen Verbindungen in protischen und wässrigen Medien und mögliche Synthesewege ausgehend von Wasser als Lösemittel wurden untersucht. Eine vergleichende Gegenüberstellung der einzelnen Verbindungsklassen soll Einblicke in mögliche Transportformen der untersuchten Elemente in Organismen geben und neue Wege zur Klärung der Frage der Biomineralisation des Siliciums eröffnen.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19
Einfluss der Muskelaktivität auf die Kinematik des menschlichen Körpers und die Deformationseigenschaften des Muskels

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 06/19

Play Episode Listen Later Nov 15, 2006


Ziel dieser Arbeit war es, die Validität eines numerischen Finite-Elemente Menschmodells anhand von Freiwilligenversuchen zu überprüfen und Materialmodelle für relaxierte und aktivierte Muskeln zu optimieren bzw. zu parametrisieren. Das verwendete Modell wurde im Rahmen des EU-Forschungsprojekts HUMOS für den Einsatz in der Fahrzeug-Crash-Simulation entwickelt. Aufgrund fehlender bzw. nicht geeigneter Studien in der Literatur wurden zwei Versuchsanordnungen entwickelt, um Daten für die Validierung aktiver Menschmodelle zur Verfügung stellen zu können. Für die Validierung der Kinematik wurde eine Pendelanordnung entworfen. Dabei wird ein Freiwilliger mit relaxierter und voraktivierter Muskulatur mit einem 5kg/10kg schweren Pendel frontal, dorsal und lateral angestoßen. Für die Aufnahme der Probandenbewegung kam ein Bewegungsanalysesystem (Motion Analysis) mit acht Hochgeschwindigkeitskameras zum Einsatz. Die Muskelaktivität von Nacken-, Abdomen- und Rückenmuskeln wurde mittels Oberflächenelektroden erfasst. Muskelantwortzeiten dienten dazu, Muskelelemente in der Simulation anzusteuern. Anhand gemittelter Bewegungsamplituden sollte ein Vergleich der Gesamtkinematik zwischen Versuch und Simulation die Validität des Modells im Niedrigenergiebereich zeigen. Der zweite Versuchsaufbau ist ein Fallprüfstand, bestehend aus einem vertikalen Fallrohr und einem Fallkörper, dem sog. Impaktor. Dieser trifft aus unterschiedlichen Fallhöhen auf den relaxierten bzw. angespannten Muskelbauch (M. biceps brachii, M. rectus femoris, M. biceps femoris). Ein im Impaktor installierter Beschleunigungsaufnehmer registriert die Akzelerationen beim Auftreffen auf den Muskel. Die Beschleunigungsverläufe repräsentieren muskelaktivierungsabhängige Deformationscharakteristiken, anhand derer eine Parameteridentifikation des entsprechenden Materialmodells durchzuführen ist. Die Versuchsergebnisse lassen sich folgendermaßen zusammenfassen: - Es zeigen sich höhere Bewegungsamplituden in Versuchen mit relaxierter Muskulatur, eine charakteristische Kopfkinematik sowie Muskelantwortzeiten zw. 15ms und 90ms. - Der Impaktor zeigt mehrere Rebounds bei aktivierter Muskulatur (mehrere Beschleunigungsspitzen) und nur eine Beschleungigungsspitze bei relaxierte Muskulatur. Die Simulationen der dargestellten Versuche mit dem aktuellen HUMOS-Modell zeigen: - Das aktuelle Modell ist auch ohne Muskelansteuerung zu steif. Ursache dafür ist in der unzureichenden Abbildung der Abdomen-, Thorax- und Nackenweichteile zu sehen. - Die Abbildung aktivier Kinematik unter Verwendung von Hill-Muskelelementen ist grundsätzlich möglich. - Das aktivierungsabhängige Deformationsverhalten von Muskelweichteil ist mit einem linear-viskoelastischen Material zu reproduzieren. Eine Ableitung konsistenter und interpretierbarer mechanischer Kenngrößen (E-Modul) aus den Modellparametern ist allerdings nicht möglich. Die Abbildung einer aktiven Kinematik ist derzeit mit dem verwendeten Modell nicht möglich. Eine detaillierte Modellierung der Weichteile sowie eine umfangreiche Validierung des Modells ist Voraussetzung für eine sinnvolle Applikation des Menschmodells.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19
Fourieranalyse zweidimensionaler dynamischer Bilder für die quantitative und qualitative Bewertung der Magenperistaltik

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 05/19

Play Episode Listen Later Jan 12, 2006


Störungen der Magenfunktion mit typischen Symptomen wie Völlegefühl, Übelkeit, Erbrechen und epigastrischen Schmerzen sind im klinischen Alltag häufig. Für eine differential- und artdiagnostische Beurteilung der Störung sind Kenntnisse über zwei grundlegende Funktionsparameter wünschenswert: die Magenentleerung und die Magenperistaltik. Dies kann durch spezielle Auswertalgorithmen im Rahmen einer szintigraphischen Magenentleerungsstudie realisiert werden, wobei aktuell zwei Lösungsansätze diskutiert werden. Ziel der vorliegenden Arbeit war es, zwei Verfahren zur Motilitätsanalyse, die Phasenanalyse zweidimensionaler dynamischer Bilder mit der Methode der kondensierten Bilder, zu vergleichen. Das methodische Konzept des erstgenannten Verfahrens basiert auf der pixelweisen Analyse zweidimensionaler dynamischer Bilder. Hierbei wird die Information einer ROI („Region of Interest“) einer dynamischen Studie für jedes Einzelpixel in Form einer Zeit-Aktivitäts-Kurve gespeichert. Die Änderung der Aktivität über die Zeit wird mittels Fast-Fourier-Transformation (FFT) analysiert. Als Folge der FFT-Analyse erhält man für jedes Pixel ein Frequenz-Amplituden-Histogramm, wobei die Amplitudenwerte einer Frequenz-Reihe zugeordnet werden. Die Amplitudenhöhen werden zur Visualisierung als Grauwert (oder Farbwert) kodiert und als parametrische Amplitudenbilder in einer zweidimensionalen Matrix dargestellt. Die Amplitudenwerte werden topographisch eingeordnet, womit eine örtliche Zuordnung der Amplituden-Maxima im Magen ermöglicht wird. Zusätzlich können so genannte Phasenbilder durch eine Farbkodierung (bzw. Grauskalenkodierung) der in derselben Bewegungsphase befindlichen Areale des Magens erstellt werden. Ein typisches Streifenmuster einer geordneten Magenperistaltik kann visuell sehr einfach von einem ungeordneten, pathologisch veränderten Muster unterschieden werden. Die Referenzmethode der Analyse der Magenperistaltik erfolgt an kondensierten Bildern. Letztere werden erzeugt, indem von jedem Einzelbild einer dynamischen Studie der Informationsgehalt eines Bildausschnittes (eine ROI über dem Magen) durch zeilenweise Addition der Pixelinhalte in eine Spalte überführt wird. Chronologisch aneinandergereiht bauen die Spalten aller Bilder eine Ort-Zeit-Matrix auf, in der die X-Koordination die Zeit und die Y-Koordination die räumliche Aktivitätsänderung im Magen repräsentieren. Ein Pixel entspricht jeweils der Einzelbilddauer des Aufnahmeprotokols. Zur Verfügung standen bereits akquirierte Magenszintigraphie-Studien, die bislang nur mit der Methode der kondensierten Bilder ausgewertet worden waren. Mit Hilfe der für die vorliegende Arbeit entwickelten Software wurden die quantitativen Parameter der Peristaltik für die jeweiligen untersuchten Patienten erneut ermittelt. Für vergleichende Auswertungen lagen von allen Patienten quantitative Daten zur Entleerungsfunktion (Entleerungsrate) und Peristaltik (Amplitude und Frequenz der Magenkontraktionen), ermittelt mit der Referenzmethode, vor. Die vorliegenden Untersuchungsergebnisse zeigen, dass sich auch mit der neu entwickelten Methode die Kenngrößen der Magenperistaltik valide bestimmen lassen. Übereinstimmend mit zahlreichen Arbeiten zur Physiologie und Pathophysiologie der Magenperistaltik lag die mit unserer Methode gemessene Kontraktionsfrequenz um 3 min-1. Im Einklang mit anderen Literaturberichten wurde auch im Rahmen dieser Studie beobachtet, dass die Frequenz eine weitgehend konstante, von Art und Ausmaß diverser Magenfunktionsstörungen unabhängige Größe darstellt. Anders stellt sich der Sachverhalt für die Kontraktionsamplitude dar. Letztgenannter Parameter wies in Abhängigkeit von der zugrunde liegenden Erkrankung eine erhebliche Bandbreite auf. Dies kann als Indiz für die gute Diskriminierungseigenschaft dieses Parameters hinsichtlich der Abgrenzung normaler und pathologischer Befunde gelten, auch ist die Angabe eines Schweregrades der Erkrankung möglich. Wenngleich ein direkter Vergleich von Absolutwerten der Kontraktionsamplituden mit Literaturdaten aufgrund methodischer Unterschiede der verschiedenen Verfahren schwierig ist, stimmt doch die Relation zwischen Normalbefunden und krankheitsspezifischen Änderungen mit Literaturangaben überein. Dies kann als indirekter Beleg für die Validität dieser Bestimmungen gelten. In einem weiteren Ansatz wurden die Zusammenhänge zwischen der Entleerung und den verschiedenen Kontraktionsparametern untersucht. Bei Verwendung semisolider Testspeisen ließ sich kein direkter Zusammenhang zwischen der Kontraktionsamplitude und Entleerungsrate verifizieren. Dies könnte ein Hinweis dafür sein, dass die Passage der semisoliden Mahlzeit nicht nur von der peristaltischen Kraft, sondern von weiteren Größen (z.B. gastroduodenales Druckgefälle, Pylorotonus) mitbeeinflusst wird. Fehlende Korrelationen zwischen Entleerungsrate und Kontraktionsfrequenz der peristaltischen Welle stützen die Annahme, dass letztgenannte Parameter nur eine untergeordnete Rolle für die Magenentleerung spielen. Um die Magenperistaltik und Entleerung in Abhängigkeit von unterschiedlichen Krankheitsbildern zu beurteilen, wurden die 134 Patienten entsprechend ihrer Grunderkrankung in verschiedene Kollektive unterteilt: Patienten mit Diabetes mellitus (n = 49), Kollagenosen (n = 59), Gastritis (n = 18), Magenausgangsstenose (n = 8). Die Daten dieser vier Gruppen wiesen im Vergleich zu einem „Kontroll- Kollektiv“ deutliche Unterschiede hinsichtlich der jeweiligen Entleerungsraten und Kontraktionsamplituden auf. Bei den Patientenkollektiven „Diabetes“, „Kollagenosen“ und „Gastritis“ konnte die Konstellation einer verminderten Magenkontraktionsamplitude und einer verzögerten Magenentleerung festgestellt werden. Unter Behandlung mit einem Prokinetikum sind solche Störungen reversibel (komplett oder teilweise). Dagegen kann bei einer Magenausgangsstenose eine verzögerte Magenentleerung mit einer noch normalen Magenperistaltik einhergehen. Das vorgestellte methodische Konzept liefert in einem Untersuchungsgang Aussagen zur Magenentleerung und -peristaltik. Die Methode eignet sich zur Primärdiagnostik und differentialdiagnostischen Einordnung von Magenfunktionsstörungen. Darüber hinaus könnte sich dieses neue Verfahren auch für Verlaufs- und Therapiekontrollen und für die Objektivierung der Wirksamkeit von Motilitätsreglern als wertvoll erweisen. Eine parallele Erstellung von den Amplituden- und Phasenbildern ermöglicht nicht nur die quantitative Einschätzung der peristaltischen Bewegungen vom Mageninhalt, sondern erlaubt auch die Amplitudenmaxima entsprechend der phasischen Zugehörigkeit qualitativ einzuordnen. Eine kräftige geordnete Peristaltik kann bei der Betrachtung der Phasenbilder mit einem typischen Streifenmuster assoziiert werden. In den verschiedenen Patientenkollektiven wurde anhand der Phasenbilder nach gruppenspezifischen Mustern gesucht. Die zweidimensionalen Amplitudenbilder zeigen fehlende konfluierende Amplitudenareale und ein „Mottenfraß Muster“ als Korrelat für eine verminderte Peristaltik. Die Betrachtung der Amplituden Bilder konnte keine krankheitsspezifischen Veränderungen demonstrieren. Bei einer Betrachtung der Amplituden- und Phasenbilder im niedrigfrequenten Bereich wurde ein direkter Zusammenhang mit der Magen-Entleerungsrate festgestellt. Die homogenen phasisch zugeordneten Amplituden-Areale über Magen und Dünndarm im niedrigfrequenten Teil des Amplitudenhistogramms befinden sich in Contraphase. Diese Beobachtung ist neu und wurde in der bisherigen Literatur bisher nicht beschrieben. Es handelt sich nach unserer Hypothese um die Darstellung der Magenentleerung. Die dynamische Magen-Szintigraphie ist durch einen standardisierten Ablauf, geringe Strahlenexposition, Funktionalität und Nicht-Invasivität gekennzeichnet. Daher ist sie als eine Funktionsuntersuchung unter physiologischen Bedingungen anzusehen. Aus diesem Grunde ist diese Methode für die Primäruntersuchungen, wie auch für Verlaufs- und Therapiekontrollen geeignet. Im Vergleich zur klassischen Magen-Szintigraphie benötigt die hier beschriebene dynamische Magen-Szintigraphie eine geeignete Hardware (schnelles Rechnersystem mit großen Speicherkapazitäten) und speziell entwickelte Software. Für den Patienten und Untersucher bedingt der Einsatz der hier beschriebenen Methode keinen Zusatzaufwand, führt aber zu einem erheblichen Informationsgewinn. Im Vergleich zur Referenzmethode der kondensierten Bilder bietet die zweidimensionale dynamische Magen-Szintigraphie eine präzisere Einschätzung der Magenperistaltik, bei einer komplexen Magengeometrie. Die parallele Betrachtung der Amplituden- und Phasenbilder erlaubt es auch bei normaler peristaltischer Amplitude, eine diskoordinierte Magenperistaltik zu erkennen und zu beurteilen. Die beiden Methoden sind nicht-invasiv, mit einer geringen Strahlenexposition verbunden und unter physiologischen Bedingungen durchführbar.

Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 04/19

Die Schizophrenie ist eine komplexe Erkrankung, bei der neben einer genetischen Komponente äußere Einflussfaktoren eine wichtige Rolle spielen. Epidemiologische Studien weisen auf eine mögliche Rolle von Virusinfektionen als Umwelt-Faktor in der Ätiologie der Schizophrenie hin. Eine Verschiebung der spezifischen Immunantwort in Richtung T-helfer-2-Antwort (ein sogenannter Th2-shift) wurde bei verschiedenen Virusinfektionen beobachtet. Einige immunologische Untersuchungen weisen auch zumindest bei einer Subgruppe der Schizophrenie auf einen Th2-shift hin. (1) Ziele: Diese Studie dient (a) der Untersuchung der Th1/Th2-Balance der spezifischen Immunantwort unter Berücksichtigung der Effekte verschiedener endokrinologischer Parameter und (b) der Identifizierung der möglichen Ursachen des gestörten Th1/Th2-Gleichgewichts; die hier untersuchten Einflussgrößen beziehen sich auf unterschiedliche Hormone. (2) Fragestellungen: (a) Lässt sich eine Th2-Verschiebung bei einer Subgruppe der Schizophrenie beobachten, nachdem die Einflüsse diverser endokrinologischer Parameter mitberücksichtigt worden sind? (b) Wenn ja, ist diese Subgruppe durch klinische oder epidemiologische Variablen charakterisierbar? (c) Wenn ja, welcher oder welche der untersuchten immunologischen und endokrinologischen Parameter tragen zur Streuung des Th1/Th2-Verhältnises bei schizophrenen Patienten bei? (3) Hypothese: (a) Zur Frage (2a) ist eine Th2-Verschiebung angenommen; d.h., die Th1/Th2-Quotienten sind deutlich reduziert. Die Quotienten IFN-g/IL-4, IFN-g/IL-10 und IFN-g/IL-13 wurden als Indikatoren der Th1/Th2-Balance betrachtet. (b) Frage (2b) und (2c) sind offene Fragen, weshalb keine Hypothese im Bezug auf diese beiden Fragen gestellt wurde. (4) Methoden: (a) Analyse-Materialien schließen Serum, Voll-Blut und isolierte Lymphozyten ein. „Vollständige Serum-Daten“ bedeutet, dass alle Daten für Serum-Zytokin-Konzentrationen, Serum Th1/Th2-Quotienten, Hormone, SHBG (Sexhormon-bindendes Globulin), Geschlecht und Alter vorhanden waren. Ebenso bedeutet „vollständige Voll-Blut-Daten“, dass alle Daten bezüglich der in vitro Zytokin-Produktion im Voll-Blut nach einer 46-stündigen PHA-Stimulation, Voll-Blut-Th1/Th2 Quotienten, Hormone, SHBG, Geschlecht und Alter erhoben wurden. „Vollständige Lymphozyten-Daten“ bedeutet, dass alle Daten hinsichtlich der in-vitro Zytokin-Freisetzung bei Lymphozyten, Th1/Th2-Quotienten, Hormone, Geschlecht und Alter verfügbar waren. (b) Studien-Teilnehmer: Insgesamt nahmen 114 schizophrene Patienten und 101 gesunde Probanden an die Studie teil. Unter ihnen hatten 76 schizophrene Patienten und 75 Kontrollen vollständige Serum-Daten, 44 Patienten und 76 normale Kontrollen hatten vollständige Voll-Blut-Daten, 72 schizophrene Patienten und 98 gesunde Teilnehmer hatten vollständige Lymphozyten-Daten. (c) Variablen umfassen hauptsächlich immunologische, endokrinologische und verschiedene klinische Parameter. Die immunologischen Variablen bestehen aus Th1-Zytokinen wie IFN-g, IL-12, IL-2, TNF-a und Th2-Zytokinen einschließlich IL-4, IL-10, IL-13 und IL-6. Die endokrinologischen Kenngrößen setzen sich aus den folgenden Parametern zusammen: zwei Stress-Hormone Cortisol und Prolactin, zwei Geschlechts-Hormone Östradiol und Testosteron, sowie das Geschlechts-Hormon-bindende Globulin (SHBG). Die erhobenen klinischen Daten schließen die Folgenden ein: klinische diagnostische Subgruppen, Familienanamnese bezüglich psychiatrischer Erkrankungen, Medikation vor der Aufnahme, Krankheitsepisode, Antipsychotika-frei/Antipsychotika-naiv, Wash-out-Periode, Erstmanifestationsalter der Erkrankung, Krankheitsdauer, CGI-Werte bei der Aufnahme und Entlassung (CGI = Clinical Global Impressions), sowie die verschieden PANSS Subskalen (Negativ-Symptomatik, Positiv-Symptomatik und Globale Symtpomatik; PANSS = Posivtive and Negative Syndrome Scale). (d) Analyse-Methoden enthalten Cytometric Bead Array (CBA), ELISA und ELISPOT. CBA wurde zur Messung von IFN-g, IL-2, TNF-a, IL-4, IL-10 und IL-6 im Zellkulturüberstand des Voll-Blut-Assays und im Serum verwendet, ELISA wurde zur Bestimmung der IL-12- und IL-13-Produktion im PHA-stimulierten Voll-Blut-Assay eingesetzt, während ELISPOT zum Erfassen der in-vitro-Produktion von IFN-g, IL-12, IL-4, IL-13 und IL-10 bei Lymphozyten benutzt wurde. Die Serumkonzentrationen der Hormone Prolactin, Cortisol, Östradiol, Testosteron, sowie SHBG wurden mit entsprechenden Reagenzienkits am Analysenautomaten Elecsys 2010 erhoben. (e) Auswertung: Die schizophrenen Patienten wurden zuerst als eine ganze Gruppe untersucht, danach nach Geschlecht und verschiedenen klinischen Eigenschaften in unterschiedliche Subgruppen eingeteilt; die so gebildeten verschiedenen Subgruppen sind die unabhängigen Variablen. Die wichtigen abhängigen Variablen sind Th1/Th2-Quotienten einschließlich IFN-g/IL-4, IFN-g/IL-10 (Serum, Voll-Blut-Assay, Lymphozyten) und IFN-g/IL-13 (Lymphozyten). Bei auffälligen Unterschied(en) bezüglich Alter, oder Hormonkonzentrationen und SHBG zwischen einer schizophrenen Subgruppe und den entsprechenden Kontrollen wurden diese Parameter als Kovarianten in die Analyse eingeschlossen, um ihre Effekte auf die Th1/Th2-Balance bei den zu vergleichenden Gruppen zu kontrollieren. (f) Statistik: MAN(C)OVA und Multiple Regression. MAN(C)OVA wurde verwendet, um die Fragestellung (2a) und (2b) zu untersuchen, während Multiple Regression zur Beantwortung der Fragestellung (2c) diente. (5) Primäre Ergebnisse: (a) Die Ergebnisse dieser Studie unterstützen unsere Hypothese einer Th2-Verschiebung zumindest bei einer Subgruppe der Schizophrenie. (b) Befunde bezüglich der Th1/Th2-Balance in Schizophrenie (Resultate der MAN(C)OVA): · Die Serum-Daten deuteten auf eine eindeutige Th2-Verschiebung bei schizophrenen Patienten als Gesamtgruppe hin, nachdem die Effekte von Alter und verschiedener Hormone (insbesondere Prolactin) ausgeschlossen worden waren. · Die Th2-Verschiebung im Serum scheint Schizophrenie-spezifisch zu sein, wie die Daten der Patienten mit schizophrenie-ähnlicher Symptomatik zeigen. · Im geschlechts-spezifischen Vergleich zu gesunden Probanden hatten weibliche schizophrene Patienten signifikant reduzierte Quotient sowohl für Serum IFN-g/IL-4 als auch für IFN-g/IL-10, während männliche Patienten ausschließlich einen deutlich verminderten Serum IFN-g/IL-10 Quotient zeigten. · Reduzierte Serum IFN-g/IL-4- und IFN-g/IL-10-Quotienten wurden ebenfalls bei diversen klinischen Subgruppen beobachtet außer bei schizophrenen Patienten mit vorwiegender Positivsymptomatik. · Ein deutlich reduzierter IFN-g/IL-10-Quotient im PHA-stimulierten Voll-Blut wurde (a) bei Nicht-Paranoid oder chronischen schizophrenen Patienten gezeigt, bei Patienten, die (b) eine positive psychiatrische Familienanamnese hatten und (c) vor Einschluss in die Studie länger als 3 Monate Antipsychotika-frei gewesen waren oder (d) bei Aufnahme in die stationär-psychiatrische Behandlung niedrigere Werte auf der PANSS-Negativ-Skala hatten. Bemerkenswerter weise zeigten auch Antipsychotika-naive Patienten mit Schizophrenie tendenziell einen beträchtlich reduzierten IFN-g/IL-10-Quotient im Voll-Blut. · Die schizophrenen Patienten, deren Symptome nach einer 8-wöchigen Behandlung fast unverändert blieben, hatten auffallend niedrigere IFN-g/IL-4- und IFN-g/IL-10-Quotienten im Voll-Blut als die gesunden Probanden. · Die schizophrenen Patienten mit einem frühen Krankheitsausbruch hatten außergewöhnlich reduzierte Serum IFN-g/IL-4- und IFN-g/IL-10-Quotienten, aber einen erhöhten IFN-g/IL-4 und IFN-g/IL-13 in PHA-stimulierten Lymphozyten. Im Gegensatz zeigten diejenigen mit einem späten Ausbruch keine Änderung der beiden Serum Th1/Th2-Quotienten, jedoch auffallend reduzierte IFN-g/IL-4- und IFN-g/IL-13-Quotienten bei in-vitro stimulierten Lymphozyten. (c) Die möglichen Ursachen der Th1/Th2-Dysbalance bei Schizophrenie-Patienten (Ergebnisse von Multiple-Regression): · Für die schizophrenen Patienten als ganze Gruppe waren vorwiegend IFN-g, IL-4 und IL-10 an die Balance zwischen dem Th1- und Th2-System beteiligt. IL-6 und TNF-a könnten zur Balance zwischen IFN-g und IL-4 im PHA-stimulierten Voll-Blut beigetragen haben, während IL-4 und das Alter offensichtliche Einflüsse auf die Balance zwischen IFN-g und IL-10 im Voll-Blut bei Patienten mit Schizophrenie gehabt haben dürften. · Für die schizophrenen Patientinnen wurde keine eindeutige Quelle für das Ausbalancieren zwischen Serum IFN-g und IL-4 gefunden, obwohl die gemessenen Variablen in der Lage waren, die IFN-g/IL-4-Varianz zuverlässig vorherzusagen (d.h. ³67% oder 2/3 der Varianz waren dadurch erklärbar). Das Abgleichen zwischen IFN-g und IL-4 im Voll-Blut nach PHA-Stimulation wurde eher von den komplexen wechselseitigen Korrelationen unter IFN-g, IL-4, TNF-a, IL-6, Prolactin, Östradiol, Testosteron und Alter beeinflusst. Ähnlich komplexe Inter-Korrelationen unter diesen obengenannten Kenngrößen wurden ebenfalls beim Ausgleichen zwischen IFN-g und IL-10 sowohl im Serum als auch im PHA-stimulierten Voll-Blut beobachtet. · Für männliche schizophrene Patienten gab es vermutlich einige andere entscheidende Faktoren, welche in dieser Studie nicht geprüft worden waren, die jedoch an der Balancierung zwischen IFN-g und IL-10 im Voll-Blut beteiligt gewesen waren. Im Gegensatz zu gesunden Probanden könnten Alter, Prolactin und Östradiol zusätzlich am Abgleichen von Serum IFN-g/IL-10 beteiligt gewesen sein. Hingegen war IL-6 am Abgleichen von IFN-g/IL-10 Voll-Blut-Assay bei männlichen schizophrenen Patienten beteiligt. Beachtenswerte Beiträge von Testosteron, SHBG und Östradiol zur Balancierung vom Voll-Blut IFN-g/IL-10 wie im Fall der Kontrollen waren bei männlichen Patienten mit Schizophrenie nicht zu beobachten. (d) Psychopathologie und Th1/Th2-Quotienten: Der durchschnittliche Messwert auf der PANSS-Negativ-Skala korrelierte positiv mit Voll-Blut-Assay IFN-g/IL-4 und IFN-g/IL-10. Außerdem war der Mittelwert auf der PANSS Global Skala ebenfalls positiv mit Voll-Blut IFN-g/IL-4 assoziiert. (6) Schlussfolgerung und Diskussion: (a) Die Ergebnisse dieser Studie zeigen deutliche Th2-Verschiebungen im Serum bei verschiedenen schizophrenen Subgruppen und bieten einen eher unterstützenden Hinweis für die Hypothese der Th2-Verschiebung von Schizophrenie. (b) Th2-Verschiebungen bei schizophrenen Patienten scheinen eine komplexe Folge von Wechselwirkungen von Krankheitsprozess, Hormonen und antipsychotischer Medikation, jedoch wahrscheinlich nicht nur ein Resultat der antipsychotischen Behandlung oder der durch Alterung ausgelösten Veränderungen zu sein.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Verhalten und Gesundheitsstatus von Mastbullen auf Gummispaltboden

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07

Play Episode Listen Later Feb 11, 2005


Gummierte Laufflächen haben sich in der Milchviehhaltung bereits etabliert, während in der Bullenmast die Verwendung solcher Bodensysteme noch in den Anfängen steckt. Ziel der vorliegenden Untersuchung war es zu klären, ob sich die Auflage perforierter Gummimatten auf Betonspalten positiv auf die Bedarfsdeckung und die Schadensvermeidung der Mastbullen auswirkt. Dazu wurden 18 Bullen vom Lehr- und Versuchsgut Oberschleißheim zur Verfügung gestellt und in drei Gruppen unterteilt. Diese wurden über einen Zeitraum von einem Jahr jeweils einer von drei (Betonspaltenboden, Gummimattenspaltenboden, beide Arten des Bodens in einer Bucht) verschiedenen Möglichkeiten der Bodengestaltung in herkömmlichen Buchten exponiert. Als Parameter für die oben genannte Zielsetzung wurde das Verhalten der Tiere, das Auftreten von Technopathien, sowie ausgewählte physiologische Kenngrößen verwendet und in Beziehung zu den unterschiedlichen Beschaffenheiten der Böden gesetzt. Zu Beginn des Versuches sowie nach der Schlachtung der Tiere wurde der Klauenstatus überprüft. Die Untersuchung führte zu den im Folgenden aufgeführten Ergebnissen: • Hatten die Bullen die Wahlmöglichkeit zwischen den Bodentypen Betonspalten und perforierte Gummimatte auf Betonspalten, so präferierten sie signifikant über den gesamten Versuchszeitraum den elastischen Bodenbelag. • Während die Gesamtliegezeit der Tiere auf den Beton bzw. auf der Gummimatte sich nicht signifikant unterschieden, zeigten die Bullen auf dem elastischen Untergrund signifikant mehr Aktivitäts- und Ruhephasen. • Innerhalb jeder Bucht verlängerte sich die benötigte Zeit für den Aufstehvorgang mit zunehmendem Gewicht signifikant. Die Tiere in der Betonspaltenbucht benötigten mit zunehmendem Gewicht signifikant mehr Zeit für den Aufstehvorgang als die Tiere auf den elastischen Böden. • Die Tiere der Betonspaltenbucht wiesen signifikant häufiger Technopathien unterschiedlicher Ausprägung auf verglichen mit den Tieren auf elastischem Boden. • Die Klauenmaße lagen bei allen Tieren auch am Versuchsende im Normbereich. Klauenerkrankungen in Form von Dermatitis interdigitalis traten vermehrt in der Bucht mit elastischem Bodenbelag auf. • Die Tiere in der mit voll perforierten Gummimatten ausgelegten Bucht wiesen signifikant höhere Kortisolkonzentrationen im Serum auf verglichen mit den Tieren in der Betonspaltenbucht bzw. der mit beiden Bodentypen ausgestatteten Bucht. Insgesamt ermöglicht die Auflage perforierter Gummimatten auf Betonspaltenboden den Tieren in hohem Maße Bedarfsdeckung und Schadensvermeidung. Gleichzeitig bleibt der arbeitssparende Vorteil der Haltung auf perforierten Böden erhalten, so dass von einem sinnvollen Kompromiss zwischen den Ansprüchen der Bullen an ihre Haltungsumwelt und arbeitswirtschaftliche Belangen gesprochen werden kann.