POPULARITY
Rein ins Regal! Dein Podcast für Konsumgüter Vertrieb Deutschland in der Lebensmittelbranche
Willst du herausfinden, wie groß dein Markt und das Potenzial bei deiner Zielgruppe ist? Klar definieren, Kunden einschätzen, Marktsegmente checken, wie viel Geld jeder Kunde ausgibt und wie oft. Wie ist die Marktsättigung und wie wächst der die Kategorie ? Wo ist die Konkurrenz und Welche Kennzahlen und Erfahrungswerte können und Erfahrungswerte können wir Fo für Schätzungen nutzen? Welche Risiken und Gefahren können uns begegnen? In dieser Folge Besprechen wir das Thema gemeinsam und gehen die einzelnen Punkte einmal durch. Nach dieser Folge bist du bereit Rein ins Regal zu starten! Rein ins Regal! I S11 E05 I Diese Schritte solltest Du bedenken: Zielgruppe festlegen. Zahl der potenziellen Kunden schätzen. Markt in relevante Segmente aufteilen. Durchschnittlichen Umsatz pro Kunde schätzen. Kaufhäufigkeit berücksichtigen. Marktsättigung und Wachstum prüfen. Wettbewerbsanalyse durchführen. Primäre und sekundäre Forschung nutzen. Schätzungen für Marktanteil und Umsatz erstellen. Risiken und Unsicherheiten bei Prognosen beachten.
Alle von ÖKO-TEST untersuchten Tomaten aus Dosen überschreiten jene Tagesdosis Bisphenol A (BPA), die nach neuesten Erkenntnissen als unkritisch gilt. Die Verbraucherschützer aus Frankfurt fordern ein zügiges Verbot der umstrittenen Industriechemikalie. ÖKO-TEST hat geschälte Tomaten im Labor untersuchen lassen. Alle Anbieter der Tomaten in Konservendosen geben an, Dosen zu verwenden, für deren Innenlacke kein Bisphenol A zugefügt werde. Teilweise liegen sogar Zertifikate dazu vor. Und dennoch: Alle Dosentomaten überschreiten die neue empfohlene Tageshöchstdosis der Europäischen Behörde für Lebensmittelsicherheit (EFSA) laut der ÖKO-TEST-Ergebnisse um ein Mehrfaches. Zur Berechnung der täglichen Aufnahme hat ÖKO-TEST angenommen, dass ein 60 Kilogramm schwerer Mensch am Tag 50 Gramm Dosentomaten verzehrt – das sind gerade einmal 350 Gramm pro Woche. Nur zwei Produkte im Test sind sauber: die Tomaten aus dem Glas. Wir haben mit Lisa Marie Karl von Öko - Test gesprochen.
Thema heute: Mobile Klimaanlagen: Raumgröße wichtiger als Energielabel Mobile Klimageräte sind eine schnelle Lösung bei Sommerhitze. Grade in der jetzigen Hitzeperiode denken viele über den Kauf eines solchen Gerätes nach. Günstige Geräte gibt es bereits für rund 200 Euro. Genauso wichtig wie der Anschaffungspreis sind allerdings die Stromkosten. Kunden sollten dabei weniger auf das Energielabel als auf die Raumgröße und das dazu passende Gerät achten. Je kleiner der Raum, desto mehr kann nicht nur bei der Anschaffung, sondern auch bei den Stromkosten gespart werden. Dabei können über 800 Euro zusammenkommen. Das zeigt eine Auswertung des Verbraucherportals Testberichte.de in Zusammenarbeit mit Verivox. Geringe Raumgröße senkt Kosten deutlich Mobile Klimageräte, die für Raumgrößen zwischen 15 und 30 Quadratmetern ausgelegt sind, kosten durchschnittlich 332 Euro und verursachen 90 Euro Stromkosten pro Jahr. Zur Berechnung der jährlichen Stromkosten wurden jährlich 350 Betriebsstunden im Kühlbetrieb veranschlagt. Das entspricht den Angaben auf dem Energielabel für Split-Geräte. Falls Umrechnungen von Kubikmeter in Quadratmeter erforderlich waren, wurden als Raumhöhe 2,50 Meter angenommen. Der verwendete Strompreis entspricht mit 29,7 Cent pro Kilowattstunde dem Verivox Verbraucherpreisindex Strom im Juni 2021. Geräte, die für 31 bis 45 Quadratmeter ausgelegt sind, kosten im Schnitt über 120 Euro mehr und haben rund 20 Euro höhere Stromkosten pro Jahr. Auf fünf Jahre hochgerechnet wird das Klimatisieren über 200 Euro teurer als mit einem kleineren Gerät. Wer noch größere Räume ab 46 Quadratmeter kühlen möchte, muss deutlich tiefer in die Tasche greifen und bezahlt rund 50 Euro mehr für Strom. Nach 5 Jahren sind die Gesamtkosten bereits rund 450 Euro höher. Ab 61 Quadratmeter sind es pro Jahr 80 Euro mehr für Strom. Die Gesamtkosten sind nach fünf Jahren sogar fast 850 Euro höher, als wenn nur ein kleinerer Raum gekühlt würde. Energielabel wenig aussagekräftig Für mobile Klimageräte gelten noch nicht die neuen Energielabel, die ab März 2021 für viele Elektrogeräte eingeführt wurden. Daher haben die meisten Klimageräte das gleiche alte Energielabel: Von 182 untersuchten Geräten sind 158 mit dem Energielabel A gekennzeichnet, 19 Klimaanlagen tragen das Energielabel A+, das Label A++ kommt nur zwei Mal vor. Diesen Beitrag können Sie nachhören oder downloaden unter:
Inhalt In dieser aktuellen Podcastfolge fasst Herr Michael Warburg den aktuellen Stand zum Nutri-Score zusammen und gibt Hinweise zu weiteren Informationsquellen Ihre Experten Michael Warburg Berater mit seinem IW-Institut und führt bei der REWE-Group das Issue-Monitoring durch Kontaktdaten IW-Institut Warburg Mobil: 01735169813 E-Mail: michaelwarburg@live.de Weiter Informationen zum Thema dieser Folge Berechnen Sie den Nutri-Score Ihrer Produkte und die Ihrer Marktpartner mit der kostenlosen Behr’s-Berechnungstabelle. Einfach eine eMail senden an: nutri-score@behrs.de . Zusätzlich erhalten Sie die KOSTENLOSEN E-Mail-Infodienste „Lebensmittelrecht“und „Lebensmittelhygiene“ von Behr’s, um über die weiteren Entwicklungen des Nutri-Scores® informiert zu sein. Selbstverständlich können Sie die KOSTENLOSEN E-Mail-Infodienste jederzeit wieder abbestellen. Für den Zugang zur Nutri-Score-Tabelle senden Sie einfach eine eMail an nutri-score@behrs.de. Wir freuen uns immer über ein Feedback. Schreiben Sie uns Ihre Meinung an podcast@behrs.de. Links Kostenfreie Informationen zu Hygiene und Recht BEHR’S…SHOP BEHR’S…AKADEMIE BEHR’S…ONLINE BEHR’S…e-Learning QM4FOOD HACCP-Portal Unsere Bitte: Wenn Ihnen diese Folge gefallen hat, hinterlassen Sie bitte eine 5-Sterne-Bewertung, ein Feedback auf iTunes und abonnieren diesen Podcast. Sie können diesen auch mit Ihren Freunden und Bekannten teilen. Hinterlassen Sie uns hier Ihre Bewertung Dadurch helfen Sie uns die Podcast immer weiter zu verbessern und Ihnen Inhalte zu liefern, die Sie sich wünschen.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Wed, 9 Nov 2011 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/13660/ https://edoc.ub.uni-muenchen.de/13660/1/Rieff_Benjamin.pdf Rieff, Benjamin
Fakultät für Geowissenschaften - Digitale Hochschulschriften der LMU
Die vorliegende Arbeit behandelt zwei unterschiedliche Anwendungen aus dem Bereich der numerischen Seismologie: Das erste Thema umfasst die Entwicklung und Anwendung eines Programms zur Berechnung der lokalen Wellenausbreitung in seismischen Störungszonen (Fault Zones) mit spezieller Fokussierung auf geführte Wellen (Trapped Waves). Dieser Wellentyp wird an vielen Störungszonen beobachtet und aus seinen Eigenschaften können Informationen über die jeweilige Tiefenstruktur abgeleitet werden. Das zweite Thema dieser Arbeit behandelt die Entwicklung und Anwendung zweier Verfahren zur Berechnung der globalen Wellenausbreitung, also der Ausbreitung seismischer Wellen durch die gesamte Erde einschließlich des äußeren und inneren Erdkerns. Die verwendeten Methoden ermöglichen es, kleinräumige Strukturen in großen Tiefen wie zum Beispiel die Streueigenschaften des Erdmantels oder die kleinskalige Geschwindigkeitsstruktur an der Kern-Mantelgrenze in knapp 2900 km Tiefe zu untersuchen. Wellenausbreitung in seismischen Störungszonen: Seismische Störungszonen, wie zum Beispiel der San Andreas Fault in Kalifornien, zeigen auf beeindruckende Weise, wie die Gestalt der Erdoberfläche durch seismische Aktivität als Folge tektonischer Prozesse geprägt wird. Die genaue Kenntnis der Tiefenstruktur einer Störungszone hingegen bietet zusätzlich einen Einblick in die vergangene Seismizität, die die Struktur der jeweiligen Störung geprägt hat. Neben den tektonischen Eigenschaften einer Region lassen sich aus der Tiefenstruktur auch Voraussagen über Häufigkeit und zu erwartende Stärke zukünftiger Erdbeben ableiten. Da Erdbeben vorzugsweise in solchen Störungszonen auftreten, ist eine möglichst genaue Kenntnis der Geometrie einer Schwächezone wichtig, um Regionen mit erhöhtem Gefährdungspotenzial zu erkennen. Für die Untersuchung der Tiefenstruktur einer Störungszone stehen in vielen Fällen ausschließlich Messungen von der Erdoberfläche zur Verfügung, etwa von seismischen Netzen, die in unmittelbarer Umgebung oder direkt auf einer Störung platziert wurden. Ereignet sich nun ein Erdbeben in einigen Kilometern Tiefe innerhalb der Störungszone, breitet sich ein Teil der angeregten seismischen Wellen durch die gesamte Störungszone bis zur Erdoberfläche aus, wo sie registriert werden. Die aufgezeichneten Signale werden somit entlang ihres gesamten Laufweges durch die Struktur der Störungszone beeinflusst, was die Ableitung der tiefenabhängigen Struktur aus den Messdaten erschwert. Um trotzdem ein genaues seismisches Abbild einer Störungszone zu bekommen, analysiert man unterschiedliche Wellentypen im Seismogramm, wodurch ein Maximum an Strukturinformation abgeleitet werden kann. Einer dieser Wellentypen, der sich durch besondere Eigenschaften auszeichnet, ist die geführte Welle (Trapped Wave). Diese entsteht, wenn eine Störungszone einen ausgeprägten vertikal ausgedehnten Bereich drastisch reduzierter seismischer Ausbreitungsgeschwindigkeit (Low Velocity Layer) und nicht zu komplexer Geometrie besitzt, der als seismischer Wellenleiter wirkt. In einem solchen Wellenleiter kann sich eine geführte Welle ausbreiten, die als mit Abstand stärkstes Signal an der Erdoberfläche registriert wird, also deutlich stärkere Bodenbewegungen hervorruft als etwa die direkte Welle. Dieser Verstärkungseffekt hat unter anderem Konsequenzen für die Abschätzung der seismischen Gefährdung in der Nähe einer Störungszone, zum Beispiel wenn die Störungszone durch dicht besiedeltes Gebiet verläuft. Geführte Wellen beinhalten aufgrund ihrer hohen Sensitivität bezüglich der Eigenschaften von Niedergeschwindigkeitszonen Strukturinformationen, die aus anderen Wellentypen nicht abgeleitet werden können. Daher leistet das Verständnis dieses Wellentyps einen wichtigen Beitrag für die Ableitung möglichst vollständiger Modelle von Störungszonen. Ausbreitung von SH- und P-SV Wellen in Erdmantel und der ganzen Erde: Das allgemeine Verständnis der Struktur und Dynamik des tiefen Erdinneren basiert zu einem großen Teil auf den Ergebnissen der globalen Seismologie. Im Gegensatz zum ersten Teil dieser Arbeit haben diese Erkenntnisse keine unmittelbare Auswirkung auf unser tägliches Leben. Jedoch liefert die Kenntnis des inneren Aufbaus der Erde wichtige Erkenntnisse für die geophysikalische Grundlagenforschung bis hin zum Verständnis der Entstehungsgeschichte der Erde und unseres Planetensystems. Die Modellierung der globalen seismischen Wellenausbreitung unterscheidet sich von der lokalen Modellierungen in zwei wesentlichen Punkten: (1) die wesentlich größere Ausdehnung globaler Modelle, welche die gesamte Erde oder zumindest große Teile des Erdinnern beinhalten, und (2) der Eigenschaft seismischer Wellen, sich im globalen Maßstab hauptsächlich in der Ebene auszubreiten, die durch den Großkreis zwischen Quelle und Empfänger aufgespannt wird. Beide Punkte legen nahe, zur Verringerung des Rechenaufwands eine Symmetriebedingung einzuführen. In dieser Arbeit wird durch die Formulierung von Wellengleichung und Modell in einem sphärisch-achsensymmetrischen Koordinatensystem der – im globalen Maßstab im Allgemeinen geringe – Anteil von Variationen der seismischen Parameter und von Wellenfeldanteilen orthogonal zur Großkreisebene vernachlässigt. Diese Beschränkung führt zu einer enormen Einsparung an Rechenressourcen, da das zu berechnende seismische Wellenfeld nur noch zwei Dimensionen aufspannt. Eine Folge der Achsensymmetrie ist die Aufspaltung des seismischen Wellenfeldes in einen SH- und einen P-SV Anteil. Beide Wellenfeldanteile sind voneinander entkoppelt und breiten sich in unterschiedlichen Regionen des Erdinneren aus. Zur Berechnung des SH- und des P-SV Wellenfeldes wurden daher in dieser Arbeit zwei separate Programme SHaxi und PSVaxi entwickelt. Kapitel 3 behandelt die Berechnung des globalen SH Wellenfeldes für Achsensymmetrische Geometrien mit dem im Rahmen dieser Arbeit entwickelten Programm SHaxi. Das SH Wellenfeld besteht aus horizontal polarisierten Scherwellen, die sich in guter Näherung ausschließlich im Erdmantel, also zwischen Erdoberfläche und Kern-Mantelgrenze ausbreiten. Somit muss nur der Erdmantel als Modellraum abgebildet werden, was die Diskretisierung des Modells und die Implementierung der Wellengleichung deutlich vereinfacht. Um eine Anwendung auf modernen Parallelcomputern mit verteilter Speicherarchitektur zu ermöglichen, wurde der Modellraum durch vertikale Schnitte in gleichgroße Segmente geteilt, die von den einzelnen Elementen (Knoten) eines Parallelrechners getrennt bearbeitet werden können. Das Wellenfeld in den Randbereichen dieser Segmente muss dabei nach jedem Zeitschritt explizit zwischen benachbarten Knoten ausgetauscht werden, um die Ausbreitung durch das gesamte Modell zu ermöglichen. Ein wesentlicher Aspekt des Kapitels ist die Verifikation des Verfahrens unter besonderer Berücksichtigung der implementierten Ringquelle. Durch einen Vergleich mit analytisch berechneten Seismogrammen werden die Eigenschaften der implementierten achsensymmetrischen Ringquelle diskutiert und es wird gezeigt, dass das Programm korrekte Seismogramme berechnet, die mit einer realistischen Double-Couple Quelle vergleichbar sind. Abschließend werden bisherige Anwendungen des Programms gezeigt: (1) die Modellierung von Streuung im gesamten Erdmantel und (2) die Untersuchung von kleinskaliger Topographie der D“ Schicht im untersten Erdmantel. Kapitel 4 behandelt das Gegenstück des im vorherigen Kapitel behandelten Verfahrens: Das Programm PSVaxi zur Berechnung des globalen P-SV Wellenfeldes für achsensymmetrische Geometrien. Im Gegensatz zum SH Wellenfeld breitet sich das P-SV Wellenfeld nicht nur im Erdmantel sondern auch im äußeren und inneren Erdkern aus. Dies erforderte eine Erweiterung des Modellraums bis praktisch zum Erdmittelpunkt, die sich mit dem im SH Fall verwendeten gleichförmigen Gitter aufgrund von Grundsätzlichen Stabilitätsproblemen des verwendeten Finite Differenzen Verfahrens nicht durchführen lässt. Um diesen zusätzlichen Modellraum zu erschließen wurde eine Mehrgebietsmethode (Multi-Domain Method) implementiert. Diese füllt zusätzliche Tiefenbereiche mit neuen, jeweils gleichförmigen Gittern (Domains) aus, deren Gitterabstände an den jeweiligen Tiefenbereich angepasst sind, was für die notwendige Stabilität des Verfahrens sorgt. Zusätzlich zur tiefenabhängigen Aufteilung des Modellraumes in gleichförmige Gitter wurde eine Parallelisierung vorgenommen, um das Programm auf Parallelcomputern nutzen zu können. Dazu wurde der Modellraum durch horizontale Schnitte in einzelne Segmente zerlegt, die – analog zu den vertikalen Schnitten bei der SHaxi Parallelisierung – von den einzelnen Knoten eines Parallelrechners bearbeitet werden können. Die Kombination von Mehrgebietsmethode und Segmentierung führt zu einem recht aufwendigen Algorithmus, erlaubt jedoch die Berechnung des hochfrequenten globalen Wellenfeldes durch die ganze Erde auf Parallelrechnern mit vergleichsweise geringem Rechenaufwand. Erste Anwendungen des PSVaxi Programms werden am Ende des Kapitels diskutiert: (1) eine exemplarische Modellierung der Wellenausbreitung in einer angenommenen D“ Schicht mit Topographie (2) eine Studie des Einflusses von Niedergeschwindigkeitszonen mit Topographie auf seismische Phasen, die durch den untersten Mantel und den äußeren Kern verlaufen und (3) eine Arbeit, die die Streueigenschaften des Mantels aus an der Kern-Mantelgrenze diffraktieren Wellen ableitet.
Fakultät für Mathematik, Informatik und Statistik - Digitale Hochschulschriften der LMU - Teil 01/02
In hoch entwickelten Wirtschaftssystemen unterliegen Banken einer besonderen Beaufsichtigung, da ein gut funktionierendes Finanzsystem die Grundlage einer soliden Wirtschaft darstellt. Insbesondere sind Banken verpflichtet, eine gesetzlich vorgegebene Eigenkapitaluntergrenze einzuhalten. Diese Grenze wurde in der Vergangenheit im Wesentlichen durch die Höhe der Bilanzaktiva bestimmt. Banken mussten für die aus diesen Positionen resultierenden Kredit- und Marktrisiken Eigenkapital vorhalten. Übrige Risiken wurden nur implizit abgedeckt. Durch die neue Baseler Eigenkapitalvereinbarung, die eine Empfehlung eines Ausschusses von Vertreten der Zentralbanken der großen Industrienationen darstellt und zurzeit in die jeweiligen nationalen Rechte umgesetzt wird, sollen nun unter anderem zusätzlich operationelle Risiken explizit mit Eigenkapital hinterlegt werden müssen. Zur Berechnung des notwendigen Eigenkapitals werden in der Vereinbarung drei verschiedene Ansätze aufgeführt, von denen zwei lediglich einfache und vermutlich risikounabhängige Berechnungsvorschriften darstellen; der dritte Ansatz jedoch - der Advanced Measurement Approach - kann bei entsprechender Ausgestaltung risikosensitiv sein, da er die Entwicklung und Verwendung selbst entwickelter Verfahren zur Bestimmung des Kapitals gestattet. Typischerweise werden bei solchen Verfahren Methoden aus der Versicherungswirtschaft verwendet, die Fragen zu Risiken von Prozessen, Personen, Technologie und externen Ereignissen bereits seit längerer Zeit zu beantworten versucht. Dazu werden die Ursachen der in der Vergangenheit aufgetretenen Verluste analysiert, um die aktuelle Gefahr zukünftiger Verluste zu ermitteln. Bei der Quantifizierung von Risiken in Banken müssen sehr hohe Quantile bestimmt werden, damit sichergestellt ist, dass das Unternehmen mit großer Wahrscheinlichkeit nicht zahlungsunfähig wird. Dies ist auch bei operationellen Risiken der Fall. Im Gegensatz zu Markt- oder Kreditrisiken stehen jedoch bei diesen nur relativ wenige Daten zur Verfügung. Dennoch wird in vielen zur Zeit verwendeten Modellen die Sensitivität der Ergebnisse aufgrund dieser sehr geringen Datenbasis nicht oder nicht ausreichend berücksichtigt. Die vorliegende Arbeit stellt ein Verfahren vor, um Konfidenzintervalle für geschätzte typische Risikogrößen wie z.B. einen Value-at-Risk oder den Expected Shortfall zu ermitteln. Die Anwendung wird dann anhand beispielhaft generierter Daten dargestellt, wobei die spezifischen Eigenheiten operationeller Risiken berücksichtigt werden. Dabei zeigt es sich, dass die bestimmten Konfidenzintervalle - abhängig von der für die Schätzungen verwendbaren Daten - mehrere Größenordnungen umfassen können. Bei der Interpretation der Daten und der daraus folgenden endgültigen Bestimmung von Mindestkapitalanforderungen für operationelle Risiken bei Banken müssen dann derartige Unschärfen berücksichtigt werden.
In der hier vorliegenden Arbeit wird die Wertigkeit der MRT bei 1,5 Tesla unter Verwendung einer Kombination aus Endorektalspule und Phased-Array-Oberflächenspule in der Bildgebung des Prostatakarzinoms (PCA) untersucht. Es werden zwei unterschiedliche Fragestellungen bearbeitet: Einerseits wird die sextantenbasierte Lokalisationsdiagnostik des Prostatakarzinoms beleuchtet (Kapitel VI), andererseits die MRT-basierte PSA-Dichtemessung für das präoperative Grading des Prostatakarzinoms (Kapitel VII). In der Lokalisationsdiagnostik des Prostatakarzinoms erlaubt das neu entwickelte Sextantenmodell eine exakte Zuordnung jedes Tumorherdes zur linken oder rechten Basis, Mitteldrüse und Apex der Prostata und damit eine genaue Korrelation mit dem histopathologischen Befund. Um diese Korrelation möglichst fehlerfrei durchzuführen, wurden die Prostatektomiepräparate aller 106 in diese Studie eingeschlossenen Patienten in Form von analog zu den MRT-Bildern durchgeführten Großflächenschnitten aufgearbeitet, die digitalisiert und auf einem Monitor neben dem MRT-Bild angezeigt wurden. Um eine objektive Aussage über die Genauigkeit der MRT zu erhalten, wurden die Untersuchungen der eingeschlossenen Patienten von drei verschiedenen erfahrenen Radiologen unabhängig voneinander befundet und die Befunde in einem standardisierten Auswertebogen festgehalten. Zur Berechnung von „Receiver Operator Characteristics“ (ROC)-Kurven erfolgte die Beurteilung des Vorliegens von Prostatakarzinom-typischen Veränderungen und extrakapsulärer Ausdehnung für jeden einzelnen Sextanten auf einer Fünf-Punkt-Skala. Durch Dichotomisierung dieser Werte und Auftragen der Ergebnisse in Vierfeldertafeln wurden Sensitivitäten, Spezifitäten, Treffsicherheiten („Accuracies“) sowie positive und negative prädiktive Werte berechnet. Der Grad der Übereinstimmung zwischen den einzelnen Befundern wurde mit Hilfe der Kappa-Statistik analysiert. Die Ergebnisse zeigen eine Staginggenauigkeit der MRT mit Endorektalspule von 83-92% bei Sensitivitäten für die Detektion eines Tumorbefalls einzelner Sextanten von 71-82% und einer Sensitivität für die Detektion eines kapselüberschreitenden Tumorwachstums (ECE) von 71-81%. Die jeweiligen Spezifitäten liegen zwischen 65-79% bzw. 80-89%. Die Flächen unter der ROC-Kurve (AUC, „area under the curve“) betragen 0,78-0,83 für PCA-Lokalisation und 0,79-0,81 für die Detektion einer extrakapsulären Ausdehnung. Für die PCA-Lokalisation betragen die Kappa-Werte 0,53-0,57, entsprechend einer moderaten Übereinstimmung, für die Detektion einer ECE liegen die Werte auf einem gutem Niveau (κ=0,75-0,78). Insgesamt liegt die Staginggenauigkeit („Accuracy“) der drei Befunder mit 83-92% im oberen Bereich der in der Literatur veröffentlichten Ergebnisse. Die MRT-gestützte Bestimmung der PSA-Dichte basiert auf der Volumetrie der Prostata mittels MRT. Die Einzelschichten der Prostata wurden für die vorliegende Studie in der MRT planimetriert und daraus Organvolumina berechnet. Der Quotient aus Serum-PSA-Wert und Prostatavolumen ergibt die PSA-Dichte. Diese wurde für eine präoperative Vorhersage des Malignitätsgrades, ausgedrückt durch den Gleason-Score, verwendet. Es ist bekannt, daß bei Tumoren mit einem Gleason-Score von 7 und darüber ein signifikant höheres Rezidivrisiko vorliegt als bei Tumoren mit einem Gleason-Score von 6 und darunter. Daher wird in der vorliegenden Arbeit bei einem Unterkollektiv von 61 Patienten ein optimaler Cutoff-Wert für die PSAD bestimmt, um eine präoperative Zuordnung von Patienten zu Gruppen mit Gleason-Score 6 und darunter (G6-) bzw. 7 und darüber (G7+) zu ermöglichen. Bei dem berechneten Cutoff-Wert von 0,23 ng/ml/cm3 wurden 79% aller Patienten mittels PSAD korrekt zugeordnet (Odds ratio=13,7). Es zeigen sich signifikant unterschiedliche PSA-Dichtewerte zwischen den beiden Patientengruppen (0,19±0,18 ng/ml/cm3 gegenüber 0,53±0,43 ng/ml/cm3, p
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 02/05
Die Absorptionsspektroskopie im mittleren infraroten (MIR, etwa 500-4000 cm-1) Spektralbereich ist ein wichtiges Hilfsmittel in der biomolekularen Forschung. Mit ihrer Hilfe können z.B. strukturelle Eigenschaften von Proteinen und enzymatisch katalysierte Reaktionen sichtbar gemacht werden. Zur Interpretation solcher Spektren benötigt man jedoch Rechenmethoden, vermittels derer MIR Spektren mit hoher Genauigkeit vorhergesagt werden können. Im ersten Teil dieser Arbeit betrachte ich Cyclopyrimindimere (CPD), die durch ultraviolette Strahlung in dem Erbgutmolekül DNS entstehen und potentiell mutagene oder lethale Folgen für die Zelle haben. Um zukünftige Experimente zu leiten, welche die licht-induzierte Reparaturreaktion dieser Defekte durch das Enzym Photolyase mit zeitaufgelöster Spektroskopie verfolgen wollen, habe ich mit Hilfe der Dichtefunktionaltheorie (DFT) die MIR Spektren von Modellstrukturen einzelner Intermediate der CPD Reparatur berechnet. Die Ergebnisse zeigen, dass die Intermediate der CPD Reparatur anhand der spezifischen MIR Absorption ihrer Carbonylmoden identifiziert werden können und dass der Weg der Spaltung eines CPD in native DNS Basen auf diese Weise aufgeschlüsselt werden kann. Im zweiten Teil dieser Arbeit untersuche ich jene Methoden, die in der Literatur zur Berechnung von MIR Spektren aus Molekulardyamik (MD) Simulationen, bei denen eine DFT Beschreibung eines Moleküls mit einer molekülmechanischen (MM) Beschreibung der Umgebung kombiniert wird, vorgeschlagen worden sind. Dazu leite ich die Vorschriften der verschiedenen Methoden für den Fall eines einzelnen Moleküls in einem polaren Lösungsmittel aus der linearen, quantenmechanischen Störungstheorie her. Anhand dieser Herleitung und der Ergebnisse einer exemplarischen Anwendung der Methoden auf eine DFT/MM-MD Simulation eines Formaldehydmoleküls in Wasser diskutiere ich die den jeweiligen Methoden zugrundeliegenden Annahmen und Näherungen sowie mögliche neue Verfahren zur Korrektur der durch die Näherungen induzierten Fehler bei der Berechnung von MIR Spektren. Ferner entwickle ich aus dieser Analyse ein neues Verfahren zur Berechnung von MIR Spektren kleiner Moleküle in polaren Lösungsmitteln, mit dessen Hilfe sich die Frequenzfluktuationen des gelösten Moleküls, die durch die Wechselwirkung mit der fluktuierenden Lösungsmittelumgebung entstehen, mit einer Auflösung von etwa 10-30 fs berechnen lassen. Anhand einer exemplarischen Anwendung zeige ich, dass es diese Methode erlaubt, die Ursachen der Frequenzfluktuationen im Detail zu untersuchen und deren Beiträge zu MIR Linienbreiten zu ermitteln.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 02/19
Tue, 22 Jul 2003 12:00:00 +0100 https://edoc.ub.uni-muenchen.de/1303/ https://edoc.ub.uni-muenchen.de/1303/1/Erdelt_Kurt_Juergen.pdf Erdelt, Kurt-Jürgen
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 01/07
Angesichts der zunehmenden Nachfrage nach Geflügelfleisch von Seiten des Verbrauchers wurde die Fragestellung behandelt, ob sich Masthähnchen aus unterschiedlichen Mast-/ bzw. Schlachtbetrieben im Hinblick auf die Qualität des rohen und zubereiteten Produktes unterscheiden. Die untersuchten Broiler stammten aus vier verschiedenen Schlachtbetrieben (A bis D), die jeweils von vertraglich gebundenen Mästern beliefert wurden. Alle Schlachtbetriebe entsprachen dem EU-Standard. Bei den Haltungsformen handelte es sich um konventionelle Bodenhaltung. Die Mäster von Betrieb C verfügten über ein BTS-Haltungssystem (Besonders Tierfreundliche Stallhaltung), welches den Tieren zusätzlich den Auslauf in einem überdachten Außenbereich ermöglicht. Die geschlachteten Tiere wurden von einem nordbayerischen Unternehmen direkt vom jeweiligen Schlachtbetrieb bezogen und frisch zur Untersuchung angeliefert. Die Broiler (n = 64) wurden im Hinblick auf ihre sensorischen Eigenschaften, ausgewählte chemische Parameter, ihren Brennwert sowie ihren Gehalt an auspreßbarem Gewebewasser analysiert. Die sensorische Untersuchung wurde an ungewürzten und an mit einer vorgefertigten Gewürzmischung gewürzten Hähnchen anhand einer bewertenden Prüfung mit 5-Punkte Skale durchgeführt. Die Zubereitung erfolgte mit einem speziellen „Grillhähnchen-Programm“ in einem Combi- Dämpfer. Die chemische Analyse sowie die Bestimmung des auspreßbaren Gewebewassers wurden in Anlehnung an die Amtliche Sammlung von Untersuchungsverfahren nach § 35 LMBG durchgeführt. Zur Berechnung der Brennwerte dienten einzelne Parameter aus der chemisch- physikalischen Analyse. Nach statistischer Auswertung der Ergebnisse der chemisch-physikalischen Untersuchung, der Ermittlung des ungebundenen Gewebewassers und der Brennwertuntersuchung, anhand des Wilcoxon‘schen-Rangsummentests, zeigte sich, daß die untersuchten Broiler der Chargen C signifikant weniger Fett und signifikant mehr Rohprotein enthielten. Das auspreßbare Gewebewasser war bei Charge A signifikant niedriger als bei den übrigen Chargen. Die Brennwerte waren bei allen Chargen weitgehend deckungsgleich, allerdings enthielt C im Vergleich zu den übrigen Chargen signifikant mehr Kilojoule aus Rohprotein als aus Fett. Die sensorische Untersuchung zeigte, daß alle Chargen über einen hohen Genußwert verfügten. Die besten sensorischen Ergebnisse wurden bei der hier gewählten Zubereitungsart allerdings bei einem mittleren Fettgehalt der Broiler erzielt. Aus den gewonnenen Ergebnissen läßt sich ableiten, daß sofern sich das Rohmaterial der Grillhähnchen innerhalb eines gewissen Qualitätsniveaus bewegt, bei gleicher Zubereitung keine bedeutenden Unterschiede in der Qualität des Endproduktes zu erwarten sind. Damit kommt den bromatologischen Aspekten wie Würzung, Zubereitung und Darreichungsform eine besondere Bedeutung zu.
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 01/05
Eine neue Form von Molekularem Quantencomputing wurde erarbeitet. Zur Qubitdefinition dienen verschiedene Anregungsgrade von Normalmoden, die Quantengatter werden mittels geformter fs-Laserpulse im IR realisiert. Zur Berechnung der Gatter wird die Optimal Control Theorie angewandt. Das Acetylenmolekül dient als 2-Qubit-Modellsystem. Die prinzipielle Realisierbarkeit von Molekularem Quantencomputing wird nachgewiesen. Der Deutsch-Jozsa-Algorithmus wird simuliert.