Podcasts about der datensatz

  • 6PODCASTS
  • 6EPISODES
  • 58mAVG DURATION
  • ?INFREQUENT EPISODES
  • Apr 7, 2021LATEST

POPULARITY

20172018201920202021202220232024


Latest podcast episodes about der datensatz

programmier.bar – der Podcast für App- und Webentwicklung
News 14/21: TypeScript 4.3 // Oracle vs. Google // Tailwind CSS 2.1 // Facebook Datenleck

programmier.bar – der Podcast für App- und Webentwicklung

Play Episode Listen Later Apr 7, 2021 26:13


Nachdem wir uns dem wichtigen Thema des Gärtnerns widmen, kommen wir auch direkt zu den News der Woche:Mit TypeScript 4.3 können Setter mehrere Typen entgegennehmen und Getter dann nur einen Typ zurückliefern. Man kann nun das “override”-Keyword nutzen, um sicherzustellen, dass man eine Methode der Superclass überschreibt und das vielfach eingesetzte #-Zeichen kann jetzt auch Methoden und statische Properties privat machen. Google gewinnt vor dem Supreme Court gegen Oracle und beendet nach 10 Jahren einen Rechtsstreit, bei dem es nicht nur um Milliarden von Dollar, sondern auch um eine Grundsatzentscheidung zur Schützbarkeit von APIs geht. Unser Lieblingstool Tailwind CSS kommt in Version 2.1 mit neuen Utility Classes für CSS Filter, Backdrop Filter und Blend Modes. Das wichtigste neue Feature ist JIT (Just In Time): Weniger Konfiguration, Kombination von allen Utilities und Variants von Haus aus, sowie eigenen Sizes durch einfache Definition mit eckigen Klammern! Facebooks Datenleck von Ende 2019 hat jetzt reale Folgen. Der Datensatz ist öffentlich verfügbar und wir bekommen Spam-SMS. Ob du auch betroffen bist, kannst du hier herausfinden. Schreibt uns!Schickt uns eure Themenwünsche und euer Feedback.podcast@programmier.barFolgt uns!Bleibt auf dem Laufenden über zukünftige Folgen und beteiligt euch an Community-Diskussionen.TwitterInstagramFacebookMeetup

ETDPODCAST
Nr. 423 Dümmer als der Datensatz erlaubt: Künstlicher Intelligenz mangelt es am gesunden Menschenverstand

ETDPODCAST

Play Episode Listen Later Nov 27, 2020 8:42


Artikel zum Podcast: https://bit.ly/33lfXs1 Trotz Fortschritten in der Spracherkennung und -verarbeitung kann künstliche Intelligenz nicht klar denken. Sätze wie „Zwei Hunde werfen sich Frisbees zu“ sind für die KI völlig selbstverständlich und zeigen, dass der vermeintlichen Intelligenz der gesunde Menschenverstand fehlt. Zum iTunes Podcast-Kanal: https://podcasts.apple.com/at/podcast/etdpodcast/id1496589910 Zum Spotify Podcast-Kanal: https://open.spotify.com/show/277zmVduHgYooQyFIxPH97 Unsere neue Sonderausgabe zum Thema 30 Jahre Deutsche Einheit (erhältlich gedruckt oder als E-Paper) finden Sie in unserem Online-Shop: https://buch.epochtimes.de/collections/sonderdruck (c) 2020 Epoch Times

Modellansatz
Propensity Score Matching

Modellansatz

Play Episode Listen Later Jun 13, 2019 69:59


Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen. Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin. Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben. Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen. Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können. Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden. Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), das eine Vielzahl Verfahren und Algorithmen zur Verfügung stellt. Die im Laufe der Arbeit entwickelten Verfahren finden sich im Github Repository zu den Analyseverfahren. Die Analyse des Observationsdatensatz ergab nun Risikoraten von 15.6% bis 11.5% für Nierenversagen. Dies muss aber nicht bedeuten, dass die eine Therapie immer der anderen Therapie vorzuziehen ist, da viele Kriterien für die Wahl einer Therapie einbezogen werden müssen. In der personalisierte oder prädiktiven Medizin wird versucht, an Hand von Observationsanalysen sogar weitergehende Therapiehinweise in Abhängigkeit von Confoundern der einzelnen Patienten zu geben. Den Anstoß für den Data Science Phil Podcast fand Philipp in einem Aufruf vom YouTuber Martin Jung. Im englisch-sprachigen Podcast geht es um grundlegende Verfahren der Data Science, aber auch um weiterführende Themen, die er auf Konferenzen mit Gästen diskutiert. Literatur und weiterführende Informationen P. R. Rosenbaum, D. B. Rubin, Donald B: The Central Role of the Propensity Score in Observational Studies for Causal Effects, Biometrika. 70 (1): 41–55 , 1983. J. Pearl: Causality: Models, Reasoning, and Inference , Cambridge University Press, 2019. D. Ho, K. Imai, G. King, E. Stuart: MatchIt - Nonparametric Preprocessing for Parametric Causal Inference, Journal of Statistical Software, 42(8), 1 - 28, 2011. D. Ho, K. Imai, G. King, E. Stuart: MatchIt: Nonparametric Preprocessing for Parametric Causal Inference, R-Module, 2018. E. A. Stuart: Matching Methods for Causal Inference: A review and a look forward, Statistical Science 25(1): 1-21, 2010. Research Gate Profil von Philipp Packmohr Github Profil von Philipp Packmohr Science Days im Europapark Rust Data Science Blog von Philipp Packmohr stamats von Prof. Dr. Matthias Kohl Podcasts Data Science Phil Podcast P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. I. Hinneburg: EbPharm-Magazin im September, Adjustierung in epidemiologischen Studien, Podcast Evidenzbasierte Pharmazie, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Neues Terrain
Freiflächen

Neues Terrain

Play Episode Listen Later Aug 11, 2016 130:58


Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) http://www.kit.edu/ erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik  entwickelt. Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik. Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert. Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt. Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parataxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen. Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS)  ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden. Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten. Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600x1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen. Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen. Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten. Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann. Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen. Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss. Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.Literatur und weiterführende Informationen D.Koester: A Guidance and Obstacle Evasion Software Framework for Visually Impaired People, Diplomarbeit an der Fakultät für Informatik, Karlsruher Institut für Technologie (KIT), 2013.D. Koester, B. Schauerte, R. Stiefelhagen: Accessible Section Detection for Visual Guidance, IEEE International Conference on Multimedia and Expo Workshops (ICMEW), 2013.

video system mit team thema blind software videos weg auto computers dabei kinder basic gps logo mensch dazu damit schon grenzen augen schritt weise bild basis deshalb sprache bereich evaluation herausforderung archive situationen technik einsatz analyse personen chen hardware vorteile arbeiten menge im gespr aufnahme daten vergleich auge aspekte punkte umsetzung wissenschaft begriff autos ergebnis austausch schwierigkeiten beispiele institut pixel szene kamera gefahren umgebung bereiche abstand navigation sehen literatur bumblebee stereo techniken multimedia lehre lidar ebenso verfahren hindernisse stabilit karte module bedarf grunds roboter maschine wichtige ausrichtung verwendung betrachtung aufnahmen architektur weiterhin anwendungen baustellen abst algorithmen das team kameras wiederholung abwesenheit praktikum bibliothek die entwicklung hindernissen informatik computer vision objekte weges steuerung entfernung identifikation linien metern echtzeit fragestellung symbiose nutzern fakult berechnung sensoren robotik programmierung robotern computern objekten genauigkeit erfassung anlehnung erkennung oberk verfahrens arbeitsgruppe referenz ankn mobileye koester fortran elektrotechnik die bewegung diplomarbeit augenlicht karlsruher institut dieses prinzip robustheit im ergebnis klassifikation lasern mobilger freifl graphen technologie kit opencv steigung pixeln bildverarbeitung visually impaired people bewegungssteuerung assistenzsystemen bilddaten ieee international conference ein verfahren die evaluation gradienten studienzentrum die erkennung die zuordnung human computer interaction lab bildelemente der datensatz modellansatz podcast kreuzkorrelation normalenvektor
Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05
Measurement of the top quark mass in the fully hadronic top antitop decay channel with the ATLAS detector

Fakultät für Physik - Digitale Hochschulschriften der LMU - Teil 04/05

Play Episode Listen Later Jul 30, 2013


In dieser Arbeit wird eine Messung der Top-Quark Masse im vollhadronischen Top-Antitop Zerfallskanal präsentiert. Die Messung basiert auf Daten des ATLAS Detektors aus Proton-Proton Kollisionen, welche am LHC bei einer Schwerpunktsenergie von 7 TeV durchgeführt wurde. Der Datensatz wurde im Jahr 2011 aufgezeichnet und entspricht einer integrierten Luminosität von 4.7 fb^-1. Die Messung der Top-Quark Masse erfolgt mittels einer Template-Technik, wobei die sogenannte R_3/2 Variable als Top-Quark-Massen sensitive Größe benutzt wird. Die R_3/2 Variable errechnet sich hierbei aus dem Verhältnis der invarianten Massen des hadronisch zerfallenden Top-Quarks und W-Bosons. Die Zuordnung von Jets zu den jeweiligen Top-Antitop Zerfalls-Partonen ergibt sich anhand einer Wahrscheinlichkeitsvorhersage, welche die kinematischen Eigenschaften der Jets berücksichtigt. Der Multijet Untergrund des vollhadronischen Top-Antitop Signals wird mittels Daten abgeschätzt, wodurch eine präzise Vorhersage der kinematischen Verteilungen von Untergrund-Ereignissen ermöglicht wird. Die Messung der Top-Quark Masse ergibt m_top = 175.1 +- 1.4 (stat.) +- 1.8 (syst.) GeV/c^2, wobei die dominanten Beiträge zur systematischen Unsicherheit von der Jet-Energie-Skala sowie von der b-Jet Energie-Skala stammen.

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 02/07
Überprüfung von ausgewählten Schnellmethoden zur Bestimmung von Fleischqualitätsparametern

Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 02/07

Play Episode Listen Later Feb 10, 2006


Der Gehalt an bindegewebseiweißfreiem Fleischeiweiß (BEFFE) bildet für die Le-bensmittelüberwachung im Rahmen des Verbraucherschutzes nach § 15 LFGB die entscheidende Beurteilungsgrundlage für die substantielle Qualität von Fleisch und Fleischerzeugnissen. Die chemische Vollanalyse nach Vorschrift der Amtli-chen Sammlung stellt dabei die anerkannte Grundlage zur Berechnung des BEFFE- Gehaltes dar. Für die Hersteller von Fleischwaren spielt neben dem BEFFE auch der Wasser-, Fett- und Rohproteingehalt eine Rolle bei der Rezep-turberechnung und Standardisierung von Fleischprodukten. Für eine optimale Re-zeptursteuerung und Qualitätssicherung ist es notwendig, die erwünschten Para-meter bereits im Verarbeitungsfleisch erfassen zu können. Die chemische Analyse ist mit einem entsprechenden Zeitaufwand verbunden, so dass die Vollanalyse für eine synchron zu den Verarbeitungsschritten erfolgende Bestimmung der ent-scheidenden Parameter nicht geeignet ist. Ziel dieser Arbeit war, die Leistungsfähigkeit eines sich in der Entwicklung befindli-chen optischen Sensormoduls zur Detektion von Wasser, Fett, Rohprotein und Bindegewebe zu beurteilen. Das Funktionsprinzip des optischen Verfahrens ba-siert auf VIS-, NIR- sowie Fluoreszenz-spektroskopischen Messungen und soll im Durchflussverfahren die simultane in-line-Analyse von Verarbeitungsfleisch ermög-lichen. Daneben wurden Verfahren der NIR-Spektroskopie und der niedrig auflö-senden NMR-Spektroskopie in die Untersuchungen miteinbezogen, um die Mess-genauigkeit dieser Schnellmethoden in der Bestimmung von Fett und Wasser (NIR- und NMR-Spektroskopie) sowie von Rohprotein und BEFFE (NIR-Spektroskopie) zu bewerten. Aus ihrer grundsätzlichen Bewertung sollte die mög-liche Eignung der spektroskopischen Schnellverfahren zur präzisen und vertrau-enswürdigen Kalibration des neuartigen Sensormoduls abgeleitet werden. Als Re-ferenzanalytik wurde für alle Methoden die nasschemische Vollanalyse herange-zogen. Insgesamt wurden 54 Proben (Rind, Schwein, Halb/Halb) am optischen Sensor-modul vermessen. Alle Proben wurden anschließend NIR-spektroskopisch und nasschemisch analysiert. Eine Teilmenge von 30 Proben wurde zusätzlich der NMR-spektroskopischen Untersuchung zugeführt. Der Vergleich der spektralen Messgrößen des neuartigen Verfahrens mit der nasschemischen Referenzanalytik ergab für alle Probenmaterialien (Rind, Schwein, Halb/Halb) eine in Abstufungen zufriedenstellende Korrelation der Was-ser-, Asche-, Fett- und Rohproteingehalte, jedoch nur eine unzureichende Vorher-sagesicherheit für Bindegewebe. Aus dem Vergleich von NIR-Spektroskopie zur Nasschemie liessen sich hohe bis sehr hohe Korrelationen für die Parameter Wasser, Fett, Rohprotein und BEFFE ermitteln. Die durch die NMR-Spektroskopie erstellten Wasser- und Fettgehalte bewegten sich für alle 30 untersuchten Proben in sehr hoher Korrelation zu den nasschemischen Ergebnissen. Die NIR-Spektroskopie kann mit Einschränkungen als ausreichend zuverlässige Schnellmethode zur simultanen Bestimmung substantieller Fleischparameter an-gesehen werden. NMR-spektroskopische Messungen erzielen für Wasser und Fett genauere Ergebnisse als die NIR-Spektroskopie. Sofern nur die Bestimmung von Wasser und Fett benötigt wird, ist in der Routineanalytik die NMR-Spektroskopie als genauere Methode angebracht. Ist daneben auch die Bestimmung von Roh-protein und BEFFE angestrebt, muss auf die NIR-Spektroskopie zurückgegriffen werden. Besteht die Erforderlichkeit einer forensisch gesicherten Aussage, so stellt die Nasschemie nach wie vor die Methode der Wahl dar. Eine abschließende Bewertung des optischen Sensormoduls konnte im Rahmen dieses Dissertationsvorhabens nicht getroffen werden. Der Datensatz von 54 ver-arbeiteten Fällen hat sich in der statistischen Auswertung als zu gering erwiesen, um eine Kalibration des Systems für die unterschiedlichen Probenmaterialien und Aufbereitungsformen zu ermöglichen.