POPULARITY
Markus Scholz hat gerade seine Dissertation Estimation of Cointegrated Multivariate Continuous-Time Autoregressive Moving Average Processes an der KIT-Fakultät für Mathematik verteidigt. Gudrun ergriff die Gelegenheit, mit ihm über die Idee und Anwendungsmöglichkeiten von Zeitreihen-Modellen zu sprechen. Prinzipiell stehen Zeitreihen einerseits für zeitlich geordnete (Mess-)Daten, die z.B. durch Abtasten (wiederholtes Messen) eines Vorgangs in der Realität entstehen. Andererseits werden sie in der Statistik als Ergebnis eines Stochastischen Prozesses interpretiert, der diese Zeitreihe als eine seiner Realisierungen erzeugt. Der stochastische Prozess ist hierbei ein Modell und soll die wichtigsten Eigenschaften der Daten erfassen. Er soll auch dazu dienen, zuverlässige Schätzungen zu liefern, wie sich die Zeitreihe wahrscheinlich in die Zukunft fortsetzt. Mitunter interessieren hier sogar nur so oberflächliche Informationen wie Saisonalität und Trends. Ein Aspekt, der im Titel der Arbeit von Markus Scholz als "Moving Average" beschrieben ist, ist die Eigenschaft, dass die Werte der Zeitreihe vor allem durch die letzten davor liegenden Meßpunkte beeinflusst sind und die "Erinnerung" an weiter in der Vergangenheit liegende Zustände abklingt. Im Modell ist hier stets eine Zufallsquelle integriert, die man sich wie ein Auswürfeln pro Zeitpunkt vorstellen kann. Wie erfolgt hier die Zuordnung zwischen Datenreihe und stochastischem Modell? In der Regel basiert die Wahl auf der Erfahrung über zuvor benutzte Modelle in ähnlichen Zusammenhängen und auf den bekannten Eigenschaften der Modelle. Anschließend müssen jedoch stochastische Tests belegen, dass die Zuordnung tatsächlich korrekt ist. Markus Scholz hat sich mit stochastischen Prozessen beschäftigt, die kontinuierlich in der Zeit sind statt - wie bisher beschrieben - diskret. Sie eignen sich z.B. zur Modellierung von Temperaturverläufen. Prinzipiell nimmt man dabei an, dass eine hoch genug gewählte Abtastrate den Übergang von diskreten Messungen zu einem als stetig angesehenen Prozess unkritisch macht. Der Aspekt, der ihn hier vor allem beschäftigt hat, war die Erweiterung bekannter Modelle um die Eigenschaft der Nicht-Stationarität. Das heißt kurz gesagt, die Grundeigenschaften des Prozesses können sich über die Zeit ändern. Das kennen wir ja auch von der Temperatur: Einerseitzs durchlaufen tägliche Tiefst-, Höchst- oder Mittelwerte der Temperatur im Jahresverlauf eine typische Kurve für eine betrachtete Region. Andererseits kann im konkreten Jahr ein untypischer Verlauf vorliegen und es ist gar nicht so leicht zu quantifizieren, ob es sich um eine untypische Beobachtung handelt oder sich z.B. die Mittelwerte tatsächlich statistisch signifikant ändern. Anders gesagt führt die Nicht-Stationarität im Modell auf Probleme bei zugehörigen Schätzungen, die in der Regel schwer zu lösen sind. Deshalb hat Markus Scholz zunächst einen handhabbaren Spezialfall ausgewählt, die sogenannten kointegrierte Prozesse. Als stochastische Quelle - dienen ihm Lévy-Prozesse, die Sprünge zulassen. Die einfachste Zufallsquelle wären Brownsche Bewegungen, die aber nur stetig (d.h. ohne Sprünge) möglich sind. Lévy- Prozesse sind flexibel haben jedoch nützliche Eigenschaften, die ihre Behandlung erleichtern, wie z.B. stationäre Inkremente. Grundidee der Arbeit war es, vorhandene Resultate für zeitdiskrete nicht-stationäre Modelle und zeitstetige stationäre Modelle so zu vereinen, dass ein neues zeitstetiges und nicht-stationäres Modell mit gut studierbaren Eigenschaften entsteht. Hierbei wurden Zustandsraummodelle verwendet, welche durch Matrizen charakterisiert werden, die die Eigenschaften des Modells bestimmen. Eine entscheidende Beweisidee beruht darauf, dass die Matrizen so transformiert werden können, dass ein Entkopplung in stationäre und nicht-stationäre Anteile erfolgt und die Benutzung der jeweils bekannten Resultate auf den zusammengesetzten Prozess möglich wird. Besonders wertvoll sind hier die entwickelten Schätzverfahren für kointegrierte Prozesse. In der Praxis haben die Zeitreihen meist einen ungefähren Gleichlauf über die Zeit, damit sind sie gemeinsam integriert, also kointegriert. Der Begriff Integration bedeutet, dass die nicht-stationären Zeitreihen durch Differenzenbildung auf neue stationäre Zeitreihen zurückgeführt werden können. Die Schätzmethode baut auf derMaximum-Likelihood-Schätzung auf, welches anschließend mit Hilfe eines numerisches Optimierungsverfahren gelöst wird. Für die Schätzmethode konnte die Konsistenz nachgewiesen werden, d.h. Schätzfolgen mit immer mehr Daten werden immer besser (Konvergenz in Wahrscheinlichkeit gegen wahren Wert). Referenzen C. Granger: Nobel Prize Lecture, 2003. R. Stelzer: CARMA Processes driven by Non-Gaussian Noise, TUM-IAS Primary Sources - Essays in Technology and Science, 1 no.1, 2012. E. Schlemm and R. Stelzer: Quasi maximum likelihood estimation for strongly mixing state space models and multivariate Lévy-driven CARMA processes, arXiv, 2012.
Peter Vortisch bekleidet seit 2010 eine Professur für Verkehrswesen am Karlsruher Institut für Technologie (KIT) und ist Leiter des Instituts für Verkehrswesen. Wir haben über die Entwicklung der Modellierung von Verkehr gesprochen und dabei den Schwerpunkt zunächst auf die Anfangszeit gelegt, in der sich die in der Forschung geborene Idee Schritt für Schritt in ein Softwareprodukt entwickelte und wo und warum sich die Idee und das Produkt durchsetzen konnten. Peter Vortisch hat in Karlsruhe eigentlich Informatik studiert und kam zum Verkehrswesen zunächst als wissenschaftliche Hilfskraft. Er hat dann bald mit an den ersten Simulationen programmiert. Solche Simulationen wurden damals auf Großrechnern durchgeführt, von denen es nur wenige gab. Die Forschungen und theoretischen wie praktischen Überlegungen wurden im wesentlichen von Professor Wiedemann vorangetrieben. Seine Karlsruher Gruppe war die erste, die das in Deutschland erfolgreich erprobte und schließlich als Standard eingeführt hat. Es gab damals Forschungsprojekte z.B. zur Wirkung von Tempolimits im Auftrag des Verkehrsministeriums. In der Zwischenzeit entwickelte sich die Rechentechnik weiter und mit dem Siegeszug des PCs wanderte die Simulation vom Rechenzentrum auf die Schreibtische. Damals war es möglich, auf so einem Rechner ein Modell mit etwa 20 Fahrzeugen in Echtzeit zu simulieren - heut sind die Rechner so viel schneller, dass mehrere 100.000 Fahrzeuge möglich sind. Aber auch mit so wenigen Fahrzeugen war es ein wichtiger Schritt hin zur Kommerzialisierung der Verkehrsmodelle. In den USA gab es damals z.B. ein öffentlich subventioniertes Produkt für Verkehrsplaner, was einen durchschlagenden Erfolg hatte und die Simulation in allen Büros etablierte. In Karlsruhe entwickelte sich ein Spin off aus dem Institut, die Firma ptv entwickelte das Produkt und die Vermarktung der Verkehrssimultion zunächst in Deutschland. Seither besteht eine enge Zusammenarbeit mit dem Institut für Verkehrswesen. Im Zuge dieser Professionalisierung wurde die Verwendung des Produktes durch Verkehrsingenieure der neue Standard. Es gab zwei große deutsche Unternehmen, die die Entwicklung der Software stark beschleunigt haben. Zunächst die Firma SIEMENS weil sie die Wirkung von Ampelsteuerungen besser vorhersehen wollte. U.a. auch im Zusammenhang mit der Grün-Anforderung durch den ÖPNV. Vor dem Aufbau auf einer echter Kreuzung sollte die Simulation auf dem Rechner beweisen, dass auch der gewünschte Effekt durch die Ampelsteuerung erreicht werden würde. Das wurde schließlich sogar Teil der SIEMENS Software Verkehrsplanung. Verkehrsplaner in den Städten haben in dieser Zeit weitergehende Ideen noch nicht so gut angenommen. Dafür war dann die Firma Volkswagen ein Vorreiter. Sie hat sich eigentlich für Abgasemissionen interessiert, wofür man Temperaturverläufe der Motoren braucht. Es wurde daraus die Aufgabe abgeleitet, für eine ganze Stadt den Verkehr über den Tag hinweg zu simulieren (inkl. parken). Sie haben sich in großem Umfang finanziell an den Entwicklungsarbeiten beteiligt. Prototyp wurde die Stadt Braunschweig. Ohne die heute selbstverständlich vorliegenden Daten zu Straßen und Kreuzungen war das ein sehr aufwändiges Vorhaben. Außerdem brauchte man neue Verfahren, die entscheiden, welche Wege die Fahrzeuge in der Stadt zurücklegend. Ein wichtiges neues Verfahren hierfür wurde die Dynamische Umlegung. Diese neue Fähigkeit des Programms hat zu einer deutlich weiteren Verbreitung geführt, denn es war nun ein wirklich professionelles Softwareprodukt auf dem Markt in Deutschland vorhanden. Der Funktionsumfang des ptv-Produktes war schließlich größer als das des USA-Standards. Da dort Verkehrssimulation aber schon Usus war, war es einfach mit dem noch besseren Produkt in den US-Markt einzusteigen. Ein weiterer wichtiger Markt war auch Großbritannien, da dort traditionell bei Planungen viel modelliert wird ("Mutterland der Modellierung"). Dort war der Einstieg geschafft, als sich Transport for London entschied, mit dem ptv-Produkt zu arbeiten. Podcasts und Videos PTV Youtube-Kanal U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen K.Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv
Tierärztliche Fakultät - Digitale Hochschulschriften der LMU - Teil 04/07
Ziel dieser Studie ist es, Temperaturverläufe an gesunden und künstlich infizierten (E. coli) Eutervierteln von Milchkühen mithilfe eines infrarotthermographischen Messsystems zu beurteilen. Material und Methodik: Fünf zunächst eutergesunde Milchkühe werden während 48 Stunden ca. alle zwei Stunden infrarotthermographisch untersucht. 24 Stunden nach Beginn des Versuchs wird das jeweils rechte hintere Euterviertel (HR) mittels Injektion einer NaCl-Lösung (2 ml) mit Escherichia coli (250 CFU) infiziert (Infektionsgruppe). Diese Versuche dienen der Ermittlung der Temperaturverläufe an der Euterhaut vor und nach der Infektion, der Detektion thermischer Veränderungen an der Haut eines infizierten Euterviertels im Vergleich zur Oberfläche eines nicht infizierten, kontralateralen Viertels und im Vergleich zur Wärmeverteilung am Referenztag, als das Euter noch gesund war. Weitere 16 eutergesunde Tiere (Kontrollgruppe) werden über einen Zeitraum von 24 Stunden in den gleichen Messintervallen infrarotthermographisch untersucht. Diese Untersuchungen dienen zur Feststellung des physiologischen Verlaufs der Euteroberflächentemperatur im Verlauf eines Tages und etwaigen tageszeitlichen Schwankungen. Ferner soll für beide Gruppen ermittelt werden, inwiefern maschineller Milchentzug die Temperatur der Euterhaut beeinflusst und welche Zusammenhänge zwischen der Rektaltemperatur sowie der Umwelt und der Temperatur der Euteroberfläche bestehen. Verwendet wird eine Infrarotkamera der Serie ThermaCAM® B20 HS (FLIR Systems®) und andere Messinstrumente. Jeweils drei Infrarotbilder pro Messzeitpunkt werden mittels verschiedener Software-Tools (Polygone, Rechtecke, Linien) ausgewertet. Im Zuge der Präzisionsberechnungen wird die Polygon-Methode favorisiert, mit der die Flächen-Minimal- (Fl-Min), -Maximal- (Fl-Max), Differenz zwischen Minimal- und Maximaltemperatur (Fl-Max-Min) und -Durchschnittstemperatur (Fl-DsT) der Messfelder ermittelt werden. Ergebnisse: Beim Vergleich der durchschnittlichen Variationskoeffizienten (± Standardabweichung) der 3er Bildserien der Infektions- und Kontrolltiere (n = 544) zu jedem Messzeitpunkt weisen die Fl-DsT-Werte (0,12 % ± 0,09) die geringste Variation auf (Fl-Max: 0,19 % ± 0,14 und Fl-Min: 0,29 % ± 0,21). Darum werden nur Fl-Max- und Fl-DsT-Werte für weitere Berechnungen verwendet. Die Auswertungsmethode Polygone besitzt die beste Präzision und geringste Standardabweichung, weshalb sie gegenüber den Rechtecken und Linien favorisiert wird. Die Daten sind nicht normalverteilt, weshalb nicht parametrische Tests verwendet werden. Eutergesunde Tiere: Bei eutergesunden Tieren (n = 272) existieren im Durchschnitt nur geringste Temperaturunterschiede zwischen beiden Vierteln während 24 Stunden (Fl-Max 0,12 ± 0,12 °C und Fl-DsT 0,17 ± 0,13 °C). Im Tagesverlauf zeigen einige Tiere morgens niedrigere und abends höhere Temperaturen (v.a. in den Fl-DsT-Werten) mit einem Minimum von -0,42 ± 0,39 °C um 6:30 Uhr und einem Maximum von +0,45 ± 0,58 °C um 21:30 Uhr (im Vergleich zur tierindividuellen mittleren Tagestemperatur). Dies legt die Existenz eines zirkadianen Rhythmus der Eutertemperatur nahe. Durch den morgendlichen maschinellen Milchentzug wird die Temperatur am Euter zum Teil signifikant gesenkt, beim Melken am Abend steigt die Temperatur leicht an. Die Reaktion ist allerdings individuell sehr unterschiedlich. In einem gemischten Modell weist die Rektaltemperatur einen engeren Bezug zur Euterhaut-Temperatur auf als die Umgebungstemperatur. Dabei werden beide Viertel in gleichem Ausmaß von der Rektal- und in ähnlichem Maß von der Umgebungstemperatur beeinflusst. Die Luftfeuchtigkeit ist nicht relevant. Tiere mit induzierter Mastitis: Nach Infektion (p.i.) des Euterviertels HR zeigen beide Viertel einen signifikanten Temperaturanstieg zwischen 13 bis 17 Stunden p.i., im Vergleich zu den Referenzwerten am Vortag, als das Euter noch gesund ist: Durchschnittliche Maximaltemperatur der Fl-Max 13 Stunden p.i.: HR (E. coli) = 1,98 ± 0,59 °C und HL (Placebo) = 1,93 ± 0,62 °C (p = 0,04 für beide). Die Fl-Max-Werte beider Viertel unterscheiden sich auch nach der Infektion nicht signifikant. Die Verläufe der Fl-DsT-Messwerte nach der Infektion differieren: Die Oberfläche des infizierten Viertels (HR) ist zwischen 11 und 19 Stunden p.i. (mitunter signifikant) kühler als die des gesunden, kontralateralen Viertels; der Höhepunkt der Differenz wird 13 Stunden p.i. erreicht (-0,89 ± 0,64 °C). Die obere Toleranzgrenze der Fl-Max-Werte beträgt 38,77 °C, die der Fl-DsT-Werte 37,53 °C im Vergleich zum Referenztag (Sensitivität 87 % und 60 %). Das Toleranzintervall reicht für Differenzen zwischen HR und HL für Fl-Max-Werte von -0,46 bis 0,29 °C, für Fl-DsT-Werte von -0,7 bis 0,49 °C (Sensitivität 27 und 40 %). Melken verändert die Eutertemperatur nach der Infektion ähnlich wie bei den eutergesunden Tieren, jedoch nicht signifikant. Allerdings existieren auch hier individuelle Unterschiede. Die Luftfeuchtigkeit hat auch nach der Infektion keinen Bezug zur Euterhaut (gemischtes Modell). Die Rektaltemperatur weist einen engeren Bezug zur Euterhauttemperatur auf als die Umgebungstemperatur auf. Fazit: Nach experimenteller Infektion eines Euterviertels mit Escherichia coli können entzündungsbedingte, signifikante Temperaturänderungen mittels Infrarot-thermographie gemessen werden.