POPULARITY
In dieser Folge erfährst du alles über die Konvexität von Anleihen – was sie ist, wie sie sich von der Modified Duration unterscheidet und warum sie bei Zinsänderungen eine entscheidende Rolle spielt. Mit praktischen Rechenbeispielen zeige ich dir, wie du die Preisänderungen von Anleihen bei Zinsanstiegen und -senkungen besser verstehen und deine Investmentstrategien optimieren kannst.
Diese Woche reden wir über "Geox, der Schuh der atmet", warum man mit Remoulade im Gesicht 10 Jahr jünger aussieht und darüber, dass Kleopatra fast ein iPhone hatte. Außerdem gibt es die erste Folge der neuen HeBe-Gameshow und wir haben natürlich auch jede Menge Shower Thoughts und eine tolle Top 5 mitgebracht. Viel Spaß! HeBe Music Selection (Spotify): https://sptfy.com/5ha6 HeBe Music Selection (YouTube): https://bit.ly/3qbSS56 Twitter: twitter.com/aHeBeproduction Instagram: instagram.com/aHeBeproduction
Gudrun spricht in dieser Folge mit Attila Genda über sein Praktikum bei Dassault Systèmes (Standort Karlsruhe), das er m Frühjahr und Sommer 2020 im Rahmen seines Masterstudiums Technomathematik absolviert hat. Bei Dassault Systèmes in Karlsruhe wird schon seit einigen Jahrzehnten Strukturoptimierung betrieben. Wir haben dort auch schon einige Podcastfolgen zu den mathematischen Hintergründen und den aktuellen Weiterentwicklungen aufgenommen (s.u.). Für die numerische Lösung der betrachteten partiellen Differentialgleichungen werden Finite Elemente Verfahren eingesetzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”zulässig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um konkrete Probleme zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, die jeweils auf die Aufgabenstellung zugeschnitten werden. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Strukturoptimierung verändert die Form eines Bauteils oder einer Baugruppe so, dass weniger Material nötig ist, aber vorgegebene Festigkeitsanforderungen (z.B. Spannungen, denen das Teil typischerweise ausgesetzt ist) erfüllt sind. Dabei darf sich die Materialverteilung frei in approximativen Schritten verändern und ist nicht durch eine Vorplanung der prinzipiell einzuhaltenden äußeren Form begrenzt. Dies führt z.B. zur Entstehung von Löchern in der Form des Bauteils, was die Topologie auch im mathematischen Sinne verändert. Das ist kompliziert und einfach zugleich - je nachdem, unter welchem Blickwinkel man es betrachtet. Die Einfachheit ergibt sich aus der Tatsache, dass keine Zellen aus dem numerischen Netz der Numerik entfernt werden. Man setzt einfach eine Variable, die angibt, ob dort Material vorhanden ist oder nicht. Anstatt dies jedoch mit binären Werten zu tun (d.h. Material "an" oder "aus"), ändert man die Materialdichte der Zelle kontinuierlich zwischen [0, 1]. Dabei steht 0 für kein Material und 1 für die volle Materialmenge. Um numerische Probleme zu vermeiden wird statt 0 eine kleine Zahl verwendet. Da diese Modellierung im Allgemeinen zu physikalisch nicht interpretierbaren Ergebnissen führt, bei denen die Zellen weder leer sind noch die volle Menge an Material enthalten, müssen wir sicherstellen, dass der Optimierer dazu neigt, Ergebnisse zu finden, bei denen die Anzahl der Zellen mit mittlerer Dichte minimal ist. Dazu bestrafen wir solche Konstruktionen. Diese Verfahren heißen Solid Isotropic Material with Penalization Method - kurz SIMP-Methode. Strukturoptimierungsaufgaben enthalten in der Regel eine sehr große Anzahl von Designvariablen, in der Praxis sind es nicht selten mehrere Millionen von Variablen, die die Zielfunktion beeinflussen. Demgegenüber ist die Zahl der Nebenbedingungen viel kleiner - oft gibt es sogar nur ein paar wenige. Da Strukturoptimierungsprobleme im Allgemeinem keine konvexen Promleme sind und oft auch keine linearen Probleme, ist die Auswertung des Zielfunktionals und der Nebenbedingungen sehr rechenintensiv. Deshalb wurden spezielle Algorithmen entwickelt, die besonders geeignet für die Lösung solcher Probleme sind, weil sie vermeiden können, dass bis zur Konvergenz eine große Anzahl von Funktionsauswertungen stattfinden müssen. Der wahrscheinlich meist verbreitete Algorithmus heißt Method of Moving Asymptotes (MAA). Er wird in der Podcastepisode diskutiert. Die Aufgabe von Attila in seiner Zeit des Praktikums war es nämlich, diese Methode zu verallgemeinern, dann zum implementieren und die Implementierung zu testen. Die ursprünglich angewandte MAA-Methode, die von Svanberg vorgeschlagen wurde, verwendet nur einen sehr einfachen Ansatz zur Behandlung der Länge des Intervalls zwischen der unteren und oberen Asymptote. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. doi C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. K. Svanberg: The method of moving asymptotes—a new method for structural optimization, International Journal for Numerical Methods in Engineering, 1987 Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
Anleihen sind komplexe Gebilde. Ob sie sich lohnen, hängt von vielen Ertragsquellen ab. Kennzahlen helfen dabei, Chancen und Risiken abzuwägen. Diesmal geht es um Absicherungen.
Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist. Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert. Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden. In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen: mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren. Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend Finite-Element-Analysis Software (FEA). Das Strukturoptimierungspaket TOSCA bietet anschließend mehrere Möglichkeiten zur Optimierung an. Relevant ist für das vorliegende Problem jedoch nur die Formoptimierung. Sie setzt ihre Ziel- und Restriktionsfunktionen aus Steifigkeit, Volumen, Verschiebung, inneren Kräften und Widerstandsmoment zusammen. Um eine Formoptimierung zu starten, muss zunächst vom Nutzer eine Triangulierung zur Verfügung gestellt werden, mit der die Werte der Ziel und Restriktionsfunktion berechnet werden. Während der Optimierung werden die Positionen der Oberflächenknoten variiert. Beispielsweise wird Material an Stellen hoher Spannung hinzugefügt und an Stellen niedriger Spannung entfernt. Problematisch an der Formoptimierung ist, dass sich die Qualität der finiten Elemente durch die Bewegung der Oberflächenknoten verändert. Modifiziert man nur die Oberflächenknoten, so entsteht ein unregelmäßiges Netz, welches keine gleichmäßigen finiten Elemente enthält oder schlimmstenfalls keine gültige Zerlegung der modifizierten Komponente ist. Die auf der ungültigen Triangulierten durchgeführten Berechnungen der Zielgrößen sind daher nicht mehr zuverlässig. Abhilfe kann nur geschaffen werden, wenn das Netz nach jedem Iterationschritt geglättet wird. Im Rahmen von Henriekes Arbeit werden zwei Ansätze zur Netzglättung implementiert, diskutiert und miteinander verglichen: Glättung durch den Laplace Operator und Qualitätsmaße für das Finite Elemente Gitter. Die Anwendung des Laplace Operators ist theoretisch die fundiertere Variante, aber in der numerischen Umsetzung sehr aufwändig. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. http://dx.doi.org/10.4172/2090-0902.1000181 C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. Podcasts M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. G. Thäter, H. Benner: Fußgänger, Gespräch im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015
Sven Müller ist Professor für Verkehrsbetriebswirtschaft im Studiengang Verkehrssystemmanagement an der HTW hier in Karlsruhe. Im Rahmen seiner Promotion an der TU Dresden in der Gruppe von Knut Haase begann er der Frage nachzugehen, welche Faktoren die Verkehrsmittelwahl für den Schulweg beeinflussen. Hintergrund dieser Frage war, dass zu der Zeit in Dresden die Schließung von Schulstandorten heiß diskutiert wurde. Die Notwendigkeit von Schulschließungen war dabei nicht umstritten, jedoch welche konkrete Variante die für alle beste Lösung darstellen würde. Hier war die Diskussion emotional stark aufgeladen, d.h. ein Modell, das bei der Planung des Schulnetzes für objektive Informationen sorgt, wäre ganz besonders hilfreich. Am besten mit klaren Empfehlungen für optimale Lösungen in Bezug auf Schulwege und deren Kosten. Der naheliegende und auch herkömmliche Indikator für so ein Modell ist eine Distanzminimierung. Dadurch lassen sich objektive Aussagen zu minimalen Transportkosten für die Schüler ermitteln. Jedoch stellte sich schnell heraus, dass verlässliche Aussagen dazu fehlten, welche Verkehrsmittel die Schüler anteilig wählen und wieso. Ebenso welche Schulen die Schüler selbst wählen würden und wieso. Deshalb war ein wichtiger Ausgangspunkt für das Forschungsthema eine sehr groß angelegte Schüler-Befragung, die von den Studierenden im Rahmen eines Seminares geplant und durchgeführt wurde. Durch das große Engagement war die Stichprobe schließlich sehr groß. Es wurden dabei Fragebögen in fast allen Schulen verteilt und die Ergebnisse in einer selbst konzipierten Datenbank gesammelt - gut aufbereitet für eine anschließende Auswertung und Optimierung. So war es möglich, aus diesen Daten Prognosen zur Verkehrsmittelwahl in Abhängigkeit von Distanz und Verkehrsmitteloptionen zu erstellen und über verschiedene Schließungsszenarien eine optimale Verteilung der Schulen (in Bezug auf Kosten für die Stadt) zu ermitteln. All das floß auch in die Promotion von Sven Müller ein. Als wichtiges Problem für die mathematische Behandlung der Optimierung erwies sich, dass die Optimierungslösung auf die Daten zurückwirkt. Das führt auf ein dynamisches Problem, das mit herkömmlichen Methoden nicht behandelt werden kann. Auch bei der ÖPNV-Planung von optimierten Liniennetzen tritt das Problem auf: Kürzere Reisezeiten und mehr Direktverbindungen führen z.B. zu einem höheren Fahrgastaufkommen. Mathematisch ausgedrückt heißt das die Nebenbedingungen werden dynamisch und das Problem wird in der Regel nichtlinear. Betriebliche Problemstellungen haben oft ein ähnliches Problem, d.h. die Daten bleiben nicht fix sondern sind abhängig von der gefundenen Lösung. Ein wichtiges Teilergebnis des Forschungsvorhabens von Sven Müller ist eine exakte lineare Reformulierung für das ursprünglich nicht-lineare Optimierungsmodell. Ein weiteres grundsätzliches Problem ist, dass die Nutzenfunktion hinreichend genau beobachtet werden müsste. Ideal wäre es, wenn nur noch weißes Rauschen im Störterm berücksichtigt werden muss, d.h. alle zufälligen Anteile sind wirklich nur zufällig und unverbunden mit den beobachteten Daten. Das ist in der Realität leider nicht möglich und so führen nicht beobachtete Anteile zu Kovarianzen im Modell, die nicht null sind. Anders ausgedrückt, ist der stochastische Anteil nicht nur weißes Rauschen. Nebenbei gewann er noch einige andere Erkenntnisse. Z.B. ist es für die Prognose der Fahrradnutzung nicht ausreichend, die Distanz als Maß zu nehmen, da es bergauf- bzw. bergab gehen kann und das für die Entscheidung mindestens ebenso wichtig ist wie die Entfernung. Dieser Frage geht er zur Zeit auch mit seinen Studierenden im Studiengang Verkehrssystemmanagement an der HTW nach. Zwei weitere Themen, an denen Sven Müller zur Zeit arbeitet, weil sich gute Anknüpfungspunkte aus den eben geschilderten neuen Optimierungsstrategien bieten, sind z.B. die Versorgungsplanung in der Medizin und die Planung der Pilgerströme in Mekka.Genauer gesagt geht es bei der Versorgungsplanung um Vorsorgeprogramme (Prävention). Durch eine hohe Attraktivität des Angebots soll erreicht werden, das möglichst viele Patienten freiwillig teilnehmen. Auch hier ist die gute Erreichbarkeit der Ärzte wichtig, aber auch ihre Attraktivität. Es gilt abzuwägen, wie viele Ärzte an dem Präventionsprogramm mit welcher Kapazität teilnehmen sollen. Einerseits aus Kostengründen natürlich möglichst wenige. Aber andererseits ist gerade die kurze Wartezeit auf einen Termin ein Garant dafür, dass der Termin auch wahrgenommen wird. Somit führt die Optimierung wieder auf ein dynamisches Problem. Viele Standorte führen zu kurzen Wegen und weniger "no shows". Aber viele Untersuchungen bei einem Arzt stärken seine Kompetenz - verlängern aber die zu erwartende Wartezeit. Leider führt das außerdem auf ein nicht konvexes Optimierungsproblem, d.h. die Existenz von Optima folgt nicht mit traditionellen Methoden (bei denen ist Konvexität eine zentrale Voraussetzung). In Mekka sind während einer reicht kurzen Zeit etwa 2-5 Millionen Pilger unterwegs, um Rituale durchzuführen wie die Umkreisung der Kaaba und die symbolische Steinigung des Teufels an drei Säulen. Um das Risiko von Zwischenfällen, bei denen in der Vergangenheit schon hunderte von Todesopfern zu beklagen waren, zu senken, wird das Verhalten der Pilger modelliert in Bezug auf Geschwindigkeit und Dichte. Anschließend werden rund 2 Millionen Pilger, Routen zugewiesen, die so berechnet sind, dass alle Routen möglichst kreuzungsfrei sind. Weiterhin erhalten die Pilger fest zugewiesene Steinigungszeiten, so dass die erwarteten Dichten möglichst unkritisch sind. Der Einfluss von bestimmten Fehlern, wie z.B. falsch gesetzte Zäune oder falsch interpretierte Anweisungen kann dabei nicht völlig ausgeschlossen werden und wird als Risikofaktor in der Auslastung der Routen berücksichtigt. Die Studierenden im Studiengang Verkehrssystemmanagement an der Hochschule Karlsruhe - Wirtschaft und Technik sind hier an forderster Forschungsfront dabei. Z.B. mit Experimenten zu Fußgänger-Verhalten. Denn auch hier ist eine gute Datenlage der Schlüssel zum Erfolg. Literatur und weiterführende Informationen S. Müller e.a.: Travel-to-school mode choice modelling and patterns of school choice in urban areas, Journal of Transport Geography 16 (2008) 342–357 S. Müller: Bildungsstandorte und demographischer Wandel, STANDORT 34 (2010) 6–10 S. Müller e.a: Exposing Unobserved Spatial Similarity: Evidence from German School Choice Data, Geographical Analysis 44 (2012) 65–86 K. Haase, S. Müller: Management of school locations allowing for free school choice, Omega 41 (2013) 847–855 K. Haase, S. Müller: Insights into clients’ choice in preventive health care facility location planning , OR Spectrum 37 (2015) 273-291 K. Haase e.a.: Improving Pilgrim Safety During the Hajj: An Analytical and Operational Research Approach Interfaces 46 (2016) 74-90
Diese Animation stammt aus dem Kurs Volkswirtschaftslehre im Online Fernstudiengang BWL. Mehr Infos: http://oncampus.de/index.php?id=1250 Die Konvexität der Präferenzen ist äußerst plausibel. Güter sind nicht nur austauschbar, sondern sie ergänzen sich auch gegenseitig. Deshalb streben wir eine ausgewogene Zusammensetzung unseres Warenkorbes an und werden diese einem zu einseitigen Konsum der Güter in der Regel vorziehen. Dies gilt umso eher, je mehr unterschiedliche Güter in die Alternativen eingehen. Auf enge Teilmengen der Güter bezogen, kann es allerdings auch möglich sein, dass nur die Austauschbarkeit (Substitution) oder nur die gegenseitige Ergänzung (Komplementarität) eine Rolle spielt.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Für eine vergleichende Auswertung im Rahmen einer kephalometrischen Studie dentofaziale Parameter standen Fernröntgenseitenbilder von 247 Probanden zur Verfügen, 46 von denen stammten aus Syrien, Dieses Patientengut umfasste 27 männliche und 19 weibliche Personen im Alter zwischen 14 und 38 Jahren (Durchschnittsalter: 22 Jahre). Aus Deutschland wurden die Werte der Fernröntgenseitenbilder von 201 Patienten (SEGNER) übergenommen. Bei dieser Gruppe betrug das Durchschnittsalter 18 Jahre. 71 dieser Patienten kamen aus dem Bereich in und um Hamburg (26 männliche und 45 weibliche). Aus den Untersuchungen an der Universität München stammten 130 Patienten, davon waren 52 Männer und 78 Frauen. Die Fernröntgenseitenbilder wurden von einer Person auf Acetatfolie mit einem Bleistift durchgezeichnet. Alle kephalometrischen Referenzpunkte wurden nach Hasunds Methode identifiziert und markiert. Alle relevanten Winkel und Strecken wurden mit dem Computerauswertungsprogramm DiagnoseFix (Dr. Jörg Wingberg, Diagnostik Wingberg GmbH, Buxtehude, Germany) gemessen. Diese Daten wurden mit bestehenden deutschen Normen verglichen. Generell handelte sich um Fälle, bei denen eine eugnathe Okklusion (Klasse I nach ANGLE) vorlag und die keinerlei kieferorthopädische Behandlung erfahren hatten. Gesichtsprofil und Gesichtssymmetrie. Overjet- und Overbite -Werte waren im akzeptablen Normbereich. Die vergleichende Untersuchung erfolgte durch Darstellung der Hauptmesswerte in dafür neu erstellten Harmonieboxen, die auf der Basis der Harmoniebox von Segner und Hasund entwickelt wurden. Die statistische Auswertung erfolgte mittels t-test, nach Student. Zum Vergleich der dento-kraniofazialen Morphologie beider ethnischer Gruppen, ergaben sich zusammenfassend folgende Ergebnisse: I. Die Relationen zwischen den Variablen war bei den syrischen Probanden größer mit Ausnahme der Beziehung zwischen NSBa/NL-NSL und SNB/ML-NSL. II. Die Toleranzbreite der individuellen Normwerte für Syrer ist im Allgemeinen größer als die bei Deutschen, jedoch bei NL-NSL kleiner. III. Harmonisch orthognath sind die Gesichtstypen bei beiden Probandengruppen. Der gemessene kephalometrische Wert SNA zeigt keine Signifikant. Nun der Wert SNB ist bei Syrern im Vergleich zu Deutschen signifikant verkleinert, Der Schädelbasiswinkel (NSBa-Winkel) zeigt jedoch keinen Unterschied. IV. Das Verhältnis aus Mittelgesichtshöhe zu Untergesichtshöhe (Index) ist in der vertikalen Ebene bei Syrern größer, jedoch die Mittelgesichtshöhe (N-Sp´ -Strecke) allein zeigt bei beiden Probanden keinen Unterschied. V. Die Kieferbasen sind bei den Syrern mehr nach posterior inkliniert als bei den Deutschen. VI. Aufgrund der in der deutschen Probandengruppe vergrößerten Pg-NBmm-Strecke und des kleineren N-Winkels kann ein vermehrtes Wachstum des Kinnbereichs bei Deutschen angenommen werden. VII. Die dentale Morphologie bei Syrern wird charakterisiert durch die Protrusion der UK-Front. VIII. Das Gesichtsprofil bei Syrern zeigt eine größere Konvexität als man sie bei den Deutschen findet, was auch durch den signifikant vergrößerten Holdaway-Winkel (H-Winkel) reflektiert wird. IX. Durch die Unterschiede zwischen den Geschlechtern, kann man die kraniofaziale Morphologie im untersuchten Probanden nicht als geschlechtsneutral bezeichnet werden.
Medizinische Fakultät - Digitale Hochschulschriften der LMU - Teil 03/19
Die Aufgaben den vorliegenden Studie sind: 1) Bestimmung der kephalometrischen Normen der philippinischen Probanden mit Angle-Klasse-1-Okklusion in bleibenden Gebiss, 2) Herstellung der philippinischen Harmoniebox, 3) Vergleich der philippinischen Harmoniebox und dortige Normen mit bestehenden deutschen. 81 philippinische Probanden, von denen 44 männlich und 37 weiblich, wurden von den Studenten der Universität Manila Central nach folgenden Kriterien ausgewählt: 1) 100% philippinische Abstammung, bis zu Generation der Ur-Großeltern nachvollziehbar, 2) akzeptables Gesichtsprofil und Gesichtssymmetrie, 3) Angle-Klasse-1 Okklusion ohne Engstand, 4) alle Zähne ohne Berücksichtigung der Weisheitszähne angelegt, 5) keine kieferorthopädische Vorbehandlung. Klinische Untersuchung und Interview wurden durchgeführt, um sicher zu sein, dass alle Kriterien erfüllt wurden. Die deutschen Probanden, 78 männlich und 123 weiblich wurden aus Hamburg und München ausgewählt. Das Durchschnittsalter beider Gruppen betrug 18 Jahre. Die Fernröntgenseitenbilder wurden von einer Person auf Acetatfolie mit einem Bleistift durchgezeichnet. Alle kephalometrischen Referenzpunkte wurden nach Hasunds[31] Methode identifiziert und markiert. Alle relevanten Winkel und Strecken wurden mit dem Computerauswertungsprogramm, DiagnoseFix (Dr. Jörg Wingberg, Diagnostik Wingberg GmbH, Buxtehude, Germany) gemessen. Diese Daten wurden mit bestehenden deutschen Normen verglichen. Die vergleichende Untersuchung erfolgte durch Darstellung der Hauptmesswerte in dafür neu erstellten Harmonieboxen, die auf der Basis der Harmoniebox von Segner und Hasund[71] entwickelt wurden, desgleichen die statische Auswertung (student’s t-test), und die kephalometrische Überlagerung. Ein hoch signifikanter Unterschied zwischen den beiden Gruppen wurde für das untere Gesichtsdrittel gefunden. Die skelettale Morphologie bei philippinischen Probanden wurde charakterisiert durch die posteriore Inklination der apikale Basis mit einem kleineren Kinn. Die dentale Morphologie bei philippinischen Probanden wurde charakterisiert durch die bimaxilläre Protrusion der Incisivi. Das Gesichtsprofil bei philippinischen Probanden zeigt eine Konvexität im Vergleich mit den deutschen Probanden. Die vorangegangenen Befunde lassen vermuten, dass ein ethnischer Unterschied bei den Gesichtsstrukturen existiert. Diese Entdeckungen zeigen, dass die zusammengesetzten kephalometrischen Normen aus einer ethnischen Gruppe kein korrektes Gesichtsmuster für eine andere ethnische Gruppe erbringen.