Auch in Ihren Daten stecken wertvolle Informationen! Möchten Sie mit Daten Ihre Produkte schneller entwickeln? Ihre Versuche effizienter auswerten? Ihre Prozesse besser verstehen und optimieren? Dann ist dieser Podcast für Sie. Barbara Bredner berät und begleitet seit 2003 Menschen in der Industrie bei der Datenauswertung in Forschung und Entwicklung, Prozess Engineering und Qualitätsmanagement. In ihrem Podcast erklärt sie, wie Sie eigene Daten auswerten und gezielt nutzen können. Sie gibt Tipps für solide und nachvollziehbare Analysen, damit Sie mit größerer Sicherheit und Klarheit belastbare Ergebnisse erreichen. Das Ziel sind abgesicherte Entscheidungen auf Grundlage Ihrer Datenanalysen!
Die Weibull-Verteilung ist die Verteilung, die am häufigsten im Bereich Zuverlässigkeit & Lebensdauer eingesetzt wird. Der Name "Weibull-Verteilung" ist tatsächlich ein Plagiat. Viele Jahre vor der Veröffentlichung von Waloddi Weibull hatten andere dieselbe Verteilung unter "Rosin-Rammler-" oder RRSB-Verteilung beschrieben. In dieser Folge werden Anwendungsbeispiele für die Weibull-Verteilung beschrieben und Methoden vorgestellt, mit denen Ausfallsteilheit und charakteristische Lebensdauer sowie weitere Kenngrößen ermittelt werden.
Die Belastbarkeit und Haltbarkeit ist unter anderem durch die Neufassung der Verbraucherschutzgesetze in Deutschland immer wieder ein Thema. Gerade in diesem Bereich ist eine 100 %-Kontrolle vor Auslieferung unmöglich, deshalb wird über Dauerlaufversuche ermittelt, wie lange Komponenten und Bauteile voraussichtlich halten.
Die statistische Versuchsplanung und -auswertung (Design of Experiments, DoE) hilft, Versuche und Prozesse besser zu verstehen, optimale Arbeitspunkte zu finden oder Nachweise zu führen. Damit die Ziele erreicht werden können sind verschiedene Schritte notwendig, insbesondere bevor ein Versuchsplan ausgewählt, erstellt und umgesetzt wird. In der Folge wird der Ablauf eines DoE-Projekts beschrieben und erläutert, wann mehr als ein Versuchsplan notwendig ist.
Maschinelles Lernen kann auch bei attributiven Zielgrößen (in Ordnung/nicht in Ordnung, gut/schlecht, funktioniert/funktioniert nicht) genutzt werden, um Prozesse besser zu verstehen und zu optimieren. Die Machine Learning (ML) Modelle für attributive Zielgrößen sollten vor der Nutzung genauso wie alle anderen Modelle auf ihre Qualität geprüft werden. In dieser Folge geht es um Strategien und Kennzahlen, mit denen die Erklär-Qualität bei der Klassifikation bzw. bei attributiven Zielgrößen geprüft wird.
Machine Learning Modelle helfen uns unter anderem dabei zu verstehen, wie Einflussgrößen ein Versuchs- oder Prozess-Ergebnis verändern (supervised learning, d. h. es gibt eine Zielgröße). Bevor ein Modell produktiv genutzt wird, sollte die Modell- bzw. Erklär-Qualität geprüft werden. Diese Folge stellt Kennzahlen für messbare bzw. variable Zielgrößen wie z. B. die Länge oder den Durchmesser von Stahlrohren vor.
"Normal"-verteilt klingt, als wären alle Messwerte so verteilt. Oft sind Messwerte in der Praxis nicht-normalverteilt. In dieser Folge geht es um Gründe für Abweichungen von der Normalverteilung und Auswertungsmethoden, mit denen die Ursachen untersucht und bewertet werden können.
Bei der Analyse von Zusammenhängen und Einflüssen werden Korrelation, Regression und Varianzanalyse (ANOVA) eingesetzt. Die wahrgenommenen Unterschiede sind oft sehr viel kleiner als gedacht und liegen eher in der historischen Entwicklung begründet. In dieser Folgen werden Gemeinsamkeiten und Unterschiede beschrieben und der Zusammenhang mit dem allgemeinen linearen Modell (General Linear Model) aufgezeigt.
Datenvisualisierungen (aka bunte Bildchen) sind überall. Sind sie auch überall sinnvoll und warum werden sie so oft eingesetzt? In dieser Folge erfahren Sie, wie Sie gezielt Datenvisualisierungen einsetzen können und wann es besser ist, Texte und Tabellen zu verwenden. Mit Leitfragen zu Zielgruppe, Komplexität und Daten haben Sie eine gute Grundlage für die Entscheidung, welche Datenvisualisierung sinnvoll ist und mit welchem Tool sie gut umgesetzt werden kann.
Digitalisierung und Automatisierung bieten unbegrenzte Möglichkeiten. Alles immer und am besten gleichzeitig zu machen, ist weder möglich noch sinnvoll, deshalb geht es in dieser Folge darum, sinnvolle Projekte zu finden und auszuwählen, in denen Digitalisierung hilfreich ist und Automatisierung entlastet. Nichts ist ineffizienter als der Anspruch, ALLES zu digitalisieren oder zu automatisieren!
Signifikante Unterschiede können die meisten statistischen Tests liefern. Manchmal muss kein Unterschied, sondern die Gleichheit oder Gleich-Genug-Heit gezeigt werden. In dieser Folge geht es um die Testverfahren, die so etwas Ähnliches wie signifikante Gleichheit zeigen können und wo sie in der Industrie angewendet werden.
Dank moderner Sensoren und Messsysteme können wir heute mehr und präziser messen als jemals zuvor. Dennoch stellt sich immer wieder die Frage, ob Messsysteme vergleichbar oder austauschbar sind bzw. wie die Austauschbarkeit von Messsystemen untersucht wird.
Wir verlassen uns auf Messwerte und treffen damit Entscheidungen. Die Entscheidungen können nur dann belastbar sein, wenn die Messwerte zuverlässig sind und eine kleine Mess-Unsicherheit haben. Die Mess-Unsicherheit können wir einem Messwert weder ansehen noch können wir sie entfernen. Sie ist immer da. Bei der Planung der Mess-System-Analyse geht es deshalb oft um die Fragen, wie oft eine MSA sinnvollerweise durchgeführt wird und welche Verfahren und Methoden dafür am besten geeignet sind.
Boxplots sind Grafiken, die völlig zu Unrecht ein Schattendasein fristen. Sie ermöglichen besser als jede andere Grafik Vergleiche von Messreihen und Einblicke in Gemeinsamkeiten und Unterschiede. Dabei brauchen wir keine Annahmen zur Verteilung oder Symmetrie, um mit Boxplots gut arbeiten zu können. Boxplots sind natürlich auch keine eierlegende Wollmilchsau und so gibt es neben vielen Vorteilen auch Grenzen.
Nachdem es in der letzten Folge um die Aufgaben und Arbeitsbereiche von Data Scientisten ging, liefert die heute Folge Möglichkeiten als Data Scientist zu arbeiten. Dazu gehört ein offener Blick auf die eigenen Wünsche und Fähigkeiten genauso wie das Finden eines passenden Unternehmens.
Unsere Welt ist voll mit Daten und in Daten stecken Informationen. Früher reichte es für die Datenanalyse jemanden zu finden, der/die sich mit Datenanalyse auskennt. Je komplexer und vielschichter die Daten werden, desto spezifischer werden die Aufgaben und desto breiter die Anforderungen an Kenntnisse. Heute gibt es viele verschiedene Rollen und Jobs, in denen mit Daten gearbeitet wird und in dieser Folge geht es darum, was Data Scientists und andere Data XXX Jobs (Data Strategy Designer, Data Engineer, Data Analyst, Machine Learning Engineer usw.) unterscheidet und welche Gemeinsamkeiten sie haben.