Was ist Data Science? Was bedeuten die Daten für unser Leben? Woher kommen sie und wozu werden sie benutzt? Das sind alles Fragen, mit denen wir uns auseinander setzen werden. Wer schon immer mehr über Daten und deren Effekt auf unser Leben wissen wollte,
Willkommen zu unserer letzten sehr kurzen Folge beim datenleben-Podcast. Nach 57 Folgen, stöpseln wir das Mikro aus. Mit dieser Folge wollen wir deswegen einfach nur danke sagen, und uns verabschieden – damit dieser Podcastfeed nicht einfach nur abrupt endet. Als Data Science Podcast haben wir uns immer gern damit befasst, wie der Umgang mit Daten, Einfluss auf unser Leben und die Welt um uns herum hat. Wir hoffen, dass unsere Folgen weiterhin Menschen erreichen und die Grundgedanken hinter unseren Themen vermitteln können. Ausserdem wird es auch nicht gar keinen Content mehr geben, wie Helena kurz erzählt.
Wir haben der Frage gewidmet: Was sind neuronale netze? Wo hat das eigentlich angefangen? Wir beginnen mit dem Blick darauf, was eigentlich ein Neuron ist und wie ab den 1940er Jahren damit experimentiert wurde, elektronische Neuronen herzustellen. Das war nämlich der Ausgangspunkt dafür, dass um 1960 herum das Perzeptron orgestellt werden konnte - ein einfaches neuronales netz. Es geht darum, in wie fern das eine wichtige grundlage für die heutigen neuronalen Netze war.
Willkommen zum traditionellen Jahresrückblick – wir reflektieren das Jahr 2024 und die Themen, die uns begegnet sind. Nach einem kurzen Schnelldurchlauf durch die Nachrichten des Jahres, wird es wieder darum gehen, welche Themen wir im Podcast im Laufe des Jahres besprochen haben. Und wie immer haben wir auch wieder ein paar Themen rausgesucht, die 2024 aufgekommen sind. Einige sind auch Ergänzungen zu einiger unserer Folgen. Mit dabei: Laion Datensatz und Urheberrecht, Starlink und Radioastronomie, der Physiknobelpreis, Unwetter in 2024 und AI Act der Europäischen Union.
Wir begleiten das Thema Machine Learning schon eine ganze Weile. Und jetzt fanden wir, dass es Zeit ist, mal eine ganze Folge über ChatGPT zu reden. Uns interessiert vor allem das T in dem GPT, wofür wir erstmal einen Sprung ins Jahr 2017 machen, wo nämlich ein Transformer-Modell veröffentlicht wurde. Davon ausgehend können wir dann herausfinden, was eigentlich im Hintergrund bei ChatGPT so passiert. Und wir haben uns auch noch die Frage gestellt, wie wird ChatGPT inzwischen im Alltag genutzt? Ausserdem reden wir auch noch über Datenschutz und wie solche Sprachmodelle lokal genzutzt werden können.
Wir reden über Gesundheitsdaten. Relativ selbstverständlich erfassen Geräte, die wir bei uns tragen, Daten über unseren Alltag: Apps auf Smartphones, Fitness-Armbänder, Smartwatches etc. Wir wollten natürlich wissen: Was sind Gesundheitsdaten? Aber uns auch ansehen, was solche Daten wirklich aussagen können, welche Analysen z.B. anhand selbst gemessener Daten möglich sind. Unsere Themen sind hier Schlaf und Herzfrequenz. Aber überall, wo es um Daten geht, darf der Aspekt der Sicherheit von Daten nicht fehlen. Mit wem teilen wir sie? Wie steht es um Zyklus-Apps? Was passiert bei Bonusprogrammen?
Es geht dieses Mal um ein sehr mathematisches Thema, das nicht nur in unserem Podcast schon öfter erwähnt wurde, sondern allgemein häufiger mal eine Rolle spielt: Die Normalverteilung. Fragen, die wir uns in diesem Kontext gestellt haben: Was ist die Normalverteilung? Warum ist die Normalverteilung eigentlich normal? Liegt überhaupt eine Normalverteilung vor – und wie könnte ich das überprüfen? Und ein bisschen mehr... natürlich wieder mit einigen Beispielen. Und wir haben eine kleine Geschichte rund um das Gehirn von Carl Friedrich Gauß entdeckt, die wir natürlich auch einbringen wollen.
Die Menschheit hat sich wahrscheinlich schon immer dafür interessiert, ob es noch andere Welten gibt und vielleicht sogar welche, die ebenfalls bewohnt sind. Wie können solche Welten entdeckt werden? Wir sehen uns an, wie mit Hilfe verschiedener Methoden der Beobachtung, Datenerfassung und Analyse Exoplaneten beobachtet und nachgewiesen werden können. Es geht vor allem um die Radialgeschwindigkeitsmethode und die Transitmethode. Das Ganze wird aufgefüllt mit wissenswerten Details aus der Exoplanetenforschung, zum Beispiel zu TRAPPIST-1 und seinen sieben Planeten.
ADHS – Aufmerksamkeits-Defizits-Hyperaktivitäts-Störung – ist ein Thema, das aktuell viel beachtet wird. Seien es Beiträge in den Sozialen Medien, Berichterstattungen in Zeitschriften oder Videoformaten etc. Immer wenn so ein Thema viel Aufmerksamkeit bekommt, steht die Frage im Raum: Wird das immer häufiger? Das haben wir uns näher angesehen. Außerdem haben wir uns u.a. mit der Frage beschäftigt, welchen Einfluss hier geänderte Diagnosekriterien haben. Und wir haben laut und mit Blick auf verschiedene Studien darüber nachgedacht, ob eine Diagnose auch im Erwachsenenalter noch wichtig sein könnte.
Um das Jubiläum unserer 50. Folge zu begehen, haben wir meherere Themen aus unterschiedlichen Bereichen zusammengeworfen. Als erstes geht es darum, wie Mengen sinnvoll geschätzt werden können – zum Beispiel Teilnehmer*innen auf Demonstrationen. Danach greifen wir eine Meldung auf, die eine Verkehrsrevolution in Paris verkündet hat, wo inzwischen mehr Menschen mit dem Fahrrad unterwegs sind, als mit dem Auto. Und wir haben uns der Frage gestellt, in wie fern Data Science gesellschaftliche Entwicklungen simulieren kann – und wo die Grenzen davon sind. Zum Schluss geht es um die spannende Reise der Raumsonde Voyager 1.
Es geht bei uns oft um Daten, die relativ einfach zählbar sind, um Dinge, die mit einem Maßband gemessen werden können oder mit irgendeinem Gerät erfasst werden, das etwas auszählt, aufzeichnet und dergleichen. Es gibt aber auch Daten, die nicht ganz so einfach erfassbar sind und trotzdem müssen sie ja auch irgendwie erhoben und ausgewertet werden. Und dazu gehören zum Beispiel Fragen wie, wie erfolgreich ist eigentlich eine Lehrmethode und bei welcher Lehrmethode lernen Schüler*innen besser als bei anderen? Wie kann sowas eigentlich festgestellt werden? Darüber reden wir mit Leonie und Ina.
Vor fast 2000 Jahren wurde eine antike Bibliothek bei einem Vulkanausbruch verschüttet -- und jetzt ist es vorstellbar, dass die damals beschädigten Schriftrollen trotz ihres Zustandes gelesen werden können. Wir beschäftigen uns mit der Vesuv Challenge, einem Wettbewerb, der 2023 dazu aufgerufen hat mit Machine Learning Methoden die Texte wieder lesbar zu machen. Welche Voraussetzungen braucht es, damit derart beschädigte Papyri mit digitalen Methoden erschlossen werden können? Welche Machine Learning Methoden können eingesetzt werden? Und gleichzeitig ist auch die Frage: Was werden wir zu lesen bekommen?
Klimaforscher*innen gehen davon aus, dass Extremwetterereignisse künftig häufiger auftreten. Dabei ist ein Thema zum Beispiel Starkregen. Wir gucken uns erstmal an, was Starkregen eigentlich ausmacht. Und dann werfen wir einen Blick darauf, wie Starkregen-Gefahrenkarten entstehen. Diese geben Aufschluss über die Auswirkungen von Starkregen auf die gezeigten Regionen und mit welchen Ausmaßen gerechnet werden muss. Einen genaueren Blick werfen wir dabei auf die Starkregenanalyse der Stadt Braunschweig - und wir haben uns auch gefragt, wie uns das dabei helfen kann, auf Warnmeldungen zu reagieren.
Viele Menschen trinken gerne - oder aus Gewohnheit - Kaffee. Wir haben uns gefragt wie viele eigentlich Kaffee trinken und wie sich der Kaffeekonsum entwickelt hat. Das Themenspektrum rund um dieses Heißgetränk ist ziemlich riesig, denn Kaffee ist heutzutage eigentlich ein ziemlich gut untersuchtes Alltagsgetränk. Aber wir sparen hier bewusst medizinische und gesundheitliche Themen aus, auch wenn sie furchtbar interessant sind. Dafür fragen wir uns, was die Klimakrise für eine Auswirkung auf den Kaffeeanbau haben könnte und reden über eine Studie, die erstmal weniger optimistisch klingt.
Willkommen zum traditionellen Jahresrückblick. Wir nehmen uns wieder Zeit, etwas über unser Podcastjahr zu reflektieren. Und dann stellen wir uns natürlich der Frage, welche Data Science Themen dieses Jahr im Fokus standen. Spoiler: wir landen wieder bei der sogenannten KI und verschiedenen Anwendungen. Und wir kommen auf einzelne Themen von vergangenen Folgen nochmal zurück, zu denen wir noch kleine Ergänzungen gefunden haben. Wie zum beispiel zu unserer Folge über Whisper oder zu den Gartenvögeln. Und am Ende fragen wir uns wieder, was uns im neuen Jahr wohl erwarten wird.
Unsere Reihe zum Thema Datenvisualisierung geht weiter! Wir reden über ggplot, das ist nämlich ein nützliches Tool, um Graphen mit der Programmiersprache R zu erstellen. Am Anfang geht es um das Buch "Grammar of Graphics" und die darin vorgestellten Prinzipien für das Erzeugen von Plots. Danach erläutert Helena, wie sich diese Prinzipien in der Arbeit mit ggplot angewendet werden. Und dann gehen wir auch mit Beispielen ein bisschen konkreter auf einzelne Sachen ein, die dabei eine Rolle spielen. Und zum Schluss wollen wir noch ein bisschen die Vor- und Nachteile abwägen.
Wir glauben, dass in Data Science sehr viele verschiedene Perspektiven stecken. Deswegen wollten wir mal verschiedene Menschen aus dem Bereich Data Science sprechen und fragen, was sie so machen. In kurzen und nicht ganz so kurzen Interviews wollten wir herausfinden: Was macht ihr als Data Scientist/mit Data Science? Wie seid ihr dort hingekommen, das jetzt zu machen? Und: Was interessiert oder begeistert euch am meisten an dem, was ihr tut? Es wird um Sensordaten gehen, um die verschiedenen Wege, die Menschen zu Data Science gebracht haben und natürlich auch... große KI-Modelle wie Chat-GPT.
Willkommen zur Folge mit der Antwort auf das Leben, das Universum und den ganzen Rest. Es geht um Wahrscheinlichkeiten. Und zwar darum, wie Asteroiden beobachtet werden und deren Flugbahnen berechnet werden. Wie wahrscheinlich ist so ein Ereignis? Und wie gefährlich kann es uns werden, wenn es eintritt? Wir haben uns angesehen, wie das berechnet wird. Aber auch, welche Objekte am Himmel gerade unter Beobachtung stehen. Ausserdem auch, was die Erde schon getroffen hat und was es mit dem Asteroiden Bennu auf sich hat, der schon viele Jahre von Forschenden genauestens unter die Lupe genommen wird. Und natürlich müssen wir auch kurz darüber reden, wie solche Ereignesse verhindert werden können, wenn sie nur früh genug entdeckt werden.
In dieser Folge geht es endlich mal wieder um Datenvisualisierung. Wir haben uns die Frage gestellt, wie visualisierte Daten möglichst barrierearm zur Verfügung gestellt werden können. Dafür haben wir uns mit Anne-Victoria Meyer (Anvi) unterhalten. Sie hat sich in ihrer Masterarbeit intensiv mit diesem Thema beschäftigt – und zwar aus der Perspektive einer Webentwicklerin. Dabei hat sie auch eine praktische Studie durchgeführt anhand eines eigenen Prototypen für barrierearme Datenvisualisierung.
Machine Learning und Neuronale Netze sind mittel, um uns potentiell Arbeit abzunehmen. Whisper ist zum Beispiel ein Machine Learning Modell, das Sprache in Audiodateien erkennen und in Text verarbeiten kann. Damit die Inhalte unserer Folgen für viele Menschen gut zugänglich sind, haben wir seit Anfang 2023 komplette Transkripte in unseren Shownotes, die wir mit Hilfe von Whisper erstellen. Zeit mal darüber zu reden, wie wir das finden, was für Erfahrungen wir gemacht haben und -- besonders spannend -- ob Whisper halten kann, was wir uns davon versprochen haben.
Experimente sind eine wichtige Methode, um Erkenntnisse über uns und die Welt in der wir leben, zu gewinnen. Aber nicht alles lässt sich mit planbaren Experimenten im Labor untersuchen. Dann müssen wir auf Beobachtungen zurückgreifen. Wir reden darüber, was Experimente sind und wann sie warum u.a. nicht möglich sind. Und wir gehen der Frage nach: Was sind natürliche Experimente und wie können mit ihnen Erkenntnisse gewonnen werden? ... und wie nicht? Weitere wichtige Schlagworte dieser Folge sind: Korrelation & Kausalität und Ethik.
Was ist data feminism und was hat das mit Macht zu tun? Diese Folge heißt "data feminism", was gleichzeitig der Titel des Buches ist, über das wir reden werden. "Data Feminism" wurde von Catherine D'Ignazio und Lauren F. Klein geschrieben. Laut den Autorinnen ist Data Science eine Form von Macht mit der sowohl Gutes, als auch Schlechtes getan werden kann. Und wie das mit der von den Autorinnen präsentierten Perspektive des intersektionellen Feminismus zusammenhängt, werden wir uns näher ansehen. Dafür haben wir uns 3 Kapitel des Buches genauer angesehen und werden darüber reden, welche Beobachtungen, Beispiele und Anmerkungen wir dabei vorfinden.
Wir reden über Vögel – und mehr. Bei der "Stunde der Gartenvögel" vom Naturschutzbund Deutschland (NABU) heißt es: Zählen, zählen, zählen. Seit vielen Jahren ruft der NABU bundesweiten dazu auf, bei der Datenerhebung zu helfen. Wir haben uns die Broschüre "15 Jahre Stunde der Gartenvögel" des NABU angesehen und fragen uns: Was kam dabei raus? Wie sieht die Methode der Untersuchung aus? Wie können die Citizen Scientists mitmachen? Es geht also um Methoden der Datenerhebung, um Bürger*innen-Beteiligung und um die kleinen gefiederten Nachbarn in unseren Gärten und Grünanlagen.
In unserer Reihe zu Graphentypen geht es um verschiedene Daten und welche Arten der Darstellung es für diese gibt. Im ersten Teil (dl029: graphentypen – skalen und zeiger) ging es um die kleinste Einheit: um eindimensionalen Daten. Dieses Mal wird es ein bisschen komplexer. Wir reden über Graphentypen, mit denen sich eindimensionale Verteilungen abbilden lassen. Es geht um Histogramme, Boxplots, Violinenplots und kumulierte Häufigkeiten. Welche Darstellung eignet sich für welchen Zweck? Worauf kann man bei der Auswahl des Plots achten? Und überhaupt: Womit erstellt mensch eigentlich modern aussehende Plots?
Frühjahr heißt für viele auch wieder, dass die Heuschnupfen-Saison beginnt. Deswegen haben wir uns gefragt: Wie sieht das eigentlich mit dem Heuschnupfen so aus? Wo und wann merken die Menschen das am stärksten und wie wird das eigentlich überhaupt erfasst, wer unter Heuschnupfen in der Bevölkerung leidet? Gibt es Unterschiede zwischen Stadt und Land? Wie Hat sich die Häufigkeit von Heuschnupfen so entwickelt? Ausserdem werfen wir auch einen Blick auf die spannende Frage, welche Rolle der Klimawandel hier spielt oder spielen kann. Am Ende gucken wir auch noch kurz, wie die Daten für die Pollenvorhersagen erhoben werden.
Hier ist unser traditioneller Jahresrückblick – wir gucken uns das Jahr 2022 nochmal an. Den Anfang machen wir mit einem kleinen Schnelldurchlauf durch das Jahr. Dann gucken wir einmal auf datenleben selbst, weil unser Podcast produziert Daten und die gucken wir uns an. Gibt es da vielleicht irgendetwas, was wir 2022 beobachtet haben? Was waren unsere Lieblingsfolgen? Im Zentrum steht für uns aber die Frage, was wir so aus 2022 mitnehmen an Themen und Erkenntnissen. Eine Sache hat dabei besonders viel hergegeben, das Thema Machine Learning in 2022. Stichworte sind Bildgenerierung, chatGPT können wir natürlich nicht auslassen. Und zum Abschluss versuchen wir uns wieder an einem kleinen Ausblick, was dieses Jahr auf uns zukommt.
Wir haben uns gefragt, was sich anhand von erhobenen Daten über Weihnachten sagen lässt. Dabei sind wir auf Themen gestoßen, die wir so nicht ganz erwartet haben. Natürlich haben wir zur Frage recherchiert, wie der Weihnachtsmann das mit den Geschenken eigentlich schaffen kann. Aber darüberhinaus kommen auch schnell andere Zahlen ins Spiel, allen voran solche zu unseren Konsumgewohnheiten. Es geht um Onlinehandel, Pakete, Gemüse, Lebkuchen, Pflanzen, Fische und noch ein paar Dinge mehr. Wir hangeln uns entlang an ein paar Trivia zu Weihnachten, die schnell doch weniger triviale Themen aufkommen lassen.
Wir sprechen anhand des Themas Autismus über konkrete Formen von Studien. Aber erstmal gibt es zwei wichtige Dinge vorab: Ein kurzer Blick darauf was Autismus ist und ein paar Worte dazu, wie über Autismus gesprochen werden kann. Schließlich geht es darum, was Zwillings- und Metastudien sind und wie diese benutzt werden, um nach der Ursache für Autismus zu forschen. Die häufiger mal auftauchende Frage, ob Autismus immer häufiger vorkommt, streifen wir dabei auch. Und abschließend gibt es ein paar weitere Bemerkungen zu Themen, die im Hauptteil der Folge so keinen Platz hatten, aber auch wichtige Punkte im Kontext Autismus sind.
Es geht endlich mal wieder um Maschinelles Lernen und zwar um Neuronalen Netze, die durch Texteingabe Bilder generieren können. Was ist das und welche Anwendungen gibt es? Wir haben viel Spaß beim Experimentieren gehabt und möchten euch erzählen, was uns dabei aufgefallen ist. Über welche Probleme sind wir dabei gestolpert? Und wie funktioniert das überhaupt auf der technisches Seite? Darüber und welche Gedanken das noch so auslöst, reden wir in dieser Folge.
Wir reden mal wieder über offene Daten, aber dieses Mal im Allgemeinen. Wofür braucht man das, was kann man damit tun? Dafür haben wir ein bisschen rumgestöbert und gucken uns vor allem die Bereiche Forschung und Politik an. Denn da zeigt sich ganz besonders die Ambivalenz offener Daten: Was ist an offenen Daten toll? Und welche Probleme können mit offenen Daten zusammenhängen? Gerade als Gesellschaft die täglich immer mehr Daten erzeugt, müssen wir uns mit diesen Fragen auseinander setzen.
In dieser Folge soll es darum gehen, was es für konkrete Arten von Darstellungen für Daten gibt. Weil das aber zu umfangreich wäre, ist das vermutlich der Auftakt zu einer ganzen Reihe. Es gibt so viele verschiedene Datentypen und damit auch so viele Optionen, sie darzustellen, dass wir das nach und nach ergänzen möchten. Wir wollen in dieser Folge klein anfangen und haben uns quasi eine der kleinsten Einheiten rausgesucht: 1-dimenionale Daten. Genauer gesagt geht es um die Frage: Wie stellt man einen einzigen Wert dar? Dabei gehen wir auf Skalen ein, auf Zeigerdiagramme und auf Bullet Charts.
Unsere Klimadaten-Reihe, die wir in Folge 7 begonnen haben, wird fortgesetzt. Dieses Mal geht es um Wasser, vor allem um Meeresspiegel und um die Folgen der globalen Erderwärmung. Wir haben uns die Berichte der ersten beiden Arbeitsgruppen des 6. Sachstandsberichtes des Weltklimarates angesehen. Es geht ein bisschen darüber, was die Berichte des Weltklimarates auszeichnet, was wir darüber wissen, wie der Meeresspiegel und andere Wasserspiegel gemessen werden und um die Folgen. Während sich der erste Bericht vor allem mit physikalischen Hintergründen befasst, über die Helena einiges zu sagen weiß, guckt sich Janine den zweiten Bericht an, der sich vor allem mit den Auswirkungen der Erderwärmung beschäftigt. Was können uns die Berichte sagen? Und was lernen wir daraus?
Vor 2 Jahren, am 04. Juli 2020, haben wir diesen Podcast das erste Mal auf die Welt losgelassen. Seitdem haben wir über 24 Stunden Inhalt produziert; und! es sind etliche Hörer*innen dazugekommen. Wir wollen ein bisschen den Blick zurück werfen und Helena erzählt nochmal, was Data Science ist und ob mensch das überhaupt braucht. Wir erzählen auch darüber, was wir hier eigentlich machen und warum wir das so machen, wie wir es tun. Und wir stellen euch drei Folgen vor, die aus unserer Sicht einen guten Einstieg anbieten, weil sie sehr elementare Dinge/Probleme/whatever von Data Science aufzeigen.
Wir haben mit zwei anderen Menschen an dem Women in Data Science Datathon der Stanfort University teilgenommen und berichten davon. Es geht darum, wie der Datathon organisiert ist und wie wir uns selbst organisiert haben. Wir erzählen von den Problemen, die die Aufgabe beinhaltet hat und wie wir damit umgegangen sind bis hin dazu, was unsere finale Lösung geworden ist. Dazu haben wir natürlich die anderen beiden – Piko und Keks – auch eingeladen.
Endlich: die Feinstaubfolge ist da, die dank unvorhergesehener Dinge eine Luftdaten-Folge geworden ist. Wir haben AirRohre mit Feinstaubsensoren aufgebaut, Daten gesammelt und reden in dieser Folge darüber. Helena berichtet von ihrer Datenauswertungsreise und dann geht es um die Auswertung von 3 Messstationen. Weitere Themen: Wir vergleichen Messdaten der Sensor.Community mit Daten von offiziellen Messstationen des Umweltbundesamtes. Und schließlich gucken wir uns noch zwei globale Ereignisse an: Saharastaub und ein Vulkanausbruch.
Wir haben auf der rC3 2021 einen Talk gehalten zum Thema "Von der Technik übers Konzept zum Podcast – wie datenleben entsteht" und diesen könnt ihr jetzt in dieser Folge nachhören. Es geht darum wie wir datenleben angegangen sind und entwickelt haben und welche Technik wir nutzen. Dabei eröffnen wir auch einen Blick hinter die Kulissen unserer Redaktionsarbeit, erläutern unser Aufnahmesetup und erklären, wie der Schnitt bei uns passiert und wo und wie wir die Folgen veröffentlichen. Am Ende des Talks gab es auch noch für die Live-Zuhörer*innen eine Q&A, die wir euch nicht vorenthalten wollten.
Es geht um flüchtige Daten – im Sinne von Daten, die nur für den Moment existieren, in dem sie gebraucht werden. Und es geht darum, wie diese Daten im Internet stehen und erfasst werden können, sodass sie gespeichert werden können. Eigentlich. Praktisch reden wir über ein konkretes Beispiel, nämlich die Besuchszahlen des Braunschweiger Weihnachtsmarktes 2021. Diese wurden von der Stadt nämlich erfasst und via Webseite veröffentlicht. Genauer gesagt die Besuchszahlen der eingerichteten Gastronomieflächen, die pandemiebedingte Zugangsbeschränkungen hatten. Helena hat die abgesaugt und eine Webseite mit Plot generiert, um die Daten zu speichern und anklickbar zu machen. Janine erzählt kurz über den Weihnachtsmarkt und das Infektionsschutzkonzept und dann wollen wir folgende Fragen klären: Wie kriege ich Daten aus dem Internet? Was kann ich mit den Daten dann machen? Welche Rückschlüsse bieten die Daten an?
Willkommen in 2022! Traditionell möchten wir das vergangene Jahr mit einem Jahresrückblick abschließen. Wir rennen einmal im Schnelldurchlauf durch markante Daten von 2021. Dann stellen wir uns der Frage, wie sich datenleben im letzten Jahr so entwickelt hat. Und dann versuchen wir zu schauen: Gab es Themen und Erkenntnisse, die wir aus 2021 mitnehmen können? Was für Data Science Themen gab es? Und natürlich: Was erwartet uns wohl dieses Jahr?
Dieses Mal geht es besonders um den Aspekt was wir mit Daten machen können. Oder besser gesagt: wie wir etwas mit Daten machen können. Die Programmiersprache Python ist mit das wichtigste Werkzeug für Data Science. Aber nicht nur das, Python ist extrem vielseitig. Und es macht Spaß zu lernen und damit Projekte umzusetzen. Wir sprechen mit Piko darüber, wie mensch Python lernen und auch lehren kann. Unsere Frage ist: Wie wo und warum mit Python anfangen?
Thema dieser Folge ist: Drogenkonsum. Helena hat sich die Global Drug Survey angesehen und wir haben uns darüber Gedanken gemacht, was wir aus solchen Erhebungen zum Drogenkonsum ziehen können. Wir haben uns einige Aspekte dieser Befragung und der Auswertung angesehen. Natürlich kommen wir nicht drum rum über die legale Droge überhaupt zu reden: Alkohol. Im Weiteren wollen wir uns dann vor allem Drogen ansehen, die auch einen medizinischen Nutzen haben. Und am Ende haben wir noch ein paar Überlegungen zur Drogenpolitik. Inhaltshinweis: In dieser Folge geht es also um Drogen, aber psychische Erkrankungen wie Depressionen oder die Posttraumatische Belastungsstörung werden ebenfalls erwähnt.
Es geht um's Lernen: wer Programmieren oder Data Science Anwendungen lernen möchte, wird immer mit Beispielen überschüttet – also auch mit Standarddatensätzen. Dabei bleiben über die Jahrzehnte hinweg diese Beispiele oft identisch, wenn sie sich ein Mal bewährt haben. Wir wollen unseren Gebrauch dieser Beispiele in dieser Folge kritisch hinterfragen, denn nicht alle Standarddatensätze sind frei von historischem Ballast. Oder eignen sich für alle Anwendungsfälle. Deswegen geht es um solche Daten und darum, dass wir mal hinsehen wollen: Woher kommen diese Beispiele? Sind sie noch zeitgemäß? Welchen Zweck sollen sie erfüllen?
Wir sprechen mit Lisa über FabSeal. Gemeinsam hat sie mit einem Team am Kulturhackathon Coding da Vinci teilgenommen. Dabei haben sie historische Siegelabdrücke anhand von Bildern wieder zum Leben erweckt. Wie haben sie es geschafft, ein 3D-druckbares Siegel wieder herzustellen – anhand nur eines Bildes? Welche Hürden gab es und wie sieht die aktuelle Lösung aus? Ein super spannendes Projekt, gerade aus Data Science Sicht. Sie redet mit uns über den ganzen Prozess und auch wie es so ist, am Kulturhackathon Coding da Vinci teilzunehmen.
Warum ist das Thema super spannend? Weil es um den Grund geht, auf dem wir stehen! Aus Data Science Sicht ist es spannend, weil Erdbeben Daten liefern, die weltweit erhoben werden können – und das Zusammenführen dieser Daten, fördert beeindruckende Erkenntnisse zu Tage. Natürlich gibt es zuerst ein paar Basics: Wo finden Erdbeben hauptsächlich statt, wie oft und solche Dinge. Dann geht es in die Details: Helena sagt, was bei Erdbeben passiert - aus physikalischer Sicht und was die Menschen daraus gelernt haben. Und zum Abschluss geht es noch um die Frage, wie gut sich Erdbeben eigentlich vorhersagen lassen.
In unserer Jubiläumsfolge zum 1jährigen, geht es um ein Thema, das uns am Herzen liegt. Es geht um Statistiken und Studien zu trans Menschen. Wie so oft, wollen wir uns einfach erstmal anschauen, was so die Basiszahlen aussagen: Wie haben sich in den letzten Jahren die Zahlen über trans Menschen geändert? Wichtige Aspekte sind natürlich medizinische Maßnahmen und psychische Gesundheit. Und dann möchten wir auch kurz über das Reden, was es noch nicht gibt: ausreichend Forschung!
Wir setzen uns mit Wahlumfragen auseinander. Zuerst geht es um die allseitsbekannte Sonntagsfrage und auch die Ergebnisse der Bundestagswahl 2017. Danach geht es darum, wer diese Umfragen durchführt, wer befragt wird und wie ausgewertet wird. Ausserdem reden wir über verschiedene andere Aspekte: Wirken sich Umfragen auf unser Wahlverhalten aus? Wie vertrauenswürdig ist ein Ergebnis, das von den Umfragen abweicht? Was sind Exitpolls? Und welche Effekte treten bei Hochrechnungen am Wahltag auf? Zum Schluss gucken wir dann doch nochmal auf die Ergebnisse der Landtagswahl in Sachsen-Anhalt 2021.
In dl007: klimadaten haben wir uns verschiedene Themen rund ums Klima und interessante Daten angesehen, in dieser Folge steigen wir jetzt in das nächste Thema etwas tiefer ein: Waldbrände. Es werden immer mehr katastrophale Waldbrände verzeichnet. Neben dem Menschen als Auslöser sind für die schlimmen Ausmaße aber auch Trockenheit, Temperaturanstiege und Dürren verantwortlich. Zum Einstieg gibt es kurz nochmal einige Zahlen über Waldbrände der letzten Jahre und dann nehmen wir uns zwei Themen in den Blick, nämlich: Feuerwetter und Trockenheit. Abschließend geht es um Feinstaub durch Waldbrände und wie man die sogar selbst messen könnte.
Daten können alles sein: Zahlen, Listen, Geordnete Tabellen, Statistiken, Filme, Musik, Noten, Texte, Sprache, Bilder. Um Daten verständlich zu machen, müssen sie auch gut dargestellt werden können, oft mit grafischen Elementen. Wir sprechen darüber, worum es bei Datenvisualisierungen geht, welche Ziele damit verfolgt werden können und wie ein*e Data Scientist dabei vorgeht. Natürlich auch darüber, welche Probleme und vielleicht Fallstricke es dabei geben kann, speziell bei der Kommunikation von Daten mit Hilfe von Grafiken.
In dieser Folge sprechen wir über Künstliche Intelligenz. Aber wir wollen dabei nicht so sehr über den technischen Aspekt reden, sondern über die Frage: Können Maschinen denken? In Teil 1 ging es vor allem um Alan Turing und darum, wie Turing seinen Test ursprünglich dachte und welche Einwände es gegen seinen Test gibt. In Teil 2 sprechen wir jetzt vor allem über verschiedene Darstellungen von Mensch-Maschine-Beziehungen in der Populätkultur: Asimovs Robotergesetze und weitere Romane, Serien und Filme werden erwähnt und genauer angeschaut.
In dieser Folge sprechen wir über Künstliche Intelligenz. Aber wir wollen dabei nicht so sehr über den technischen Aspekt reden, sondern über die Frage: Können Maschinen denken? Alan Turing stellte diese Frage der Beschreibung seines Turing-Test voran. Es geht unter anderem darum, wie Turing seinen Test ursprünglich dachte und welche Einwände es gegen seinen Test gibt. Dabei kommen wir auch immer wieder auf die Darstellung von Mensch-Maschine-Beziehungen in der Populärkultur zu sprechen.
Wir erzählen von der remote Chaos Experience, die vom 27.-30.12. stattfand. Vor allem über die spannenden Talks zu Data Science, die wir uns angehört haben, wie z.B. über Wikidata für Journalist*innen, wie man mit Datenguide zugängliche Statistiken visualisieren kann, Deepfakes, eine Untersuchung zu Körperverletzung durch Polizeibeamt*innen und wie man mit Daten über Bodyfeedback im Theater arbeiten kann. Unsere Eindrücke von der Veranstaltung sparen wir auch nicht aus. Und es gibt einen redaktionellen Einschub zum Thema genderneutrale Sprache.
Auch wir möchten bei den Jahresrückblicken mitspielen und uns ansehen, was so passiert ist. Wir haben dieses Jahr unseren Podcast begonnen, eine Pandemie hat uns überrollt, die USA haben gewählt und Helena erzählt, welche Data Science Themen im Jahr 2020 besonders wichtig waren. Ein bisschen wollen wir auch orakeln, was 2021 angeht, welche Themen uns erwarten und welche neuen Podcastfolgen wir so planen.
Letzten Folge war eine Recherchefolge, um verschiedene Einzelthemen des Klimawandels anzusehen. Es ging um Temperaturkurven, Waldbrände und den Meeresspiegelanstieg. Helena war begeistert von Temperaturkurven, weil hier besonders interessante Aspekte drin stecken: z.B. wie man mit den Messdaten umgehen muss, um auf aussagekräftige Ergebnisse zu kommen. Deswegen geht es in dieser Folge um Temperaturmessungen, Probleme und Möglichkeiten bei der Analyse und darum, was es mit der globalen Temperatur auf sich hat.