POPULARITY
Ist das echt – oder hat das eine KI gemacht? Diese Frage wird 2026 immer schwerer zu beantworten. Microsoft hat jetzt einen neuen Plan vorgelegt: ein ganzes System aus unsichtbaren Wasserzeichen, kryptografischen Metadaten und forensischen Fingerabdrücken soll künftig belegen, ob ein Bild, ein Text oder ein Video von einer KI stammt. Klingt gut – aber es gibt einen Haken: Das Ganze funktioniert nur, wenn auch alle anderen mitmachen. In dieser Folge schauen wir uns an, wie Microsofts Blueprint technisch aufgebaut ist, was der EU AI Act in Artikel 50 dazu vorschreibt und warum die eigentliche Herausforderung nicht die Technik ist, sondern die Frage, ob sich ein ganzes Ökosystem auf gemeinsame Spielregeln einigen kann.
Data Governance entsteht nicht durch Regeln allein – sondern durch Pflege, Verantwortung und gemeinsames Verständnis. In dieser Episode sprechen wir mit Kiomi Soledad Spriestersbach über den Aufbau wirksamer Data Governance bei der Lufthansa Group – und warum sich dieser Prozess erstaunlich gut mit Backkunst und Gartenarbeit vergleichen lässt. Aus einer zentralen Perspektive heraus werden viele dezentrale Organisationseinheiten verbunden. Dabei hat sich vor allem eines verändert: das Verständnis von Datenprodukten. Datenqualität, Metadaten und klare Rollen sind heute entscheidend, um Daten nutzbar, vertrauenswürdig und sicher bereitzustellen – insbesondere bei großen Mengen personen- und technikbezogener Daten. Die zentrale Botschaft: Daten sind kein reines IT-Thema. Gute Data Governance entsteht dort, wo Fachlichkeit und Technik gemeinsam Verantwortung übernehmen. Ziel ist nicht Perfektion, sondern angemessene Qualität im jeweiligen Kontext. Unterschiedliche Anwendungsfälle brauchen unterschiedliche Standards – insbesondere mit Blick auf KI als Treiber für hochwertige Daten. Eine Episode über Rahmen statt Regeln, über Teilen statt Verstecken – und darüber, warum man Daten genauso bewusst pflegen (und auch entsorgen) sollte wie in einem Garten.
Kennst du diese Situation im Team: Jemand sagt "das skaliert nicht", und plötzlich steht der Datenbankwechsel schneller im Raum als die eigentliche Frage nach dem Warum? Genau da packen wir an. Denn in vielen Systemen entscheidet nicht das nächste hippe Tool von Hacker News, sondern etwas viel Grundsätzlicheres: Datenlayout und Zugriffsmuster.In dieser Episode gehen wir einmal tief runter in den Storage-Stack. Wir schauen uns an, warum Row-Oriented-Datastores der Standard für klassische OLTP-Workloads sind und warum "SELECT id" trotzdem oft fast genauso teuer ist wie "SELECT *". Danach drehen wir die Tabelle um 90 Grad: Column Stores für OLAP, Aggregationen über viele Zeilen, Spalten-Pruning, Kompression, SIMD und warum ClickHouse, BigQuery, Snowflake oder Redshift bei Analytics so absurd schnell werden können.Und dann wird es file-basiert: CSV bekommt sein verdientes Fett weg, Apache Parquet seinen Hype, inklusive Row Groups, Metadaten im Footer und warum das für Streaming und Object Storage so gut passt. Mit Apache Iceberg setzen wir noch eine Management-Schicht oben drauf: Snapshots, Time Travel, paralleles Schreiben und das ganze Data-Lake-Feeling. Zum Schluss landen wir da, wo es richtig weh tut, beziehungsweise richtig Geld spart: Storage und Compute trennen, Tiered Storage, Kafka Connect bis Prometheus und Observability-Kosten.Wenn du beim nächsten "das skaliert nicht" nicht direkt die Datenbank tauschen willst, sondern erst mal die richtigen Fragen stellen möchtest, ist das deine Folge.Bonus: DuckDB als kleines Taschenmesser für CSV, JSON und SQL kann dein nächstes Wochenend-Experiment werden.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
In dieser Folge geht's einmal quer durch die digitale Gegenwart – von knallharter Plattform-Regulierung bis zu sehr realen Rattenproblemen im Glasfasernetz. Frankreich durchsucht das Pariser Büro von X und zeigt, wie ernst es Plattformverantwortung meint. Parallel diskutieren wir Elon Musk, Starlink und die Frage, warum eine einzelne Person die Macht haben darf, ganze Regionen digital abzuschalten. Dazu: Polen verbannt chinesische Autos von Militärbasen, weil moderne Fahrzeuge längst rollende Sensorplattformen sind. Social Media bleibt ein Reizthema: LinkedIn-Spam, Sales-Bots, Mastodon, Bluesky und die Frage, warum gutes Networking oft an Automation stirbt. Technisch wird's bei veganen Glasfaserkabeln, die von Ratten zerfressen werden, Phishing-Briefen mit QR-Codes per Post und einer Supply-Chain-Attacke auf Notepad++. Zum Finale: Bluetooth-AuraCast am Flughafen (geniale Idee oder absoluter Albtraum?), kaputte iOS-Tastaturen, Gboard-Geständnisse, Schweizer Tastaturlayouts und ein Ausflug in die Welt historischer Verschlüsselung, Enigma, Morsecode und Metadaten. -- Links zur Folge immer auf https://podcast.ichglaubeeshackt.de/ Wenn Euch unser Podcast gefallen hat, freuen wir uns über eine Bewertung! Feedback wie z.B. Themenwünsche könnt Ihr uns über sämtliche Kanäle zukommen lassen: Email: podcast@ichglaubeeshackt.de Web: podcast.ichglaubeeshackt.de Instagram: http://instagram.com/igehpodcast
Im SEO/GEO-Monatsrückblick für den Januar 2026 stelle ich 12 aktuelle SEO-relevante Themen vor: Was ist Personal Intelligence? Welches neue Feature gibt es bei Google Trends? Ist ChatGPT wirklich der Google-Killer? Das und viel mehr gibt's hier in komprimierter Form. AI [1] https://commoncrawl.org/blog/how-seos-are-using-common-crawls-web-graph-data-for-ai-ranking-signals Ein Stichwort geisterte die letzten Tage durch die SEO/GEO-Gazetten: Harmonic Centrality. Diese Metrik basiert auf der externen Verlinkung einer Domain und gibt an, wie weit eine bestimmte Domain von allen anderen Domains aus verlinkt ist. Insgesamt ist Common Crawl sicherlich spannend, weil die Daten von vielen LLMs fürs Training verwendet werden. Man sollte also in jedem Fall prüfen, ob man den CCBot per robots.txt oder CDN gesperrt hat. [2] https://searchengineland.com/youtube-seo-ai-overviews-467253 Keine Neuigkeit, aber ein guter Impuls: YouTube ist nach wie vor die zweitgrößte Website der Welt und wird von vielen KIs sehr gerne zitiert. Man darf YouTube also durchaus ernstnehmen – und z. B. davon absehen, die Beschreibungen nur für Menschen zu generieren. Denn auch die KIs lesen die Metadaten und sollten entsprechend berücksichtigt werden. [3] https://www.seo-suedwest.de/10619-von-wegen-ki-killt-seo-suche-traffic-sinkt-laut-analyse-um-gerade-einmal-2-5-prozent.html ChatGPT killt Google-Traffic? Derzeit scheint es nicht so zu sein. Wie eine Analyse der größten 40k Websites zeigt, hat sich der Google-Traffic nur minimal verändert (-2,5 %). Das sind natürlich nur Durchschnittsbetrachtungen und beziehen sich auch nur auf die USA. [4] https://www.seo-suedwest.de/10591-traffic-fuer-generative-ki-tools-openai-verliert-gegen-google-gemini-weiter-an-vorsprung.html und https://www.seo-suedwest.de/10610-ntei.html Interessante Zahlen von Similarweb. Demnach geht der Traffic von ChatGPT zurück, während der von Gemini steigt. Auch Ahrefs hat festgestellt, dass der Traffic von ChatGPT zuletzt rückläufig war. Wichtig: Das bezieht sich natürlich nur auf den Referral Traffic und nicht auf Mentions/Citations. [5] https://www.seroundtable.com/personal-intelligence-google-ai-mode-40802.html Der AI Mode kann jetzt auch auf Daten aus Gmail und Google Photos zurückgreifen („Personal Intelligence"). Das betrifft nur einige wenige Kunden, die entsprechende Accounts besitzen, aber es zeigt auch, wohin die Google-Reise gehen könnte… [6] https://searchengineland.com/google-trends-adds-gemini-to-explorer-467515 Bei Google Trends gibt es jetzt den neuen Button „Suchbegriffe vorschlagen", der durch Nutzung von Gemini interessante Suchbegriffe vorschlagen kann. [7] https://searchengineland.com/geo-myths-lies-467617 Ein schöner Artikel, der auf die Probleme unserer Branche hinweist: „An attention-grabbing headline should always raise red flags." [8] https://searchengineland.com/misleading-google-ai-overviews-brands-467477 AI Overviews können zu einer Marke auch falsche Informationen wiedergeben – insbesondere, weil sich Google bei den Quellen auf UGC (Reddit & Co.) stützt. Wie kann man sich dann dagegen wehren? Foren kann man monitoren und dann darauf reagieren. Außerdem kann und sollte man natürlich auch auf der eigenen Website entsprechende Informationen anbieten. [9] https://blog.google/products-and-platforms/products/search/search-ai-features-controls/ und https://searchengineland.com/1-3rd-of-publishers-say-they-will-block-google-search-ai-generative-features-like-ai-overviews-468107 Google will (zumindest in UK) mehr Kontrolle darüber anbieten, in welchen AI-Features die eigene Website erscheint – oder eben nicht. In einer nicht repräsentativen Umfrage haben ca. 1/3 der Website-Betreiber gesagt, dass sie diese Kontrollen auch nutzen möchten. [10] https://www.seo-suedwest.de/10631-empfehlungen-in-ki-tools-von-marken-und-produkten-sind-laut-studie-fast-zufaellig.html Bei einer Studie hat sich klar gezeigt, dass ChatGPT, Claude und Google bei Produktempfehlungen so gut wie nie identische Ergebnisse ausspielen. Zitat: „Wenn man ein KI-Tool 100 Mal bittet, Marken oder Produkte zu empfehlen, ist die Wahrscheinlichkeit, zweimal dieselbe Liste zu erhalten, geringer als 1 zu 100." Das hat natürlich Auswirkungen auf die Aussagekraft von AI-Monitoring. Insbesondere konkrete Positionen sind faktisch wertlos. Google [11] https://www.amsive.com/insights/seo/googles-december-2025-core-update-winners-losers-analysis/ und https://www.seo-suedwest.de/10594-google-core-update-vom-dezember-spezialisten-gewinnen-generalisten-verlieren.html Für das letzte Core Update gibt es einige Analysen, die aber die üblichen Probleme aufweisen. Demnach hat z. B. thesaurus.com gewonnen (+33 %), während eine sehr ähnliche (merriam-webster.com) verloren hat (-11 %). Eine weitere Meinung: „In verschiedenen Bereichen haben spezialisierte Websites gewonnen, während Generalisten Verluste hinnehmen mussten." [12] https://www.seo-suedwest.de/10615-google-link-spam-in-kommentaren-hat-keinen-seo-effekt.html Google weist nochmal darauf hin, dass negative Links oftmals keinen Effekt haben, sodass man auch auf das stellenweise noch übliche Disavow verzichten kann.
In diesem Video teste ich das brandneue Tool Orion (von orion-sfx.com). Der Clou: Orion sucht nicht nur nach Dateinamen oder Metadaten, sondern es „hört“ tatsächlich zu. Es analysiert deine komplette Sound-Library auf der Festplatte und findet passende Klänge basierend auf der akustischen Ähnlichkeit. Auf YouTube sehen: https://youtu.be/ZvBFNogEaPE Zum kostenlosen Cubase-Stammtisch anmelden: subscribepage.io/1D69jt Wenn ich Dir helfen konnte, freue ich mich über einen virtuellen Kaffee ;-) https://ko-fi.com/timheinrich Orchestra Guide - Perfekte Orchester-Mockup-Balance: https://payhip.com/b/oRXKh Hier das Episoden-Archiv als PDF runterladen: https://www.sounth.de/media/podcast/sounTHcast.pdf Facebook-Gruppe: https://www.facebook.com/groups/309751689699537/ Fragen und Anregungen an sounthcast@sounth.de Website Tim Heinrich: https://sounth.de
Die Filmtonfrauen Sabrina Naumann-Reichow und Antje Volkmann thematisieren in dieser Folge die Fehleranfälligkeit des „Daily Folders“ und die Krise der Metadaten-Haftung. Sie erklären, dass Tippfehler bei der Festlegung des Drehtages dazu führen können, dass der Sound Devices Rekorder unwissentlich neue Files in den Ordner des Vortages schreibt, da er keine Warnung ausgibt. Da die Ordnerstruktur in die Metadaten der Audiodateien geschrieben wird, klebt der falsche Drehtag am File und ist intern im Recorder nicht mehr korrigierbar. Sie betonen, dass der Sound Report zwar großteils die Metadaten widerspiegelt, aber für die Postproduktion unerlässlich ist, insbesondere für die ADR-Aufnahmen (um die am Set verwendeten Mikrofone zu bestimmen) und zur detaillierten Kennzeichnung von Nurtönen (Wildtracks) und Nachsprechern in den Kommentaren. Abschließend diskutieren sie die Notwendigkeit, frühzeitig für die Postproduktion vorauszuschauen – etwa durch die gezielte Aufnahme von Atmosphären und Crowds am Set, da deren nachträgliche Reproduktion (speziell bei historischen Fahrzeugen oder großen Komparsenmassen) in der Postproduktion oft nicht mehr möglich oder extrem teuer ist. Auf YouTube sehen: https://youtu.be/5RlbnmoqUrA Zum kostenlosen Cubase-Stammtisch anmelden: subscribepage.io/1D69jt Wenn ich Dir helfen konnte, freue ich mich über einen virtuellen Kaffee ;-) https://ko-fi.com/timheinrich Orchestra Guide - Perfekte Orchester-Mockup-Balance: https://payhip.com/b/oRXKh Hier das Episoden-Archiv als PDF runterladen: https://www.sounth.de/media/podcast/sounTHcast.pdf Facebook-Gruppe: https://www.facebook.com/groups/309751689699537/ Fragen und Anregungen an sounthcast@sounth.de Website Tim Heinrich: https://sounth.de
Die Filmtonfrauen Sabrina Naumann-Reichow und Antje Volkmann thematisieren in dieser Folge die Fehleranfälligkeit des „Daily Folders“ und die Krise der Metadaten-Haftung. Sie erklären, dass Tippfehler bei der Festlegung des Drehtages dazu führen können, dass der Sound Devices Rekorder unwissentlich neue Files in den Ordner des Vortages schreibt, da er keine Warnung ausgibt. Da die Ordnerstruktur in die Metadaten der Audiodateien geschrieben wird, klebt der falsche Drehtag am File und ist intern im Recorder nicht mehr korrigierbar. Sie betonen, dass der Sound Report zwar großteils die Metadaten widerspiegelt, aber für die Postproduktion unerlässlich ist, insbesondere für die ADR-Aufnahmen (um die am Set verwendeten Mikrofone zu bestimmen) und zur detaillierten Kennzeichnung von Nurtönen (Wildtracks) und Nachsprechern in den Kommentaren. Abschließend diskutieren sie die Notwendigkeit, frühzeitig für die Postproduktion vorauszuschauen – etwa durch die gezielte Aufnahme von Atmosphären und Crowds am Set, da deren nachträgliche Reproduktion (speziell bei historischen Fahrzeugen oder großen Komparsenmassen) in der Postproduktion oft nicht mehr möglich oder extrem teuer ist. Auf YouTube sehen: https://youtu.be/Qj0qjeapjlA Zum kostenlosen Cubase-Stammtisch anmelden: subscribepage.io/1D69jt Wenn ich Dir helfen konnte, freue ich mich über einen virtuellen Kaffee ;-) https://ko-fi.com/timheinrich Orchestra Guide - Perfekte Orchester-Mockup-Balance: https://payhip.com/b/oRXKh Hier das Episoden-Archiv als PDF runterladen: https://www.sounth.de/media/podcast/sounTHcast.pdf Facebook-Gruppe: https://www.facebook.com/groups/309751689699537/ Fragen und Anregungen an sounthcast@sounth.de Website Tim Heinrich: https://sounth.de
Die Filmtonfrauen Sabrina Naumann-Reichow und Antje Volkmann beleuchten in dieser Folge die praktische Notwendigkeit der Standardisierung am Filmset, um Kommunikationslücken zur Postproduktion zu schließen. Sie erklären die Erstellung eines persönlichen „Sound Memos“, eines vorab festgelegten Dokuments, das detaillierte Regeln für Timecodes – wie den bewussten Start bei einer Stunde, um Fehler zu vermeiden – und die korrekte Beschriftung von SD-Karten und Spuren festlegt. Da die Metadaten der Files die einzige Kommunikationsart zwischen Set und Dialog Editing darstellen, wird betont, wie wichtig eindeutige Benennungen sind, um Verwirrung durch unklare Bezeichnungen wie „TX“ (Sender) oder die Vielzahl an Begriffen für Miniaturmikrofone („Anstecker“, „Clip Mikes“) zu verhindern. Auf YouTube sehen: https://youtu.be/qDFhFUWH1uo?si=hY4wZ2udRAVAqUjP Zum kostenlosen Cubase-Stammtisch anmelden: subscribepage.io/1D69jt Wenn ich Dir helfen konnte, freue ich mich über einen virtuellen Kaffee ;-) https://ko-fi.com/timheinrich Orchestra Guide - Perfekte Orchester-Mockup-Balance: https://payhip.com/b/oRXKh Hier das Episoden-Archiv als PDF runterladen: https://www.sounth.de/media/podcast/sounTHcast.pdf Facebook-Gruppe: https://www.facebook.com/groups/309751689699537/ Fragen und Anregungen an sounthcast@sounth.de Website Tim Heinrich: https://sounth.de
In dieser Folge spreche ich mit Dialogeditorin Sabrina Naumann Reichow über ein Thema, das unscheinbar wirkt, aber für die Postproduktion entscheidend ist: Ordnung, Metadaten und Workflow im Dialogschnitt. Nachdem wir in einer vorherigen Runde über die Vorbereitung am Set gesprochen haben, gehen wir diesmal einen Schritt weiter: Wie kommen die Daten eigentlich im Dialog Edit an – und was passiert dann damit? Gemeinsam schauen wir direkt in Pro Tools auf macOS und erklären: welche Metadaten beim Set Recording entstehen wo man sie in Pro Tools findet und wie man sie sinnvoll nutzt warum Scene & Take für den Dialogschnitt unverzichtbar sind wie man mithilfe von Metadaten schnell Alternativtakes findet welche Rolle Kommentare, Nurton-Kennzeichnungen und Benennungen spielen Außerdem sprechen wir über alternative Tools wie Soundminer und Kraken Dialog Editors Toolkit, deren Vor- und Nachteile sowie typische Probleme bei Transfers aus Avid, Premiere oder Final Cut. Auf YouTube sehen: https://youtu.be/tQf6aMig0tY Zum kostenlosen Cubase-Stammtisch anmelden: subscribepage.io/1D69jt Wenn ich Dir helfen konnte, freue ich mich über einen virtuellen Kaffee ;-) https://ko-fi.com/timheinrich Orchestra Guide - Perfekte Orchester-Mockup-Balance: https://payhip.com/b/oRXKh Hier das Episoden-Archiv als PDF runterladen: https://www.sounth.de/media/podcast/sounTHcast.pdf Facebook-Gruppe: https://www.facebook.com/groups/309751689699537/ Fragen und Anregungen an sounthcast@sounth.de Website Tim Heinrich: https://sounth.de
Das Musikbusiness verzeichnet Rekordumsätze! Entdecke, wie "Glokalisierung" deine lokale Fanbase zur Goldgrube macht und warum du jetzt deine Metadaten optimieren musst. Wir decken auf, wie neue KI-Technologien Streaming-Betrug bekämpfen und welche Chancen Spotifys neue Abo-Modelle und Live-Features für dich bereithalten. Plus: Billboard krempelt die Chart-Regeln um – sei bereit für die Zukunft deiner Musikkarriere!
Privacy-Serie Teil 6: In dieser Episode werfen wir einen Blick hinter die Kulissen des Internets: Wie funktioniert es technisch? Was sind ISPs, IPs und DNS? Und vor allem – welche Risiken für unsere Privatsphäre lauern auf dem Weg ins Netz? Wir erzählen die Geschichte vom ARPANET bis zur Glasfaser, hören Originaltöne von Bill Gates und Senator Ted Stevens und erklären verständlich, wie VPNs, Tor und DNS-Verschlüsselung helfen können, auch im WWW Privatsphäre zu wahren. Dazu gibt's ein Gespräch mit einem alten Nodesignal-Bekannten – Cerca! Von Cerca erfahren wir, wie wir selbstbestimmt online gehen können.Von und mit: - Chris - CercatrovaProduziert und geschnitten: ChrisHier könnt ihr uns eine Spende über Lightning da lassen: ⚡️nodesignal@getalby.comNeben dem Podcast findet ihr uns auch auf YouTubeFür Feedback und weitergehenden Diskussionen kommt gerne in die Telegramgruppe von Nodesignal und bewertet uns bei Spotify und Apple Podcasts, das hilft uns sehr. Folgt uns auch gerne bei Nostr:npub1n0devk3h2l3rx6vmt24a3lz4hsxp7j8rn3x44jkx6daj7j8jzc0q2u02cy und Twitter.Blockzeit: 928298Cerca auf Nostr: npub1nxzp3zn90r44z07aeajc7wyah4fju49c9d3g45mxvmm64rmnrdusffch7mSRF - Die Cookie Falle Nodesignal-Talk - E204 - Hey Calso, why privacy matters!Nodesignal-Talk - E211 - Mobiltelefon mag Metadaten(1) mit Max HillebrandNodesignal-Talk – E215 – DAS MEGA-META-DATEN-RABBIT-HOLENodesignal-Talk - E222 - GrapheneOS mit JohannesNodesignal-Talk - E250 - Privacy 5 - Linux im GymInternet Society – A Brief History of the InternetKompakter Überblick zur technischen und sozialen Entwicklung des Internets seit den 1960ern.A Brief History of the InternetYouTube: Bill Gates erklärt 1995 das Internet bei LettermanLegendäres Talkshow-Interview – Gates beschreibt das Internet, Publikum reagiert skeptisch.https://www.youtube.com/watch?v=JUs7iG1mNjIWikipedia – “Series of tubes” (Ted Stevens, 2006)Ursprung und Folgen der berühmten „Röhren“-Analogie aus dem US-Senat.Series of tubes - WikipediaCloudflare Lernzentrum – Wie funktioniert das Internet?Übersicht über Routing, DNS, Backbone, Protokolle, IP und mehr.How does the Internet work? | CloudflareMullvad Blog: Hausdurchsuchung 2023 – Keine Nutzerdaten vorhandenReale Prüfung des No-Logs-Versprechens.https://mullvad.net/en/blog/2023/5/3/mullvad-vpn-was-subjected-to-a-search-warrant/Tor Project – Offizielle Einführung und technische ErklärungFunktionsweise, Onion-Routing, Sicherheit, Anwendungsbereiche.About TorMozilla: Was ist DNS-over-HTTPS (DoH)?Technische Einführung zur verschlüsselten DNS-Auflösung im Browser.https://support.mozilla.org/de/kb/dns-ueber-https-doVerivox – Geschichte der Internet-Flatrate in DeutschlandEntwicklung von Minutenabrechnung über Volumentarife bis zur Flatrate.https://www.verivox.de/themen/internet/internet-flatrate/Bundesnetzagentur – Netzneutralität und VerkehrsmanagementAktuelle rechtliche Lage und Diskussion in Deutschland und der EU.https://www.bundesnetzagentur.de/DE/Sachgebiete/Telekommunikation/Unternehmen_Institutionen/Netzneutralitaet/netzneutralitaet-node.htmlMusik - alle Songs sind Royalty Free – Danke für den guten Sound!!!Aaron Kenny - The curious kitten Emmit Fenn - AloneYung Logos - Mysterious Strange Things Qincas Moreira - Bunny Hop pATCHES - Consciousness Rabbit True Cuckoo - This is Not a dolphinJohn Patitucci - On the DeltaThe Soundlings - Moving in the shadows John Patitucci - Spaghetti EasternTimestamps:(00:00:00) Intro(00:00:22) Intro Internet(00:04:50) Die Geschichte des Internets(00:09:08) Wie funktioniert das Internet?(00:12:42) Angriffspunkte für Überwachung und Tracking(00:18:15) Alternative Zugänge zum Internet(00:19:11) Tools für mehr Privatsphäre(00:27:10) Zusammenfassung Intro & Start Interview mit Cerca(00:30:04) Cerca, wie funktioniert das Internet?(00:34:11) Wie gläsern macht uns der Internetanbieter(00:36:38) Wie sicher sind VPNs?(00:40:29) OPNsens(00:42:34) DNS?(00:51:50) TOR Browser und Onion Routing(00:58:07) Wo nutze ich VPN und wo TOR?(01:01:13) Firewall(01:06:22) Was ist der alltagstaugliche Mittelweg?(01:21:46) Wie steht es um die Regulierung in der CH?(01:26:18) Danke an Cerca und Focus on the ...
(Disclaimer: erstellt mit ChatGPT)Hallo liebe Community,In diesem Adventsspecial sitzt Anja Schröder mit Michael und Thorsten unterm virtuellen Tannenbaum und spricht über alles, was rund um Microsoft 365 gerade richtig Arbeit macht – und richtig Spaß: M365 News Show, Teams-Features im Dauerfeuer, Copilot-Agents, Threads, kombinierte Ansicht, Knowledge Agent und die alte Frage: „Warum nutzt ihr SharePoint wie einen File-Server?“ Highlights der Folge:
Die Diskussion zeigte, dass auch Verlage längst KI einsetzten. Dabei geht es jedoch nicht um die Inhalte der Bücher. Vielmehr wird KI dort eingesetzt, wo repetitive und wenig fordernde Arbeiten zu erledigen sind, wie beispielsweise bei der Erfassung von Metadaten und bei internen Prozessen. Wie läuft in den Verlagen der Prozess der Implementierung? Und wo liegen die Grenzen für den KI-Einsatz? Die Runde diskutierte auch über mögliche Kennzeichnungen, urheberrechtliche Grauzonen und die Frage, ob der Staat die KI-Firmen stärker regulieren müsse. Sind billige, mit der KI-erstellte Kinderbücher oder Sachbücher, die Amazon fluten, eine Bedrohung für die Verlage? Wie sieht es bei der KI-Unterstützung für Covermotive und Übersetzungen aus? Die zunehmende Herausforderung für Bibliotheken ist zudem die Erkennung von eingereichten Titeln mit KI-Inhalten z. B. für die Onleihe. Spannend wurde es beim Thema Kreativität und Beziehung zu den Leserinnen und Lesern. Bei Büchern, so betonte es Tom Kraushaar, gehe es paradoxerweise nicht nur um den reinen Inhalt. Die Verbindung zu einer Autorin oder einem Autor, zu einer echten Person und ihrem Text, spiele eine zentrale Rolle. Nicht nur auf Lesungen und Veranstaltungen, sondern auch auf den digitalen Plattformen wie BookTok zeige sich: Menschen suchen auch beim Lesen die Beziehung zu Menschen, nicht zu Algorithmen. Ein Gespräch über den aktuellen Stand beim Umgang der Verlage und Bibliotheken mit KI und letztendlich darüber, was das Buch im Kern ausmacht. Hören Sie den vollständigen Mitschnitt der der Diskussion vom 26.11.2025 auf den 75. Stuttgarter Buchwochen im Podcast des literaturcafe.de. Nutzen Sie den Player unten nach dem Beitrag. Leider funktionierte die Mikrotechnik auf der Bühne nicht ganz zuverlässig. Wir bitten die leichten Störgeräusche zu entschuldigen.
KI hat nicht nur unser Privatleben und unseren Beruf erfasst, nein, ganze Städte beschäftigen sich im Jahr 3 nach ChatGPT mit der AI-Disruption. Die WienIT ist das digitale Backbone der Wiener Stadtwerke-Gruppe und beschäftigt sich mit dem Team um Stefan Kreihsler intensiv mit der neuen Technologie-Welle.Wo liegen Wahrheit und Nutzen zwischen Hype und Boom, und welche Vorteile kann KI für Mitarbeiter der Stadtwerke konkret bringen? Darüber sprechen wir heute im Podcast mit Stefan Kreihsler, dem Co-Lead für AI/BI/Data bei WienIT. Die Themen:
Es geht um eine Zwangspause, etwas verwirrende Politik, coole Bilder, wie man China decodiert, das Schreiben, soziale Metadaten, Termine und um Vocaloids.
Anna Bicker, heise-online-Chefredakteur Dr. Volker Zota und Malte Kirchner sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen: - Gar nicht himmlisch: Was lehrt uns der Cloudflare-Ausfall? – Ein Cloudflare-Ausfall hat zahlreiche Websites und Dienste lahmgelegt. Wie abhängig ist das Internet von einzelnen Infrastrukturanbietern? Welche Konsequenzen hat diese Zentralisierung für die digitale Souveränität? Und welche Lehren sollten Unternehmen und Politik aus solchen Vorfällen ziehen? - Schlechte Nachrichten: Forscher entdecken offene WhatsApp-Metadaten – Sicherheitsforscher konnten auf Metadaten von 3,5 Milliarden WhatsApp-Konten zugreifen. Wie konnte es zu dieser massiven Datenpanne kommen? Welche Informationen waren konkret einsehbar und welche Risiken ergeben sich daraus? Und wie reagiert Meta auf diese Enthüllungen? - Wirklich souverän? Rückblick auf den Digitalgipfel – Bundeskanzler Friedrich Merz und Frankreichs Präsident Emmanuel Macron haben beim Digitalgipfel den Schulterschluss geprobt. Welche konkreten Schritte zur digitalen Souveränität wurden beschlossen? Kann Europa tatsächlich unabhängiger von US-Tech-Konzernen werden? Und was bedeutet die deutsch-französische Zusammenarbeit für die digitale Zukunft Europas? Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.
Anna Bicker, heise-online-Chefredakteur Dr. Volker Zota und Malte Kirchner sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen: - Gar nicht himmlisch: Was lehrt uns der Cloudflare-Ausfall? – Ein Cloudflare-Ausfall hat zahlreiche Websites und Dienste lahmgelegt. Wie abhängig ist das Internet von einzelnen Infrastrukturanbietern? Welche Konsequenzen hat diese Zentralisierung für die digitale Souveränität? Und welche Lehren sollten Unternehmen und Politik aus solchen Vorfällen ziehen? - Schlechte Nachrichten: Forscher entdecken offene WhatsApp-Metadaten – Sicherheitsforscher konnten auf Metadaten von 3,5 Milliarden WhatsApp-Konten zugreifen. Wie konnte es zu dieser massiven Datenpanne kommen? Welche Informationen waren konkret einsehbar und welche Risiken ergeben sich daraus? Und wie reagiert Meta auf diese Enthüllungen? - Wirklich souverän? Rückblick auf den Digitalgipfel – Bundeskanzler Friedrich Merz und Frankreichs Präsident Emmanuel Macron haben beim Digitalgipfel den Schulterschluss geprobt. Welche konkreten Schritte zur digitalen Souveränität wurden beschlossen? Kann Europa tatsächlich unabhängiger von US-Tech-Konzernen werden? Und was bedeutet die deutsch-französische Zusammenarbeit für die digitale Zukunft Europas? Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.
Anna Bicker, heise-online-Chefredakteur Dr. Volker Zota und Malte Kirchner sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen: - Gar nicht himmlisch: Was lehrt uns der Cloudflare-Ausfall? – Ein Cloudflare-Ausfall hat zahlreiche Websites und Dienste lahmgelegt. Wie abhängig ist das Internet von einzelnen Infrastrukturanbietern? Welche Konsequenzen hat diese Zentralisierung für die digitale Souveränität? Und welche Lehren sollten Unternehmen und Politik aus solchen Vorfällen ziehen? - Schlechte Nachrichten: Forscher entdecken offene WhatsApp-Metadaten – Sicherheitsforscher konnten auf Metadaten von 3,5 Milliarden WhatsApp-Konten zugreifen. Wie konnte es zu dieser massiven Datenpanne kommen? Welche Informationen waren konkret einsehbar und welche Risiken ergeben sich daraus? Und wie reagiert Meta auf diese Enthüllungen? - Wirklich souverän? Rückblick auf den Digitalgipfel – Bundeskanzler Friedrich Merz und Frankreichs Präsident Emmanuel Macron haben beim Digitalgipfel den Schulterschluss geprobt. Welche konkreten Schritte zur digitalen Souveränität wurden beschlossen? Kann Europa tatsächlich unabhängiger von US-Tech-Konzernen werden? Und was bedeutet die deutsch-französische Zusammenarbeit für die digitale Zukunft Europas? Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.
In dieser Folge nehmen wir euch mit in unsere Träume. Träume von farbigen Schulter-Klappdisplays, infrarot Ricohs und Träume von perfekten Handposen. Aber auch an Aufwach-Momenten sparen wir nicht und besprechen einige unbequeme Wahrheiten, wie z.B., dass sich niemand trotz Einhaltung der Drittelregel für eure Metadaten interessiert. Viel Spaß!Kontrastraum Feedback & Anregungen (google.com)Fotostammtisch Würzburg (@fotostammtisch_wuerzburg) • Instagram-Fotos und -VideosHome - AI-free Label
Technische Dokumentation - Der Podcast zu allen Themen der technischen Dokumentation
Der digitale Produktpass kommt und die Technische Redaktion steht im Focus. In dieser Folge soll es nicht mehr um das Was, sondern um das Wie gehen - Wie kann eine Technische Redaktion die Anforderungen des digitalen Produktpasses praktisch umsetzen? Wie lässt sich das eigene Informationsmanagement fit machen für 2027? Und welche neuen Aufgaben und Chancen entstehen dadurch?
In der digitalen Arbeitswelt von heute werden wir täglich mit einer Flut von Informationen konfrontiert. Dokumente, Präsentationen, Angebote, Protokolle – sie alle wollen nicht nur erstellt, sondern auch sinnvoll abgelegt und wiedergefunden werden und genau hier kommen Metadaten ins Spiel. Sie sind die unsichtbaren Helfer, die Ordnung ins digitale Chaos bringen. Doch was genau sind Metadaten, wie nutzt man sie sinnvoll – und warum sind sie gerade in Tools wie Microsoft Teams so wertvoll? Das alles erfährst du heute in einer neuen Folge nuboRadio!
Bug-Management muss man wollen … und können.Jede:r von uns kennt sie: Bugs in der Software. Sie verstecken sich nicht nur in tiefen Architekturentscheidungen oder Skurrilitäten des Nutzerverhaltens. Sie sind Alltag, egal wie viel Testautomatisierung, KI-Unterstützung oder Code-Reviews wir in unseren Prozessen haben. Doch wie gehst du damit um, wenn die Bugliste immer länger wird, dein Team über Jira-Tickets stöhnt und die Frage im Raum steht: Lohnt es sich überhaupt, Bugs systematisch zu managen?In dieser Episode nehmen wir dich mit durch alle Facetten des modernen Bug-Managements. Wir diskutieren, wie Bugs überhaupt entstehen, warum 'Zero Bug'-Versprechen ein Mythos sind und welche Strategien es gibt, Fehler möglichst früh zu finden. Ob durch Beta-Channels, Dogfooding im eigenen Unternehmen oder kreatives Recruiting. Wir tauchen ein in die Welt der Bug Reports: Wie sieht ein richtig guter aus? Welche Infos braucht das Engineering und wie senkst du die Hürden, damit dein Team (und auch die Community) wirklich meldet? Klartext gibt's auch zur Priorisierung: Wie klassifizierst du Bugs nach User-Impact, Komplexität und Business-Wert, anstatt an zu vielen bunten Jira-Feldern zu verzweifeln?Neugierig? Dann bleib dran.Bonus: Unerwartete Funfact-Challenge → Ist schlechte UX ein Bug oder ein Feature?Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Im aktuellen Podcast mit Stefan Brink und Niko Härting geht es zunächst (00:43) um eine Beschwerde an den EGMR: Reporter ohne Grenzen e.V. (RSF) hat, vertreten durch Härting Rechtsanwälte, Beschwerde zum Europäischen Gerichtshof für Menschenrechte (EGMR) in Straßburg eingelegt wegen des Einsatzes von Staatstrojanern durch den Bundesnachrichtendienst (BND). Als Staatstrojaner wird Spähsoftware bezeichnet, die ohne Kenntnis der Zielperson auf dessen Computer oder Smartphone installiert wird. Sodann geht es (12:24) um eine Stellungnahme des Deutschen Anwaltvereins (DAV) zur öffentlichen Konsultation der European Commission zur Vorratsdatenspeicherung. Der DAV sieht einen Verstoß gegen das anwaltliche Berufsgeheimnis, die anlasslose Speicherung von Metadaten gefährde die Vertraulichkeit zwischen Anwalt und Mandant. Zudem übt der DAV Kritik an der Anhörung, die Fragen seien einseitig und suggestiv zugunsten einer EU-weit einheitlichen Regulierung von Vorratsdatenspeicherung formuliert. Dann geht es (20:09) um einen BVerfG-Beschluss (vom 16.09.2025 - 2 BvR 1399/25). Anlässlich der Oberbürgermeister-Wahl in Ludwigshafen scheiterte ein AfD-Politiker mit seiner Verfassungsbeschwerde: AfD-Politiker Joachim Paul wurde nicht zur OB-Wahl am 21.9. in Ludwigshafen zugelassen, weil der Wahlausschuss der Stadt an seiner Verfassungstreue zweifelt. Dagegen erhob er Klage vors VG Neustadt und OVG Koblenz - doch auch das BVerfG ließ ihn nun abblitzen. Die Nicht-Annahme zur Entscheidung begründete das Gericht damit, er habe sich nicht ausreichend mit den ablehnenden Entscheidungen der Gerichte in Rheinland-Pfalz und mit einschlägiger Entscheidungen des BVerfG auseinandergesetzt. Schade eigentlich. Schließlich (31:39) greifen Niko und Stefan einen weiteren BVerfG-Beschluss (vom 11.08.2025 - 1 BvL 2/25) zum spannenden Thema „Tanzverbot an Karfreitag“ auf. Per Richtervorlage zum niedersächsischen Tanzverbot an Gründonnerstag und Karfreitag sollte geklärt werden, ob an diesen Tagen, öffentliche Veranstaltungen, wenn sie nicht „der geistig-seelischen Erhebung“ dienen „und auf den ernsten Charakter des Tages Rücksicht nehmen“ verboten werden dürfen. Ein Bußgeld von 1.700 € hatte ein Tanzveranstalter in Göttingen wegen „sich permanent rhythmisch bewegender Personen“ kassiert, was auch dem AG Göttingen nicht einleuchtete, das darin einen Verstoß gegen die negative Religionsfreiheit (Zwang zu agieren wie gläubige Christen), die Berufsfreiheit und das Gleichheitsgebot (Kino, Restaurant und Theater sind an diesen Tagen erlaubt) sowie das staatliche Neutralitätsgebot sah. Karlsruhe steigt leider und mal wieder erst gar nicht in Prüfung ein: Das Amtsgericht habe sich nur „mangelhaft“ mit der einschlägigen Rechtsprechung des BVerfG auseinandergesetzt – ergo: nicht tanzen, sondern setzen, 6!
Thiels geheime Vorträge mitten im Gaza-KriegEin Standpunkt von Anna Zollner.Am 7. Oktober 2023 begann die Eskalation in Gaza, die Welt sah den brutalen Angriff der Hamas und die darauffolgende militärische Reaktion Israels. Ab dem 12. Oktober folgten massive Luftangriffe, die Bodenoffensive, die humanitäre Katastrophe. In genau diesem Moment, als Gaza zur Brennkammer wurde, startete Peter Thiel, Palantir-Gründer und Girard-Schüler, seine Lecture Series über den Antichristen – eine vierteilige Reihe, gehalten in exklusiven, teils geheimen Zirkeln im Herbst 2023. Diese Gleichzeitigkeit ist mehr als Zufall, sie ist Chiffre. Während in Gaza das archaische Prinzip des göttlichen Urteils vollzogen wurde, entwarf Thiel im Unsichtbaren die moderne Version: den Antichrist als Technologie.Thiel spricht nicht vage von Systemen oder Gefahren, er sagt es direkt: Der Antichrist ist nicht nur eine dämonische Figur der Offenbarung, er kann eine Technologie sein. Ein Regime, das Frieden verspricht und ein Gefängnis baut. Regulierung, Überwachung, globale Plattformen, jede Form totaler Zugriffskontrolle können Teil dieses Antichrist-Systems sein. Der Satz ist keine Metapher, sondern eine unfreiwillige Selbstanklage: Thiel ist der Erfinder der Überwachungstechnologie Palantir und all ihrer Komponenten. Fakt ist: Wenn Technologie selbst antichristlich werden kann, dann ist jeder Softwaredienst, jeder Algorithmus, jedes biometrische Verfahren ein mögliches Werkzeug des globalen Leviathans.Während Thiel doziert, läuft in Gaza der Sündenbock-Mechanismus in Reinkultur. Die Palästinenser werden kollektiv als Terroristen, Barbaren, existentielle Bedrohung deklariert – und seit Jahren digital totalüberwacht. Die Mechanik ist exakt das, was Thiels Lehrer René Girard einst beschrieb: Die Gemeinschaft bündelt ihre Gewalt auf ein Opfer, erklärt es für schuldig und stabilisiert so ihre eigene Ordnung. Doch im 21. Jahrhundert sind die Mittel nicht mehr nur Waffen, sondern digitale Raster. Drohnenbilder, Satelliten, Metadaten, Bewegungsprofile – die palästinensischen Städte sind nicht nur physisch zerstört, sie sind auch digital kartiert, analysiert und markiert. Gaza wird nicht nur bombardiert, Gaza wird durchleuchtet.Und wer durchleuchtet? Israel und die USA, synchronisiert. Wenn Israel überwacht, überwacht die NSA mit. Thiels Palantir liefert die Software, Unit 8200 liefert die Daten, die Five-Eyes-Architektur die Infrastruktur. Es ist eine transatlantische Koalition der Kontrolle. Zionistische Überwachung ist amerikanische Überwachung. Jerusalem und Washington sind keine getrennten Räume, sondern zwei Knoten einer Matrix. Wer in Gaza gescannt wird, wird global gescannt.Diese Achse Jerusalem–DC wird auf den Rest der Welt übertragen. Israel versteht sich nicht nur als Staat, sondern als Modell. Jerusalem ist Mythos, Symbol und Kontrollzentrum zugleich....https://apolut.net/wenn-technologie-zum-antichrist-wird-von-anna-zollner/ Hosted on Acast. See acast.com/privacy for more information.
Microsoft liest mit – und warum Linux die Antwort ist Willkommen bei Nodesignal – deiner Bitcoin- und Privacy-Go-Up-Frequenz! Chris und sein Gym Buddy Kay werfen einen kritischen Blick auf die Datenschutzrichtlinien von Microsoft Windows und Office 365 – und was da drinsteht, ist kein Spaß: Vollüberwachung als Standard. Aber keine Panik: Linux ist die Antwort – offen, transparent, datenschutzfreundlich. Wir sprechen über die Geschichte von Linux, warum es heute eine echte Alternative ist, und wie aus einem Gespräch zwischen zwei Kreuzhebe-Sätzen eine Podcast-Folge wurde. ⚡ Value4Value – keine Werbung, nur freie Software. Boost uns oder spende via Lightning (Details in den Shownotes). Jetzt: Ab in die Küche.Von und mit: - ChrisProduziert und geschnitten: ChrisHier könnt ihr uns eine Spende über Lightning da lassen: ⚡️nodesignal@getalby.comWenn euch unsere Arbeit gefällt, könnt ihr unsere Folgen auch auf Podcasting 2.0 Plattformen, wie Fountain, PodcastGuru, Castamatic, Breez oder Podverse hören und uns so eine kleine Aufmerksamkeit da lassen. Danke an alle, die die Bitcoin Community mit ihren Spenden unterstützen! Mit diesen Spenden wird unter anderem unser Bounty Programm verwirklicht, in dem ihr euch für die Mitarbeit an einem Projekt eine Belohnung sichern könnt.Für Feedback und weitergehenden Diskussionen kommt gerne in die Telegramgruppe von Nodesignal und bewertet uns bei Spotify und Apple Podcasts, das hilft uns sehr. Folgt uns auch gerne bei Nostr:npub1n0devk3h2l3rx6vmt24a3lz4hsxp7j8rn3x44jkx6daj7j8jzc0q2u02cy und Twitter.Blockzeit: 900062Microsoft Privacy StatementLinux MintDistrochooserNodesignal-Talk - E204 - Hey Calso, why privacy matters!Nodesignal-Talk - E211 - Mobiltelefon mag Metadaten(1) mit Max HillebrandNodesignal-Talk - E215 - DAS MEGA-META-DATEN-RABBIT-HOLENodesignal-Talk - E222 - GrapheneOS mit JohannesMusik (royalty free with permission): Between Spaces - SoundlingsBlue Screen of death - Soundlings Mysterious Strange Things - Yung Logos Mood Ring - National Sweethearts
In dieser Folge steht die Frage im Zentrum, wie sich Berufsfelder für Kunsthistoriker*innen im Zuge der Digitalisierung verändern. Gemeinsam mit Gudrun Knaus, Maximilian Westphal und Thorsten Wübbena diskutiert Jacqueline Klusik-Eckert über Karrierewege, Kompetenzprofile und strukturelle Herausforderungen in einem Feld, das sich zunehmend zwischen fachlicher Spezialisierung und digitalen Transformationsprozessen positioniert.Ausgangspunkt ist die oft wiederholte Annahme, digitale Kompetenzen eröffneten bessere Chancen auf dem Arbeitsmarkt – doch gilt das auch für die Kunstgeschichte? Während viele kunsthistorische Studiengänge digitale Inhalte nach wie vor randständig behandeln, entwickeln sich jenseits des klassischen Faches neue Tätigkeitsfelder: in Forschungsinfrastrukturen, im digitalen Sammlungsmanagement oder in datengetriebenen Analysekontexten werden Mitarbeiter*innen mit digitalen Kompetenzen UND kunsthistorischen Domänenwissen gesucht. Die Gesprächspartner*innen geben Einblick in ihre individuellen Berufswege und reflektieren, welche Fähigkeiten in ihren jeweiligen Kontexten heute unverzichtbar sind.Dabei wird deutlich, dass sich nicht nur Jobprofile, sondern auch Arbeitskulturen verändern: Weg vom Einzelarbeitsplatz, hin zu vernetzten, interdisziplinären Teamstrukturen. Übersetzung, Vermittlung und eine hohe Anschlussfähigkeit an andere Disziplinen werden als Schlüsselkompetenzen benannt. Deutlich wird zudem, dass „Digitalität“ nicht als bloßes Toolset verstanden werden kann, sondern auch eine veränderte Denkweise erfordert – mit Auswirkungen auf Forschung, Lehre und institutionelle Praxis.Das Gespräch skizziert die aktuelle Lage zwischen Wunsch und Wirklichkeit: Zwischen diffusen Förderlogiken, unklaren Anerkennungsstrukturen und dem Ringen um Sichtbarkeit sowohl digitaler als auch kunsthistorischer Expertise stellt sich die Frage, wie nachhaltig neue digitale Berufsbilder tatsächlich etabliert sind. Damit verbunden ist auch ein Plädoyer für mehr Offenheit im Fach – nicht nur gegenüber digitalen Methoden, sondern auch gegenüber vielfältigen Berufsrealitäten, die sich jenseits des klassischen akademischen Pfads bewegen.Dr. Gudrun Knaus ist Wissenschaftlerin am Deutschen Dokumenationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg, Freiberufliche Beraterin im Bereich Digitales Sammlungsmanagement und Projektkoordinatorn Graphikportal.Maximilian Westphal war Projektleiter Digitale Kultur MFG Medien- und Filmgesellschaft Baden Württemberg und ist ab September im LVR Industriemuseum Oberhausen, Wissenschaftlicher Referent Digitales MuseumThorsten Wübbena ist Leiter des DH Lab und des Arbeitsbereichs Digitalität der Historischen Forschung am Leibniz-Institut für Europäische Geschichte (Mainz).Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de
Plodroch, Ina www.deutschlandfunk.de, Corso
Social Media? In zwei Jahren tot! Streaming? Steuert auf eine Katastrophe zu. Metadaten? Zu wenig Kompetenzen, zu viel Geld geht verloren. Diese Folge vom Redfield Podcast hat es in sich! Im Update mit Matthias Strobel werden Zukunftsthemen der Musikbranche pointiert und meinungsstark diskutiert. Der Gründer des Bundesverbands MusicTech Germany berichtet über sein Engagement für Handiclapped sowie pincmusic.net – eine Plattform, die inklusive Artists sichtbar macht, Auftrittsmöglichkeiten vermittelt und gezielte Unterstützung bietet. Außerdem stellt Strobel die von ihm kuratierte Konferenz Music Frontiers vor, die am 4. und 5. September 2025 in Berlin stattfindet. Ziel ist es nicht, Probleme der Gegenwart zu verwalten – sondern mutig und innovativ über die zukünftige Entwicklung der Branche zu sprechen und StartUps eine Bühne zu geben. Für Strobel steht fest: - Social Media wird durch die Content-Flut und den massiven Bot-Einsatz in zwei Jahren irrelevant. - Streaming, wie wir es heute kennen, geht durch die Masse an KI-generierter Musik einem Kollaps für die Branche entgegen. - Eine Lizenzierung auf Basis von KI-Trainingsdaten? Laut Strobel technisch unmöglich. Gemeinsam mit Gastgeber Alexander Schröder diskutiert er außerdem erneut die kritische Rolle von Metadaten – und wie Unternehmen wie die GEMA mit dieser essenziellen Grundlage weiterhin wohlmöglich zu sorglos umgehen. www.musicfrontiers.com www.music-tech.de www.pincmusic.net www.redfield-podcast.de
In der 62. Folge unseres Podcasts „How to Legal Tech“ freuen wir uns sehr, Jens Fettig, Head of Legal SBU Germany bei CGI, als Gast begrüßen zu dürfen. Jens ist ein erfahrener Inhouse-Jurist im Rahmen der IT-Branche und spricht mit unserem Host Luis Stade über den aktuellen Stand von Contract Lifecycle Management (CLM). Bereits vor knapp drei Jahren haben wir in unserem Podcast bereits über CLM-Systeme gesprochen, da sich nun jedoch einiges erneuert hat, kommen wir auf dieses wichtige und spannende Thema nochmal zurück. Zu Beginn erklärt Jens, was CLM eigentlich ist: ein digitaler und systematischer Ansatz, um die einzelnen Lebensphasen eines Vertrags – von der Erstellung über die Verhandlung bis zur Verlängerung oder Beendigung – effizient zu managen. Dabei geht es nicht nur um ein IT-Tool, sondern auch um einen strategischen Hebel, etwa für das Risikomanagement. Vorteile sind unter anderem mehr Kontrolle und Transparenz über die Vertragslandschaft, Effizienzsteigerung und vor allem Risikominimierung. Luis und Jens sprechen darüber, welche Funktionen ein gutes CLM-System haben sollte – etwa Fristenmanagement, Vorlagenmanagement für Standardverträge oder tiefe Integration in bestehende IT-Systeme wie SAP. Deutlich wird: Ein CLM-System lässt sich nicht einfach „anstecken und loslegen“. Vor der Einführung sind einige Hausaufgaben zu erledigen, darunter die Erfassung des aktuellen Vertragsbestands, der Aufbau einer sauberen Klauselbibliothek und die klare Definition der Anforderungen an das Tool. Und natürlich darf auch nicht der neuere Ansatz — der Einsatz von Künstlicher Intelligenz im CLM — fehlen: Jens berichtet, dass viele Anbieter inzwischen KI integriert haben – insbesondere zur automatischen Erfassung von Metadaten wie Vertragsdauer oder Vertragspartner. KI kann zudem bei Risikoanalysen unterstützen, indem sie Klauseln im neuen Vertrag mit bestehenden Standards vergleicht.Zum Abschluss diskutieren Luis und Jens, ob CLM-Systeme für jedes Unternehmen sinnvoll sind. Während kleinere Organisationen oft ohne auskommen, bieten sie für Unternehmen mit einer großen Anzahl an Verträgen klare Vorteile. Ein großes Dankeschön an Jens Fettig für die spannenden Einblicke und an Wolters Kluwer für die Unterstützung bei unserem Podcast – viel Spaß beim Hören!
Technische Dokumentation - Der Podcast zu allen Themen der technischen Dokumentation
Der Digitale Produktpass ist ein digitales „Ausweisdokument“ für physische Produkte, das entlang ihres gesamten Lebenszyklus zentrale Daten bündelt. Er wurde im Rahmen des EU-Green Deal und der neuen Ökodesign-Verordnung eingeführt. Wir sprechen über die Auswirkungen auf die Technische Redaktion und mit welchen Schritten der digitale Produktpass erfolgreich eingeführt werden kann.
In dieser Folge spricht Jacqueline Klusik-Eckert mit Tom Meißner über den Begriff des Digital Twin und seine Übertragung vom Ingenieurwesen in den Bereich des kulturellen Erbes. Während digitale Zwillinge in der Industrie vor allem zur Simulation technischer Abläufe dienen, liegt im Kulturbereich der Fokus auf der möglichst detailgetreuen Repräsentation historischer Objekte und Architekturen. Doch wo verläuft die Grenze zwischen einem Digital Twin und einem 3D-Scan? Und welche Kriterien machen einen digitalen Zwilling tatsächlich zum „Zwilling“?Im Gespräch wird deutlich, dass es dabei nicht nur um Visualisierung geht. Digitale Zwillinge können genutzt werden, um Alterungsprozesse, Umwelteinflüsse oder Materialverhalten zu simulieren – und eröffnen damit neue Formen der Analyse, ohne das Originalobjekt zu gefährden. Darüber hinaus sind sie ein wichtiges Werkzeug für die Vermittlung. Objekte werden vorzeigbar, die aus konservatorischen Gründen im Depot bleiben müssen. Kleines kann ganz groß gezeigt werden oder fernes sehr nah.Gleichzeitig stellen sich methodische und technische Herausforderungen: Wie lassen sich beschädigte oder unvollständige Objekte digital erfassen? Wie wird zwischen wissenschaftlicher Genauigkeit und praktischer Umsetzbarkeit abgewogen? Und was bedeutet diese Technologie für die digitale Bewahrung und Erforschung kultureller Objekte?Tom Meissner gibt einen Einblick in eine Digitalisierungsabteilung, die das Erfassen von Kulturgut als Daueraufgabe erkannt hat. Neben den logistischen und technischen Herausforderungen wird man dabei täglich auch mit Fragen nach wissenschaftlicher Sinnhaftigkeit, Repräsentation von Kulturgütern und Verantwortung für das kulturelle Erbe konfrontiert.Tom Meißner M.A. ist Projektmanager im Team Digitales Kulturerbe, Abt. Digitales Kultur- und Sammlungsmanagement, an der Thüringer Universitäts- und Landesbibliothek (ThULB) in Jena.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de
Ein Headless CMS trennt das Backend vollständig vom Frontend und stellt alle Inhalte per API bereit, sodass Du einmal eingegebene Texte, Bilder und Metadaten kanalübergreifend auf Website, App, Onlineshop oder POS ausspielen kannst. Du profitierst als Online-Marketer von hoher Flexibilität bei der Layout-Gestaltung, skalierst Dein Content-Management je nach Bedarf und arbeitest in Deinem Team deutlich effizienter, weil sich Marketing, SEO und IT klar auf ihre jeweiligen Rollen konzentrieren können. Wie so etwas erfolgreich umgesetzt werden kann, erzählt Corinna Vorreiter (WEVENTURE GmbH) heute im Interview mit Mario Jung (OMT GmbH). Gleichzeitig solltest Du die typischen Herausforderungen nicht unterschätzen: Umfangreiche SEO- und URL-Regeln wie Canonical-Handling, fehlende “Out-of-the-Box”-SEO-Module und fehleranfälliges JavaScript-Rendering erfordern ein erfahrenes Developer-Team und eine ausgiebige Planungs- und Testphase von mindestens einem Jahr. Corinna gibt Dir ihre Learnings preis und hilft Dir die Risiken zu minimieren. Wenn Du Content in mehreren Kanälen, Sprachen oder Ländern flexibel verwalten möchtest und Dein Entwicklerteam stark aufgestellt ist, lohnt sich der Umstieg. Für alle Details zu den SEO-Kniffen, konkreten Projektabläufen und Best Practices höre Dir das komplette Interview im OMT-Podcast jetzt an!
Jana Müller Fotokünstlerin und Professorin für Fotografie Um Jana Müller geht es in Episode 220, die Fotografie an der Hochschule für Grafik- und Buchkunst in Leipzig bei Timm Rautert studierte, in Berlin lebt und seit 2023 Professorin für Fotografie an der Folkwang Universität der Künste in Essen ist. Ihre künstlerische Forschung ist eine Spurensuche, die das Medium Fotografie in seinen materiellen und konzeptuellen Dimensionen erforscht. Dabei setzt sie sich mit verschiedenen Formen von Archiven und Archivalien auseinander. Ihre Mixed-Media-Installationen basieren auf fotografischen Arbeiten und erzählen Geschichten – von realen bis fiktiven Ereignissen. Der Werkstoff Glas spielt dabei eine zentrale Rolle: Er dient sowohl als funktionales Element als auch als Filter für historische Ästhetik, temporäre Architekturen und das Unsichtbare als Informationsquelle. Zu ihren Werkzyklen gehören „Traces of Truth“ (2019), in dem sie Beweismittel aus Justizarchiven untersucht, sowie das Langzeitprojekt „Falscher Hase“ (seit 2020), das auf Interviews mit ihrem 87-jährigen Vater basiert, der in der ehemaligen DDR als Kriminalist tätig war – eine Zeit, in der angeblich keine Verbrechen stattfanden. Ein wichtiger Aspekt ihrer Arbeit sind kollaborative Projekte. So arbeitet Jana Müller regelmäßig mit den Künstler*innen wie Matthew Cowan, Moira Zoitl und Wiebke Elzel zusammen. Seit 2021 erforschen so zum Beispiel Jana Müller und Matthew Cowan im Projekt „Background of the Background“ gemalte Hintergründe in Fotostudios des 19. Jahrhunderts, die in Europa und Neuseeland verwendet wurden. Diese Kulissen sind Dokumente ihrer Zeit, enthalten wichtige Metadaten und laden dazu ein, ihre kulturelle Bedeutung neu zu lesen – besonders im Kontext moderner Bildmedien und Social Media. Für ihren aktuellen Werkzyklus „What comes after us“ reist Jana Müller zu verschiedenen Archiven und Speichern, die als Zeitkapseln Leben und Tod gleichzeitig konservieren. In diesem Projekt beschäftigt sie sich mit den Fragen, was unsere Welt in Zukunft erwarten könnte, insbesondere im Kontext des globalen (Klima-)Wandels. https://www.jana-mueller.de https://www.instagram.com/jana_mueller_berlin http://falscherhase.jana-mueller.de/de/ https://eeclectic.de/en/produkt/cold-lens-as-a-filter/ http://www.monroe-books.de https://www.distanz.de/the-making-of-prawda-978-3-95476-282-8 - - - Episoden-Cover-Gestaltung: Andy Scholz Episoden-Cover-Foto/Grafik: privat - - - Link zu unserem Newsletter: https://deutscherfotobuchpreis.de/newsletter/ - - - Idee, Produktion, Redaktion, Moderation, Schnitt, Ton, Musik: Andy Scholz Der Podcast ist eine Produktion von STUDIO ANDY SCHOLZ 2020-2025. Andy Scholz wurde 1971 in Varel geboren. Er studierte Philosophie und Medienwissenschaften an der Universität Düsseldorf, Kunst und Design an der HBK Braunschweig und Fotografie/Fototheorie an der Folkwang Universität der Künste in Essen. Er ist freier Künstler, Autor und Dozent. Seit 2012 unterrichtet er an verschiedenen Instituten, u.a.: Universität Regensburg, Fachhochschule Würzburg, North Dakota State University in Fargo (USA), Philipps-Universität Marburg, Ruhr Universität Bochum, Pädagogische Hochschule Ludwigsburg. 2016 wurde er berufenes Mitglied in der Deutschen Gesellschaft für Photographie (DGPh). Seit 2016 ist er künstlerischer Leiter und Kurator vom INTERNATIONALEN FESTIVAL FOTOGRAFISCHER BILDER, das er gemeinsam mit Martin Rosner gründete. Im ersten Lockdown im Juni 2020 begann er mit dem Podcast und seit 2022 ist er Organisationsleiter vom Deutschen Fotobuchpreis, der ins INTERNATIONALE FESTIVAL FOTOGRAFISCHER BILDER in Regensburg integriert wurde. Er lebt und arbeitet in Essen (Ruhrgebiet). https://fotografieneudenken.de/ https://www.instagram.com/fotografieneudenken/ https://festival-fotografischer-bilder.de/ https://www.instagram.com/festivalfotografischerbilder/ https://deutscherfotobuchpreis.de/ https://www.instagram.com/deutscher_fotobuchpreis/ https:/
In dieser Folge spricht Jacqueline Klusik-Eckert mit Ugo Pecoraio über NFTs und ihre Rolle im Kontext von Medienkunst, Kunstmarkt und musealen Institutionen. Ausgangspunkt ist die Frage, ob sich NFTs in den letzten Jahren von spekulativen Objekten zu einem Werkzeug der Kunstwelt entwickelt haben.Im Gespräch wird deutlich, dass NFTs mehr sind als digitale Handelsobjekte. Sie werfen grundlegende Fragen nach Originalität, Urheberschaft und Materialität auf und fordern traditionelle Routinen in Sammlungen und Museen heraus. Gerade im Bereich der Medienkunst können NFTs neue Wege eröffnen – etwa beim Erwerb und der Bewahrung digitaler Werke. Doch ihre Anwendung ist komplex: rechtlich, technisch und kulturell. Ob als digitale Besitznachweise, als Werkzeug für Provenienzforschung oder als Möglichkeit zur Dezentralisierung von Entscheidungsprozessen – NFTs eröffnen neue Perspektiven, verlangen aber auch neue Kompetenzen.Das Gespräch zeigt: Der Hype ist vorüber, doch die Debatte beginnt erst. Es wird deutlich, dass technologische Innovationen nicht nur eine Frage der Infrastruktur sind – sondern auch ein Anlass, über Begrifflichkeiten, Verantwortlichkeiten und Sammlungslogiken neu nachzudenken.Ugo Pecoraio ist Freischaffender Kurator und Verantwortlicher Kommunikation / Head of Communications HEK (Haus der Elektronischen Künste) Basel.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de
In dieser Episode diskutieren Rüdiger Trost und Tobias Schrödel über verschiedene Themen rund um Technologie, insbesondere Betriebssysteme, Datenschutz und die Nutzung von WhatsApp. Sie reflektieren über die Anzahl der Kontakte in ihren Adressbüchern und die Bedeutung von Datenschutz in sozialen Medien. Zudem wird die neue WhatsApp-App für iPad thematisiert und die Entscheidung der Bundeswehr, eine Google Cloud zu nutzen, wird kritisch hinterfragt. In dieser Episode wird eine kritische Analyse von Verträgen und Entscheidungen im Kontext von Technologie und KI durchgeführt. Die Diskussion umfasst die Herausforderungen, die Google Maps hat, sowie die Integration von KI in Messenger-Diensten. Zudem wird ein umstrittener Bericht des amerikanischen Gesundheitsministers Robert F. Kennedy thematisiert, der auf fehlerhafte Quellen verweist. Abschließend wird ein Test-Szenario besprochen, in dem eine KI versucht, Nutzer zu erpressen, was die Verantwortung der Entwickler und die Notwendigkeit von Fact-Checking unterstreicht. -- Wenn Euch unser Podcast gefallen hat, freuen wir uns über eine Bewertung! Feedback wie z.B. Themenwünsche könnt Ihr uns über sämtliche Kanäle zukommen lassen: Email: podcast@ichglaubeeshackt.de Web: podcast.ichglaubeeshackt.de Instagram: http://instagram.com/igehpodcast
In dieser Folge spricht Jacqueline Klusik-Eckert mit Christian Gries über die Vermittlung als Aufgabenfeld im Museum und welche Rolle digitale Formate dabei heute spielen. Das Gespräch beleuchtet, wie sich die Vermittlungsarbeit durch digitale Angebote in den letzten Jahrzehnten verändert hat und welche Herausforderungen und Chancen damit verbunden sind. Dabei wird klar: Digitale Vermittlung geht längst über klassische Medienstationen oder Audioguides hinaus. Heute geht es um hybride Besucherreisen, partizipative Formate und neue Rollenbilder für Museen, die sich zunehmend als aktive Wissenssender im digitalen Raum verstehen müssen.Aus der Diskussion geht auch hervor, dass digitale Vermittlungsformate nicht einfach die analogen ersetzen können und ein Bewusstsein für die Stärken der jeweiligen Medienformen entstehen muss. Dabei zeigt sich auch, dass sich digitale Elemente wie die MuseumsApp und der schon lange tot gesagt QR-Code doch etablieren konnten.Die aktuellen Herausforderungen nach einer experimentellen Phase während der Pandemie ist es nun, nachhaltige digitale Strategien zu entwickeln. Dabei spielt die Datenpflege und -archivierung genauso eine Rolle, wie die Frage von langfristiger Softwarehaltung. Museen stets eine Balance zwischen knappen Ressourcen, technologischem Fortschritt und inhaltlicher Qualität wahren.Ein weiterer Schwerpunkt sind die aktuellen Herausforderungen im Umgang mit Plattformabhängigkeiten und der Fragmentierung von Communities. Daraus ergibt sich die Notwendigkeit, digitale Produkte bewusst für die langfristige Nutzung zu entwickeln. Es wird auch diskutiert, wie Museen durch Kooperationen, Open-Source-Ansätze und Community-Arbeit ihre Reichweite und Relevanz nachhaltig stärken können.Diese Folge macht deutlich: Vermittlung im digitalen Raum ist kein Zusatz, sondern eine grundlegende Aufgabe, die neue Denkweisen und Strukturen im Museum erfordert.Dr. Christian Gries ist Leiter der Abteilung Digitale Museumspraxis und IT am Landesmuseum Württemberg.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de
Dass die Themen "Sicherheit" und "Datenschutz" nicht zwingend Hand in Hand gehen, erkennt man hervorragend am Beispiel von Messenger-Diensten fürs Smartphone. So kann man etwa WhatsApp aus rein technischer Sicht durchaus als sicheren Messenger bezeichnen – am Thema Datenschutz klebt dennoch ein gigantisches Fragezeichen. Stichwort: Metadaten. In c't 9/2025 haben wir uns eine kleine Auswahl an Messengern genau angeschaut, miteinander verglichen und auch einen Blick darauf geworfen, wie sich die Technik der Messenger und ihr politisches Umfeld entwickeln. Dazu passend sprechen wir in diesem c't uplink darüber, wie moderne Ende-zu-Ende-Verschlüsselung in ihren Grundzügen funktioniert und wie sich die einzelnen Produkte unterscheiden. Wie ist das mit Metadatenerfassung und Datenschutz? Und was will die EU mit der Chatkontrolle?
In dieser Folge wirft Jacqueline Klusik-Eckert mit Antje Schmidt und Georg Hohmann von #arthistoCast einen Blick hinter die Kulissen der Sammlungsdigitalisierung an Museen, die weit über das digitale Erfassen von Objekten hinausgeht. Dabei stellt sich heraus, dass sammelnde Institutionen in den letzten Jahren substanzielle Veränderungen und Anforderungen erlebt haben.Aus zwei unterschiedlichen Perspektiven und Erfahrungen an sehr unterschiedlichen Häuser teilen sie ihre Erfahrungen und lassen uns an den aktuellen und andauernden Herausforderungen teilhaben, die mit der Implementierung digitaler Strategien einhergehen. Obwohl die Digitalisierung nun schon ein paar Jahrzehnte durchgeführt wird, erfordern die heutigen digitalen Bemühungen eine umfassende Umgestaltung der Sammlungsverwaltung und neue Aufgabenbereiche, die mit öffentlicher Zugänglichkeit zu tun haben.Die Diskussion beleuchtet, wie der alltägliche Mangel an Ressourcen — sei es Serverkapazität oder spezialisiertes Personal — oft mit ambitionierten digitalen Vorhaben und Anforderungen kollidiert. Antje und Georg sprechen über die Notwendigkeit, über traditionelle Digitalisierungsprojekte hinauszudenken und stattdessen nachhaltige, integrative digitale Infrastrukturen zu schaffen, die nicht nur Sammlungsverwaltung betreffen, sondern auch die wissenschaftliche Forschung und öffentliche Interaktion erweitern.Ein Kernthema ist die Balance zwischen dem Wunsch nach innovativen digitalen Ansätzen und der realen Notwendigkeit, grundlegende digitale Infrastrukturen zu pflegen und zu erweitern. Sie diskutieren, wie digitale Tools genutzt werden können, um Sammlungen nicht nur zu konservieren, sondern sie lebendig und interaktiv zu machen. Es geht aber auch um Grenzen und die Frage der Notwendigkeit, wenn man die Nachhaltigkeit von „shiny“ Tools im Hinterkopf behalten muss.Das Gespräch bietet tiefgreifende Einblicke in die sich wandelnde Landschaft der Museumsdigitalisierung und wie diese Veränderungen die Rolle der Digitalisierungsabteilungen neu definieren. Dies verdeutlicht, dass erfolgreiche Digitalisierung mehr als nur technologische Updates erfordert; sie verlangt nach einem Kulturwandel, der Offenheit für neue Arbeitsweisen, eine klare Priorisierung und eine sich an Herausforderungen anpassenden, holistischen Strategie.Dr. Antje Schmidt ist Kunsthistorikerin und Leiterin des Bereichs Digitale Strategie und Projekte am MK und G, dem Museum für Kunst und Gewerbe in Hamburg.Georg Hohmann ist Leiter der Abteilung Deutsches Museum Digital des Deutschen Museums in München und studierter Kunsthistoriker und Informatiker.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de
In dieser Folge spricht Jacqueline Klusik-Eckert mit Torsten Veit über historische Netzwerkforschung als Methode für die Kunstgeschichte. Dabei steht neben seiner eigenen Forschung auch die Frage im Raum, mit welchen digitalen Werkzeugen man sich hochkomplexen historischen Zusammenhängen nähern kann. Neben Programmen für die Anreicherung der Daten gehört dabei auch ein tieferes Verständnis für Datenvisualisierungen und Statistiken.Um komplexe Beziehungsgeflechte zu erforschen und zu verstehen, braucht es neben diesen digitalen Hilfsmitteln noch ein großes Verständnis von historischen Zusammenhängen und Sozialgeschichte. Torsten betont die Bedeutung der Netzwerkforschung, nicht nur als Methode zur Datenorganisation, sondern auch als einen Weg, um historische und kunsthistorische Zusammenhänge neu zu interpretieren. Dabei wird deutlich, dass Netzwerkanalysen weit über die reine Betrachtung sozialer Beziehungen hinausgehen, indem sie auch Objekte und Kunstwerke als zentrale Knotenpunkte innerhalb eines Netzwerkes behandeln können.Die Diskussion bietet auch eine kritische Auseinandersetzung mit den Limitationen und Herausforderungen der Netzwerkforschung, wie der Umgang mit lückenhaften historischen Daten und die Notwendigkeit, Netzwerkvisualisierungen sorgfältig zu interpretieren. Thorsten teilt seine Erfahrungen mit der praktischen Anwendung von Netzwerkanalyse-Tools wie Gephi und die Relevanz dieser Methoden für die kunsthistorische Forschung. Es zeigt sich in dem Gespräch deutlich, dass ein fundiertes Kontextwissen notwendig bleiben wird, um die Visualisierungen und Netze zu interpretieren.Torsten Veit M.A. ist Wissenschaftlicher Koordinator und Datenmanager des Herrenhauszentrum des Ostseeraums am Caspar-David-Friedrich-Institut, Universität Greifswald und Akademischer Mitarbeiter der Data Literacy an der FH Potsdam.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de
In dieser Folge spricht Jacqueline Klusik-Eckert mit Meike Hopp über die aktuellen Entwicklungen und Herausforderungen der Provenienzforschung. Im Fokus stehen dabei digitale Hilfsmittel wie Datenbanken, die es ermöglichen, komplexe Objekt- und Personenbiographien besser sichtbar zu machen und Wissenssilos aufzubrechen.Während Datenbanken wie das Art Loss Register und die Lost Art Datenbank seit Jahren zur Verfügung stehen, haben sich die Methoden und Werkzeuge zur Erforschung der Herkunft von Kunstwerken und Kulturgütern rasant weiterentwickelt. Die zunehmende Öffnung von Sammlungsinstitutionen hilft dabei. Dennoch gibt es erhebliche Herausforderungen bei der Standardisierung, dem Zugang zu Daten und der internationalen Zusammenarbeit. Und dabei ist das Öffnen der Silos nur ein Aspekt des ganzen. Provenienzforschung ist nämlich viel mehr als nur genug Quellen zusammenzutragen. Datenauswertung im großen Stil verlangt Kompetenzen, die noch lange nicht zum Ausbildungskanon der Kunstgeschichte gehören.Ein besonderer Fokus liegt daneben auf der Notwendigkeit, Forschungsdaten und Quellen so aufzubereiten und zu präsentieren, dass sie nicht nur für Forschende, sondern auch für die breite Öffentlichkeit zugänglich sind. Dabei betont Meike Hopp die Bedeutung der Provenienzforschung, die über die reine Restitution von Kunstwerken hinausgeht. Es geht vermehrt um Teilhabe und Ermächtigung. Betroffenen Familien und Gemeinschaften erhalten erst durch optimal aufbereitete Daten – Stichwort Mehrsprachigkeit – und Interfaces die Möglichkeit, ihre eigene Geschichte aufzuarbeiten.Trotz signifikanter Fortschritte in der Provenienzforschung bangt der Forschungsbereich noch immer um eine nachhaltige Etablierung in der kunsthistorischen Ausbildungslandschaft.Prof. Dr. Meike Hopp, Juniorprofessorin für Digitale Provenienzforschung an der TU Berlin sowie Vorsitzendes des Arbeitskreis Provenienzforschung.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.
Link zum Memorandum und zum Zeichnen: https://kunstgeschichte.org/10-thesen-zu-forschungsdaten-in-der-kunstgeschichte/In dieser Folge spricht Jacqueline Klusik-Eckert mit Maria Effinger, Ulrich Pfisterer, Georg Schelbert und Kerstin Thomas, die als Initiator*innen des Memorandums einen Einblick in die aktuellen Herausforderungen und Chancen der kunsthistorischen Forschungsdaten geben. Das Gespräch beginnt mit der Genese des Memorandums, beleuchtet die Motivationen und den dringenden Bedarf, der zu diesem wichtigen Schritt für das Fach Kunstgeschichte geführt hat. Es wird deutlich, dass die Definition, die Art und der Umgang mit Forschungsdaten in der Kunstgeschichte so vielschichtig sind wie die Disziplin selbst.Gemeinsam schauen sie mit unterschiedlichen Perspektiven auf die Notwendigkeit, Forschungsdaten nicht nur zu sammeln, sondern sie so aufzubereiten, dass sie zugänglich und nutzbar gemacht werden können. Dabei geht es auch um die institutionelle Verantwortung, Strukturen zu schaffen, die sowohl die Archivierung als auch die Beratung und Vernetzung unterstützen. Ein wichtiger Diskussionspunkt ist die Rolle der Künstlichen Intelligenz in der Forschung und wie das Memorandum darauf abzielt, KI-Strategien und -Richtlinien zu entwickeln, die es der kunsthistorischen Forschung ermöglichen, auf Augenhöhe mit aktuellen technologischen Entwicklungen zu bleiben.Abschließend reflektieren die Gäste über die nächsten Schritte, die die Community unternehmen sollte, um die im Memorandum skizzierten Ziele zu erreichen, und welche wissenschaftspolitischen Maßnahmen erforderlich sind.Dr. Maria Effinger von der Universitätsbibliothek Heidelberg ist Leiterin der Abteilung "Publikationsdienste" und von "arthistoricum.net - Fachinformationsdienst Kunst, Fotografie, Design sowie Co-Spokesperson von NFDI4Culture.Prof. Dr. Ulrich Pfisterer ist Professor für Kunstgeschichte an der Ludwig-Maximilians-Universität München und Direktor des Zentralinstituts für Kunstgeschichte, München.Dr. Georg Schelbert, Leiter der Photothek und Digital Humanities am Zentralinstitut für Kunstgeschichte, München, sowie Sprecher des Arbeitskreis Digitale Kunstgeschichte.Prof. Dr. Kerstin Thomas ist Professorin für Kunstgeschichte an der Universität Stuttgart und erste Vorsitzende des Deutschen Verbands für Kunstgeschichte.Der Podcast kann man auf vielen Wegen hören. Der auf dieser Seite eingebundene Player ist nur einer davon.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.
Mit Hilfe von Spatial Index-Strukturen einen schnellen Zugriff auf Geodaten gewährleistenDie Welt ist groß und wird weiter digitalisiert. Um alles Auffindbar und durchsuchbar zu machen, werden Geodaten von alles und jedem festgehalten: Nicht nur Längen- und Breitengrade (wenn es sich um die Erde handelt), sondern auch Höhe bzw. Tiefe, Zeit und etliche andere Metadaten. Diese Art von Daten nennen sich Spatial-Data oder auch Geospatial-Data.Um in großen Datenmengen einen schnellen Zugriff zu gewährleisten, verwenden Softwaresysteme, wie zB Datenbanken, Indexstrukturen, auch Indizes, genannt. Eine zusätzliche Form der Speicherung durch die Nutzung hoch optimierter Datenstrukturen. Welche Indexstrukturen werden eigentlich bei Geospatial-Daten genutzt? Das ist das Thema dieser Episode. Wir sprechen über die Anwendungsfälle von Geospatial-Data, warum eine klassische Struktur wie ein B-Baum nicht für diese Art von Daten geeignet ist, was Gridfiles, Quadtrees, KD-Trees, R-Trees und Geohashing ist und wie diese funktionieren, ob all dies selbst implementiert werden muss oder wir auf bereits existierende Datenbanksysteme zurückgreifen können und klären, was der Fluch der Dimensionalität ist und was dies mit dem Thema AI zu tun hat.Bonus: MongoDBs Marketing-Initiative auf Basis von Spatial-Index-Strukturen.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
✘ Werbung: Mein Buch Katastrophenzyklen ► https://amazon.de/dp/B0C2SG8JGH/ Kunden werben Tesla-Kunden ► http://ts.la/theresia5687 Mein Buch Allgemeinbildung ► https://amazon.de/dp/B09RFZH4W1/ - Die #Überwachung im Internet ist heute allgegenwärtig. In diesem Video erkläre ich, wie Sie sich zwar nicht komplett #schützen, aber es den neugierigen Stellen doch erheblich schwieriger gestalten können, Sie im Internet zu #beobachten und abzuhören. - Q1 Cloudflare ► https://heise.de/news/Bericht-Wie-Angreifer-in-das-Netzwerk-von-Cloudflare-eingedrungen-sind-9616250.html Q2 Quad9 Gericht ► https://heise.de/hintergrund/Einordnung-Was-das-Urteil-gegen-den-DNS-Resolver-Quad9-fuer-die-Branche-bedeutet-7536231.html Q3 Norbert Häring ► https://norberthaering.de/news/microsoft-servicevertrag/ Q4 NZZ ► https://nzz.ch/der-andere-blick/bundesnetzagentur-respect-meldestellen-gefaehrden-die-meinungsfreiheit-ld.1851972 Q5 Prof. Rieck ► https://youtu.be/Ty_8l2EjNxo -
In dieser Folge spricht Jacqueline Klusik-Eckert mit den Kunsthistorikerinnen Anna Gnyp und Maria Merseburger über das Verhältnis von Wikimedia und der Kunstgeschichte. Gemeinsam diskutieren sie, wie Wikipedia und Wikidata inzwischen zu wertvollen Ressourcen für kunsthistorische Forschung geworden sind und warum die aktive Mitgestaltung dieser Plattformen durch Fachwissenschaftler*innen unter dem Aspekt der Wissensgerechtigkeit wichtig ist. Dabei wird auch die Arbeit der AG Kuwiki vorgestellt, die mit mehreren Projekten die Sichtbarkeit kunsthistorischen Wissens auf Wikipedia fördert: Das „Living Handbook“ bietet eine Einführung in die Wikipedia-Arbeit für Kunsthistoriker. „Wikipedia in der Lehre“ zielt darauf ab, Studierende frühzeitig für die Plattform zu sensibilisieren und aktiv einzubinden. Und „Kuwiki Loves Monuments, too“ fördert die Dokumentation und Verbreitung von Bildern zu Denkmälern und Kulturgütern. Ein wichtiges Anliegen ist dabei die Wissensgerechtigkeit, um mehr Diversität auf Wikipedia und Wikimedia Commons zu erreichen.Das Gespräch beleuchtet auch die wachsende Bedeutung von Wikidata als datenbankgestützte Ressource, die zunehmend in digitalen kunsthistorischen Projekten genutzt wird. Anna und Maria zeigen auf, wie Museen, Archive und Bibliotheken von Wikidata und Wikimedia Commons profitieren können, um ihre Bestände öffentlich zugänglich zu machen und neue Vernetzungen zu schaffen. Abschließend plädieren sie für stärkere Kooperationen und „Best Practice“-Beispiele, die die Arbeit mit Wikimedia-Projekten in der Kunstwissenschaft festigen und bereichern können.Anna Gnyp, ist seit knapp zwei Jahren Mitglied der Arbeitsgemeinschaft. Aktuell ist sie Wissenschaftlerin im Datenkompetenzzentrum Sammlungen, Objekte, Datenkompetenz an der Humboldt-Universität Berlin. Das ist ein Verbundprojekt zum Aufbau eines Datenkompetenzzentrums für wissenschaftliche Universitätssammlungen.Dr. Maria Merseburger, ist seit Beginn im der AG KUwiki, hier unter dem Namen Karatecoop und aktuell Wissenschaftlerin am Museum für Kommunikation in Berlin.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.
In dieser Folge spricht Jacqueline Klusik-Eckert mit Michael Wenzel und Martin de la Iglesia über digitale wissenschaftliche Editionen in der Kunstgeschichte. Sie berichten aus dem DFG-geförderten Langzeitprojekt ‚Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578-1647)‘.Zu Beginn wird deutlich, welchen Mehrwert wissenschaftliche digitale Editionen bieten. Neben der Bereitstellung der Originalpublikation als gescanntes Faksimile wird häufig parallel eine Ansicht für die Transkription und den editorischen Anmerkungsapparat geliefert. Diese Parallele liefert eine neue Transparenz. Dadurch können Forschende die Quellen direkt mit der Edition vergleichen, was einen Mehrwert im Forschungsprozess darstellt.Die technischen Anforderungen an digitale Editionen orientiert sich dabei stets an der Quellenlage und dem Editionsziel. Dabei spielt gerade die Gestaltung des User-Interface eine große Rolle. Es zeigt sich, dass digitale Editionen oft individuelle Lösungen benötigen, es keine standardisierte Herangehensweise gibt, gleichwohl man auf einen großen Erfahrungsschatz und Vorbilder zurückgreifen kann.Ein zentraler Punkt des Gesprächs ist die Frage, wie in den digitalen kunsthistorischen Editionen der Umgang mit unterschiedlichen Medien-, Datei- und damit auch Darstellungsarten gestaltet wird. Eine strukturierte Verknüpfung ist dabei das eherne Ziel.Auch die Herausforderungen der Langzeitarchivierung digitaler Editionen werden thematisiert. Neben der Sicherung der Daten über Repositorien sind es gerade die Interfaces, die uns aktuell vor eine Herausforderung stellen. Hierbei spielen sowohl technische als auch institutionelle Strukturen eine entscheidende Rolle, um die Zugänglichkeit digitaler Editionen zu gewährleisten.Dr. Michael Wenzel ist an der Herzog August Bibliothek Wolfenbüttel und im Projekt Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578-1647) für die Konzeption und interne wissenschaftliche Leitung zuständig.Dr. Martin de la Iglesia ist an der Herzog August Bibliothek Wolfenbüttel und für die technische Umsetzung der digitalen Edition im Projekt Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578-1647) verantwortlich.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de
In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Linda Freyberg über die Herausforderungen und Potenziale der Wissens- und Datenvisualisierung in der Kunstgeschichte. Obwohl die Beschreibung und Interpretation visueller Systeme zentrale Elemente der Kunstgeschichte sind, fällt es vielen schwer, mit digitalen Visualisierungen umzugehen. Dazu gehört neben dem Interpretieren der Grafiken auch das Verwenden von Wissensvisualisierungen, um komplexes historisches Wissen wie zum Beispiel Objektbiographien darzustellen. Warum verwenden Kunsthistoriker diese Formen der Informationsübermittlung so selten? Fehlt das nötige Wissen oder die richtige Terminologie?Dr. Freyberg erklärt, dass Visualisierungen unterschiedliche Funktionen erfüllen können: explorativ zur Analyse oder interpretativ zur Erklärung. Dabei stellt sich die Frage, was eine effektive und gute Visualisierung ausmacht und ob der Kunstgeschichte eine neue Diagrammatik fehlt, um die Waage zwischen Komplexitätsreduktion und Wissensrepräsentation zu halten. Im Gespräch wird deutlich, dass viele unterschiedliche Expert*innen für die Erstellung von Visualisierungen notwendig sind, da heterogenes, spezifisches Fachwissen benötigt wird: Konzeption, technischer Aufbau und Nutzeroberfläche liegen am besten in der Hand eines interdisziplinär aufgestellten Teams. Viele Visualisierungen sind datengetrieben und darüber hinaus spezifisch für einzelne Projekte konzipiert, was eine Generalisierung mancher Anwendungen nicht möglich macht.Dabei sind Datenvisualisierungen ein mächtiges Kommunikationsmittel, um komplexe Sachverhalte verständlich zu machen. Sie ermöglichen es, Strukturen aufzuzeigen und große Datenmengen zugänglich zu machen. Obwohl diese Fähigkeiten oft als Zukunftskompetenzen gepriesen werden, gehören sie noch nicht zum Repertoire der Kunstgeschichte. Dr. Linda Freyberg zeigt dabei eindrucksvoll, wie Kunsthistoriker*innen zur Entwicklung und Interpretation von Visualisierungen beitragen können und warum man ein tiefes Domänenwissen braucht, um gute Wissensvisualisierungen zu schaffen.Dr. Linda Freyberg ist Wissenschaftlerin am DIPF Leipnitz Institut für Bildungsforschung und Bildungsinformation, Abteilung Bibliothek für Bildungsgeschichtliche Forschung. In ihrer Dissertation „Ikonizität der Information“ hat sie sich mit dem epistemischen Potenzial von Bildlichkeit und den unterschiedlichen Ausdrucksformen von Visualisierungen beschäftigt.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de
Eine breite Koalition aus Medienhäusern, Kamera-Herstellern und IT-Konzernen, will mit einem neuen Standard für Metadaten mehr Transparenz schaffen. Die erste Kamera, die diesen Standard mit einem speziellen Chip unterstützt, ist jetzt auf dem Markt. Der ganze Podcast im Überblick: (00:01:46) Wer steckt hinter CAI? (00:04:09) Wie überprüfen Medienhäuser Fotos und Videos aus dem Internet? (00:10:07) Wie funktioniert CAI? (00:20:01) Was bringt das? Links: Julia Bayers Werkzeugkasten für Fact-Checking: https://start.me/p/ZGAzN7/verification-toolset?locale=en Webseite der CAI zum Überprüfen der Metadaten eines Bildes: https://contentcredentials.org/verify c2pa Tool für Metadaten in Bildern (für fortgeschrittene Computer User): https://github.com/contentauth/c2patool
Diesmal geht es um Strafen, Kifferfilme, das Internet von „damals“, den CDi, das Big-N-Club Magazin, Reini zu Gast bei Loffi, das erste Ende von „Wetten das…“, Close Calls, Crashtests, Serverfarmen, öffentliche Netzwerke, Metadaten und the Beekeeper. Bald ist es wieder so weit! Es ist 2024 und AAA Live steht vor der Tür: 05.03.24 Frankfurt 08.03.24 Berlin Karten gibt es ab sofort bei [Eventim!](https://www.eventim.de/eventseries/bastian-bielendorfer-reinhard-remfort-alliteration-am-arsch-aaa-podcast-3447644/) Du möchtest mehr über unsere Werbepartner erfahren? Hier findest du alle Infos & Rabatte: https://linktr.ee/AlliterationAmArsch