Podcasts about metadaten

  • 86PODCASTS
  • 148EPISODES
  • 48mAVG DURATION
  • 1EPISODE EVERY OTHER WEEK
  • May 9, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about metadaten

Latest podcast episodes about metadaten

Auf dem Weg zur Anwältin
#699 Digitale Spuren erkennen – von Metadaten, Gesichtserkennung bis Maps (OSINT)

Auf dem Weg zur Anwältin

Play Episode Listen Later May 9, 2025 33:19


In dieser Folge spricht Gregor Münch erneut mit Martin Steiger – Anwalt, Datenschutzaktivist und OSINT-Experte – über digitale Recherchewerkzeuge, die Jurist:innen im Alltag unterstützen können. Wie findet man heraus, wem eine Domain gehört? Was verraten Metadaten in PDFs über die Entstehung eines Dokuments? Wie lässt sich ein Alibi mit Google Maps oder Street View plausibilisieren? Und welche rechtlichen Fragen stellen sich beim Einsatz von Tools wie PimEyes oder Clearview AI? Gregor und Martin beleuchten konkrete Anwendungsfelder von Open Source Intelligence: • Satelliten- und Verkehrsdaten zur Alibiprüfung • Rückwärtssuche von Bildern zur Verifizierung von Online-Inhalten • Analyse von Metadaten in PDFs und Bildern • Monitoring-Tools, Alerts und spezialisierte Suchmaschinen • Rechtliche Graubereiche bei Gesichtserkennung und Scraping. Diese Folge richtet sich an Anwält:innen, Ermittler:innen, Journalist:innen und alle, die wissen wollen, wie digitale Spuren zu belastbaren Beweismitteln werden – und warum technisches Verständnis heute zur juristischen Kernkompetenz gehört. Podcastfolgen von Martin und Gregor: - [#689 Spurensuche im Netz: Die neue Macht von Open Source Intelligence (OSINT)](https://www.duribonin.ch/689-spurensuche-im-netz-die-neue-macht-von-open-source-intelligence-osint/) - [#691 Ich weiss, wie viel Du verdienst – Open Source Intelligence (OSINT)](https://www.duribonin.ch/691-ich-weiss-wie-viel-du-verdienst-open-source-intelligence-osint/) Links zu diesem Podcast: - Zu unserem Gast [Martin Steiger](https://www.linkedin.com/in/martinsteiger/), [Anwalt](https://steigerlegal.ch) und [Unternehmer](https://martinsteiger.ch/) für Recht im digitalen Raum, sowie Sprecher der [Digitalen Gesellschaft](https://www.digitale-gesellschaft.ch/uber-uns/kurzvorstellung-personen/) - Martin publiziert regelmässig auf [chaos.social](https://chaos.social/@martinsteiger), [bsky](https://bsky.app/profile/martinsteiger.ch) und führt spannende Gespräche in seinem Podcast [Datenschutz-Plaudereien](https://podcast.datenschutzpartner.ch) - [Interaktives Tool zur Ungleichheit - Hier die Armen, da die Reichen: So durchmischt ist Ihr Wohnort](https://www.tagesanzeiger.ch/armut-und-reichtum-in-der-schweiz-diese-karte-zeigt-wo-die-privilegierten-wohnen-898746224551) - Anwaltskanzlei von [Gregor Münch](https://www.d32.ch/personen) - Anwaltskanzlei von [Duri Bonin](https://www.duribonin.ch) - Titelbild [bydanay](https://www.instagram.com/bydanay/) - Das Buch zum Podcast: [In schwierigem Gelände — Gespräche über Strafverfolgung, Strafverteidigung & Urteilsfindung](https://www.duribonin.ch/shop/) Die Podcasts "Auf dem Weg als Anwält:in" sind unter https://www.duribonin.ch/podcast/ oder auf allen üblichen Plattformen zu hören

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 21: Zwischen App und Anspruch – die Aufgabenlandschaft der (digitalen) Vermittlung in Museen

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later May 7, 2025 60:52


In dieser Folge spricht Jacqueline Klusik-Eckert mit Christian Gries über die Vermittlung als Aufgabenfeld im Museum und welche Rolle digitale Formate dabei heute spielen. Das Gespräch beleuchtet, wie sich die Vermittlungsarbeit durch digitale Angebote in den letzten Jahrzehnten verändert hat und welche Herausforderungen und Chancen damit verbunden sind. Dabei wird klar: Digitale Vermittlung geht längst über klassische Medienstationen oder Audioguides hinaus. Heute geht es um hybride Besucherreisen, partizipative Formate und neue Rollenbilder für Museen, die sich zunehmend als aktive Wissenssender im digitalen Raum verstehen müssen.Aus der Diskussion geht auch hervor, dass digitale Vermittlungsformate nicht einfach die analogen ersetzen können und ein Bewusstsein für die Stärken der jeweiligen Medienformen entstehen muss. Dabei zeigt sich auch, dass sich digitale Elemente wie die MuseumsApp und der schon lange tot gesagt QR-Code doch etablieren konnten.Die aktuellen Herausforderungen nach einer experimentellen Phase während der Pandemie ist es nun, nachhaltige digitale Strategien zu entwickeln. Dabei spielt die Datenpflege und -archivierung genauso eine Rolle, wie die Frage von langfristiger Softwarehaltung. Museen stets eine Balance zwischen knappen Ressourcen, technologischem Fortschritt und inhaltlicher Qualität wahren.Ein weiterer Schwerpunkt sind die aktuellen Herausforderungen im Umgang mit Plattformabhängigkeiten und der Fragmentierung von Communities. Daraus ergibt sich die Notwendigkeit, digitale Produkte bewusst für die langfristige Nutzung zu entwickeln. Es wird auch diskutiert, wie Museen durch Kooperationen, Open-Source-Ansätze und Community-Arbeit ihre Reichweite und Relevanz nachhaltig stärken können.Diese Folge macht deutlich: Vermittlung im digitalen Raum ist kein Zusatz, sondern eine grundlegende Aufgabe, die neue Denkweisen und Strukturen im Museum erfordert.Dr. Christian Gries ist Leiter der Abteilung Digitale Museumspraxis und IT am Landesmuseum Württemberg.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de

c’t uplink
Sechs sichere Messenger für Android und iOS | c't uplink

c’t uplink

Play Episode Listen Later Apr 19, 2025 64:25


Dass die Themen "Sicherheit" und "Datenschutz" nicht zwingend Hand in Hand gehen, erkennt man hervorragend am Beispiel von Messenger-Diensten fürs Smartphone. So kann man etwa WhatsApp aus rein technischer Sicht durchaus als sicheren Messenger bezeichnen – am Thema Datenschutz klebt dennoch ein gigantisches Fragezeichen. Stichwort: Metadaten. In c't 9/2025 haben wir uns eine kleine Auswahl an Messengern genau angeschaut, miteinander verglichen und auch einen Blick darauf geworfen, wie sich die Technik der Messenger und ihr politisches Umfeld entwickeln. Dazu passend sprechen wir in diesem c't uplink darüber, wie moderne Ende-zu-Ende-Verschlüsselung in ihren Grundzügen funktioniert und wie sich die einzelnen Produkte unterscheiden. Wie ist das mit Metadatenerfassung und Datenschutz? Und was will die EU mit der Chatkontrolle?

Nodesignal - Deine Bitcoin-Frequenz
Nodesignal-Boosts - E221 - Boosts und Rückblick Q1/2025

Nodesignal - Deine Bitcoin-Frequenz

Play Episode Listen Later Mar 7, 2025 81:03 Transcription Available


In der heutigen Community-Folge sprechen Calso, Chris und Thorsten über die Boosts der letzten Monate und machen einen Rückblick auf die Veröffentlichungen aus dem Q1 2025. Zudem gibt es einen Ausblick auf die kommenden Reiseberichte von Thorsten über Costa-Rica und El Salvador.Von und mit: - Calso - Chris - ThorstenProduziert und geschnitten: ThorstenHier könnt ihr uns eine Spende über Lightning da lassen: ⚡️nodesignal@getalby.comWenn euch unsere Arbeit gefällt, könnt ihr unsere Folgen auch auf Podcasting 2.0 Plattformen, wie Fountain, PodcastGuru, Castamatic, Breez oder Podverse hören und uns so eine kleine Aufmerksamkeit da lassen. Danke an alle, die die Bitcoin Community mit ihren Spenden unterstützen! Mit diesen Spenden wird unter anderem unser Bounty Programm verwirklicht, in dem ihr euch für die Mitarbeit an einem Projekt eine Belohnung sichern könnt.Für Feedback und weitergehenden Diskussionen kommt gerne in die Telegramgruppe von Nodesignal und bewertet uns bei Spotify und Apple Podcasts. Folgt uns auch gerne bei Nostr:npub1n0devk3h2l3rx6vmt24a3lz4hsxp7j8rn3x44jkx6daj7j8jzc0q2u02cy und Twitter.Blockzeit: 886450Nodesignal-Event – E202 – Opa hat die Straße weggezappt / BTC AmsterdamNodesignal-Techboost – E203 – No Bullshit BingoNodesignal-Talk – E204 – Hey Calso, why privacy matters!Nodesignal-Techboost – E205 – NodeshamingNodesignal-Talk – E207 – Cluster Mempool mit MurchNodesignal-Talk – E208 – TRUC-TX und Package Relay mit MurchNodesignal-Talk – E211 – Mobiltelefon mag Metadaten(1) mit Max HillebrandNodesignal-Talk – E212 – Bhutan goes BitcoinNodesignal-Techboost – E213 – PayjoinV2, Taproot Multisig und mehrNodesignal-Talk – E214 – PlebNode 3.0, mit Ronin und FlashmanNodesignal-Talk – E215 – DAS MEGA-META-DATEN-RABBIT-HOLENodesignal-Talk – E216 – Bitcoin vererbenNodesignal-Talk – E218 Bitcoin compounding mit LoddiTimestamps:(00:00:00) Intro(00:00:22) Begrüßung, Blockzeit & Vorgeplänkel(00:12:55) Besprechung Boosts(01:19:25) Verabschiedung und Outro

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 20: Zwischen Server und Saal – die neuen Rollen der Sammlungdigitalisierung

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Mar 5, 2025 64:49


In dieser Folge wirft Jacqueline Klusik-Eckert mit Antje Schmidt und Georg Hohmann von #arthistoCast einen Blick hinter die Kulissen der Sammlungsdigitalisierung an Museen, die weit über das digitale Erfassen von Objekten hinausgeht. Dabei stellt sich heraus, dass sammelnde Institutionen in den letzten Jahren substanzielle Veränderungen und Anforderungen erlebt haben.Aus zwei unterschiedlichen Perspektiven und Erfahrungen an sehr unterschiedlichen Häuser teilen sie ihre Erfahrungen und lassen uns an den aktuellen und andauernden Herausforderungen teilhaben, die mit der Implementierung digitaler Strategien einhergehen. Obwohl die Digitalisierung nun schon ein paar Jahrzehnte durchgeführt wird, erfordern die heutigen digitalen Bemühungen eine umfassende Umgestaltung der Sammlungsverwaltung und neue Aufgabenbereiche, die mit öffentlicher Zugänglichkeit zu tun haben.Die Diskussion beleuchtet, wie der alltägliche Mangel an Ressourcen — sei es Serverkapazität oder spezialisiertes Personal — oft mit ambitionierten digitalen Vorhaben und Anforderungen kollidiert. Antje und Georg sprechen über die Notwendigkeit, über traditionelle Digitalisierungsprojekte hinauszudenken und stattdessen nachhaltige, integrative digitale Infrastrukturen zu schaffen, die nicht nur Sammlungsverwaltung betreffen, sondern auch die wissenschaftliche Forschung und öffentliche Interaktion erweitern.Ein Kernthema ist die Balance zwischen dem Wunsch nach innovativen digitalen Ansätzen und der realen Notwendigkeit, grundlegende digitale Infrastrukturen zu pflegen und zu erweitern. Sie diskutieren, wie digitale Tools genutzt werden können, um Sammlungen nicht nur zu konservieren, sondern sie lebendig und interaktiv zu machen. Es geht aber auch um Grenzen und die Frage der Notwendigkeit, wenn man die Nachhaltigkeit von „shiny“ Tools im Hinterkopf behalten muss.Das Gespräch bietet tiefgreifende Einblicke in die sich wandelnde Landschaft der Museumsdigitalisierung und wie diese Veränderungen die Rolle der Digitalisierungsabteilungen neu definieren. Dies verdeutlicht, dass erfolgreiche Digitalisierung mehr als nur technologische Updates erfordert; sie verlangt nach einem Kulturwandel, der Offenheit für neue Arbeitsweisen, eine klare Priorisierung und eine sich an Herausforderungen anpassenden, holistischen Strategie.Dr. Antje Schmidt ist Kunsthistorikerin und Leiterin des Bereichs Digitale Strategie und Projekte am MK und G, dem Museum für Kunst und Gewerbe in Hamburg.Georg Hohmann ist Leiter der Abteilung Deutsches Museum Digital des Deutschen Museums in München und studierter Kunsthistoriker und Informatiker.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 19: Verstrickt – digitale Netzwerkforschung in der Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Feb 5, 2025 40:59


In dieser Folge spricht Jacqueline Klusik-Eckert mit Torsten Veit über historische Netzwerkforschung als Methode für die Kunstgeschichte. Dabei steht neben seiner eigenen Forschung auch die Frage im Raum, mit welchen digitalen Werkzeugen man sich hochkomplexen historischen Zusammenhängen nähern kann. Neben Programmen für die Anreicherung der Daten gehört dabei auch ein tieferes Verständnis für Datenvisualisierungen und Statistiken.Um komplexe Beziehungsgeflechte zu erforschen und zu verstehen, braucht es neben diesen digitalen Hilfsmitteln noch ein großes Verständnis von historischen Zusammenhängen und Sozialgeschichte. Torsten betont die Bedeutung der Netzwerkforschung, nicht nur als Methode zur Datenorganisation, sondern auch als einen Weg, um historische und kunsthistorische Zusammenhänge neu zu interpretieren. Dabei wird deutlich, dass Netzwerkanalysen weit über die reine Betrachtung sozialer Beziehungen hinausgehen, indem sie auch Objekte und Kunstwerke als zentrale Knotenpunkte innerhalb eines Netzwerkes behandeln können.Die Diskussion bietet auch eine kritische Auseinandersetzung mit den Limitationen und Herausforderungen der Netzwerkforschung, wie der Umgang mit lückenhaften historischen Daten und die Notwendigkeit, Netzwerkvisualisierungen sorgfältig zu interpretieren. Thorsten teilt seine Erfahrungen mit der praktischen Anwendung von Netzwerkanalyse-Tools wie Gephi und die Relevanz dieser Methoden für die kunsthistorische Forschung. Es zeigt sich in dem Gespräch deutlich, dass ein fundiertes Kontextwissen notwendig bleiben wird, um die Visualisierungen und Netze zu interpretieren.Torsten Veit M.A. ist Wissenschaftlicher Koordinator und Datenmanager des Herrenhauszentrum des Ostseeraums am Caspar-David-Friedrich-Institut, Universität Greifswald und Akademischer Mitarbeiter der Data Literacy an der FH Potsdam.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 18: Provenienzforschung und das Digitale

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Jan 8, 2025 67:33


In dieser Folge spricht Jacqueline Klusik-Eckert mit Meike Hopp über die aktuellen Entwicklungen und Herausforderungen der Provenienzforschung. Im Fokus stehen dabei digitale Hilfsmittel wie Datenbanken, die es ermöglichen, komplexe Objekt- und Personenbiographien besser sichtbar zu machen und Wissenssilos aufzubrechen.Während Datenbanken wie das Art Loss Register und die Lost Art Datenbank seit Jahren zur Verfügung stehen, haben sich die Methoden und Werkzeuge zur Erforschung der Herkunft von Kunstwerken und Kulturgütern rasant weiterentwickelt. Die zunehmende Öffnung von Sammlungsinstitutionen hilft dabei. Dennoch gibt es erhebliche Herausforderungen bei der Standardisierung, dem Zugang zu Daten und der internationalen Zusammenarbeit. Und dabei ist das Öffnen der Silos nur ein Aspekt des ganzen. Provenienzforschung ist nämlich viel mehr als nur genug Quellen zusammenzutragen. Datenauswertung im großen Stil verlangt Kompetenzen, die noch lange nicht zum Ausbildungskanon der Kunstgeschichte gehören.Ein besonderer Fokus liegt daneben auf der Notwendigkeit, Forschungsdaten und Quellen so aufzubereiten und zu präsentieren, dass sie nicht nur für Forschende, sondern auch für die breite Öffentlichkeit zugänglich sind. Dabei betont Meike Hopp die Bedeutung der Provenienzforschung, die über die reine Restitution von Kunstwerken hinausgeht. Es geht vermehrt um Teilhabe und Ermächtigung. Betroffenen Familien und Gemeinschaften erhalten erst durch optimal aufbereitete Daten – Stichwort Mehrsprachigkeit – und Interfaces die Möglichkeit, ihre eigene Geschichte aufzuarbeiten.Trotz signifikanter Fortschritte in der Provenienzforschung bangt der Forschungsbereich noch immer um eine nachhaltige Etablierung in der kunsthistorischen Ausbildungslandschaft.Prof. Dr. Meike Hopp, Juniorprofessorin für Digitale Provenienzforschung an der TU Berlin sowie Vorsitzendes des Arbeitskreis Provenienzforschung.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.

Nodesignal - Deine Bitcoin-Frequenz
Nodesignal-Talk - E211 - Mobiltelefon mag Metadaten(1) mit Max Hillebrand

Nodesignal - Deine Bitcoin-Frequenz

Play Episode Listen Later Dec 27, 2024 60:57 Transcription Available


In der heutigen Folge geht es wieder um Privatsphäre. Chris spricht mit Max Hillebrand darüber, dass Mobiltelefone Metadaten mögen. Zusätzlich gibt es eine deutschsprachige Lesung des “A Cypherpunk's Manifesto” von Eric Hughes, Hughes, Hughes … Von und mit: [[Chris]]Produziert und geschnitten: ChrisHier könnt ihr uns eine Spende über Lightning da lassen: ⚡️nodesignal@getalby.comWenn euch unsere Arbeit gefällt, könnt ihr unsere Folgen auch auf Podcasting 2.0 Plattformen, wie Fountain, PodcastGuru, Castamatic, Breez oder Podverse hören und uns so eine kleine Aufmerksamkeit da lassen. Danke an alle, die die Bitcoin Community mit ihren Spenden unterstützen! Mit diesen Spenden wird unter anderem unser Bounty Programm verwirklicht, in dem ihr euch für die Mitarbeit an einem Projekt eine Belohnung sichern könnt.Für Feedback und weitergehenden Diskussionen kommt gerne in die Telegramgruppe von Nodesignal und bewertet uns bei Spotify und Apple Podcasts. Folgt uns auch gerne bei Nostr:npub1n0devk3h2l3rx6vmt24a3lz4hsxp7j8rn3x44jkx6daj7j8jzc0q2u02cy und Twitter.Blockzeit: 876493 A Cypherpunk's Manifesto (Eric Hughes, 1993) https://www.activism.net/cypherpunk/manifesto.html übersetzt von Chris_SHA256 Kontakt Max: nostr: npub1klkk3vrzme455yh9rl2jshq7rc8dpegj3ndf82c3ks2sk40dxt7qulx3vtmail: max@towardsliberty.comgithub: @maxhillebrandMusik (used with permission/open license): The long ascent - Cooper CannellEast West - John PatitucciTimestamps:(00:00:00) Intro(00:00:22) Das Cypherpunk Manifest Lesung(00:09:00) Intro Folge Chris(00:13:55) V4V(00:14:46) Begrüßung Max(00:15:25) Warum Beschäftigung mit Privacy?(00:16:52) Privacy macht Spaß(00:18:20) Warum sind Mobiltelefone bezüglich Privacy relevant?(00:20:50) Wer trackt einen auf dem Smartphone?(00:24:25) Was sind Meta-Daten?(00:27:30) Wo werden auf dem Mobiltelefon Meta-Daten erhoben?(00:31:48) Wie erfolgt das Tracking über das Telefonnetz?(00:36:49) Wie erfolgt das Tracking über das mobile Betriebssystem?(00:43:13) Wie erfolgt das Tracking in Apps?(00:50:10) Was rät Max, wenn man mit mehr Privacy starten möchte?(00:54:07) Max Einschätzung zu einem Zitat...(00:59:14) Max Schlussworte(01:00:26) Focus on the signal, signal, signal

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 17: Memorandum "Forschungs­daten in der Kunst­geschichte: 10 Thesen"

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Dec 18, 2024 77:13


Link zum Memorandum und zum Zeichnen: https://kunstgeschichte.org/10-thesen-zu-forschungsdaten-in-der-kunstgeschichte/In dieser Folge spricht Jacqueline Klusik-Eckert mit Maria Effinger, Ulrich Pfisterer, Georg Schelbert und Kerstin Thomas, die als Initiator*innen des Memorandums einen Einblick in die aktuellen Herausforderungen und Chancen der kunsthistorischen Forschungsdaten geben. Das Gespräch beginnt mit der Genese des Memorandums, beleuchtet die Motivationen und den dringenden Bedarf, der zu diesem wichtigen Schritt für das Fach Kunstgeschichte geführt hat. Es wird deutlich, dass die Definition, die Art und der Umgang mit Forschungsdaten in der Kunstgeschichte so vielschichtig sind wie die Disziplin selbst.Gemeinsam schauen sie mit unterschiedlichen Perspektiven auf die Notwendigkeit, Forschungsdaten nicht nur zu sammeln, sondern sie so aufzubereiten, dass sie zugänglich und nutzbar gemacht werden können. Dabei geht es auch um die institutionelle Verantwortung, Strukturen zu schaffen, die sowohl die Archivierung als auch die Beratung und Vernetzung unterstützen. Ein wichtiger Diskussionspunkt ist die Rolle der Künstlichen Intelligenz in der Forschung und wie das Memorandum darauf abzielt, KI-Strategien und -Richtlinien zu entwickeln, die es der kunsthistorischen Forschung ermöglichen, auf Augenhöhe mit aktuellen technologischen Entwicklungen zu bleiben.Abschließend reflektieren die Gäste über die nächsten Schritte, die die Community unternehmen sollte, um die im Memorandum skizzierten Ziele zu erreichen, und welche wissenschaftspolitischen Maßnahmen erforderlich sind.​​Dr. Maria Effinger von der Universitätsbibliothek Heidelberg ist Leiterin der Abteilung "Publikationsdienste" und von "arthistoricum.net - Fachinformationsdienst Kunst, Fotografie, Design sowie Co-Spokesperson von NFDI4Culture.Prof. Dr. Ulrich Pfisterer ist Professor für Kunstgeschichte an der Ludwig-Maximilians-Universität München und Direktor des Zentralinstituts für Kunstgeschichte, München.Dr. Georg Schelbert, Leiter der Photothek und Digital Humanities am Zentralinstitut für Kunstgeschichte, München, sowie Sprecher des Arbeitskreis Digitale Kunstgeschichte.Prof. Dr. Kerstin Thomas ist Professorin für Kunstgeschichte an der Universität Stuttgart und erste Vorsitzende des Deutschen Verbands für Kunstgeschichte.Der Podcast kann man auf vielen Wegen hören. Der auf dieser Seite eingebundene Player ist nur einer davon.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.

Engineering Kiosk
#151 Räumliche Indexstrukturen: Grundpfeiler in Geo-Systemen, Games und Machine Learning

Engineering Kiosk

Play Episode Listen Later Nov 26, 2024 62:10


Mit Hilfe von Spatial Index-Strukturen einen schnellen Zugriff auf Geodaten gewährleistenDie Welt ist groß und wird weiter digitalisiert. Um alles Auffindbar und durchsuchbar zu machen, werden Geodaten von alles und jedem festgehalten: Nicht nur Längen- und Breitengrade (wenn es sich um die Erde handelt), sondern auch Höhe bzw. Tiefe, Zeit und etliche andere Metadaten. Diese Art von Daten nennen sich Spatial-Data oder auch Geospatial-Data.Um in großen Datenmengen einen schnellen Zugriff zu gewährleisten, verwenden Softwaresysteme, wie zB Datenbanken, Indexstrukturen, auch Indizes, genannt. Eine zusätzliche Form der Speicherung durch die Nutzung hoch optimierter Datenstrukturen. Welche Indexstrukturen werden eigentlich bei Geospatial-Daten genutzt? Das ist das Thema dieser Episode. Wir sprechen über die Anwendungsfälle von Geospatial-Data, warum eine klassische Struktur wie ein B-Baum nicht für diese Art von Daten geeignet ist, was Gridfiles, Quadtrees, KD-Trees, R-Trees und Geohashing ist und wie diese funktionieren, ob all dies selbst implementiert werden muss oder wir auf bereits existierende Datenbanksysteme zurückgreifen können und klären, was der Fluch der Dimensionalität ist und was dies mit dem Thema AI zu tun hat.Bonus: MongoDBs Marketing-Initiative auf Basis von Spatial-Index-Strukturen.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:

UnterBlog
Unsichtbar im Internet unterwegs | Metadaten | Trusted Flagger

UnterBlog

Play Episode Listen Later Nov 19, 2024 33:35


✘ Werbung: Mein Buch Katastrophenzyklen ► https://amazon.de/dp/B0C2SG8JGH/ Kunden werben Tesla-Kunden ► http://ts.la/theresia5687 Mein Buch Allgemeinbildung ► https://amazon.de/dp/B09RFZH4W1/ - Die #Überwachung im Internet ist heute allgegenwärtig. In diesem Video erkläre ich, wie Sie sich zwar nicht komplett #schützen, aber es den neugierigen Stellen doch erheblich schwieriger gestalten können, Sie im Internet zu #beobachten und abzuhören. - Q1 Cloudflare ► https://heise.de/news/Bericht-Wie-Angreifer-in-das-Netzwerk-von-Cloudflare-eingedrungen-sind-9616250.html Q2 Quad9 Gericht ► https://heise.de/hintergrund/Einordnung-Was-das-Urteil-gegen-den-DNS-Resolver-Quad9-fuer-die-Branche-bedeutet-7536231.html Q3 Norbert Häring ► https://norberthaering.de/news/microsoft-servicevertrag/ Q4 NZZ ► https://nzz.ch/der-andere-blick/bundesnetzagentur-respect-meldestellen-gefaehrden-die-meinungsfreiheit-ld.1851972 Q5 Prof. Rieck ► https://youtu.be/Ty_8l2EjNxo -

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 16: Wissensgerechtigkeit auf Wikipedia: Kunsthistoriker*innen gestalten mit

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Nov 6, 2024 48:22


In dieser Folge spricht Jacqueline Klusik-Eckert mit den Kunsthistorikerinnen Anna Gnyp und Maria Merseburger über das Verhältnis von Wikimedia und der Kunstgeschichte. Gemeinsam diskutieren sie, wie Wikipedia und Wikidata inzwischen zu wertvollen Ressourcen für kunsthistorische Forschung geworden sind und warum die aktive Mitgestaltung dieser Plattformen durch Fachwissenschaftler*innen unter dem Aspekt der Wissensgerechtigkeit wichtig ist. Dabei wird auch die Arbeit der AG Kuwiki vorgestellt, die mit mehreren Projekten die Sichtbarkeit kunsthistorischen Wissens auf Wikipedia fördert: Das „Living Handbook“ bietet eine Einführung in die Wikipedia-Arbeit für Kunsthistoriker. „Wikipedia in der Lehre“ zielt darauf ab, Studierende frühzeitig für die Plattform zu sensibilisieren und aktiv einzubinden. Und „Kuwiki Loves Monuments, too“ fördert die Dokumentation und Verbreitung von Bildern zu Denkmälern und Kulturgütern. Ein wichtiges Anliegen ist dabei die Wissensgerechtigkeit, um mehr Diversität auf Wikipedia und Wikimedia Commons zu erreichen.Das Gespräch beleuchtet auch die wachsende Bedeutung von Wikidata als datenbankgestützte Ressource, die zunehmend in digitalen kunsthistorischen Projekten genutzt wird. Anna und Maria zeigen auf, wie Museen, Archive und Bibliotheken von Wikidata und Wikimedia Commons profitieren können, um ihre Bestände öffentlich zugänglich zu machen und neue Vernetzungen zu schaffen. Abschließend plädieren sie für stärkere Kooperationen und „Best Practice“-Beispiele, die die Arbeit mit Wikimedia-Projekten in der Kunstwissenschaft festigen und bereichern können.Anna Gnyp, ist seit knapp zwei Jahren Mitglied der Arbeitsgemeinschaft. Aktuell ist sie Wissenschaftlerin im Datenkompetenzzentrum Sammlungen, Objekte, Datenkompetenz an der Humboldt-Universität Berlin. Das ist ein Verbundprojekt zum Aufbau eines Datenkompetenzzentrums für wissenschaftliche Universitätssammlungen.Dr. Maria Merseburger, ist seit Beginn im der AG KUwiki, hier unter dem Namen Karatecoop und aktuell Wissenschaftlerin am Museum für Kommunikation in Berlin.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast.Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702.Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du uns gerne per Mail kontaktieren unter podcast@digitale-kunstgeschichte.de.

Hielscher oder Haase - Deutschlandfunk Nova
KI-generierte Bilder - Google führt neues Label dafür ein

Hielscher oder Haase - Deutschlandfunk Nova

Play Episode Listen Later Oct 28, 2024 5:53


Bilder, die mit Künstlicher Intelligenz erzeugt oder bearbeitet wurden, will Google in den Metadaten künftig kennzeichnen. Dadurch lassen sich manipulierte Fotos von unbearbeiteten unterscheiden. Sicher ist das nicht: Auch Kennzeichnungen können manipuliert werden.**********Ihr könnt uns auch auf diesen Kanälen folgen: TikTok auf&ab , TikTok wie_geht und Instagram .

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 15: Digitale Editionen für die Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Oct 2, 2024 64:53


In dieser Folge spricht Jacqueline Klusik-Eckert mit Michael Wenzel und Martin de la Iglesia über digitale wissenschaftliche Editionen in der Kunstgeschichte. Sie berichten aus dem DFG-geförderten Langzeitprojekt ‚Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578-1647)‘.Zu Beginn wird deutlich, welchen Mehrwert wissenschaftliche digitale Editionen bieten. Neben der Bereitstellung der Originalpublikation als gescanntes Faksimile wird häufig parallel eine Ansicht für die Transkription und den editorischen Anmerkungsapparat geliefert. Diese Parallele liefert eine neue Transparenz. Dadurch können Forschende die Quellen direkt mit der Edition vergleichen, was einen Mehrwert im Forschungsprozess darstellt.Die technischen Anforderungen an digitale Editionen orientiert sich dabei stets an der Quellenlage und dem Editionsziel. Dabei spielt gerade die Gestaltung des User-Interface eine große Rolle. Es zeigt sich, dass digitale Editionen oft individuelle Lösungen benötigen, es keine standardisierte Herangehensweise gibt, gleichwohl man auf einen großen Erfahrungsschatz und Vorbilder zurückgreifen kann.Ein zentraler Punkt des Gesprächs ist die Frage, wie in den digitalen kunsthistorischen Editionen der Umgang mit unterschiedlichen Medien-, Datei- und damit auch Darstellungsarten gestaltet wird. Eine strukturierte Verknüpfung ist dabei das eherne Ziel.Auch die Herausforderungen der Langzeitarchivierung digitaler Editionen werden thematisiert. Neben der Sicherung der Daten über Repositorien sind es gerade die Interfaces, die uns aktuell vor eine Herausforderung stellen. Hierbei spielen sowohl technische als auch institutionelle Strukturen eine entscheidende Rolle, um die Zugänglichkeit digitaler Editionen zu gewährleisten.Dr. Michael Wenzel ist an der Herzog August Bibliothek Wolfenbüttel und im Projekt Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578-1647) für die Konzeption und interne wissenschaftliche Leitung zuständig.Dr. Martin de la Iglesia ist an der Herzog August Bibliothek Wolfenbüttel und für die technische Umsetzung der digitalen Edition im Projekt Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578-1647) verantwortlich.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

nuboRadio -  Office 365 für Cloud-Worker und Teams
Co-Authoring in Lists & Libraries

nuboRadio - Office 365 für Cloud-Worker und Teams

Play Episode Listen Later Sep 23, 2024 13:39


Heute widmen wir uns dem Thema der Zusammenarbeit in Listen, Bibliotheken & Dokumenten in SharePoint bzw. der Microsoft 365 Welt. Welche Vorteile hat das Co-Authoring, welche Herausforderungen gibt es und wie wichtig sind die Metadaten dabei? Markus liefert euch heute die Antworten.

SEOPRESSO PODCAST
CTR optimierung mit Stephan Czysch | Ep. 166

SEOPRESSO PODCAST

Play Episode Listen Later Aug 16, 2024 36:36


Summary In dieser Folge von SEOPRESSO sprechen Stephan Czysch und Björn Darko über Klick-Through-Rate-Optimierung. Sie diskutieren die Bedeutung von Seitentiteln und Meta-Beschreibungen für die Klickrate und geben Tipps zur Optimierung. Sie betonen die Bedeutung der strategischen Planung und des proaktiven SEO, um relevante Suchintentionen zu erfüllen. Sie erklären, wie Google oft eigene Meta-Beschreibungen generiert und wie man die Darstellung in den Suchergebnissen beeinflussen kann. Sie diskutieren auch die Bedeutung von USPs (Unique Selling Propositions) in Meta-Beschreibungen und wie man die Klickrate durch gezielte Optimierung steigern kann. In diesem Teil des Gesprächs geht es darum, wie man die Klickrate (CTR) in den Suchergebnissen verbessern kann. Stephan betont die Bedeutung der Priorisierung und der Hypothesenbildung, um das Snippet und die Klickrate zu optimieren. Er erklärt auch, dass die Position in den Suchergebnissen und die CTR einen Einfluss auf das Ranking haben können. Björn erwähnt, dass es wichtig ist, den Zusammenhang zwischen Titel, Meta-Beschreibung und Inhalt auf der Seite zu beachten. Stephan betont die Bedeutung der Customer Journey und dass SEO nicht nur die Optimierung von Texten und Metadaten umfasst, sondern auch die Verbesserung der Nutzererfahrung auf der Seite. Sie diskutieren auch die Bedeutung der Branding-Kampagnen und wie sie die CTR beeinflussen können. Takeaways Die strategische Planung und das proaktive SEO sind entscheidend, um relevante Suchintentionen zu erfüllen und die Klickrate zu optimieren. Google generiert oft eigene Meta-Beschreibungen, daher ist es wichtig zu überprüfen, ob die gewünschten Metadaten angezeigt werden. Die Darstellung in den Suchergebnissen kann durch strukturierte Daten, Bilderintegration und andere Elemente beeinflusst werden. Die Klickrate kann durch gezielte Optimierung von Seitentiteln und Meta-Beschreibungen sowie die Kommunikation von USPs verbessert werden. Sei dir deiner Prioritäten bewusst und optimiere die Themen, die dir den meisten Traffic und Umsatz bringen. Bilde Hypothesen und teste verschiedene Ansätze, um das Snippet und die Klickrate zu verbessern. Achte auf den Zusammenhang zwischen Titel, Meta-Beschreibung und Inhalt auf der Seite, um den Nutzern eine konsistente Erfahrung zu bieten. Berücksichtige die Customer Journey und sorge dafür, dass die Nutzer die Informationen finden, die sie suchen. Denke auch an Branding-Kampagnen, um die CTR zu steigern und das Ranking zu verbessern. Weiterführende Links: GSC Helper Chrome Plugin: https://www.searchanalyzer.io/gsc-helper-browser-extension - Unterstützt bei unterschiedlichen Google Search Console Auswertungen SERP Snippet Chrome Plugin: https://www.getindexed.io/serp-snippet-extractor/ - Extrahiert die Google-Ergebnisse "wie sie sind" Sistrix Snippet Tool: https://de.sistrix.com/stephan-czysch.de/seo/snippet-check - zeigt die von Google angezeigten Snippets einer Seite Sistrix CTR Potential: https://www.linkedin.com/posts/sistrix_sistrix-neuefunktion-ctr-activity-7213088879522758656-BFTR/ - Nach Verknüpfung der GSC mit Sistrix CTR-Underperformer sehen CTR-Skript: https://www.searchanalyzer.io/wb-seo-ctr - Google Sheet zur Berechnung der erwarteten CTR anhand eigener Daten Aktuelle CTR-Studie: https://backlinko.com/google-ctr-stats - Generelle CTR-Studie von Backlinko Website Boosting #87: https://www.websiteboosting.com/einzelheftbestellung.html - Aktuelle Website Boosting mit Artikel zur CTR-Optimierung und zum Google Leak Website Boosting #70: https://www.websiteboosting.com/magazin/70/ignoriert-google-deine-meta-description-wie-du-abweichungen-identifizierst-und-optimierungspotenziale-aufdeckst.html - Artikel zur Snippet-Analyse

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 14: Wissend visualisiert – Wissens- und Datenvisualisierungen in der Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Aug 7, 2024 54:27


In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Linda Freyberg über die Herausforderungen und Potenziale der Wissens- und Datenvisualisierung in der Kunstgeschichte. Obwohl die Beschreibung und Interpretation visueller Systeme zentrale Elemente der Kunstgeschichte sind, fällt es vielen schwer, mit digitalen Visualisierungen umzugehen. Dazu gehört neben dem Interpretieren der Grafiken auch das Verwenden von Wissensvisualisierungen, um komplexes historisches Wissen wie zum Beispiel Objektbiographien darzustellen. Warum verwenden Kunsthistoriker diese Formen der Informationsübermittlung so selten? Fehlt das nötige Wissen oder die richtige Terminologie?Dr. Freyberg erklärt, dass Visualisierungen unterschiedliche Funktionen erfüllen können: explorativ zur Analyse oder interpretativ zur Erklärung. Dabei stellt sich die Frage, was eine effektive und gute Visualisierung ausmacht und ob der Kunstgeschichte eine neue Diagrammatik fehlt, um die Waage zwischen Komplexitätsreduktion und Wissensrepräsentation zu halten. Im Gespräch wird deutlich, dass viele unterschiedliche Expert*innen für die Erstellung von Visualisierungen notwendig sind, da heterogenes, spezifisches Fachwissen benötigt wird: Konzeption, technischer Aufbau und Nutzeroberfläche liegen am besten in der Hand eines interdisziplinär aufgestellten Teams. Viele Visualisierungen sind datengetrieben und darüber hinaus spezifisch für einzelne Projekte konzipiert, was eine Generalisierung mancher Anwendungen nicht möglich macht.Dabei sind Datenvisualisierungen ein mächtiges Kommunikationsmittel, um komplexe Sachverhalte verständlich zu machen. Sie ermöglichen es, Strukturen aufzuzeigen und große Datenmengen zugänglich zu machen. Obwohl diese Fähigkeiten oft als Zukunftskompetenzen gepriesen werden, gehören sie noch nicht zum Repertoire der Kunstgeschichte. Dr. Linda Freyberg zeigt dabei eindrucksvoll, wie Kunsthistoriker*innen zur Entwicklung und Interpretation von Visualisierungen beitragen können und warum man ein tiefes Domänenwissen braucht, um gute Wissensvisualisierungen zu schaffen.Dr. Linda Freyberg ist Wissenschaftlerin am DIPF Leipnitz Institut für Bildungsforschung und Bildungsinformation, Abteilung Bibliothek für Bildungsgeschichtliche Forschung. In ihrer Dissertation „Ikonizität der Information“ hat sie sich mit dem epistemischen Potenzial von Bildlichkeit und den unterschiedlichen Ausdrucksformen von Visualisierungen beschäftigt.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Special #3: NFDI4Culture Cultural Community Plenary 2024, Podiumsdiskussion "Generative KI-Modelle und Forschungsdaten: Chancen und Herausforderungen"

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Jul 3, 2024 68:28


In dieser Sonderfolge des #arthistoCast sendet Jacqueline Klusik-Eckert live von der virtuellen Podiumsdiskussion mit ihren Gästen Miriam Akkermann, Susanne Kurz und Sonja Thiel, die im Rahmen des 4. Culture Community Plenary von NDFI4Culture am 6. Juni 2024 stattgefunden hat. Unter dem Motto „Generative KI-Modelle und Forschungsdaten: Chancen und Herausforderungen“ diskutierte sie mit den Expertinnen die aktuellen Entwicklungen im GLAM-Bereich (Galerien, Bibliotheken, Archive, Museen). Dabei bot das Gespräch wertvolle Einblicke aus dem Bereich Museum, Musikwissenschaft und Forschungsdaten.Ein zentrales Thema war die Frage, wie generative KI-Modelle in der Kulturforschung eingesetzt werden können, ohne die Kontrolle und Transparenz zu verlieren. Es wurde betont, dass es wichtig sei, die technischen Prozesse und die Daten, die hinter diesen Modellen stehen, zu verstehen und zu hinterfragen, um eine aufgeklärte Nutzung zu gewährleisten. Dies verlangt sowohl die Entwicklung passgenauer Modelle als auch die Etablierung benutzerfreundlicher Anwendungen.Das Gespräch beleuchtete die vielseitigen Anwendungsmöglichkeiten von KI-Systemen im Kulturbereich. Ein weiteres zentrales Thema war die Bedeutung von Vertrauen in die Arbeit von Institutionen beim Umgang mit digitalen Objekten, insbesondere im Hinblick auf generierte Medien. Die Diskussion verdeutlichte, dass generative KI-Modelle nicht nur neue Möglichkeiten eröffnen, sondern auch neue Fragen aufwerfen, die einen kritischen Diskurs und eine aufgeklärte Nutzung erfordern. Die Expertinnen forderten eine realistische Betrachtung der Technologie und ihrer Möglichkeiten sowie eine kontinuierliche Reflexion über die ethischen Implikationen ihres Einsatzes.Prof. Dr. Miriam Akkermann ist empirische Musikwissenschaftlerin und hat an der FU Berlin die Ernst-von-Siemens Musikstiftungsprofessur übernommen.Susanne Kurz M.A. ist Dozentin für Medieninformatik und Digital Humanities an der Universität zu Köln.Sonja Thiel M.A. ist freiberufliche Wissenschaftlerin und war als digitaler Katalysator für Künstliche Intelligenz am Badischen Landesmuseum in Karlsruhe tätig.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

Projektmanagement für Macher und Entscheider
11 Kriterien die Dein Werkzeug für Anforderungsmanagement erfüllen sollte

Projektmanagement für Macher und Entscheider

Play Episode Listen Later Jul 2, 2024 50:39 Transcription Available


In dieser Podcast-Episode des Zukunftsarchitekten-Podcasts dreht sich alles um die Auswahl und Bewertung eines Anforderungsmanagement-Tools. Als erfahrener Systemingenieur teile ich 11 entscheidende Kriterien für die Auswahl eines Anforderungsmanagement-Tools sowie Einblicke in meine Erfahrungen. Zudem lade ich zur Teilnahme am Requirements Engineering Camp im Februar 2025 ein und kündige einen Systems Engineering Stammtisch in Bremen an. Wir informieren auch über technische Verbesserungen für einen besseren Zugriff auf Links und Ressourcen. Der Fokus liegt auf den Kriteriengruppen für die Auswahl eines Anforderungsmanagement-Tools, einschließlich der Anforderungsdokumentation und -bearbeitung. Die Bedeutung von Metadaten, Attachments und automatisierten Prozessen bei der Anforderungserfassung wird betont. Aspekte wie Anforderungslöschung, Sperrung, Navigation und Integration von Formeln in den Anforderungstext werden ebenfalls erläutert. Ein wichtiger Schwerpunkt ist die Traceability, die von Anfang an im Anforderungsmanagement-Prozess berücksichtigt werden sollte. Die Notwendigkeit der Traceability über Projekte hinweg und ihre Verbindung zu Änderungsmanagement, Fehlerberichten und Testfällen wird hervorgehoben. Die Einbindung von Traceability ins Aufgabenmanagement wird ebenfalls behandelt, um Anforderungen umfassend mit technischen Aufgaben zu verknüpfen. Insgesamt werden detaillierte Kriterien und Anforderungen präsentiert, die bei der Auswahl eines Anforderungsmanagement-Tools berücksichtigt werden sollten. Durch praktische Beispiele und Tipps aus Erfahrungen erhalten die Zuhörer einen Einblick in die komplexe Welt des Anforderungsmanagements und der Tool-Auswahl. Die Bedeutung einer ganzheitlichen Betrachtung des Anforderungsmanagements in Projekten wird betont, wobei Aspekte wie Kommunikation, Workflow, Konfigurations- und Änderungsmanagement, Sichtenbildung, Import-Export-Funktionen und Reporting berücksichtigt werden müssen. Die Auswahl eines geeigneten Tools sollte sorgfältig erfolgen, um effektiv unterstützt zu werden.

Mission Bestseller - Self-Publishing Strategien & Tipps
Aktuelle Trends und Entwicklungen im Selfpublishing

Mission Bestseller - Self-Publishing Strategien & Tipps

Play Episode Listen Later Jul 2, 2024 22:20


Was funktioniert gerade richtig gut für Autorinnen und Autoren, die ihre Bücher im Selfpublishing veröffentlichen? Ich bin gerade frisch zurück von dem „Selfpublishing Show Live“ Event in London und fasse in dieser Folge des Mission Bestseller meine Eindrücke zusammen und teile die Erkenntnisse und Inspirationen, die ich mitgebracht habe mit dir. Und hier der rss-Feed von »Dein Buch mit Tom Oberbichler«: http://dein_buch.libsyn.com/rss In dieser Podcast-Folge spreche ich unter anderem folgende Aspekte an: 1.    Was sind die neuesten Trends und Entwicklungen im Self-Publishing, die auf der Self-Publishing Show Live in London präsentiert wurden? 2.    Wie hat Tom Oberbichler die Veranstaltung im Vergleich zu den großen Buchmessen in Frankfurt und Leipzig erlebt? 3.    Welche wertvollen Informationen und Inspirationen hat Tom Oberbichler aus den Vorträgen und dem Event mitgenommen? 4.    Welche Rolle spielen Hörbücher und Direct-Selling im Self-Publishing-Markt und welche neuen Entwicklungen gibt es in diesen Bereichen? 5.    Was sind die Vorteile und Herausforderungen des Direktverkaufs von Büchern über die eigene Webseite im Gegensatz zu Verkaufsplattformen wie Amazon? 6.    Wie beeinflussen die Trends im englischsprachigen Raum die Self-Publishing-Szene im deutschsprachigen Raum? 7.    Welche Geschäftsmodelle und Marketingstrategien wurden auf der Veranstaltung besprochen, die auch für deutsche Self-Publisher:innen relevant sein könnten? 8.    Welche Technologien und Dienstleistungen (z.B. ACX, feiyr.com, BookFunnel, Bookvault) werden im Self-Publishing-Markt genutzt und wie unterscheiden sie sich im deutschsprachigen und englischsprachigen Raum? 9.    Welche praktischen Tipps und Strategien hat Tom Oberbichler für Self-Publisher:innen mitgenommen und welche kommenden Online-Trainings bietet er an? 10.  Wie können Self-Publisher:innen ihre Metadaten optimieren, um die Sichtbarkeit und Verkaufszahlen ihrer Bücher zu erhöhen? Hier die Links, die wir im Podcast ansprechen, und weiterführende Informationen, Tipps und Erfahrungsberichte rund um Bücher, eBooks und deinen Erfolg: https://mission-bestseller.com/onlinetraining https://mission-bestseller.com/metadaten/ https://mission-bestseller.com/folge-304-mehr-als-nur-amazon-die-vorteile-von-crowdfunding-fuer-buecher-mit-kickstarter/ https://mission-bestseller.com/folge-307-crowdfunding-fuer-buecher-eine-erfolgsbilanz-mit-a-d-wilk-und-ihrem-buch-cloe/ Hier findest du alles rund ums Selfpublishing: https://mission-bestseller.com Einige der Links auf dieser Seite sind Affiliate-Links und ich erhalte eine Provision, wenn du über sie kaufst, die sich nicht auf deinen Kaufpreis auswirkt.

Datenbusiness Podcast
#170 Aktive Metadaten verändern die Welt der Datenplatt­formen

Datenbusiness Podcast

Play Episode Listen Later May 1, 2024 59:46


Unser heutiger Gast ist Christian Schneider, CEO bei der QuinScape GmbH, ein Unternehmen der Dataciders Gruppe. Bei Dataciders hat Christian die Rolle des Data & Analytics Evangelists. Hier unterhalten wir uns unter anderem über: Die Bedeutung von Mentoren und einem guten Team (ab 06:52)

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Special #2: Ausschnitte aus dem Forum Digitale Kunstgeschichte auf dem 37. Kongress für Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later May 1, 2024 59:26


In dieser Sonderfolge des #arthistoCast verlässt Jacqueline Klusik-Eckert das Aufnahmestudio und gibt einen Zusammenschnitt des Forums Digitale Kunstgeschichte wieder, das während des 37. Kongresses für Kunstgeschichte in Erlangen am 16.03.2024 stattfand. Das Forum, von Jacqueline und Peter Bell konzipiert, konzentrierte sich auf die Auswirkungen und Möglichkeiten künstlicher Intelligenz in der Kunstgeschichte. Unter dem Motto "Raum für KI – Bildgeneratoren und Wissensmaschinen. Die KI-Debatte im Fachkontext“ waren die drei Gäste Andreas Maier, Roland Meyer und Christian Hümer eingeladen, um mit ihnen aus unterschiedlichen Perspektiven auf die aktuellen Debatten zu schauen.Die Podiumsdiskussion, geprägt von den drei Experten aus den Bereichen Technik, Theorie und Praxis, beleuchtete, wie KI-Verfahren bereits in der Kunstgeschichte angewendet werden und was sie für das Fach bedeuten. Es wurden konkrete Beispiele und laufende Projekte vorgestellt, um ein umfassendes Verständnis der Materie zu fördern. Zudem wurden kritische Fragen zur Zukunft der KI in der Kunstgeschichte gestellt, einschließlich ethischer Überlegungen und der Rolle von KI in der Forschung und Lehre.Diese Episode gibt nicht nur einen Einblick in die Veranstaltung für diejenigen, die nicht teilnehmen konnten, sondern bietet auch einen Startpunkt für weiterführende Diskussionen über die Rolle der KI in der Kunstgeschichte.Im zugehörigen Blogbeitrag findest du zusätzliche Ressourcen und Links zu den Projekten, die während des Forums vorgestellt wurden.Prof. Dr.-Ing. habil. Andeas Maier ist Leiter des Pattern Recognition Labs an der FAU Erlangen-Nürnberg und hat in unterschiedlichen Projekten den Einsatz von Pattern Recognition in der Kunstgeschichte erprobt.Dr. Roland Meyer ist wissenschaftlicher Mitarbeiter am SFB »Virtuelle Lebenswelten« an der Ruhr-Universität Bochum und forscht über die Theorie generierter Bilder und den Einsatz von KI-Verfahren.Dr. Christian Huemer ist Hauptabteilungsleiter des Research Center am Belvedere, Speaker des DArtHist Austria und hat zahlreiche digitale Projekte im Museum betreut.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 12: Digitalität und Kunstgeschichte – ein Theorie- und Metagespräch über aktuelle Debatten

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Mar 6, 2024 87:35


In dieser Folge spricht Jacqueline Klusik-Eckert mit Katrin Glinka und Kilian Heck über die tiefgreifenden Veränderungen und aktuellen Debatten, die digitale Technologien in der Kunstgeschichte hervorgerufen haben. Dabei diskutieren die Gäste die unterschiedlichen Ebenen der Digitalität in der Kunstgeschichte: vom Scannen der Werke bis hin zu konkreten Anwendungen computationeller Verfahren eröffnet sich ein breites Spektrum. Es zeigt sich einmal mehr, wie vielschichtig die Perspektiven auf das Digitale sind.Es wird betont, dass viele in der Kunstgeschichte digitale Technologien noch immer auf die Digitalisierung von Material reduzieren. Die Potentiale digitaler Methoden werden dabei kaum gesehen oder vorschnell abgeurteilt. Unterstützungssysteme im Bereich Information Retrieval, die zu einer steigenden Zugänglichkeit und Auffindbarkeit von Forschungsmaterial sorgen, werden unreflektiert angenommen. Dagegen werden unter vorgehaltender Hand empirisch-statistische Verfahren als intransparent und verflachend abgeurteilt. Einig ist man sich hingegen wieder, wenn es um das Einsatzgebiet Provenienzforschung geht.Doch diese scheinbare Transparenz von etablierten Wissensspeichern muss hinsichtlich der historisch belasteten Beschreibungskategorien hinterfragt werden. Gleiches gilt für die Beschaffenheit der aktuell genutzten technischen Lösungen wie beispielsweise Sammlungsdatenbanken, die aktuell nicht vollumfänglich eine Vielfalt an Interpretationen und die Koexistenz von Widersprüchen ermöglichen.Hinzu kommt noch, dass sich Kunstgeschichtlerinnen und Kunstgeschichtler mit einer zunehmenden Komplexität und Vielfalt von Bildmaterial konfrontiert sehen. Das verlangt eine Anpassung der etablierten Analysemethoden und den Mut, sich außerhalb der traditionellen Komfortzonen zu bewegen. Es wird dafür plädiert, auch Fehler zu akzeptieren und tradierte, vorurteilsbehaftete Wissenssysteme kritisch zu reflektieren. Die Diskussion unterstreicht zudem die Bedeutung einer bildwissenschaftlichen Kompetenz und die anhaltende Notwendigkeit, die Fähigkeiten im Umgang mit modernen, auch KI-generierten Bildern zu schärfen. Schließlich wird auf die Rolle digitaler Technologien bei der Sicherung von Kulturerbe eingegangen. Trotz der Potenziale dieser Ansätze bleibt die Akzeptanz und Integration in die klassische Kunstgeschichte eine Herausforderung. Ob dies auch einer (unbegründeten) Sorge um die eigene Daseinsberechtigung herrührt, muss unbeantwortet bleiben. Es ist im Gespräch jedoch deutlich geworden, dass gerade die Koexistenz klassischer und digitaler Methoden notwendig ist. Denn am Ende haben wir als Wissenschaftlerinnen und Wissenschafler doch das gleiche Ziel: Wissen schaffen.Dr. des. Katrin Glinka ist Kulturwissenschaftlerin und aktuell Head of HCC Data Lab an der Freien Universität Berlin bei der Forschungsgruppe Human-Centered Computing (HCC).​​Prof. Dr. Kilian Heck ist Kunsthistoriker und hat den Lehrstuhl für Kunstgeschichte an der Universität Greifswald inne.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

MY DATA IS BETTER THAN YOURS
Teamgröße verdoppeln als Energieunternehmen – mit Kira E., EON

MY DATA IS BETTER THAN YOURS

Play Episode Listen Later Feb 29, 2024 52:39


Wie baut man in einem Energieversorgungsunternehmen das Data-Team soweit auf, dass man es innerhalb eines Jahres verdoppelt? Was ist das Geheimnis hinter diesem Hiring-Prozess? Welche Data Science- oder KI-Projekte gibt es dort? Darum geht es in der neuen Folge von MY DATA IS BETTER THAN YOURS. Host Jonas Rashedi interviewt Kira Engelhardt, die bei EON das Data & AI-Team für Energy Networks leitet. Ihr Ziel: Global mit dem Team das Strom- und Gasnetz klüger machen und für die Energiewende vorbereiten. Dabei fungiert ihre Einheit wie eine Inhouse-Consultancy. Kira erklärt zunächst, wie EON aufgebaut ist, das ist bei einem so großen Konzern gar nicht so einfach. Die kleineren Einheiten bekommen von den größeren Power dazu, um ihre Herausforderungen zu stemmen. Damit das komplette Team versteht, wie alles funktioniert, macht Kira auch „Schulausflüge“ mit ihnen, z.B. zu einem Wasserkraftwerk. Sie erzählt von ihrem Hiring-Prozess, der sehr skaliert und homogen ist. Jeden Freitag screenen verschiedene Kolleg:innen die CVs, machen dann Telefoninterviews und Jobinterviews. Wichtig ist ihr dabei: Es gibt keinen Standard-CV für das Hiring im Data-Bereich. Dabei ist es für die Bewerber:innen interessant, dass sie an spannenden Projekten arbeiten können. Data Engineers können sich ihre Jobs förmlich aussuchen und haben dann keine Lust, zwei Jahre auf eine geeignete Infrastruktur zu warten, um endlich loslegen zu können. Schließlich gibt Kira noch einige Use Cases preis und berichtet davon, wie der Wandel bei den Netzversorgern aussieht. Denn Individualverbraucher brauchen mehr Strom durch Elektroautos und Wärmepumpen. Auch die Peaks, wie sie früher waren, gehen durch Home Office zurück. Anhand von Jonas‘ Solaranlage und seinem Elektroauto erklärt Kira, welche Daten sie in Realtime sieht und was sie daraus erkennen kann, aber auch, wie die Daten prozessiert werden. Dann geht es noch um das Labeling von Daten, das durch KI sehr stark vereinfacht wird – früher musste das alles manuell gemacht werden. Trotzdem muss das immer von Fachexperten überwacht werden. MY DATA IS BETTER THAN YOURS ist ein Projekt von BETTER THAN YOURS, der Marke für richtig gute Podcasts. Zum LinkedIn-Profil von Kira: https://www.linkedin.com/in/kira-engelhardt-0173a9134/ Zur Webseite von EON: https://www.eon.de/ Zu allen wichtigen Links rund um Jonas und den Podcast: https://linktr.ee/jonas.rashedi Zur Podcast Umfrage (Jede Woche wird ein Hoodie verlost!): https://listening.sslsurvey.de/Data-Podcast-Feedback 00:00:00 Intro und Begrüßung 00:01:14 Vorstellung Kira 00:02:01 Aufbau des Konzerns 00:04:32 Interne Consultancy 00:08:29 Wandel von Data Scientists 00:11:09 Ressourcen 00:14:32 Wie sah EON vorher aus 00:16:39 Der Hiring-Prozess 00:19:54 Use Cases 00:23:24 Hands-on Use Case von Jonas 00:26:05 Priorisierung der Use Cases 00:30:08 Hiring vor KI 00:35:52 Einfluss von Bäumen auf das Netz 00:40:05 Metadaten pflegen durch KI 00:44:15 Die richtige Team-Zusammensetzung 00:45:10 Tipps von Kira 00:48:19 Kira's Data-Game

Digital Podcast
Kampf gegen Fake-Bilder mit mehr Transparenz

Digital Podcast

Play Episode Listen Later Feb 9, 2024 26:16


Eine breite Koalition aus Medienhäusern, Kamera-Herstellern und IT-Konzernen, will mit einem neuen Standard für Metadaten mehr Transparenz schaffen. Die erste Kamera, die diesen Standard mit einem speziellen Chip unterstützt, ist jetzt auf dem Markt. Der ganze Podcast im Überblick: (00:01:46) Wer steckt hinter CAI? (00:04:09) Wie überprüfen Medienhäuser Fotos und Videos aus dem Internet? (00:10:07) Wie funktioniert CAI? (00:20:01) Was bringt das? Links: Julia Bayers Werkzeugkasten für Fact-Checking: https://start.me/p/ZGAzN7/verification-toolset?locale=en Webseite der CAI zum Überprüfen der Metadaten eines Bildes: https://contentcredentials.org/verify c2pa Tool für Metadaten in Bildern (für fortgeschrittene Computer User): https://github.com/contentauth/c2patool

Digital Podcast (MP3)
Kampf gegen Fake-Bilder mit mehr Transparenz

Digital Podcast (MP3)

Play Episode Listen Later Feb 9, 2024 26:16


Eine breite Koalition aus Medienhäusern, Kamera-Herstellern und IT-Konzernen, will mit einem neuen Standard für Metadaten mehr Transparenz schaffen. Die erste Kamera, die diesen Standard mit einem speziellen Chip unterstützt, ist jetzt auf dem Markt. Der ganze Podcast im Überblick: (00:01:46) Wer steckt hinter CAI? (00:04:09) Wie überprüfen Medienhäuser Fotos und Videos aus dem Internet? (00:10:07) Wie funktioniert CAI? (00:20:01) Was bringt das? Links: Julia Bayers Werkzeugkasten für Fact-Checking: https://start.me/p/ZGAzN7/verification-toolset?locale=en Webseite der CAI zum Überprüfen der Metadaten eines Bildes: https://contentcredentials.org/verify c2pa Tool für Metadaten in Bildern (für fortgeschrittene Computer User): https://github.com/contentauth/c2patool

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 11: Digitale Kunst - ihre Geschichte, Akteur*innen und interaktiven Ansätze

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Feb 6, 2024 58:38


In dieser Folge spricht Jacqueline Klusik-Eckert mit Julian Stalter über die lange Geschichte der digitalen Kunst und die vielen Akteur*innen dieser Kunstgattung.Die Digitale Kunst hat ihren Ursprung in den 1960er Jahren, als Künstler*innen begannen, Computer als kreatives Werkzeug zu nutzen. Der Durchbruch kam in den 1980er Jahren mit der Verbreitung personalisierter Computer und Software, die es Künstlern ermöglichten, digitale Medien als eigenständige künstlerische Ausdrucksform zu nutzen. Der Blick auf unterschiedliche Kunstwerke zeigt, wie eng die digitale Kunst auch mit der Technikgeschichte verbunden ist, sich aber auch von der Biologie inspiriert ist. Im Blogbeitrag zu dieser Folge findet man eine Liste aller genannter Künstlerinnen und Künstlern. Wo es möglich ist, wurden auch Aufzeichnungen der Werke als Links hinterlegt. Digitale Kunstwerke gehen oft über die traditionelle visuelle Wahrnehmung hinaus und integrieren Klang, Bewegung und Interaktivität. In teils experimentellen Installationen werden die Grenzen der Sinneswahrnehmung ausgelotet. Viele der multidimensionalen Werke fordern nicht nur die kunsthistorische Analyse heraus, sondern werfen auch Fragen nach der Rolle des Publikums und der Interaktion in der Kunst auf.Wichtige Institutionen, die sich mit Digitaler Kunst beschäftigen, sind das ZKM | Zentrum für Kunst und Medien in Karlsruhe, das sich auf die Schnittstelle von Kunst und Technologie konzentriert. Das Ars Electronica Center in Linz widmet sich der Förderung von Kunst und Technologie schon seit mehreren Jahrzehnten. Diese Institutionen und noch einige mehr spielen eine entscheidende Rolle bei der Dokumentation, Ausstellung und Erforschung digitaler Kunst und tragen dazu bei, ihre Anerkennung in der kunsthistorischen Landschaft zu fördern.Trotz ihrer kulturellen Bedeutung und des Einflusses auf zeitgenössische Kunst sind digitale Kunstformen in den kunsthistorischen Lehrplänen oft unterrepräsentiert. Die Debatte darüber, warum diese Gattung in der akademischen Welt nicht ausreichend gewürdigt wird, kreist um Fragen der Materialität, der Zugänglichkeit und der fehlenden Tradition. Die Trennung zwischen Kunst und Technologie sowie die Schwierigkeiten bei der Bewahrung und Ausstellung digitaler Werke sind ebenfalls Themen, die in diesem Kontext diskutiert werden.Julian Stalter M.A. ist Wissenschaftlicher Mitarbeiter im Projekt Reflection-driven Artificial Intelligence in Art History, LMU München und beschäftigt sich in seiner Forschung mit Digitaler Kunst an der Schnittstelle von Naturnachahmung und Bio Art.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

Alliteration Am Arsch
AAA276 - "Riesige Rechenzentren"

Alliteration Am Arsch

Play Episode Listen Later Jan 27, 2024 77:23


Diesmal geht es um Strafen, Kifferfilme, das Internet von „damals“, den CDi, das Big-N-Club Magazin, Reini zu Gast bei Loffi, das erste Ende von „Wetten das…“, Close Calls, Crashtests, Serverfarmen, öffentliche Netzwerke, Metadaten und the Beekeeper. Bald ist es wieder so weit! Es ist 2024 und AAA Live steht vor der Tür: 05.03.24 Frankfurt 08.03.24 Berlin Karten gibt es ab sofort bei [Eventim!](https://www.eventim.de/eventseries/bastian-bielendorfer-reinhard-remfort-alliteration-am-arsch-aaa-podcast-3447644/) Du möchtest mehr über unsere Werbepartner erfahren? Hier findest du alle Infos & Rabatte: https://linktr.ee/AlliterationAmArsch

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Special zu Folge 10 #Perspektivwechsel: Digitale Denkmaltechnologie und Virtual Reality

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Jan 22, 2024 35:00


In der ersten Sonderfolge von #arthistoCast steht die technische Perspektive auf das Erfassen von Kulturgütern im Mittelpunkt.Nachdem Jacqueline Klusik-Eckert in der 10. Folge mit ihren Gästen den kunsthistorischen Blick auf die viel diskutierten Technologien Virtual Reality (VR) und Augmented Reality (AR) geworfen hat, soll nun die technische Perspektive eingenommen werden. Im Gespräch mit Mona Hess von der digitalen Denkmaltechnologie gibt es Einblicke in die technischen Verfahren von Räumen und Objekten.Die technische Erfassung von Kulturgütern erfordert eine Vielzahl von Techniken, darunter aktive (Laserstrahl, Lichtmuster) und passive Sensoren (Kameras), sowie Methoden wie Photogrammetrie und Laserscanverfahren. Dabei werden Begriffe wie Geomatic Engineering, Reality Capture erklärt, und die Vorteile einer optischen, berührungsfreien Aufnahme bei der Erfassung von Räumen und Objekten erläutert.Es zeigt sich dabei deutlich, dass es mit dem Scannen allein nicht getan ist. Neben der Nachbereitung der Daten gehört auch die Langzeitarchivierung zu den aktuellen Herausforderungen. Doch wo können diese vielseitigen Kompetenzen erlernt werden? Da der Bedarf an Fachleuten mit interdisziplinären Kompetenzen zwischen Ingenieurswissenschaften, Informatik, Naturwissenschaften, Materialwissenschaften und Kunstgeschichte stetig wächst, wurde ein eigener Masterstudiengang etabliert.Insgesamt zeigt die Sonderfolge, dass die digitale Kunstgeschichte eine Brücke zwischen verschiedenen Fachrichtungen schlägt. Es wird deutlich, dass die Erfassung und Digitalisierung von Kulturgütern nicht nur kunsthistorisches Interesse bedient, sondern auch technische Innovationen vorantreibt. Der Blick auf die Herausforderungen der Datenverarbeitung und Langzeitarchivierung betont die Notwendigkeit, nicht nur die Erfassungstechniken zu beherrschen, sondern auch die umfassende Verarbeitung und Bewahrung der digitalen Daten im Blick zu haben.Prof. Dr. Mona Hess ist Lehrstuhlinhaberin des Lehrstuhls für Digitale Denkmaltechnologien an der Universität Bamberg. In ihrer Forschung bewegt sie sich an der Schnittstelle von naturwissenschaftlichen Technologien und geisteswissenschaftlichen Fragestellungen.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 10: Virtual Reality und Kunstgeschichte – von Punktwolken zur illusionistischen barocken Deckenmalerei

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Jan 3, 2024 66:23


In dieser Folge spricht Jacqueline Klusik-Eckert mit Stephan Hoppe und Matteo Burioni über den Einsatz von Virtual Reality (VR) bei der Erforschung barocker Deckenmalerei.Im Gespräch erhält man Einblick in die unterschiedlichen Abläufe und Kooperationen, die notwendig sind, um diese technischen Möglichkeiten für die Kunstgeschichte nutzbar zu machen.Die Unterhaltung beginnt mit der Grundlagenklärung, die den Begriffen wie Virtual Reality und Augmented Reality Raum gibt. Dabei wird deutlich, wie stark die Entwicklungen in der Kunstgeschichte auch mit der jüngsten Technikgeschichte zusammenhängen.Die Diskussion vertieft sich, indem die Potenziale und Herausforderungen von VR/AR in der Kunstgeschichte ausgelotet werden. Die Vision, historische Schauplätze virtuell auf höchstem wissenschaftlichen Niveau zu erschließen und zugänglich zu machen, wird durch Forschungsprojekte wie dem Akademieprojekt Corpus der barocken Deckenmalerei in Deutschland (CbDD) erprobt. Dabei wird nicht nur die Möglichkeit der Vermittlung von Kunstgeschichte betont, sondern auch der Erkenntnisgewinn durch neue Perspektiven und Forschungsmöglichkeiten im virtuellen Raum.Die Episode wirft auch einen kritischen Blick auf die derzeitige Integration von VR/AR in die Standardpraxis kunsthistorischer Institute. Hierbei wird deutlich, dass trotz vielversprechender Ansätze und Forschungen noch ein erheblicher Weg bevorsteht, bis diese Technologien flächendeckend in der Lehre und Forschung verankert sind.Der Höhepunkt des Gesprächs liegt in einem eindringlichen Appell: Die Kunstgeschichte muss enger mit Disziplinen wie Denkmaltechnologie, Archäologie und Informatik kooperieren. Nur so können die Entwicklung von VR/AR-Räumen und die Verantwortung für die Bewahrung des kulturellen Erbes vorangetrieben werden. Dabei wird betont, dass die Kunstgeschichte nicht nur von diesem Expertenwissen profitieren sollte, sondern auch als Treiber für innovative Entwicklungen fungieren kann.Prof. Dr. Stephan Hoppe ist Professor für Kunstgeschichte mit Schwerpunkt Bayerische Geschichte an der Ludwigs-Maximilian Universität München, ordentliches Mitglied des Instituts für Bayerische Geschichte und Leiter des Gesamtprojektes sowie Vorsitzender des Projektausschusses des Corpus der barocken Deckenmalerei.PD Dr. Matteo Burioni ist Projektkoordinator und Leiter der Arbeitsstelle München des Corpus der barocken Deckenmalerei in Deutschland) an der Ludwigs-Maximilian Universität München.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

Engineering Kiosk
#101 Observability und OpenTelemetry mit Severin Neumann

Engineering Kiosk

Play Episode Listen Later Dec 12, 2023 69:13


Effektive Observability mit OpenTelemetryFrüher waren viele Applikationen eine Black Box, besonders für die Ops aka Betriebsabteilung. Dann fing das Logging an. Apps haben Log-Lines geschrieben, zum Beispiel wann die App fertig hochgefahren ist oder wenn etwas schief gegangen ist. In einer Art und Weise haben durch Logs die Devs angefangen, mit den Ops-Leuten zu kommunizieren.Irgendwann später gab es Metriken. Wie viel RAM verbraucht die App, wie oft wurde der Garbage Collector getriggert oder auch Business-Metriken, wie oft eine Bestellung ausgeführt wurde oder wann eine Geo- anstatt einer Text-Suche gestartet wurde.War das alles? Nein. Der neueste Hype: Traces. Eine genaue Einsicht, welchen Code-Path die App genommen hat und wie lange dieser gedauert hat inkl. aller Metadaten, die wir uns wünschen.Und wenn man dies nun alles in einen Sack packt, es gut durchschüttelt und man ein System hat, das man auf Basis dieser Daten fragen stellen kann, nennt man das Observability.Und genau da setzt das Projekt OpenTelemetry an.In dieser Episode sprechen wir mit dem Experten Severin Neumann über Observability und OpenTelemetry.Bonus: Was ist ein Sales-Engineer?**** Diese Episode wird gesponsert von www.aboutyou.de ABOUT YOU gehört zu den größten Online-Fashion Shops in Europa und ist immer auf der Suche nach Tech-Talenten - wie zum Beispiel einem (Lead) DevOps/DataOps Engineer Google Cloud Platform oder einem Lead Platform Engineer. Alle Stellen findest auch unter https://corporate.aboutyou.de/en/our-jobs ****Das schnelle Feedback zur Episode:

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 9: Vernetztes Wissen - LOD und Knowledge Graph für die Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Dec 6, 2023 62:52


In dieser Folge spricht Jacqueline Klusik-Eckert mit Harald Sack und Holger Simon über den Knowledge Graph und seine Bedeutung für die Kunstgeschichte. Schon jetzt finden sich viele Informationen über Kulturgüter und Geschichte digital im Netz. Datenbanken und Repositories bieten zwar verstärkt Zugang zu Informationen, sind aber oft in isolierten Silos verstreut. Institutionen nutzen unterschiedliche Systeme zur Datenbereitstellung, was zu einer fragmentierten Landschaft führt. Meta-Datenbanken wie Europeana und die Deutsche Digitale Bibliothek versuchen, diese Fragmentierung zu überwinden, aber ihr Erfolg ist begrenzt. Es scheint, als bräuchten wir eine Meta-Meta-Datenbank, um diese Silos zu durchbrechen. Die Grundidee des Internets und das Konzept Linked Open Data (LOD) versprechen hier Abhilfe zu leisten. Die Herausforderung besteht darin, dieses vernetzte Wissen digital abzubilden. Hier kommt der Knowledge Graph ins Spiel. Im Rahmen des NFDI 4 Culture Projekts entsteht ein solcher Wissensgraph. Während in anderen Bereichen die Technologie des Knowledge Graphs schon länger im Einsatz ist – Google hat seit 2012 einen solchen Graphen etabliert –, befindet sich die Kunstgeschichte möglicherweise noch am Anfang dieser Entwicklung. GLAM-Institutionen (Galleries, Libraries, Archives, Museums) haben eine wichtige Rolle bei der Datenbereitstellung, müssen aber auch Anreize für den Austausch schaffen und erhalten.Für die Forschung eröffnet der Knowledge Graph neue Horizonte. Er ermöglicht nicht nur andere Fragestellungen und Visualisierungen von Datenmassen, sondern auch eine komplexere Anreicherung von Museumsinformationen. Aber letztendlich gewinnt der Mensch durch die Erkenntnisse, die aus diesen Daten gezogen werden.Von der Modellierung im Graphen bei der Digitalisierung bis hin zur Unterstützung durch die NFDI gibt es verschiedene Wege, sich einzubringen. Doch letztendlich liegt die Herausforderung darin, wie wir als Gemeinschaft von Forschenden und Kulturerbebewahrenden diese komplexe Datenlandschaft gemeinsam gestalten und nutzen können.Prof. Dr. Harald Sack isst Bereichsleiter für Information Service Engineering bei FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur und Professor am Karlsruher Institut für Technologie (KIT), Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) mit der Forschungsgruppe „Information Service Engineering“. Und NFDI4Culture Co-Spockesperson von FIz KarlsruheProf. Dr. Holger Simon ist Sprecher im AK Digitale Kunstgeschichte, Geschäftsführer der Pausanio GmbH & Co. KG, Er ist außerplanmäßiger Professor an der Universität zu Köln und im Culture Steering Board NFDI 4 Culture.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

Security-Insider Podcast
#81 Reality Check fürs Metaverse

Security-Insider Podcast

Play Episode Listen Later Dec 6, 2023 46:08


Das Metaverse ist ein Hype mit jahrezehntelanger Vorgeschichte; ein Technologie-Sammelsorium von Blockchain über KI bis XR-Headsets und das Versprechen für mehr Effizienz im Unternehmensumfeld. In dieser Folge des Security-Insider Podcast ergründen wir den Status quo: Dabei sortieren wir die Komponenten eines entstehenden Ökosystems, diskutieren anfallende Metadaten und betrachten die Implikationen für die Sicherheit und Resilienz von Organisationen. Weiterführende Informationen und Links zu dieser Episode gibt es im Artikel auf Security-Insider!Bosch CyberCompare macht Cybersecurity einfacher, verständlicher und bezahlbarer. Transparent und anbieterunabhängig unterstützen sie Sie dabei, die richtige Lösung für Ihren Bedarf zu finden. Erfahren Sie mehr auf cybercompare.com/security-insider und überzeugen Sie sich selbst!Bestellen Sie unseren kostenfreien Security-Insider Newsletter!Weitere spannende Podcasts aus unserem Haus:BREAKING DATA - der Podcast zu Datenanalyse und AICLOUD ON AIR - mit Experten und Anwendern aus der Cloud-WeltDATACENTER DIARIES - Homestories direkt aus dem Zentrum von Daten und RechnernDEV-METAL - der Podcast für Entwicklerinnen und EntwicklerLOCALHOST - mit spannenden Gästen zu den Themen Netzwerktechnik und IP-basierter KommunikationSPEICHERHUNGRIG - für Speicherprofis und -interessierteUNBÜROKRATISCH - zur Digitalisierung der VerwaltungHEALTHCARE DIGITAL - zur Digitalisierung im GesundheitswesenINSIDER RESEARCH - Das Expertengespräch zur Digitalisierung

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 8: (Digitales) Recht und Kunstgeschichte - von Schreckgespenstern, Hürden und dem Weg zu mündigen Nutzer*innen

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Nov 1, 2023 65:28


In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Dr. Grischka Petri über die vielen unterschiedlichen Rechtsverhältnisse in der Kunstgeschichte und dem digitalen Raum. In einem lockeren Rechtsgespräch erhält man einen Überblick über den Blumenstrauß an Rechtsformen, mit denen man in Berührung kommt, wenn es um die Erforschung des kulturellen Erbes geht. Petri plädiert dafür, die Bild- und Urheberrechteals Mitspracherechte zu verstehen. Die Forschenden kennen sich immer besser aus und wissen um die Knackpunkte. Doch die Rechtsformen ändern sich stetig weiter. Dabei schöpft er anekdotenreich aus einem großen Fundus von Praxisbeispielen. Dabei kommen Candida Höflers Fotografien von Rodin ebenso zur Sprache wie die von generativen Modellen erstellten Bilder. Wie ist unser Umgang mit den Urheberrechten bei künstlerischen Aufnahmen von gemeinfreien Werken? Und wo stehen wir gerade in der KI-Recht-Debatte? Aktuell fällt der Output von generativen Modellen noch aus dem Werkschutz heraus. Doch das könnte sich mit einem steigenden Verständnis der Verfahren auch ändern.Im Gespräch geht es auch um die rechtlichen Rahmenbedingungen für datengetriebene Forschung. Was ist bei der Beschaffung von großen Datenmengen noch erlaubt? Und welche Möglichkeiten der Publikation von Daten hat man, wenn sie einem nicht gehören?Der digitale Raum hat neue Spielformen von Bildern zutage gebracht. Während auf der einen Seite das Remixen und eben nicht auf ein Original reduzierte spannende, virale Kulturphänomene entstehen lässt, wächst das Interesse an einer Zertifizierung durch Blockchain-Technologie. Was sind die aktuellen Trends und welche Rolle spielt dabei Kunstmarkt?Neben den übergeordneten Debatten geht es auch immer wieder um die Eigenverantwortung als Wissenschaftler*in. Neben einem wissenden Umgang mit Bildern und Daten von sammelnden Institutionen liegt es doch an, wie zugänglich und rechtlich offen die eigenen Forschungsergebnisse zur Verfügung gestellt werden.Priv. Doz. Dr. Dr. Grischka Petri ist bei FIZ Karlsruhe und dort Mitarbeiter am Legal Help Desk von NFDI4Culture sowie Privatdozent für Kunstgeschichte an der Universität Bonn. Er beschäftigt sich schon lange mit Immaterialgüterrecht in verteilten Informationsinfrastrukturen in seinem Forschungsschwerpunkt über das Verhältnis von Recht und Kultur.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 7: AI Art und die Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Oct 4, 2023 63:11


In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Fabian Offert über AI Art im Allgemeinen, wie sich das Genre mit den neuen Bildgeneratoren jüngst verändert hat und die dahinterliegenden KI-Verfahren. Dabei beleuchten sie schlaglichtartig die historischen Entwicklungen und die Herausforderungen für die Kunstgeschichte im Umgang mit den neuen Bildmedien.Schon lange vor der Veröffentlichung von Dall-E oder Midjourney nutzen Künstler*innen die Verfahren von Machine Learning und später Neuronalen Netzen bis zu generativen Modellen. Der Überbegriff AI Art umfasst Kunstwerke, die mithilfe von künstlicher Intelligenz und speziellen Algorithmen erstellt oder beeinflusst werden, wobei die Technologie entweder als Werkzeug für Künstler*innen dient oder autonom Kunstwerke generiert. Es umfasst eine breite Palette von Ausdrucksformen, die von algorithmisch gesteuerten Designs bis hin zu Werken reichen, die vollständig von KI-Systemen erzeugt werden. Das Genre ist aufgrund der heterogenen Werklage schwierig zu fassen.Doch mit dem öffentlichen Zugang zu den Verfahren über einfach zu bedienende Interfaces hat sich nicht nur das Genre AI Art geändert. Die neuen Bildgeneratoren lassen uns alle zu Künstler*innen werden: mit einem Prompt, einer Texteingabe an ein KI-System, werden Rechenprozesse angestoßen und neue Bilder generiert. Sie entstehen jedoch nicht in einem Vakuum, sondern sind Ergebnisse von Lernprozessen mit Millionen eingespeister Bilder. In dem Gespräch wird der Frage nachgegangen, wie wir mit diesen neuen Bildmedien in der Kunstgeschichte umgehen können. Was ist notwendig, um die dahinterliegenden Prozesse zu verstehen? Wie geht man beispielsweise mit Fragen des geistigen Eigentums um, wenn KI-Systeme von bestehenden Kunstwerken lernen? Und was hat die Mona Lisa damit zu tun? Wie beeinflusst die Verbreitung von ki-generierter Kunst den Kunstmarkt? Neben ethischen und rechtlichen Bedenken geht es aber auch um die Beziehung von Künstler*innen, Werk und Technik. Dabei wird klar, dass wir sowohl im bildwissenschaftlichen als auch gesellschaftlichen Diskurs mitten in einer Verhandlungsphase stecken. Wie gehen wir mit der Black Box Künstliche Intelligenz um? Was macht dieser neue Kanon und die versteckte, implizite Zensur hinter den Unser-Interfaces mit der Art uns Weise, wie wir diese Bilder verwenden und die Welt sehen? Es zeigt sich, dass vorherrschende Vorurteile durch die KI-Systeme verstärkt werden. Dabei wird auch deutlich, welche Verantwortung die Kunstgeschichte nun hat, die aktuelle Debatten mitzuführen.Dr. Fabian Offert ist Assistant Professor in History and Theory of Digital Humanities an der University of California, Santa Barbara. In seiner Forschung beschäftigt er sich schon lange mit den Wechselverhältnissen von Medien- und Kulturtheorie, Künstlicher Intelligenz und dem Einsatz von Computer Vision in den Geisteswissenschaften.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

BVDW Podcast
#58 Special: Connected-TV - Content und Metadaten

BVDW Podcast

Play Episode Listen Later Oct 4, 2023 51:45


Connected-TV - Content und Metadaten: Sehr viel mehr als nur Hintergrundrauschen im digitalen Zeitalter. In einer Welt, in der Streaming-Dienste den traditionellen Fernsehmarkt dominieren, sind CTV-Content und Metadaten zu Schlüsselkomponenten einer revolutionären Medienlandschaft geworden. In unserer neuen Podcast Folge des BVDW CTV Labs geben unser Lableiter Dustin Puschmann (VP Global Business Development Supply & Partnerships, ShowHeroes SE) gemeinsam mit Andrea Zenner (Managing Partner Media Consulting, EssenceMediacom Germany GmbH) von der Demand Side und Oliver Knappmann (CAO, Zattoo AG) von der Supply Side einen Deep Dive in den Bereich CTV Content und Metadaten. Im Sinne des CTV Labs ist es auch das Ziel dieser Podcast Folge, die fortschreitende Automatisierung von CTV zu begleiten, Best Practices zu teilen und Empfehlungen für den deutschen Markt auszusprechen. Was sich die Demand – und Supply Side zu sagen haben, was sie voneinander benötigen, welche Herausforderungen es gibt und wie sie reibungslos zusammenarbeiten können - all das erfahrt ihr in dieser Folge. Wer nicht hören, sondern lesen möchte, der bekommt in einigen Wochen die Ergebnisse der Folge in einem Onepager über die BVDW Kanäle zu Verfügung gestellt. Moderation: Dustin Puschmann (Stv. Lableiter im BVDW CTV Lab & VP Global Business Development Supply & Partnerships, ShowHeroes SE) Gäste: Oliver Knappmann (CAO, Zattoo AG) Andrea Zenner (Managing Partner Media Consulting, EssenceMediacom Germany GmbH) Vielen Dank an Phillip McDowell (Audio Content Creator, ShowHeroes) für die Produktion. Hosted on Acast. See acast.com/privacy for more information.

Linde Verlag - Steuern. Wirtschaft. Recht. Zum Hören.
#149 - Hannes Huber - Metadaten im Urheberrecht

Linde Verlag - Steuern. Wirtschaft. Recht. Zum Hören.

Play Episode Listen Later Sep 12, 2023 15:42


Ob Metadaten urheberrechtlich geschützt sein können, welche Funktionen ihnen im Urheberrecht zukommen und welche Risiken mit Metadaten verbunden sind. Dies und mehr erfahren Sie in diesem Podcast mit Hannes Huber. --- Send in a voice message: https://podcasters.spotify.com/pod/show/lindeverlag/message

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 6: Normdaten in der Kunstgeschichte

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Sep 6, 2023 56:55


In dieser Folge spricht Jacqueline Klusik-Eckert mit Angela Kailus M.A. und Julia Rössel M.A. über die Rolle von Normdaten in der kunsthistorischen Forschung und Praxis. Der Ursprung von Normdaten hängt mit einem bibliothekarischen Systematisierungsbestrebungen in den 1970er Jahren zusammen. Wie hat sich der Umgang und die Konzepte von Normdaten im Zuge der Digitalisierung verändert? Mit einem Blick hinter die Kulissen der Gemeinsamen Normdatei (kurz GND) werden die Zusammenhänge von Identifikationsnummer und den dahinterliegenden Informationen erklärt. Welchen Mehrwert für die eigenen Daten erzielt man durch die Verwendung von Normdaten? Für welche Begriffe bzw. Entitäten gibt es Normdaten? Wo findet man sie? Woher kommt dieses Wissen und wie muss man mit dem Normdatensatz umgehen? Wir sprechen auch über den Unterschied eines institutionell gepflegten und autorisierten Normdatensatzes (GND über die Deutsche Nationalbibliothek) im Vergleich zu crowd-based Normdatensätzen (Wikidata).Darüber hinaus stellt sich die Frage, inwieweit die Verwendung von Normdaten bereits Einzug in das Fach Kunstgeschichte gehalten hat.Wir beleuchten die Herausforderung für sammelnde Institutionen bei der Erfassung von Objekten und der Anreicherung der Sammlungsdaten mit Normdaten. Welche Standards helfen bei der Erfassung und wofür soll man den Aufwand mit Normdaten überhaupt betreiben?Dabei nehmen wir unterschiedliche Szenarien im Datenlebenszyklus unter die Lupe.Wo begegnen wir als Forscher*innen diesen Daten, wie können wir sie nachnutzen und welche Verantwortung haben wir selbst als Produzent*innen von Forschungsdaten, wenn es um die Anreicherung der eigenen Daten mit Normdaten geht?Angela Kailus M.A. ist stellvertretende Leiterin des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg, Philipps-Universität Marburg und Ansprechperson bei NFDI4Culture im Arbeitsbereich Standardisierung und Datenqualität.Julia Rössel M.A. ist Kunsthistorikerin und Mitarbeiterin an der Deutschen Digitalen Bibliothek, Fachstelle Denkmalpflege, DDK, Marburg . Neben ihrer Promotion über „Wechsel der Mediensysteme – Graphische Sammlung und ihre digitale Übersetzung“ hat sie sich in den Bereichen Digitalisierung und Museum, Datenqualität und Standards spezialisiert.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

OSINT Studio
#008 - Bildersuche und -analyse

OSINT Studio

Play Episode Listen Later Aug 30, 2023 41:53


In Folge 008 sprechen Samuel und Matthias über die Suche nach Bildern und die Überprüfung und Analyse von Bilddateien. Beide verraten, wie Ermittler Open Source Intelligence (OSINT) einsetzen können, um strukturiert Antworten auf entscheidende Fragen zu einem Foto zu erhalten. Entdecke eine spannende Episode über Metadaten und die Grundlagen der Bildforensik. Erfahre, wie Experten Bildmanipulationen erkennen und die Echtheit von Fotos überprüfen. Feedback & Anregungen an ⁠feedback@osint.studio⁠ © 2023 Samuel Lolagar & Matthias Wilson

Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz
Turtlezone Tiny Talks - Können wir Bildern noch vertrauen?

Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz

Play Episode Listen Later Aug 28, 2023 24:00


Angesichts der immer mächtigeren Möglichkeiten der Künstlichen Intelligenz zur fotorealistischen Bild- und Videogenerierung, und auch zur Manipulation, ist es spannend sich Gedanken zu machen, wie man verantwortlich mit den technischen Möglichkeiten umgehen und Missbrauch sowie Fake-Bilder und Videos erkennen oder noch besser verhindern kann. Ein Verbot von KI-Tools bringt da -nach aller Erfahrung- ebenso wenig wie die Unsitte, die Verantwortung einfach auf Facebook & Co abzuwälzen. Schließlich sind die größten Bildmanipulatoren in der Geschichte oft im Auftrage von Regierungen und Herrschern aktiv gewesen. Und Geheimdienste stoppt man nicht mit Gesetzen. Klar, es gibt natürlich auch die Entwicklung von Tools, die immer besser darin werden, Bildfälschungen zu entdecken - aber das ist wieder eher etwas für Forensiker, Ermittler oder Investigativ-Journalisten. Ein naheliegender Schritt wäre die Kennzeichnungspflicht von Bildern und eine Vorgabe, welche Angaben und Daten unter dem Bild stehen müssen. Aber das ist in vielen Fällen -rein produktionstechnisch- nicht praktikabel. Realistischer erscheint die Pflicht zu einfach auslesbaren Metadaten. Bei Erzeugung und mit Eintrag bei jedem Bearbeitungsschritt. Eine Verpflichtung aller Kamera- und Scanner-Hersteller, so wie die Softwarehersteller von Bildverarbeitungslösungen und auch von KI-Tools zur Verwendung einheitlicher Metadaten und zur Protokollierung in der Blockchain klingt verwegen. Dieser Ansatz hätte aber einen klaren Vorteil. Derzeit macht immer noch jeder was er will und zu viele Tools erlauben die Manipulation. Da könnte dann auch der Gesetzgeber ansetzen: Wer Metadaten absichtlich manipuliert, begeht eine Straftat. Auch das ist viel realistischer und einfacher als fortschrittliche Technologien und KI-Lösungen verbieten zu wollen.

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 5: 3D-Rekonstruktionen im wissenschaftlichen Kontext

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Aug 9, 2023 51:12


Jacqueline Klusik-Eckert spricht mit Dr. Heike Messemer, Center for Open Digital Innovation and Participation (CODIP) der Technischen Universität Dresden, über die Geschichte der 3D-Rekonstruktionen von Architektur und Platzanlagen.3D-Rekonstruktionen begegnen uns in der Kunstgeschichte an ganz unterschiedlichen Stellen. Mal sieht man sie in der Vermittlung von historischen Bauentwicklungen, mal als Modell für immersive Kamerafahrten durch den ursprünglichen Zustand von Architekturen oder Platzanlagen. In den seltensten Fällen wissen wir, wie diese 3D-Rekonstruktionen entstanden sind. Im Gespräch geht es genauso um die technischen Herausforderungen im Wandel der Zeit wie um die Frage nach der Akzeptanz der 3D-Modelle als neue Bildmedien in der Kunstgeschichte.Was macht eine wissenschaftliche 3D-Rekonstruktion aus? Wie sieht es mit der Nachvollziehbarkeit von Thesen oder Unsicherheiten aus? Kann ich einer Visualisierung vertrauen, wenn sie „aufgehübscht“ wurde?Der Mehrwert für eine interdisziplinär angelegte Forschung ist nicht von der Hand zu weisen. Können doch an den virtuellen Modellen unterschiedlichste Simulationen durchgeführt werden, um Thesen zu prüfen oder Hypothesen zu entwickeln. Auch die Nachnutzungsszenarien sind vielseitig. Und doch werden nur wenige 3D-Rekonstruktionen im Sinne einer guten wissenschaftlichen Praxis veröffentlicht. Welche Hürden es für die Publikation dieser besonderen Datenarten gibt, wird ebenfalls diskutiert.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://heidicon.ub.uni-heidelberg.de/#/detail/23777317Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

Audiodidakten
Kapitelmarken 2.0

Audiodidakten

Play Episode Listen Later Jul 22, 2023 12:27


Bisher haben wir Kapitelmarken mir Hilfe von PodLove in den Metadaten angegeben. Das konnten viele Podcatcher nicht anzeigen. In dieser Folge haben wir sowohl Kapitelmarken als auch Kapitelbilder in die Audiodatei integriert. Falls wir alles richtig gemacht haben, müsstet ihr beides jetzt sehen.

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 4: Visuelles Flanieren – Mit Computer Vision in großen Bildmengen suchen

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Jul 5, 2023 74:06


Im Zuge der Digitalisierung von Museums- und Archivbeständen sind wir in der Kunstgeschichte mit einer enormen Menge heterogener Bilddatenbanken konfrontiert. Aber wie können wir uns diese großen Bilddatenmengen erschließen? Was ist visuelles Suchen und wie funktioniert die Technik dahinter?In dieser Folge spricht Jacqueline Klusik-Eckert mit Prof. Dr. Peter Bell und Stefanie Schneider, M.Sc., über das visuelle Suchen in großen Bilddatenmengen. Dabei geht es neben einer Reflexion über unsere Suchstrategien in der Kunstgeschichte auch um Prototypen für das visuelle Suchen. Hierbei werden in experimentellen Anwendungen unterschiedliche Verfahren des Computersehens, Computer Vision, erprobt. Angefangen bei der Frage, ob es visuelles Suchen überhaupt schon gibt, werden unterschiedliche Suchverhalten und Routinen besprochen, wie man sich großen Datenmengen nähern kann. Dabei wird klar, dass das visuelle Suchen mittels Computer Vision Verfahren eher einem mäanderndem Flanieren ähnelt und hilft, über unsere menschlichen Wahrnehmungsgrenzen hinauszugehen. Welche Rolle diese Hilfsmittel bei der Erschließung von unkategorisierten Datenmengen spielen und wie man sie auch zur Inspiration für neue Forschungsideen nutzen kann, wird im gemeinsamen Gespräch erörtert.Dabei gewinnt man einen Einblick in die Technik hinter der Benutzeroberfläche. Denn oft ist nicht klar, was ein Algorithmus als “ähnlich” betrachtet oder warum gewisse Werke miteinander in eine Art Punktwolke, dem Skatterplot, gruppiert werden. Die beiden Experti*innen erklären die dahinterliegenden Verfahren und zeigen auch ihre Grenzen auf. Es wird klar, dass der Einsatz dieser digitalen Werkzeuge als Hilfsmittel auch immer mit einer Diskussion über facheigene etablierte Verfahren und Methoden des Recherchierens und Suchens einhergeht.Prof. Dr. Peter Bell ist Professor für Kunstgeschichte und Digital Humanities an der Philipps-Universität Marburg. In seiner Forschung beschäftigt er sich schon länger mit den Einsatzszenarien von Computer Vision für die Kunstgeschichte. In seiner Arbeitsgruppe wurde u.a. die Bildsuche imgs.ai von Fabian Offert entwickelt.Stefanie Schneider, M.Sc., ist Wissenschaftliche Assistentin für Digitale Kunstgeschichte an der Ludwigs-Maximilians-Universität München. Als Fachinformatikerin und ausgebildete Anwendungsentwicklerin hat sie schon einige Prototypen für die Digitale Kunstgeschichte entwickelt und spricht über das Projekt „iART – Ein interaktives Analyse- und Retrieval-Tool zur Unterstützung von bildorientierten Forschungsprozessen“Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://heidicon.ub.uni-heidelberg.de/#/detail/1738702Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unterpodcast@digitale-kunstgeschichte.de

Mission Bestseller - Self-Publishing Strategien & Tipps
Schreiben mit Chat GPT für Autorinnen und Autoren - Text KI und Textmaschinen

Mission Bestseller - Self-Publishing Strategien & Tipps

Play Episode Listen Later Jul 3, 2023 45:47


In dieser Podcast-Episode sprechen Tom Oberbichler und die Autorin Sandra Uschtrin über das Schreiben mit der Textgenerierungssoftware Chat GPT. Sie betonen die Bedeutung von Branding und Marketing für Autoren, um erfolgreich zu sein. Obwohl es eine Bereinigung im Buchmarkt gibt, besteht nach wie vor eine Nachfrage nach besonderen Geschichten. Neue Technologien wie Chat GPT können Autoren dabei helfen, verquere Sätze zu verbessern und ihren Schreibstil prägnanter zu gestalten. Die Qualität der gestellten Fragen ist entscheidend für gute Ergebnisse bei der Nutzung von Textmaschinen. Sandra Uschtrin teilt ihre Erfahrungen mit der Text KI (künstliche Intelligenz) Chat GPT bei der Erstellung ihres E-Books und betont die Wichtigkeit von Fachwissen für gute Ergebnisse. Sie erläutert auch ihren Prozess zur Planung des Buchinhalts und spricht über die Rolle von Trends in verschiedenen Genres. Tom Oberbichler erwähnt die Autorenwelt, eine Online-Buchhandlung, die Autoren und Autorinnen zusätzlich an den Verkaufserlösen beteiligt, und die Tätigkeit von Sandra Uschtrin für verschiedene Fachzeitschriften und den Uschtrin-Verlag. Die Podcast-Episode bietet einen spannenden Einblick in das Schreiben mit Chat GPT und gibt Tipps für Autorinnen und Autoren, die an neuen Schreibtechnologien interessiert sind. Es werden dabei sowohl das Schreiben von Romanen wie von Sachbüchern besprochen. Ich bin sehr gespannt auf deine Reaktionen und freue mich auf dein Feedback. Und hier der rss-Feed von »Dein Buch mit Tom Oberbichler«: http://dein_buch.libsyn.com/rss In dieser Podcast-Folge spreche ich unter anderem folgende Aspekte an: Wie kann man sich als Autor oder Autorin mit den neuen Entwicklungen im Buchmarkt wie Chat GPT auseinandersetzen, anstatt den Kopf in den Sand zu stecken? Welche Vorteile bietet die Nutzung von Textmaschinen (Text Kis) bei der Kommunikation mit Maschinen und auch im Umgang mit Menschen? Warum ist ein Faktencheck, insbesondere im Sachbuchbereich, so wichtig, gerade wenn Textmaschinen benutzt werden? Inwiefern können Textmaschinen wie "DeepL Write" oder Chat GPT Autorinnen und Autoren beim Schreiben unterstützen? Welche Rolle spielen Metadaten wie Titelvorschläge und Keywords bei der Verwendung von Textmaschinen? Wie können Textmaschinen dabei helfen, kreative und originelle Ergebnisse zu erzielen, anstatt nur vorhandene Inhalte neu aufzubereiten? Wie können Autoren und Autorinnen ihre Fachkenntnisse nutzen, um die besten Ergebnisse mit maschineller Unterstützung zu erzielen? Welche Gefahren und Herausforderungen ergeben sich durch die zunehmende Verwendung von Textmaschinen und KI-Technologien im Schreibprozess? Wie wichtig ist Branding und Marketing für Autorinnen und Autoren, um erfolgreich zu sein? Welche Möglichkeiten bieten sich Autoren und Autorinnen durch Plattformen wie Autorenwelt-Shop, um zusätzliche Einnahmen zu generieren und ihre Bücher zu vermarkten?  Hier die Links, die wir im Podcast ansprechen, und weiterführende Informationen, Tipps und Erfahrungsberichte rund um Bücher, eBooks und deinen Erfolg: Hier kommst du zu Sandra Uschtrins Buch „Schreiben mit Chat GPT für Autorinnen und Autoren: https://amzn.to/3NWBP4F Hier findest du die Autorenwelt: https://www.autorenwelt.de/ Hier stelle ich mit Sandra Uschtrin die Autorenwelt näher vor: https://mission-bestseller.com/folge-241-die-autorenwelt-ein-besonderer-buchshop-mit-sandra-uschtrin/ Hier findest du Castmagic, die Software, die bei der Erstellung dieser Shownotes verwendet wurde: https://mission-bestseller.com/castmagic Hier findest du alles rund ums Selfpublishing: https://mission-bestseller.com Kennst du schon den Mission Bestseller Club, die Erfolgsgemeinschaft für Selfpublishing-Autorinnen und Autoren? Einige der Links auf dieser Seite sind Affiliate-Links und ich erhalte eine Provision, wenn du über sie kaufst, die sich nicht auf deinen Kaufpreis auswirkt.

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Folge 3: Vom Suchen und Finden – Information Retrieval

#arthistoCast – der Podcast zur Digitalen Kunstgeschichte

Play Episode Listen Later Jun 7, 2023 47:50


Wie oft sucht man etwas am Tag im Internet oder in Datenbanken? Auch wenn es da keine genauen Zahlen gibt, ist die Antwort auf jeden Fall: oft. Information Retrieval, also die Informationsrückgewinnung, sorgt dafür, dass wir die Informationen in großen, komplexen Datensammlungen überhaupt wiederfinden. Aber wie funktioniert das?In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Lisa Dieckmann und Dr. Jürgen Hermes über das interdisziplinäre Fachgebiet Information Retrieval. Ist es nicht ein Problem, dass wir in einer Bildwissenschaft wie der Kunstgeschichte mit Texten suchen? Und woher weiß ich, ob ich alles gefunden habe, was in der Datensammlung drin steckt? Dr. Lisa Diekmann ist promovierte Kunsthistorikerin und Softwareentwicklerin und sorgt mit dem prometheus-Team dafür, dass wir nun schon seit 20 Jahren im prometheus-bildarchiv mit einer Suchanfrage in aktuell 121 Datensammunlungen suchen können. Dr. Jürgen Hermes ist Geschäftsführer des Instituts für Digital Humanities der Universität zu Köln und kennt sich mit sprachlicher Informationsverarbeitung und Suchmaschinen wie Google aus.Gemeinsam möchten wir herausfinden, was hinter dem Suchfeld passiert, warum man manchmal enttäuscht von den Ergebnissen ist und wie Suchmaschinen bei der Suche helfen, ohne dass man es merkt. Wir stellen auch die Frage, was eigentlich Relevanz ist und wie den unterschiedlichen Erwartungshaltungen von Benutzer*innen entgegenkommt.Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocastAlle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unterhttps://doi.org/10.11588/heidicon/1747388

Hessen schafft Wissen
#113: Texte und ihre Metadaten – Prof. Dr. Thomas Weitin über Digitale Literaturwissenschaft

Hessen schafft Wissen

Play Episode Listen Later May 9, 2023 58:42


Dass die Digitalisierung unser aller Leben verändert, ist längst keine Neuigkeit: Wir kennen sowohl ihre Verheißungen als auch ihre Verwerfungen. In dieser Episode von Hessen schafft Wissen widmen wir uns der Frage, welche konkreten Herausforderungen dort entstehen, wo traditionell analoge Gegenstände digital werden, und besprechen Methoden, um mit diesem Wandel umzugehen.Was heißt das konkret? Wir tauchen ein in das Feld der Digitalen Literaturwissenschaft und besprechen unter anderem, wie Mensch und Computer bei der Analyse literarischer Texte am besten zusammenarbeiten können.Die Digitale Literaturwissenschaft ist durch die Kombination herkömmlicher und digitaler Methoden charakterisiert. Auf der Basis genauer Lektüre, literaturgeschichtlichen Quellenstudiums und kulturwissenschaftlicher Kontextkompetenz werden Forschungsfragen so abstrahiert, dass sie sich für den Einsatz digitaler Tools operationalisieren lassen.Wie das genau funktioniert, welche Ziele die Digitale Literaturwissenschaft verfolgt und welcher Methoden sie sich bedient, dies und mehr erläutert in dieser Episode Prof. Dr. Thomas Weitin, der an der TU Darmstadt als Professor für Germanistik und Digitale Literaturwissenschaft lehrt und forscht.

Blue Alpine Cast - Kryptowährung, News und Analysen (Bitcoin, Ethereum und co)
Weitere US-Krypto Bank unter Beschuss? JPMorgan muss First Republic Bank kaufen? Bitcoin Hash Rate Risiko? MicroStrategy mit Bitcoin Gewinn! Sotheby's lanciert Marktplatz! Blur bringt NFT Lending und Mastercard will Wallets mit Metadaten ausstatten

Blue Alpine Cast - Kryptowährung, News und Analysen (Bitcoin, Ethereum und co)

Play Episode Listen Later May 2, 2023 11:08


Engineering Kiosk
#49 Die Zukunft: Software Repository Mining

Engineering Kiosk

Play Episode Listen Later Dec 13, 2022 54:55


Die Analyse von Metadaten aus dem Software-Entwicklungsprozess: Yey or Ney?Die wenigsten kennen den Begriff des Software Repository Minings, doch die meisten benutzen Features, die darauf zurückzuführen sind. Zum Beispiel der automatische Vorschlag von den richtigen Pull Request Reviewern.Es geht darum, auf Basis der Daten aus dem Softwareentwicklungsprozess neue Erkenntnisse zu gewinnen, um diesen einfacher und produktiver zu gestalten.In dieser Episode klären wir, woher die Daten kommen, wie man an diese gelangt, welche Anwendungsfälle es gibt, was die Herausforderungen dabei sind und wie ihr damit starten könnt.Bonus: Ob Andy bereits 50 Jahre alt ist und warum gute Architektur auch als Selbstschutz dient.Feedback (gerne auch als Voice Message)Email: stehtisch@engineeringkiosk.devTwitter: https://twitter.com/EngKioskWhatsApp +49 15678 136776Gerne behandeln wir auch euer Audio Feedback in einer der nächsten Episoden, einfach Audiodatei per Email oder WhatsApp Voice Message an +49 15678 136776LinksZyklomatische Komplexität: https://de.wikipedia.org/wiki/McCabe-MetriknPath Komplexität: https://de.wikipedia.org/wiki/Komplexit%C3%A4t_(Informatik)#Softwarekomplexit%C3%A4tBuilt with: https://builtwith.com/MetricsGrimoire: https://github.com/MetricsGrimoire/CHAOSS: https://chaoss.community/Tool CVSAnalY: https://github.com/MetricsGrimoire/CVSAnalYGrimoireLab: https://chaoss.github.io/grimoirelab/Bitergia: https://bitergia.com/Mining Software Repository Konferenz: http://www.msrconf.org/Semantic Versioning: https://semver.org/MySQL: https://www.mysql.com/de/GitHub Copilot: https://github.com/features/copilotEngineering Kiosk #44 Der Weg zum hochperformanten Team: https://engineeringkiosk.dev/podcast/episode/44-der-weg-zum-hochperformanten-team/Will My Patch Make It? And How Fast? Case Study on the Linux Kernel: https://dergipark.org.tr/tr/download/article-file/729012TYPO3-Rangliste "Contribution per quarter": https://forger.typo3.com/management/leaderboardAndy Grunwald - The story of my bachelor thesis about Software Repository Mining: https://andygrunwald.com/blog/the-story-of-my-bachelor-thesis-about-software-repository-mining/FOSDEM 2023: https://fosdem.org/2023/Sprungmarken(00:00:00) Intro(00:00:48) Das heutige Thema: Software Repository Mining(00:02:15) Warum kann Andy was zum Thema Software Repository Mining sagen?(00:04:03) Worum geht es beim Software Repository Mining?(00:05:48) Wie kommt man an die Daten der Software Repositories? Data- und Web-Mining(00:07:29) Klassische Anwendungsfälle von Software Repository Mining: Software Metriken, Velocity (Scrum) und womit wurde die Website gebaut?(00:13:07) Anwendungsfall: Analyse von Commits(00:15:12) Wer schaut sich solche Metriken? Wer kümmert sich um das Software Repository Mining?(00:17:40) Anwendungsfall: Analyse von Kopplungen von einzelnen Dateien(00:19:08) Ab wann macht Software Repository Mining Sinn? Wie schwierig ist es, sowas einzuführen?(00:22:35) Anwendungsfall: Der geeignete Code-Reviewer(00:23:36) Research: Nachvollziehbarkeit und Qualität von Source-Code(00:27:06) Anwendungsfall: Automatische Versioning auf Basis von Semantic Versioning(00:32:13) Anwendungsfall: Hot Topic Analyse(00:33:24) Anwendungsfall: Kontextbasierte Informationen in der IDE(00:37:27) Anwendungsfall: Review-Cycles im Pull Request als Datenpunkt fürs Mentoring und Coaching(00:39:28) Ranglisten und Gamification aus Basis von Code Contributions(00:41:14) Herausforderungen von Software Repository Mining: Unsaubere Daten, Data Storage, Cross-Linking und die Interpretation von Ergebnissen(00:48:21) Wie startet man am besten mit Software Repository Mining?(00:50:20) Andys Bachelor-Arbeit als Podcast(00:51:18) Warum ist Software Repository Mining ein Nischen-Thema?(00:54:00) Outro: FOSDEM KonferenzHostsWolfgang Gassler (https://twitter.com/schafele)Andy Grunwald (https://twitter.com/andygrunwald)Feedback (gerne auch als Voice Message)Email: stehtisch@engineeringkiosk.devTwitter: https://twitter.com/EngKioskWhatsApp +49 15678 136776

Startup Insider
MedTech Aignostics sammelt 14 Mio. Euro für KI-gestützte Pathologielösungen in Serie A ein (KI • Wellington Partners)

Startup Insider

Play Episode Listen Later Sep 26, 2022 21:30


In der Mittagsfolge sprechen wir heute mit Viktor Matyas, Co-Founder und CEO von Aignostics, über die erfolgreich abgeschlossene Series-A-Finanzierungsrunde in Höhe von 14 Millionen Euro. Aignostics ist ein Spin-off der Charité Berlin mit Fokus auf die Entwicklung von KI-Modellen, um Verständnis, Diagnose und Behandlung schwerwiegender Krankheiten zu verbessern. Dazu hat das Startup neuartige digitale Pathologielösungen mit Explainable AI für die pharmazeutische Forschung und Diagnostik entwickelt. Die tiefgreifende Analyse großer Datensätze aus Gewebeproben erfordert den Einsatz einer Künstlichen Intelligenz. Die detaillierte Analyse von Gewebeproben und die zugehörigen Metadaten werden deshalb im Auftrag von Blue-Chip-Kunden aus der Pharma- und Biotechnologiebranche von Aignostics übernommen. Die KI-Modelle gehen nach Unternehmensangaben weit über aktuelle Standardlösungen und etablierte Ansätze hinaus und decken die wichtigsten Gewebefärbetechnologien ab. Sie sollen eine Beschleunigung der prä-klinischen und translationalen Forschung ermöglichen, indem sie das Verständnis der Biologie von Krankheiten und Wirkmechanismen verbessern. Außerdem sollen neuartige Biomarker und Hinweise auf die Wirksamkeit von innovativen Arzneimittelkandidaten identifiziert werden können. Aignostics wurde im Jahr 2018 von Frederick Klauschen, Klaus-Robert Müller, Maximilian Alber und Viktor Matyas in Berlin gegründet. In einer überzeichneten Series-A-Finanzierungsrunde hat das MedTech nun 14 Millionen Euro unter der Führung von Wellington Partners eingesammelt. Der paneuropäisches VC verwaltet ein Fondsvolumen von rund 800 Millionen Euro, welches in Startups in der Gründungs- und Wachstumsphase aus den Bereichen digitale Medien, Cleantech und Biowissenschaften investiert wird. Zum Portfolio gehören mehr als 100 Unternehmen in Europa und Israel. Zudem haben sich auch der Boehringer Ingelheim Venture Fund, der von IBB Ventures verwaltete VC Fonds Technologie, der High-Tech Gründerfonds sowie der von Ascenion initiierte Carma-Fonds an der Serie A beteiligt. Mit dem frischen Kapital möchte das Jungunternehmen seine Präsenz und sein Team weiter ausbauen. Außerdem soll ein stärkerer Fokus auf den US-amerikanischen Markt gelegt werden, auf dem Aignostics seit Anfang 2022 aktiv ist. Zudem wird das Berliner MedTech mit der überzeichneten Finanzierungsrunde ab Anfang 2023 in der Lage sein, einen Entwicklungs- und Analyseprozess anzubieten, der mit „Good Clinical Practice“ konform ist. Im weiteren Verlauf können dann erste KI-Modelle in frühphasigen klinischen Studien eingesetzt werden. Infos der Werbepartner: ROQ: Gehe jetzt auf roq.tech/daily und erhalte die komplette Plattform 3 Monate lang for free. OMR Reviews: One more thing wird präsentiert von OMR Reviews – Finde die richtige Software für Dein Business. Wenn auch Du Dein Lieblingstool bewerten willst, schreibe eine Review auf OMR Reviews unter https://moin.omr.com/insider. Dafür erhältst du einen 20€ Amazon Gutschein.