POPULARITY
Die Bedeutung der digitalen Transformation für die eigene Wettbewerbsfähigkeit verstehen immer mehr Unternehmen. Aber der Glaube, dass ein unternehmensweites Datenmodell eine Voraussetzung für eine erfolgreiche Transformation ist, erweist sich oft als falsch. Im Gegenteil: Für die Modellierung wenden die Unternehmen viele Ressourcen auf, ohne jemals einen Nutzen zu erreichen. Professor Johner beleuchtet in dieser Podcast-Episode die typischen Fehler beim Erstellen dieser Datenmodelle und gibt Tipps, um diese Fehler zu vermeiden.
Erweitere dein Wissen über IT-Asset Management mit "Cybersecurity ist Chefsache".In der neuesten Episode begrüßt Nico Werner Alexander van der Steeg, CTO bei EntekSystems GmbH. In dieser spannenden Folge beleuchten sie, wie CMDB über eine einfache Inventarverwaltung hinausgehen und maßgeblich zur IT-Sicherheit beitragen kann.Ein zentrales Thema dieser Folge ist das flexible Datenmodell von CMDB und warum es für jedes IT-Asset Management unverzichtbar ist. Alexander erklärt, wie Unternehmen durch ein flexibles und erweiterbares Datenmodell ihre Datenhoheit und Risikomanagement verbessern können.Ein weiteres wichtiges Thema ist die Datenqualität und die Rolle von KI bei der Verbesserung und Automatisierung der Datenerfassung. Die Diskussion dreht sich um die Herausforderungen und Lösungen, die eine fortlaufende Datenqualität gewährleisten.Erfahrt in dieser Episode, warum CMDB als Prozess und nicht als einmaliges Projekt betrachtet werden sollte. Alexander teilt Praxisbeispiele erfolgreicher Implementierungen und Best Practices aus seiner umfangreichen Erfahrung.Hört rein und lernt, wie ihr euer IT-Asset Management auf das nächste Level heben könnt.
Erweitere dein Wissen über IT-Asset Management mit "Cybersecurity ist Chefsache".In der neuesten Episode begrüßt Nico Werner Alexander van der Steeg, CTO bei EntekSystems GmbH. In dieser spannenden Folge beleuchten sie, wie CMDB über eine einfache Inventarverwaltung hinausgehen und maßgeblich zur IT-Sicherheit beitragen kann.Ein zentrales Thema dieser Folge ist das flexible Datenmodell von CMDB und warum es für jedes IT-Asset Management unverzichtbar ist. Alexander erklärt, wie Unternehmen durch ein flexibles und erweiterbares Datenmodell ihre Datenhoheit und Risikomanagement verbessern können.Ein weiteres wichtiges Thema ist die Datenqualität und die Rolle von KI bei der Verbesserung und Automatisierung der Datenerfassung. Die Diskussion dreht sich um die Herausforderungen und Lösungen, die eine fortlaufende Datenqualität gewährleisten.Erfahrt in dieser Episode, warum CMDB als Prozess und nicht als einmaliges Projekt betrachtet werden sollte. Alexander teilt Praxisbeispiele erfolgreicher Implementierungen und Best Practices aus seiner umfangreichen Erfahrung.Hört rein und lernt, wie ihr euer IT-Asset Management auf das nächste Level heben könnt.
Erweitere dein Wissen über IT-Asset Management mit "Cybersecurity ist Chefsache".In der neuesten Episode begrüßt Nico Werner Alexander van der Steeg, CTO bei EntekSystems GmbH. In dieser spannenden Folge beleuchten sie, wie CMDB über eine einfache Inventarverwaltung hinausgehen und maßgeblich zur IT-Sicherheit beitragen kann.Ein zentrales Thema dieser Folge ist das flexible Datenmodell von CMDB und warum es für jedes IT-Asset Management unverzichtbar ist. Alexander erklärt, wie Unternehmen durch ein flexibles und erweiterbares Datenmodell ihre Datenhoheit und Risikomanagement verbessern können.Ein weiteres wichtiges Thema ist die Datenqualität und die Rolle von KI bei der Verbesserung und Automatisierung der Datenerfassung. Die Diskussion dreht sich um die Herausforderungen und Lösungen, die eine fortlaufende Datenqualität gewährleisten.Erfahrt in dieser Episode, warum CMDB als Prozess und nicht als einmaliges Projekt betrachtet werden sollte. Alexander teilt Praxisbeispiele erfolgreicher Implementierungen und Best Practices aus seiner umfangreichen Erfahrung.Hört rein und lernt, wie ihr euer IT-Asset Management auf das nächste Level heben könnt.
"Wusch! Die Rechner laufen heiß und die Bytes fliegen durch die Äther. Unsere beiden Datendandys, Eisi und Meisi, tauchen diesmal kopfüber in die Welt der Daten ein, um die Tiefen dieses faszinierenden Phänomens zu ergründen. Wir treffen auf Algorithmen, jonglieren mit Zahlen und Buchstaben, und werfen einen Blick auf die Verbindung von Daten und Literatur. Kann Data Science literarisch sein? Oder stoßen diese Welten aufeinander wie zwei gegensätzliche Pole? Diese und viele weitere Fragen werden wir gemeinsam erkunden, während wir uns durch den digitalen Dschungel kämpfen. Vielleicht stoßen wir dabei sogar auf den Datengeist von Ada Lovelace und lassen uns von ihrem Pioniergeist inspirieren. Natürlich dürfen wir auch in dieser Folge nicht auf die Texte aus unserem original EBMD Autor:innenpool verzichten. Sie bringen uns ihre ganz eigenen Perspektiven auf das Thema Daten näher und bereichern unsere Diskussion. Lasst uns gemeinsam eintauchen in die Welt der Daten und dabei die Magie der Literatur nicht aus den Augen verlieren! Datengetaktet und literarisch verknüpft, Pappy, der Redaktionspapagey“ (Dieser Ankündigungstext wurde zu 100% von einem Datenmodell erstellt und hat absolut nichts mit dem Inhalt der Episode zu tun. Danke.) Die Autor:innen - blumenleere - Matt S. Bakausky - David Telgin - Harald Kappel - Christian Knieps - Andii Weber - Jasper Nicolaisen Die Sprecher:innen - Verena Schmidt - Katrin ohneh Rauch - Elle:r Gülden - BakausKI - Kathi Mock
Dein Update zur Digitalisierung der Versicherungsbranche. Technologie entwickelt sich ständig weiter und es ist an uns, den Fortschritt zu verstehen, um so die Zukunft mitgestalten zu können. Red Hat Summit: Connect bringt Sie an vorderster Stelle dieser Entwicklung, damit Sie Wissen in Innovation umwandeln können. Hier geht es direkt zum Event! In dieser Folge des Digital Insurance Podcast spreche ich mit Max Kossatz, Financial Services Account Solution Architect bei Red Hat und Lukas Grubwieser, Solutions Architect bei Starburst. Red Hat ist der weltweit führender Anbieter von Open-Source-Softwarelösungen und unterstützt Unternehmen bei der Integration neuer und bestehender IT-Anwendungen, Entwicklung von Cloud-nativen und Daten getriebenen Anwendungen. Starburst ist ein führendes Unternehmen im Bereich des Data-Engineering und der Datenanalyse. Es hat sich darauf spezialisiert, Unternehmen dabei zu unterstützen, ihre Dateninfrastruktur zu optimieren und gleichzeitig datengetriebene Analysen und Anwendungen zu entwickeln. Daten sinnvoll einsetzen Eine zentrale Frage für viele Versicherer lautet: Wie lassen sich die vorhandenen Daten am besten nutzbar machen? Bei Red Hat und Starburst hat man sich genau über diese Frage Gedanken gemacht. Sie stecken in der Thematik drin und entsprechend können uns Max Kossatz und Lukas Grubwieser Antworten auf diese Fragen liefern. Der klassische Weg Informationen über Policen, Verträge usw. lassen sich zumeist nicht direkt analysieren. Die Daten liegen in Silos vor, erklärt Grubwieser. Sie lassen sich daher nicht mit denen aus anderen Abteilungen kombinieren. Der klassische Ansatz war lange Zeit: Wir duplizieren alle Daten in ein Data Warehouse und führen sie dort in ein Datenmodell zusammen. Nachteile hierbei sind: Diese Lösungen sind nicht skalierbar und teuer, so Grubwieser weiter. Zudem falle die fehlende Flexibilität des Datenmodells auf, sobald neue, unstrukturierte Daten hinzukommen. Der neue Weg Um Daten verwendbar zu machen, lassen sie sich entweder an einem Punkt konsolidieren, wie Grubwieser sagt, oder man baue ein dezentrales System auf. Hier sprechen wir vom Data Mesh. Ein Vorteil hierbei: Die Teams selbst verfügen über die Ownership über die Daten. Wichtig sei bei alledem, dass “du Daten als Produkt siehst”, so Kossatz. Andernfalls werfen die einzelnen Teams die Daten auf einen Haufen, worunter die Datenqualität leidet. Es bedarf eines Paradigmenwechsels im Unternehmen. Technologie entwickelt sich ständig weiter und es ist an uns, den Fortschritt zu verstehen, um so die Zukunft mitgestalten zu können. Red Hat Summit: Connect bringt Sie an vorderster Stelle dieser Entwicklung, damit Sie Wissen in Innovation umwandeln können. Hier geht es direkt zum Event! Links in dieser Ausgabe Zur Homepage von Jonas Piela Zum LinkedIn-Profil von Jonas Piela Zum LinkedIn-Profil von Lukas Grubwieser Zum LinkedIn-Profil von Max Kossatz #digitalisierung #datamesh #technologie Vertrauen Sie auf Ihren guten Ruf? Er ist Ihr Versprechen an Ihre Kunden. Mit ProvenExpert bauen Sie online Vertrauen auf, indem Sie authentische Kundenstimmen nutzen und sichtbar werden. Für unsere Hörer gibt es hier alle Infos sowie ein exklusives Angebot, um eure Online Sichtbarkeit durch Kundenbewertungen auf ein neues Level zu heben! geht es zu Ihrem exklusiven Angebot als Zuhörer des Digital Insurance Podcasts. ProvenExpert – Für alle, die wissen, dass Vertrauen mehr wert ist als Gold KI, Dynamisches Pricing, Embedded Insurance, Nutzungsbasierte Versicherung – Keylane setzt diese Themen bereits seit Jahren erfolgreich mit ihren Kunden um. Willst Du wissen, wie das funktioniert? Folge oder schreibe Keylane bei LinkedIn. Keylane – Unlock tomorrow! Das Digital Insurance Job Board ist live! Du suchst einen Job im Versicherungsumfeld mit Perspektive, spannenden Themen und in einem innovativen Team? Hier findest du die aktuellsten Stellen rund um Digital Insurance im DACH Raum.
Am 01. Juli 2023 wird Google sein beliebtes Analyse-Tool Universal Analytics einstellen. Nachfolger wird Google Analytics 4 sein (GA4). Für Online-Marketer wird damit eine neue Zeitrechnung eingeläutet. UA-Nutzer:innen müssen sich nicht nur an eine neue Benutzeroberfläche gewöhnen und auch neue Metriken kennenlernen. Auch neue Begriffe kommen hinzu. Marketer müssen sich also bei der Google Analytics 4 Umstellung auf ein paar wesentliche Veränderungen einlassen.digit.ly-Geschäftsführer Sebastian Dorn und Performance-Marketing-Managerin Wilma Leonhardt erklären, was dieser Wechsel auf GA 4 konkret bedeutet.In dieser Folge erfahrt Ihr,welches Datenmodell nun mit Google Analytics 4 nun zum Einsatz kommt und welche Begriffe und Metriken nun auftauchen,welche Funktionen Marketer bald nutzen können,warum sich die Aufbewahrungsdauer und -möglichkeiten nun mit dem Wechsel ändern werden,wie GA 4 mit Datenschutz und Cookieless Tracking umgehen wird undwas jetzt Werbetreibende erledigen müssen, um für die Umstellung auf Google Analytics 4 optimal vorbereitet zu sein. Über Sebastian Dorn, Wilma Leonhardt und Philip BolognesiSebastian Dorn, Geschäftsführer digit.ly GmbHWilma Leonhardt, Performance-Marketing-ManagerinPhilip Bolognesi, Head of Content bei digit.ly GmbH
Data Vault ist ein Ansatz zur Modellierung von Daten in einem Unternehmensdatenwarehouse, der sich auf Flexibilität und Skalierbarkeit konzentriert. Es nutzt drei Arten von Tabellen, um Daten zu organisieren: Hubs, Links und Satelliten.
Self Service bedeutet nicht No Service! Ob Templates, Standards, Workshops oder oder oder… Kai und Oliver erklären, wie man mit der richtigen Methodik schnell mit Self Service starten kann und welche Faktoren es braucht, damit das ganze erfolgreich umgesetzt werden kann. Das erfährst du in dieser Folge: - Reicht eine Tool-Schulung aus, um Mitarbeiter:innen zu Self Service zu befähigen? - Kann ich direkt starten? Oder sollte ich besser warten, bis mein Datenmodell ausgereift ist? - Wie starte ich? Welche Schritte muss ich gehen? - Inwiefern helfen mir Templates und Standards?
Es ist wieder so eine scheinbare no-brainer-Geschäftsidee. Das Menschen-CO2 muss schnell wieder weg und dazu müssen wir leider, leider unser Leben komplett umbauen. Aber alles hängt wie immer mit allem zusammen wie in einem Riesen-Mobilee: Energie, Produktion, Verbrauch, Mobilität, Ernährung, Natur, Menschen. „Wo stehen wir, wo fangen wir an und was können wir mit welchen Maßnahmen schaffen?“ fragen sich zunehmend hektischer die vielen Mobilee-Spieler:innen in unseren Städten und Kommunen. Dann ist noch wenig Zeit, denn letztlich steht unsere Existenz auf dem Spiel. Endgegner-Modus. Genau der richtige Moment für unsere beste Waffe. Die Digitalisierung. Das dachte sich auch Thomas Koller von enersis und startete sein Start-up enersis als IT- und Beratungsunternehmen für die Digitalisierung der Energiewirtschaft. Schon damals vor so ungefähr 10 Jahren ging es vor allem darum, Daten aus kaufmännischen und technischen Systeme von Energieversorgern so zu verbinden, dass digitale Applikationen und Dienstleistungen für eine nachhaltige Welt entstehen konnten. Es ging viel um erneuerbare Energien, um Trafostationen und um transparente Verteilnetze. Die Zeit bis heute war dann alles andere als ein no-brainer für enersis. Immerhin musste über die Jahre eine SimCity programmiert werden mit Häusern, Fabriken, Gebäuden, Straßen, Parks und den Energie- und Wassernetzen über und unter der Erde. Dazu kommt das, was und wie viel von den Menschen in einer Stadt, in einer Kommune (vor allem an Energie) produziert und verbraucht wird. All diese Daten mussten gefunden, sicher digitalisiert und über einen regelmäßigen Datenfluss in das Modell eingebunden werden. Daten, Daten, Daten – und dabei das Geldverdienen nicht vergessen. Heute hat sich die enersis-Lösung unter dem Slogan „climate intelligence“ zu einem zentralen Simulations-, Planungs- und Visualisierungsinstrument für die Erreichung und Kommunikation von Klimazielen entwickelt. Hört sich an, wie eine echte CO2-Killer-Applikation, oder? Ich beleuchte mit Thomas den nicht einfachen enersis-Weg der letzten Jahre und wir besprechen, welche Möglichkeiten die enersis-Lösung heute für unsere Städte und Regionen bietet und warum es den Preis von 1 EUR pro Einwohner:in im Jahr wert sein kann.
Für ihn sind sie die Nachfolger des Rohstuhls: Der österreichische Serienunternehmer Gregor Demblin setzt bei seinem neuen Startup voll auf Exoskelette. Dafür hat er ein dickes Investment in Millionenhöhe an Land gezogen und ist nun dabei, ein Datenmodell zu entwickeln, mit dessen Hilfe Therapien für Menschen mit Gehbehinderungen verbessert werden sollen. Im Podcast spricht Gregor Demblin über: - Die Finanzierungsrunde von 3,6 Millionen Euro - Wie Exoskelette funktionieren - Datenmodelle für Neuro-Therapien - Wie Exoskelette schnell günstiger werden können - Sein erstes Unternehmen myAbility - Die Serienunternehmer Elon Musk und Jack Dorsey Wenn dir der Podcast gefallen hat, gibt uns ein paar Sterne und/oder ein Follow auf den Podcast-Plattformen und abonniere unseren Podcast bei: - Spotify - Apple Podcast - Google Podcasts - Amazon Music - Anchor.fm und besuche unsere News-Portale - Trending Topics - Tech & Nature Danke fürs Zuhören!
FORCAM unterstützt Unternehmen mit innovativen Digitalisierungslösungen dabei, die digitale Transformation zur Smart Factory erfolgreich zu meistern und drei zentrale Herausforderungen von heute und morgen zu lösen: - Effizienz steigern, - CO₂-Fußabdruck reduzieren, - Widerstandsfähigkeit gewinnen. Die FORCAM FORCE™️-Lösungsfamilie basiert auf einer offenen Technologieplattform, die ein einheitliches semantisches Datenmodell - d.h. einen digitalen Zwilling der Fabrik - für Unternehmen erzeugt. Die Plattform dient als zentrale Datendrehscheibe zwischen der Maschinenebene und der Geschäfts- und Betriebsführungsebene und hilft Unternehmen, ihre Effizienz und Arbeitsabläufe mit Hilfe einer breiten Palette von Apps zu verbessern und so ihre Wettbewerbsfähigkeit zu steigern. Heute haben wir im Gespräch Dr. Andrea Rösinger, Co-CEO bei FORCAM, und das sind unsere Themen: 0:00 - Intro. 0:30 - Von SAP zu FORCAM. 1:55 - Was macht FORCAM? 5:13 - Über welche Daten sprechen wir hier? 9:20 - Wie sehen die Lösungen von FORCAM aus? 20:46 - Konkrete Beispiele. 35:00 - Industrie 4.0: wo stehen wir? 42:08 - Beiträge zur Nachhaltigkeit. 45:36 - Rolle als Co-CEO. 48:49 - Ausblick. 53:28 - Outro. --- Weiterführende Informationen: ► FORCAM: https://forcam.com/ ► LinkedIn Frau Rösinger: https://www.linkedin.com/in/andrea-roesinger-4241688/ ► LinkedIn Bernard: https://www.linkedin.com/in/bernardsonnenschein/ ► Schreib mir dein Feedback gerne an bernard.sonnenschein@datenbusiness.de und trete unserer Community bei unter https://community.datenbusiness.de/.
Der Performance Manager Podcast | Für Controller & CFO, die noch erfolgreicher sein wollen
Alljährlich zeichnet der ICV Internationaler Controller Verein vorbildliche praxisnahe Controlling-Leistungen mit dem renommierten Award aus. Die mit Praktikern und Professoren gleichermaßen besetzte Fachjury leitet der Vorsitzende des ICV-Kuratoriums, Prof. Dr. Utz Schäffer, von der WHU Otto Beisheim School of Management, Institut für Management und Controlling, Vallendar. Die Lösung der KUKA Deutschland GmbH beinhaltet den Aufbau eines Produkt-Lebenszyklus-Controlling im Segment Robotics der Kuka. Dieses generiert Informationen, die zusammen mit der technischen Infrastruktur aus dem implementierten Datenmodell ein automatisiertes Reporting über den Produkt-Lebenszyklus und funktionale Silos hinweg ermöglicht. Die entsprechenden Daten unterstützen die Vertriebs-, Produktions- und Investitionsplanung, ermöglichen faktenbasierte Entscheidungen in der Steuerung der R&D und des bestehenden Produkt-Portfolios. Die Werkzeuge und Methoden des Ansatzes werden mittlerweile auch von anderen Unternehmensbereichen übernommen. Das nominierte Projekt der KUKA Deutschland GmbH haben Andreas Wolferseder und Reinoud van der Vliet realisiert. Der Performance Manager Podcast ist der erste und einzige deutschsprachige Podcast für Business Intelligence und Performance Management. Controller und CFO erhalten hier Inspirationen, Know-how und Impulse für die berufliche und persönliche Weiterentwicklung. Weitere Informationen zu Peter Bluhm, dem Macher des Podcast, finden Sie hier: https://www.atvisio.de/unternehmen/ Unsere Bitte: Wenn Ihnen diese Folge gefallen hat, hinterlassen Sie uns bitte eine 5-Sterne-Bewertung, ein Feedback auf iTunes und abonnieren diesen Podcast. Zeitinvestition: Maximal ein bis zwei Minuten. Dadurch helfen Sie uns, den Podcast immer weiter zu verbessern und Ihnen die Inhalte zu liefern, die Sie sich wünschen. Herzlichen Dank an dieser Stelle! Sie sind ein Fan unseres Podcast? Sie finden uns auch auf diesen Kanälen: Exklusive Xing-Gruppe zum Podcast: https://bit.ly/3eKubH6 Exklusive LinkedIn-Gruppe zum Podcast: https://bit.ly/2zp6q7j Peter Bluhm auf LinkedIn: https://bit.ly/2x0WhwN Peter Bluhm auf Xing: https://bit.ly/2Kkxhne Webseite: https://atvisio.de/podcast Facebook: https://www.facebook.com/ATVISIO/ Twitter: https://twitter.com/atvisio Instagram: https://bit.ly/2KlhyEi Apple Podcast: https://apple.co/2RUMwaK Soundcloud: https://soundcloud.com/atvisio
Inhaltsstarke Kategorieseiten sind ein wertvolles Gut: Sie sorgen für Traffic und sind der wichtigste Hebel für die gute Sichtbarkeit eines Online-Shops. Das Problem dabei: Sie zu erstellen und vor allem topaktuell zu halten, verschlingt beliebig viele Ressourcen. Ressourcen, die an anderer Stelle besser gebraucht werden können. Die Lösung: Erstelle und pflege deine Kategorieseiten automatisch. Es ist einfacher als Du denkst. Wir erklären in dieser Folge die besten Herangehensweisen und zeigen auf, wie ein passendes Datenmodell für die Betextung von Kategorieseiten geschaffen wird. Vor allem aber erklären wir Dir, wie das Datenmodell automatisch mit Attributen befüllt werden kann. So hast Du immer aktuelle und performante Kategorieseiten am Start und senkst den Pflegeaufwand auf ein Minimum ab. Du hast Fragen oder Anregungen? Dann immer her damit: Schreibe an mail@textroboter-podcast.de
Lustige kleine Monster stürmen von links und rechts auf einen Tablet-Bildschirm. Bisher konnten kleine Kinder sie mit Zähneputzen verjagen. Möglich ist das durch einen Aufsatz, der analysiert in welcher Mundregion geschrubbt wird. Ein Spiel, das sechs- bis zwölfjährige erfolgreich fürs Zähneputzen begeistert und Playbrush zu einem erfolgreichen Startup aus Österreich gemacht hat. Jetzt gibt es Playbrush auch für Erwachsene. Allerdings werden die Daten hier anders verwendet: "Je besser du putzt, desto mehr Bonuspunkte bekommst du", sagt Playbrush-Co-Gründer Matthäus Ittner. Einlösen kann man diese Bonuspunkte bei Zahnärzten. "Im kleineren Abo gibt es weiße Zahnfüllungen bis zu 70,- Euro im Jahr und im großen Abo gibt es zusätzlich eine Mundhygiene im Wert von bis zu 110.- Euro," so Ittner. Welche Schwierigkeiten sich durch dieses Datenmodell ergeben und was Matthäus Ittner angehenden GründerInnen rät hört ihr im Talk! Außerdem trifft sich Anna Muhr mit Akakiko-Gründer Mi-Ja Chun zum Interview bei den Business Maniacs, dem JungunternehmerInnentag der jungen Wirtschaft. Als jüngstes von neun Kindern verließ Mi-Ja Chun ihre Heimat Korea Richtung Wien. Ausgehend von einem Obststand am Naschmarkt hat sie das Wiener Sushi-Imperium Akakiko aufgebaut. Foto c) Playbrush
Was das Revertieren unerwünschter Edits betrifft, so steckt OpenStreetMap noch in den Kinderschuhen. Wo die Wikipedia schon seit Urzeiten eine Revertierung von Spam oder Vandalismus per Mausklick ermöglicht, da verheddert man sich bei OpenStreetMap mit seinen vielen gegenseitigen Abhängigkeiten im Datenmodell ganz schnell in einem Dickicht - und das schlimmste ist, dass alles, was beim beim Reparaturversuch vorübergehend kaputtmacht, auch noch auf alle Zeiten gut sichtbar in der Historie dokumentiert ist. Frederik Ramm kann davon ein Lied singen und behandelt in diesem Vortrag eingehend die Ursachen für die Komplexität von Reverts in OpenStreetMap. Verschiedene häufige Szenarien werden vorgestellt und Strategien zur ihrer Bereinigung diskutiert. Dabei kommen die existierenden (Perl-)Skripte zur Anwendung, aber der Vortrag richtet sich durchaus auch an Programmierer, die auf diesem wichtigen Gebiet an eigenen Lösungen basteln möchten.
GeoKettle GeoKettle ist ein ETL-Programm für räumliche Daten. ETL steht für Extract, Load und Transform. GeoKettle basiert auf der OpenSource Software Pentaho Data Integration (Kettle) und ist mit der LPGL lizensiert. GeoKettle unterstützt dabei u.a. die OpenSource Bibliotheken GeoTools, Degree und gdal/oge und sextante. Ausgangslage Bei der Werraenergie, einem Energiedienstleister in Thüringen, stand aufgrund eines Systemwechsels im Bereich des CAD auch ein Umzug der Geodaten von einer Oracle-Datenbank in eine PostgreSQL Datenbank mit PostGIS an. Die Daten der Werraenergie lagen in einem nicht dokumentierten Datenmodell vor und konnten nur mit einem CAD als Shapedateien exportiert werden. Nach dem Export lagen 247 verschiedene Shapefiles vor. Das Versorgungsgebiet der Werraenergie ist allerdings so groß, dass der Export nur in 40 sich zum Teil überlagernden räumlichen Einheiten durchgeführt werden konnte, was in insgesamt 11.000 Shapefiles resultierte. Die Inhalte der Shapedateien ware zudem nicht eindeutig, sodass in einem Shapefile für Leitungen, sowohl die Leitungen mit Ihren Attributen als auch Hilfslinien für die Beschriftungen mit den gleichen Attributen beinhalten konnten. GeoKettle in action Beim Import der Daten in die PostgreSQL-Datenbank mussten folgende Arbeiten vorgenommen werden: Import der 11.000 Shapefile mussten in zwei verschiedene Datenbanken (Gas und Grundkarte) Verteilen von Objekten in einem Shapefile auf mehrere Tabellen Zusammenfassen von Objekte aus mehreren Shapefiles mit unterschiedlichen Attributfeldern in einer Tabelle Veränderung von Attributen Entfernen von redundanten Daten … Fazit Ohne den Einsatz von GeoKettle wäre die Datenmigration bei der Werraenergie kaum zu stemmen gewesen. Dabei hat sich GeoKettle als gut dokumentierte und leicht zu erlernende Software heraus gestellt, die eine echte Alternative zur FME darstellt.
Diese Animation stammt aus dem Kurs Business Intelligence im Online Wirstschaftsinformatik Fernstudiengang. Mehr Infos: http://oncampus.de/index.php?id=1205 In einem relationalen Datenbanksystem ist die grundlegende Datenstruktur die Relation, die sich als Wertetabelle visualisieren lässt. Das relationale Datenmodell geht zurück auf E.F. Codd, und mit SQL steht eine weit verbreitete deskriptive Abfragesprache zur Verfügung, die auf der relationalen Algebra basiert. Ziel der relationalen Datenmodellierung im Kontext der mehrdimensionalen Datenanalyse ist es, eine Abbildung zu finden, die folgenden Anforderungen genügt: -Die im konzeptuellen mehrdimensionalen Datenmodell enthaltene anwendungsbezogene Semantik (wie z.B. Klassifikationshierarchien) sollte nicht verloren gehen. -Mehrdimensionale Anfragen sollten effizient übersetzt werden können und die Abarbeitung dieser Anfragen durch ein relationales Datenbanksystem sollte in möglichst effizienter Weise geschehen können. -Die Wartung der auf dem Relationenschema basierenden Relationen (wie z.B. das Laden neuer Daten) sollte effizient möglich sein. Das relationale Datenmodell sollte somit der spezifischen Anfrage- und Aktualisierungscharakteristik bei der mehrdimensionalen Datenanalyse entsprechen. D.h. aber auch, dass hier bewährte Entwurfstechniken nicht zwingend im Bereich der OLTP-Applikationen anzuwenden sind. Hierzu zählt beispielsweise die im Bereich der operativen Systeme häufig anzutreffende Beachtung der funktionalen und mehrwertigen Abhängigkeiten der Daten durch Normalisierung der Relationenschemata. Bei der Umsetzung des mehrdimensionalen semantischen Datenmodells in eine Menge von Relationenschemata ist insbesondere ein Augenmerk auf die semantikerhaltende Abbildung der Klassifikationshierarchien der Dimensionen zu legen. Die Umsetzung eines Würfels ohne die Beachtung der Existenz von Klassifikationshierarchien der Dimensionen, die den Würfel aufspannen, ist hingegen mit einer Relation möglich.