POPULARITY
www.iotusecase.com#MQTT #EMQX #IoTPlattformFolge 169 auf einen Blick (und Klick):(14:52) Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus(19:51) Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien(28:55) Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessenPodcast ZusammenfassungEffiziente IoT-Datenflüsse – MQTT in der industriellen Praxis richtig nutzenIn dieser Folge erklärt Stefano Marmonti (EMQ GmbH), warum MQTT als leichtgewichtiges Protokoll eine zentrale Rolle im industriellen IoT spielt – und wie Unternehmen durch klare Datenstrukturen und vorgefertigte Integrationen viel Zeit und Kosten sparen können.Ob Sensoren, Maschinen oder Gateways: Wer hunderte bis Millionen Geräte im Feld hat, steht vor der Herausforderung, Daten effizient ins Backend zu bringen. Der MQTT-Broker EMQX bietet dafür über 45 Out-of-the-Box-Integrationen – darunter Kafka, SAP und Snowflake – und erspart vielen Teams die Entwicklung eigener Konnektoren.Was dich in der Folge erwartet:Wie ein Hersteller von Regensensoren mit MQTT 60 % der Telekommunikationskosten senken konnteWarum MQTT ideal für Anwendungen wie Smart Metering, Predictive Maintenance und bidirektionale Kommunikation istWie Store-and-Forward, schlanke Datenformate und definierte Topic-Strukturen für Zuverlässigkeit sorgen Was hinter dem Unified Namespace steckt – und wie Plug-and-Play mit Sparkplug gelingtWelche technologischen Trends wie Datenpipelines oder KI-gesteuerte Verteilung in Zukunft an Relevanz gewinnen Diese Folge richtet sich an alle, die IIoT-Systeme professionell betreiben oder aufbauen – von OT-Teams über Plattformarchitekt:innen bis zu IT-Strateg:innen in Industrie und Infrastruktur.Jetzt reinhören und erfahren, wie MQTT + EMQX helfen, Daten effizient dorthin zu bringen, wo sie gebraucht werden.-----Relevante Folgenlinks:Madeleine (https://www.linkedin.com/in/madeleine-mickeleit/)Stefano (https://www.linkedin.com/in/stefano-marmonti-07375a29/NeuronEX (https://www.emqx.com/en/products/neuronex)EMQ Plattform (https://www.emqx.com/en/pricing)OPC UA + MQTT (https://opcconnect.opcfoundation.org/2019/09/opc-ua-mqtt-a-popular-combination-for-iot-expansion/)MQTT Sparkplug (https://www.emqx.com/en/solutions/mqtt-sparkplug)Jetzt IoT Use Case auf LinkedIn folgen
Das in Artikel 15 DSGVO festgeschriebene Auskunftsrecht ist eines der zentralen Betroffenenrechte. Es gilt als ein wichtiges Instrument zur Kontrolle der eigenen Daten, an das sich Rechte zur Korrektur und Löschung von Daten anschließen. Per E-Mail lässt sich bei Unternehmen und Behörden erfragen, welche Daten zu welchem Zweck gespeichert sind, und woher sie stammen. Doch was auf den ersten Blick einfach klingt, wirft in der Praxis viele Fragen auf, wie die Diskussion im aktuellen c't-Datenschutz-Podcast zeigt. Zu Gast ist Bettina Blavert, Syndikusrechtsanwältin und Datenschutzexpertin bei der Sovendus GmbH. Sie sieht das Auskunftsrecht sehr positiv, auch wenn es Unternehmen einiges abverlangt. "Für Betroffene ist es Datenschutz zum Anfassen", sagt sie. Holger und Joerg stimmen zu, weisen allerdings auf Schwierigkeiten bei der Umsetzung des Rechts hin. So müssen Unternehmen Betroffene zunächst einmal eindeutig identifizieren, bevor sie Daten herausgeben, und das, ohne dabei selbst wieder zu viele Daten abzufragen. Außerdem sei die Frist von einem Monat durchaus knapp, wenn umfangreiche oder komplexe Datensätze zusammengestellt werden müssen. Auch inhaltlich gibt es Fallstricke: Müssen komplexe Datenstrukturen in Klartext übersetzt werden? Wie sieht es mit Daten aus, die zwar einen Personenbezug haben, aber zum Beispiel pseudonymisiert gespeichert sind? Und: Dürfen Geschäftsgeheimnisse oder Rechte Dritter einer Auskunft entgegenstehen? Die drei Diskutanten liefern Details aus der Praxis und stellen klar: Das Auskunftsrecht ist ein mächtiges Instrument für Betroffene, aber eben kein Selbstläufer. Unternehmen müssen ihre Prozesse genau prüfen und anpassen, um nicht in Schwierigkeiten zu geraten. Betroffene sollten wiederum genau überlegen, was sie mit einer Anfrage bezwecken wollen. Denn bei aller Auskunftsfreude: Wer es übertreibt, dem kann am Ende sogar der Missbrauch dieses Rechts vorgeworfen werden.
Mit Hilfe von Spatial Index-Strukturen einen schnellen Zugriff auf Geodaten gewährleistenDie Welt ist groß und wird weiter digitalisiert. Um alles Auffindbar und durchsuchbar zu machen, werden Geodaten von alles und jedem festgehalten: Nicht nur Längen- und Breitengrade (wenn es sich um die Erde handelt), sondern auch Höhe bzw. Tiefe, Zeit und etliche andere Metadaten. Diese Art von Daten nennen sich Spatial-Data oder auch Geospatial-Data.Um in großen Datenmengen einen schnellen Zugriff zu gewährleisten, verwenden Softwaresysteme, wie zB Datenbanken, Indexstrukturen, auch Indizes, genannt. Eine zusätzliche Form der Speicherung durch die Nutzung hoch optimierter Datenstrukturen. Welche Indexstrukturen werden eigentlich bei Geospatial-Daten genutzt? Das ist das Thema dieser Episode. Wir sprechen über die Anwendungsfälle von Geospatial-Data, warum eine klassische Struktur wie ein B-Baum nicht für diese Art von Daten geeignet ist, was Gridfiles, Quadtrees, KD-Trees, R-Trees und Geohashing ist und wie diese funktionieren, ob all dies selbst implementiert werden muss oder wir auf bereits existierende Datenbanksysteme zurückgreifen können und klären, was der Fluch der Dimensionalität ist und was dies mit dem Thema AI zu tun hat.Bonus: MongoDBs Marketing-Initiative auf Basis von Spatial-Index-Strukturen.Unsere aktuellen Werbepartner findest du auf https://engineeringkiosk.dev/partnersDas schnelle Feedback zur Episode:
Hannah Bast ist Leiterin der Professur für Algorithmen und Datenstrukturen an der Uni Freiburg. Mit Claudia Koschtial spricht sie über ChatGPT und welche Gedankenspiele durch diesen Durchbruch auf einmal möglich wurden. Denn vor 10 Jahren war das, was mit ChatGPT heute alles möglich ist, noch meilenweit entfernt. Die beiden gehen der Frage nach welchen Einfluss die menschenähnliche Kommunikation mit einer Maschine auf andere Lebensbereiche hat. Außerdem besprechen Hannah und Claudia was die Spracherkennung für eine Rolle spielt und ob wir nett zu den Maschinen sein sollten, weil diese vielleicht irgendwann über uns entscheiden?!
In diesem Jobcast® hörst du Sarah und Rick von Jochen Schweizer MyDays. Sarah kümmert sich um den kreativen Teil der Produktgestaltung, während Rick für die Preisgestaltung zuständig ist. Inhalte dieser Episode: • Sarah ist für die Gestaltung und das Design der Boxen bei Jochen Schweizer MyDays verantwortlich. • Rick konzentriert sich auf die Preisgestaltung der Produkte und analysiert, wie sich Preisänderungen auf das Kundenverhalten auswirken. • Beide betonen die Wichtigkeit von Teamarbeit und wie sehr sie die Unterstützung ihrer Kollegen schätzen. • Sarah genießt es, ein physisches Produkt zu gestalten, das man am Ende in der Hand halten kann. • Rick hat gelernt, aus komplexen Datenstrukturen konkrete Handlungsempfehlungen abzuleiten. • Das Arbeitsumfeld bei Jochen Schweizer MyDays wird als offen, hilfsbereit und dynamisch beschrieben. • Multitasking und die Fähigkeit, mehrere Projekte gleichzeitig zu managen, sind entscheidend für den Erfolg in ihren Rollen. • Ein Highlight im Büro ist eine Rutsche vom vierten Stock in den Empfangsbereich, die als kleines Team-Event genutzt wird. Über den OHRBEIT Jobcast-Channel: ⭐️⭐️ Lass Sterne regnen - am besten fünf davon in der Spotify App und folge uns! Dankeschön! ⭐️⭐️ Hilf mit und erzähle deinen Freund*innen und Arbeitskolleg*innen von OHRBEIT, damit noch mehr Unternehmen durch Jobcasts transparenter werden! Arbeitst du selbst im Recruiting oder HR-Marketing und suchst innovative Ansätze in der Gewinnung von neuen Talenten? Dann vereinbare über unsere Website einen
Artur spricht mit Steffen über die Entwicklung komplexer Datenstrukturen, die Vorteile der Echtzeitnutzung von Power BI, Advanced Data Preparation, Fabric sowie Steffens Erfahrungen mit Direct Lake. Als Head of Analytics im eCommerce ist Steffen im wahrsten Sinne des Wortes Data Driven und treibt neue Themen aktiv voran. Bei AXRO ist der Bedarf nach Real-Time echt und die Themen und das Team rund um BI mit der Zeit stark gewachsen. Self-Service wird sehr aktiv gelebt, die BI Nutzungsquote erreicht die 50% aller Beschäftigten und neue Techniken werden zeitnah eingeführt. Auch in leitender Position hat Steffen weiterhin einen starken Bezug zur Praxis, was sofort zu merken ist, wenn er mit Artur über die Architektur aus Dataflows und einem Data Warehouse spricht und die Mehrwerte durch die neuen Möglichkeiten von Fabric klar hervorhebt. Steffen hat BWL und VWL in Kiel studiert und dabei eine Passion für das Thema Datenanalyse entwickelt. Seit er 2010 mit Powerpivot begonnen hat, ist er ständig im Microsoft Data Bereich aktiv gewesen und hat sich ein kompetentes Team aus Data Analysten und Data Engineers aufgebaut, die täglich solche spannenden Dinge wie DataVaults, Sternschemas und Measures usw. realisieren. Das er direkt gegenüber einem Cafe namens Fabric wohnt, hält er für keinen Zufall
„Wir wollen ändern, wie Menschen Gesetze erleben." Deshalb soll Österreich bald eine neue Web-based App bekommen: mypaperwork.ai heißt sie. Hinter dem Startup stehen Unternehmerin und Medienmacherin Maggie Childs und ihre beiden Co-Founders Vit Lichtenstein und Benjamin Wolf. Die drei nehmen sich einem großen sozioökonomischen Problem an: der Beantragung eines Aufenthaltstitels in Österreich beziehungsweise in der EU. mypaperwork.ai soll Antragsteller:innen durch den Prozess begleiten und Datenstrukturen mithilfe von künstlicher Intelligenz besser aufbereiten - personalisierter KI-Chatbot inklusive. Die Themen: Aufenthaltstitel: Hürden und Bürokratie Hintergrund zur Gründung Wie KI die User-Journey unterstützen wird Geschäftsmodell Das Produkt Offizieller Launch Keine Zusammenarbeit mit der MA35 Warum jede:r das Land frei wählen dürfen sollte Vision mypaperwork.ai Wenn dir diese Folge gefallen hat, lass uns doch vier, fünf Sterne als Bewertung da und folge dem Podcast auf Spotify, Apple Music und Co. Für Anregungen, Kritik, Feedback oder Wünsche zu künftigen Gästen schick uns jederzeit gerne eine Mail an feedback@trendingtopics.at. --- Send in a voice message: https://podcasters.spotify.com/pod/show/trending-topics/message
In dieser Folge wird generded. Wir sprechen über hukl's Checklist und CSS Eskapaden, Lieblingsalgorithmen und Datenstrukturen und gegen Ende berichten wir wie wir Git benutzen, wobei hukl seine sehr eigene aber anscheinend funktionierenede Git Strategie erklärt. Letty kontert das Generde zwischendurch mit Natur und Zeitzonen.
Über Daten im Allgemeinen und das Vorgehen beim Aufbau datengetriebener Organisationen sprechen wir mit Sebastian Wernicke, selbständiger Data Scientist und Autor des Buches "Data Inspired - Erfolgskonzepte für die datengetriebene Organisation". Auf Basis seines Buches sprechen wir darüber was eigentlich alles falsch ist mit dem viel verwendeten Spruch "Daten sind das neue Öl" und darüber, was Datengetriebenheit eigentlich bedeutet. Aller Anfang ist bekanntlich schwer: Sebastian erklärt, wo man als Unternehmen, das datengetrieben werden möchte, überhaupt anfangen soll. Spoiler: Es kommt gerade am Anfang nicht auf die Tools an. Am Beispiel eines Forschungsgeräteherstellers erläutert Sebastian, wie wichtig die richtige Strategie ist. Der Wille zur Nutzung von von Daten genügt nicht, sondern muss unterfüttert werden. Man muss sich als Unternehmen am Anfang die richtigen Fragen stellen, um eine kostenintensive aber nutzlose Digitalisierung des "Status Quo" zu vermeiden. Sebastian zeigt hier wichtige Stolpersteine auf, die man als Unternehmen möglichst vermeiden sollte. Neben Stolpersteinen geht Sebastian auch auf Missverständnisse in Bezug auf Daten ein. So sind Daten beispielsweise entgegen verbreiteter Auffassung gar nicht objektiv und eindeutig in ihrer Interpretation. Weil es um Daten geht kommen wir natürlich auch nicht um das Thema künstliche Intelligenz rum. Wir sprechen mit Sebastian über Kernpunkte, auf die es beim Umgang mit KI und der Entwicklung von KI zu achten gilt und seine Erfahrungen im Umgang mit bestehenden Regulierungen im Rahmen seiner Beratungstätigkeiten. Zum Abschluss gibt Sebastian noch drei Tipps für Unternehmen, die sich von ihren Daten und denen Dritter inspirieren lassen wollen. In den News berichtet Marcus über ein aktuelles Projekt, in dem wir für einen SaaS-Anbieter geprüft haben, ob dieser unter den Anwendungsbereich der NIS2-Richtlinie fällt und was das eigentlich für Folgen hat. Martin erzählt von einem aktuellen Data Act-Projekt in dem das Team geprüft hat, ob der Data Act Anwendung findet auf eine Mandantin. Hierbei ging es ausnahmsweise nicht um die Vorschriften der ersten Kapitel und "vernetzten Produkten" oder "verbundenen Diensten", sondern um die Kategorisierung als "Datenbearbeitungsdienst" und wie dieser Begriff auf unserer Seite für eine kleine Überraschung gesorgt hat.
In der heutigen Folge begrüße ich Carmen Listl von der BMW Group zum Interview. Als Expertin für die digitale Produktion bei BMW sprechen wir über die Inhalte und Ziele des DIAMOND-Projekts. Dabei spielt vor allem die Vereinheitlichung der Prozesse und Datenstrukturen in der Automobilindustrie eine wesentliche Rolle. Was das für Hersteller, OEMs und generell die Zulieferer-Ketten bedeutet, erfährst du in dieser Folge. Viel Spaß, Wolfgang
Über den Data Act und die Vorteile vom Teilen von Daten sprechen wir mit Hubertus von Roenne, selbständiger Digitalisierungs- und Datenberater. Wir sprechen über die Europäische Datenstrategie im Allgemeinen und den Data Act im Besonderen. An konkreten Beispielen bereden wir, welche Unternehmen von der neuen Gesetzgebung betroffen sind und was das für sie bedeutet. Am Beispiel von BMW und den Mainzer Stadtwerken erläutert Hubertus, wie wichtig das Teilen und die Nutzung von Daten ist. Es macht einen großen Unterschied, ob der E-Flottenbetreiber die Batteriedaten unmittelbar vom Hersteller bekommt, oder mühsam selbst das Verhalten der Batterien in seinen Fahrzeugen messen und bewerten muss. Wir arbeiten heraus, dass der Data Act zwar auch für den B2C-Bereich gilt, seine volle Wirkung aber wohl eher im B2B-Sektor und der öffentlichen Hand entfalten wird. Wir sprechen über die Abgrenzung zu personenbezogenen Daten und mögliche Ausflüchte von Unternehmen, Daten nicht zu teilen. Neben dem Datenschutz kommt hier vor allem der Schutz von Urheberrechten und Geschäftsgeheimnissen in Betracht. Auch die DSGVO enthält (in Art. 20) einen Anspruch der Betroffenen auf Datenübertragbarkeit. Hubertus erläutert, warum er glaubt, dass der Data Act hier deutlich stärker sein wird. Schließlich schauen wir auf die Praxis in Unternehmen: Wie müssen Daten aufbereitet werden? Warum ist Data Governance wichtig? Was ist der Schlüssel zu einer sinnvollen Datenstrategie? Was sind die Haupthindernisse für eine Datenrevolution in den Unternehmen? Spoiler: "Dürfen wir nicht! Können wir nicht! Wollen wir nicht!" In den News berichtet Marcus über ein aktuelles Projekt, in dem wir AGB und Datenschutzinformationen für den Hersteller einer Hörbuchbox - ganz ohne vernetzte Daten oder Software-as-a-Service. Martin erzählt von einem aktuellen DSA-Projekt für eine größere Plattform, an dem das Digital-Team arbeitet. Wir besprechen die Hintergründe des Digital Services Act und einige Detailfragen, zum Beispiel KYC-Regeln und Informationspflichten für Plattformbetreiber. Außerdem geht es um Art. 25 DSA und das Verbot von Dark Patterns - whatever that is.
#DataManagement #Korrelationen #DataOwnershipwww.iotusecase.comIn der 119. Folge des IoT Use Case Podcasts geht es um die innovative Integration und Nutzung von Daten in Unternehmen, illustriert anhand konkreter Use Cases wie dem "Product Carbon Footprint", Kundendatenabgleich und AI-basiertem Modelltraining.Die Episode beleuchtet, wie die Firmen Steadforce und Starburst Data gemeinsam innovative Datenlösungen entwickeln und umsetzen. Madeleine Mickeleit begrüßt zwei Experten: Stephan Schiffner, CTO von Steadforce, und Roland Mackert, Head Alliances & Ecosystem; Partnermanager bei Starburst Data.Folge 119 auf einen Blick (und Klick):[11:12] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus[26:56] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten TechnologienZusammenfassung der PodcastfolgeEin zentrales Thema der Podcastfolge ist das Konzept des Data Mesh, entwickelt von Zhamak Dehghani. Data Mesh bricht traditionelle, monolithische und zentralisierte Datenstrukturen auf und betrachtet Daten aus einer neuen Perspektive. Das Konzept basiert auf vier Prinzipien: Domain Ownership, Betrachtung von Daten als Produkt, Förderung von Self-Service und geförderter Governance.Beide Experten diskutieren verschiedene Use Cases, die durch diese Art von Datenintegration ermöglicht werden. Ein Beispiel ist die Korrelation von Vertriebs- und Produktionsdaten, um Kundeninformationen abzugleichen und Analysen durchzuführen. Ein weiteres Beispiel ist der "Product Carbon Footprint", bei dem Daten aus verschiedenen Quellen wie ERP-Systemen und Produktionsdaten zusammengeführt werden müssen.Abschließend betonen Stephan Schiffner und Roland Mackert die Vorteile der dezentralisierten Datenansätze. Diese ermöglichen es Unternehmen, flexibel und effizient auf ihre Daten zuzugreifen und diese für geschäftliche Entscheidungen und Analysen zu nutzen. Die Technologie von Starburst Data, die auf der Trino SQL-Query-Engine basiert, spielt dabei eine entscheidende Rolle.---Relevante Folgenlinks:Stephan (https://www.linkedin.com/in/stephan-schiffner/)Roland (https://www.linkedin.com/in/roland-mackert/)Madeleine (https://www.linkedin.com/in/madeleine-mickeleit/)Jetzt IoT Use Case auf LinkedIn folgen
Um Eigenschaften und Unterscheidungsmerkmale von Programmiersprachen geht es in der einhundertzweiundachzigsten Episode des IT-Berufe-Podcasts. Inhalt Was ist eine Programmiersprache? Programmiersprache: „Eine Programmiersprache ist eine formale Sprache zur Formulierung von Datenstrukturen und Algorithmen, d.h. von Rechenvorschriften, die von einem Computer ausgeführt werden können.“ [Herv. d. Verf.] Bausteine von Algorithmen: Sequenz, Verzweigung (z.B. if, switch, aber auch... Der Beitrag Eigenschaften und Unterscheidung von Programmiersprachen – IT-Berufe-Podcast #182 erschien zuerst auf IT-Berufe-Podcast.
There are only two hard things in Computer Science: cache invalidation and naming things.Caches sind einfach überall. Jede Aktion auf einem Computer nutzt eine Vielzahl an Caches. Sei es der Browser Cache, DNS-Cache, In-Memory Cache auf dem Server oder dein lokaler CPU Cache L1-L4. Doch was sind Caches eigentlich? Welche Cache-Layer und Cache-Hierarchien gibt es? Wie funktionieren Caches? Wie kann ich Cache-freundlich programmieren? Was passiert, wenn der Cache voll ist und was sind Eviction-Policies? Wie relevant sind heutzutage eigentlich die CPU-Caches L1 bis L4 für die normalen Software-Entwickler*innen? Wie kann ich verifizieren, ob mein Code Cache-freundlich ist? Und warum ist Cache Invalidation eigentlich ein hartes Problem?Bonus: Was Bandlaufwerke mit Caching und niederländisches Hähnchen mit Queues zu tun haben.Das schnelle Feedback zur Episode:
Es gibt viele Möglichkeiten, Code etwas erzählen zu lassen. Ich versuche, Ihnen das am Beispiel der Fibonacci-Zahlen zu verdeutlichen. Rein funktional betrachtet liefert in unserem Beispiel jede Erzählung das gleiche Ergebnis. Und dennoch löst die Erzählung etwas in Ihrem Kopf aus. Sie veranschaulicht Ihnen auf verschiedene Weisen, wie vorgegangen wird und welcher gedanklichen Konstrukte sich dabei bedient wird. Erzählen Sie den Code mit Anweisungen oder mit Ausdrücken? Welche Datenstrukturen verwenden Sie dabei – und wie verwenden Sie die Datenstrukturen? Ich finde es überraschend, dass sich die Berechnung der Fibonacci-Zahlen mit so vielen Erzählungen bzw. Erzählvarianten darstellen lässt. Und sicher gibt es noch viele, viele mehr. Meinen Code, den ich bespreche, finden Sie hier: https://gist.github.com/denkspuren/c99c64d3c0cbee966e8a9ec74708af5d Dazu gibt es auch ein YouTube-Video, wenn Sie Interesse haben: https://youtu.be/dOi0gFhb3eg
Redis - Der open source, in-memory data structure serverViele Software-Engineers haben bereits von Redis gelesen. Primär im Anwendungsfall eines Caches. Doch das ist bei weitem nicht alles, was Redis unter der Haube hat. In dieser Episode schauen wir uns den Data Structure Server mal genauer an. Was ist Redis? Welche Datentypen unterstützt dieser? Was ist Geospatial und HyperLogLog? Kann Redis meine Daten auch persistieren? Welche Use-Cases gibt es neben dem Caching? Wer ist eigentlich der Kopf hinter Redis? Und wie kann ich Redis erweitern, falls ich noch mehr Funktionalität brauche? All das und noch viel mehr Hintergrundwissen zu Redis in dieser Episode.Bonus: Wann unser Co-Host Andy und wann Andreas genannt wird und was Clippy von Word mit Redis zu tun hat.Feedback (gerne auch als Voice Message)Email: stehtisch@engineeringkiosk.devMastodon: https://podcasts.social/@engkioskTwitter: https://twitter.com/EngKioskWhatsApp +49 15678 136776Gerne behandeln wir auch euer Audio Feedback in einer der nächsten Episoden, einfach Audiodatei per Email oder WhatsApp Voice Message an +49 15678 136776LinksEngineering Kiosk Episode #53 Cloud / NoCode/ AI / ChatGPT ersetzen unsere Jobs?: https://engineeringkiosk.dev/podcast/episode/53-cloud-nocode-ai-chatgpt-ersetzen-unsere-jobs/Redis: https://redis.io/Redis Data types: https://redis.io/docs/data-types/MySQL Spatial Data types: https://dev.mysql.com/doc/refman/8.0/en/spatial-types.htmlEngineering Kiosk #28 O(1), O(log n), O(n^2) - Ist die Komplexität von Algorithmen im Entwickler-Alltag relevant?: https://engineeringkiosk.dev/podcast/episode/28-o1-olog-n-on2-ist-die-komplexit%C3%A4t-von-algorithmen-im-entwickler-alltag-relevant/Redis Persistence: https://redis.io/docs/management/persistence/Consistent hashing: https://en.wikipedia.org/wiki/Consistent_hashingRedis Cluster: https://redis.io/docs/management/scaling/Learn Redis the hard way (in production): https://tech.trivago.com/post/learn-redis-the-hard-way/memcached: https://memcached.org/GitHub Issue #1771: "Software watchdog crashes redis during rdb save point": https://github.com/redis/redis/issues/1771Salvatore Sanfilippo (antirez) auf GitHub: https://github.com/antirezPL/SQL: https://de.wikipedia.org/wiki/PL/SQLRedis Scripting with Lua: https://redis.io/docs/manual/programmability/eval-intro/Redis Modules: https://redis.io/resources/modules/Redis Clients: https://redis.io/resources/clients/Redis serialization protocol (RESP) specification: https://redis.io/docs/reference/protocol-spec/DB Engines: https://db-engines.com/en/rankingRedis vs. MySQL Benchmarks: https://dzone.com/articles/redis-vs-mysql-benchmarksSprungmarken(00:00:00) Intro(00:00:49) Die Datenbank Redis, wie wir zu dem Thema kommen und warum andere oft Redis wollen(00:03:32) Was ist Redis?(00:06:51) Wie sicher sind meine Daten im In-Memory-Store Redis?(00:08:07) Was ist Geospatial im Kontext von Redis?(00:09:34) Was ist HyperLogLog?(00:12:13) Was sind BitMaps und BitFields?(00:14:19) In Redis fängt alles mit einem Key an: Key-Value(00:17:07) Warum sollte ich Redis nehmen und nicht eine MySQL-Datenbank?(00:19:21) Persistenz-Modelle in Redis: RDB und AOF(00:25:49) Redis Cluster und Leader-Follower Architektur(00:26:55) Wie Andy zu Redis kam(00:31:36) Use-Cases von Redis: Caching, Delayed writes(00:34:26) Ist Redis eine Datenbank?(00:36:08) Salvatore Sanfilippo, antirez, der Autor von Redis(00:40:09) Fallstricke von Redis: Persistenz, Key-Struktur, Verschachtelte Datenstrukturen(00:43:16) Lua Scripting in Redis(00:45:26) Neue Daten-Strukturen durch Redis Modules(00:48:00) Redis Protokoll und Kommunikation mit Redis(00:49:52) Kommerzieller Support von Redis und Firmen-Konstrukt hinter Redis mit RedisLabs(00:55:27) Redis in der Cloud-Welt: GCP Memory Store, AWS ElastiCache, Azure Cache for Redis(00:59:36) Andys Lieblings-Datenbank und nicht erwähnte Themen: Cluster, Streams, twemproxy, Redis SentinelHostsWolfgang Gassler (https://mastodon.social/@woolf)Andy Grunwald (https://twitter.com/andygrunwald)Feedback (gerne auch als Voice Message)Email: stehtisch@engineeringkiosk.devMastodon: https://podcasts.social/@engkioskTwitter: https://twitter.com/EngKioskWhatsApp +49 15678 136776
Anwendung eines Datawarehouse (DWH). DWH Verwendung in der Praxis. Beispiele zur Modellierung der Datenstrukturen im Datawarehouse (Star/Snowflake, Data Vault etc.)
Daten-Strukturarten Short Datenstrukturen. Sturkturierte, Semistrukturuerte und unstrukturierte Daten
Unternehmens-Anwendungen wurden früher direkt im Kern erweitert; neue Funktionen, UIs, Business Logik oder Datenstrukturen. Das machte diese Systeme unübersichtlich und schwer erneuerbar. Was tun? Clean Core! Ich spreche darüber mit dem Experten Maximilian Krcmar, Manager Technology Consulting, cbs Corporate Business Solutions Unternehmensberatung GmbH.
Medaillen-Sammler, SciFi- & Fantasy-Fan, Berliner Wahl-Kölner, Welt-Entdecker und und und… Ihr kennt ihn sicherlich aus den verschiedensten BI or DIE Formaten - Artur ist ja quasi schon Stammgast bei uns und auch für Oliver fühlt es sich an, als würden die Zwei sich schon ewig kennen. Aber heute geht's mal nicht um Power BI & Co, sondern um den Menschen hinter der Technik! Artur plaudert mit Oliver über das Leben abseits von Power BI und verrät uns u.a. die Antworten auf folgende Fragen: - Woher hat Artur eigentlich so viele Medaillen? - Sci Fi & Fantasy Fan - okay. Aber eher DC oder Marvel??? - Kann man als ursprünglicher Berliner den Kölner Karneval lieben? - Wie smart ist Arturs Zuhause? - Was passiert, wenn beim Wandern mit Klettersteig das Internet versagt und man keine analoge Karte dabei hat? Artur König ist Informatiker mit aktuellem Tätigkeitsschwerpunkt in den Bereichen BI-Beratung, Daten-Architektur und Datenanalyse. Er ist seit 2016 bei der Scopevisio AG tätig, einem mittelständischen Hersteller von Cloud Unternehmenssoftware mit Sitz in Bonn. Zurzeit verantwortet er das Customizing und die Umsetzung individueller Lösungen in Kundenprojekten, wobei ein wesentlicher Schwerpunkt die Erweiterungen im Bereich des Reporting sind. Die Aufgaben umfassen die Entwicklung von Reporting-Standards und Konzeption, sowie die Umsetzung von kundenindividuellen Datenstrukturen und Auswertungen. Neben den beruflichen Tätigkeiten ist er als Organisator der Berliner Power BI Usergroup und in mehreren Themenzirkeln des TDWI aktiv. Er lebt in Köln, bereist privat gerne neue Länder und ist gerne auf dem Wasser unterwegs.
Bildung, Schule und Lernen im #Neuland Digitalisierung ist ein Prozess, der längst tief in die Kommunikations- und Lebenswelt eingreift. Jenseits der greifbaren smarten Endgärte und Apps bestimmen Datenstrukturen und -sammlungen mit über das zukünftig Geltende. Algorithmusbasiert und automatisiert fällt Software Urteile unter Ausschluss des menschlichen Geistes und digitale Protokolle legen fest, was auf welche Weise kommuniziert wird. All dies bedarf der Mitgestaltung und der Bildung. Wir müssen uns auf ein Spiel einlassen, über dessen Regeln wir nur dann mitbestimmen können, wenn wir der Digitalisierung weder mit reiner Begeisterung noch struktureller Verweigerung entgegentreten. Prof. Dr. Benjamin Jörissen leitet den Lehrstuhl für Pädagogik mit dem Schwerpunkt Kultur und ästhetische Bildung an der Friedrich-Alexander-Universität Erlangen-Nürnberg und ist Inhaber des dortigen UNESCO Chair in Arts and Culture in Education. Er ist Mitglied des UNITWIN Arts Education Research for Cultural Diversity and Sustainable Development, des European Network of Observatories in the Field of Arts and Cultural Education, der Europäischen Akademie der Wissenschaften und Künste sowie im Rat für Kulturelle Bildung. In der Forschung setzt sich Jörissen mit Formen und Aspekten von Digitalisierung auseinander. Seit 2012 steht dabei die internationale Forschung zur Kulturellen Bildung im Zentrum. In der Reihe Schule Neu Denken #DAIheidelberg #DAIpodcast Alle Infos unter www.dai-heidelberg.de
Wir versuchen ja schon seit einiger Zeit, mal ein bisschen über die in Python eingebauten Datenstrukturen zu reden. Heute hat es dann endlich mal geklappt und Johannes, Dominik und Jochen unterhalten sich darüber, was für eine Programmiersprache dabei herauskommen würde, wenn alles ein dict wäre :). Shownotes Unsere E-Mail für Fragen, Anregungen & Kommentare: hallo@python-podcast.de GitHub Copilot / Pi GitHub Copilot #234 – Stephen Wolfram: Complexity and the Fabric of Reality Transzendente Zahl | Beweis The Tau Manifesto We Now Know 62.8 Trillion Digits of Pi Freunde der Zahl Pi News aus der Szene Django 4.0 release candidate An oral history of Bank Python Dicts Dictionaries Big O notation defaultdict „Fortunately, this situation is common enough that Python has another built-in solution. You can subclass the dict type and implement the __missing__ special method to add custom logic for handling missing keys. Here, I do this by defining a new class that takes advantage of the same open_picture helper method defined above:“ Auszug aus Effective Python: 90 Specific Ways to Write Better Python, Second Edition (Jochen Wersdörfer's Library) Brett Slatkin Dieses Material ist möglicherweise urheberrechtlich geschützt. OrderedDict | UserDict PEP 584 -- Add Union Operators To dict dataclasses | namedtuple | attrs | pydantic __slots__ Counter ChainMap Casey Muratori auf Youtube The Billion Dollar Code Covid Dashboard (Pavel Mayer) collections.abc — Abstract Base Classes for Containers Python Distilled Picks builtins.dict pydantic attrs
Der Podcast rund um Künstliche Intelligenz von und mit Roland Becker und Dr. Sirko Straube. In dieser Folge sprechen wir mit Prof. Rolf Drechsler über Quantencomputer, Rechnerarchitekturen und Künstliche Intelligenz.Prof. Dr. Rolf Drechsler leitet seit 2011 den Forschungsbereich Cyber-Physical Systems am DFKI und ist seit 2001 Professor im Fachbereich 3 der Universität Bremen. Zuvor arbeitete er bei der Siemens AG in der Technologieentwicklung und am Institut für Informatik der Albert-Ludwigs-Universität in Freiburg/Breisgau. Sein Studium der Informatik hatte er an der Goethe-Universität in Frankfurt/Main 1992 absolviert, wo er 1995 auch promovierte. Rolf Drechslers Forschungsschwerpunkte am DFKI und in der Arbeitsgruppe Rechnerarchitektur, die er im Fachbereich Mathematik und Informatik der Universität Bremen leitet, liegen auf der Entwicklung und dem qualitätsorientierten Design von Algorithmen und problemspezifischen Datenstrukturen im computergestützten Schaltkreis- und Systementwurf.Rolf Drechsler war und ist Mitglied in wissenschaftlichen Programmbeiräten verschiedener Fachkonferenzen (darunter: DAC, ICCAD, DATE, ASP-DAC, FDL, MEMOCODE, FMCAD) und Mitbegründer des 2006 gestarteten Doktorandenkollegs Eingebettete Systeme. Seit November 2012 koordiniert er zudem das Graduiertenkolleg System Design.// Shownotes:• Prof. Dr. Rolf Drechsler: http://www.rolfdrechsler.de/• DFKI Bremen: https://www.dfki.de/web/forschung/forschungsbereiche/cyber-physical-systems/• Quantum computers could crack Bitcoin by 2022: https://decrypt.co/28560/quantum-computers-could-crack-bitcoins-encryption-by-2022• Nœrdman: http://noerdman.de/// Mit dabei:• Hosts: Roland Becker, Dr. Sirko Straube• Sidekick & Produktion: Julian Moeser• Gast: Prof. Dr. Rolf Drechsler// Über uns:• Website: https://thinkreactor.com// Folge uns:• Instagram: https://thinkreactor.com/instagram• Twitter: https://thinkreactor.com/twitter• Facebook: https://thinkreactor.com/facebook// Höre uns:• Soundcloud: https://thinkreactor.com/soundcloud• Apple Podcasts: https://thinkreactor.com/apple• Google Podcasts: https://thinkreactor.com/google• Spotify: https://thinkreactor.com/spotify• Deezer: https://thinkreactor.com/deezer• TuneIn: https://thinkreactor.com/tunein• Audio Now: https://thinkreactor.com/audionow• Stitcher: https://thinkreactor.com/stitcher• Feed: https://thinkreactor.com/feed See acast.com/privacy for privacy and opt-out information.
Die Collection-Bibliothek stellt Ihnen die wichtigsten Datenstrukturen bereit, die Sie im Programmieralltag mit Java benötigen. Diese Episode bietet Ihnen einen Einstieg in die Nutzung der Interfaces und Klassen dieser Bibliothek. Foliensatz zur Episode: https://drive.google.com/file/d/1C8Jmp9Wkz84eBMYN23jWpDlbCUgutNfR/view?usp=sharing
Thema heute: ISO-Standards für Zahlungen: Geldverkehr braucht eine gemeinsame Sprache Bei Geldgeschäften betreiben Banken bisher einen hohen Aufwand für Übersetzungsleistungen. Nationale Standards unterschiedlicher Ausprägungen erfordern viel Handarbeit, die nicht nur die Anfälligkeit für Fehler vergrößert, sondern durch den Mehraufwand auch die Margen der Banken gefährlich schmälert. „Hinter dem Standard ISO 20022 steht ein moderner, XML-basierter Standard zum Austausch von Finanztransaktionen in den unterschiedlichen Geschäftsbereichen. Der gemeinsame Standard beschleunigt den Transaktionsablauf und erhöht den Deckungsbeitrag der Institute“, sagt man bei valantic. Das Softwareunternehmen ist unter anderem auf den Bedarf der Finanzindustrie spezialisiert und liefert weltweit Lösungen in den Bereichen Electronic Trading, Zahlungsverkehr und Transaktionen an führende Finanzinstitute aus. Die ISO-Standards zeichnen sich durch sehr granulare Datenstrukturen aus, die Geschäftsinformationen mit weit höherem Detaillierungsgrad tragen können als die bisher genutzten und sehr unterschiedlichen Methoden. Automatisierungslücken können so kaum mehr auftreten. Druck zur Digitalisierung „Der Druck durch regulatorische Anforderungen und vor allem der Kostendruck aufgrund sinkender Margen und wachsender Globalisierung erfordert mehr Digitalisierung als das, was in Banken bisher Stand der Technik war“, heißt es. Die bisherigen Prozesse ließen kaum eine echte End-to-End-Verarbeitung in den Prozessketten zu, ohne per Hand eingreifen zu müssen. Prozesse, die durch wachsende Gefahren und Vorgaben nötig sind, wie Betrugsprüfung, Embargoprüfung oder Reklamationen, können über die elektronische Verarbeitungskette einfacher und kostengünstiger integriert werden. Die vollen Vorteile der ISO 20022 können allerdings erst dann genutzt werden, wenn alle Geschäftspartner den gemeinsamen Sprachstandard vollumfänglich nutzen. Die bisher überwiegend genutzten SWIFT MT-Standards stammen aus den 1970er Jahren und erfüllen im Zahlungsverkehr nicht mehr die Anforderungen einer digitalisierten Welt. Mit reinen Konvertierungslösungen ist indes der Branche kaum geholfen, da die Datenqualität verwässert wird. Künstliche Intelligenz und Banking der Zukunft „Gleichzeitig bieten die neuen Vorgaben die Chance, sich für die kommenden Dekaden sicher aufzustellen und das gesamte Bankgeschäft soweit wie möglich zu digitalisieren. In Zukunft werden Themen wie Künstliche Intelligenz und Wertschöpfung aus Transaktionsdaten noch weiteren Raum in Anspruch nehmen – und je mehr bereits digitalisiert ist, desto besser lassen sich Rückschlüsse aus den Daten ziehen“, heißt es bei valantic weiter. Diesen Beitrag können Sie nachhören oder downloaden unter:
Nach den Algorithmen geht es in dieser Episode um die Datenstrukturen. Sie erhalten eine Einführung in typische Datenstrukturen und Anwendungsbeispiele. Üben werden wir den Umgang mit dem Stapel an der Ergebnisberechnung von arithmetischen Ausdrücken. Den Foliensatz zu dieser Episode finden Sie unter https://drive.google.com/file/d/1t7SUV5hyA_5IRQd-OJ34ssBCBeRPbGr-/view?usp=sharing
In dieser Episode erhalten Sie Hintergrundwissen zu den Algorithmen und Datenstrukturen. Konkret wird es am Code zum Bubblesort und zum Quicksort, wobei das Quicksort-Verfahren detailliert besprochen und erklärt wird. Den Schluß machen Aufwandsbetrachtungen. Studienmaterial zur Episode: https://drive.google.com/file/d/1_tgjV-HSBYFLco8u5Rlc_QmXDzaK7HRp/view?usp=sharing
Was ist Informatik? Was ist ein Computer? Was ist Software? Symbole, Bits und Bytes Theoretische, Praktische, Technische und Angewandte Informatik Inwiefern ist Informatik eine Wissenschaft? Von den Technik- und den Handlungswissenschaften Buchtipp: Klaus Kornwachs -- Philosophie für Ingenieure The Principles of Computing, von Peter Denning Themengebiete: Was ist Informatik?, Turing-Maschine, Zustandsmaschinen, Grammatiken, Compiler vs. Interpreter, Zahlensysteme, Rechnen mit binären Kodierungen, die von Neumann-Rechnerarchitektur, vom Logik-Gatter zum Prozessor, Interaktion Rechner/Umwelt, Algorithmen zu Suchen und Sortieren, gängige Datenstrukturen, Komplexitätsbetrachtungen, Konzepte von Programmiersprachen.
Shermin Voshmgir mag es nicht, wenn man Blockchain-Technologie auf Bitcoin und seine Preisschwankungen reduziert. Dahinter steckt nämlich viel mehr: Block sei die "treibende Kraft, die das Internet verändert", wie die Blockchain-Expertin sagt. Das neue Internet, das manche Web 3 nennen, verändert nicht aus äußere Erscheinungsbild, sondern die Datenstrukturen im Hintergrund. Momentan funktioniere das Internet nämlich immer noch gleich wie vor dreißig, vierzig Jahren, auch wenn sich seitdem vieles verändert hat. Die Blockchain sei eine neue Art, wie wir Daten gemeinschaftlich verwalten können und damit mit Token – zu dem der Bitcoin gehört – belohnt werden. Anstatt über zentrale Server findet der Datenaustausch dezentral über die Gemeinschaft statt. Potenzial hat die Blockchain-Technologie aber nicht nur bei Geldtransaktionen, sondern auch etwa als Werbeplattform oder als dezentrales soziales Netzwerk. Die Informatikerin erklärt außerdem, warum sie Facebooks eigene Währung Libra als Panikreaktion sieht.
Wann sind Daten etwas wert? Digitale Geschäftsmodelle basieren in der Regel auf Daten und deren Auswertung oder auf sonstigen digitalen Angeboten oder Plattformen für deren Betrieb und die Entwicklung Daten von Bedeutung sind. Daten werden in den Systemen gehalten und gemanaged, aus diesem Grunde können Sie als CIOs und IT-Führungskräfte das Datenmanagement Ihres Unternehmens weiterentwickeln. Folgende Aspekte werden in der Podcast-Folge besprochen: * Strukturiertes und konsequentes Datenmanagement (03:00) * Fünf Datenstrukturen, die im Unternehmen gemanaged werden sollten (02:00) * Wenn aus Daten ein Datenwert entsteht (11:00) * Datenbasierte Geschäftsmodelle (15:00) * Daten sind das neue Rohöl, wo ist Ihre Pipeline? (17:30) Alle Shownotes mit Details zu dieser Podcast Folge und dem Transkript, sowie weiterführende Links finden Sie unter www.cio-podcast.de/cio058.
8.55 Uhr. Frau Mayer parkt ihr Elektroauto vor dem Büro. Das Teammeeting dauert ca. eine Stunde. Gut so. Das Parkfeld kann in dieser Zeit die Autobatterie aufladen, damit die anschliessende Fahrt nach Bern gut über die Bühne geht. 10.45 Uhr: Ruhige Strassenverhältnisse und kein Stau im Gubrist! Während der (autonomen) Autofahrt geht Frau Mayer ihre Präsentation noch einmal in Ruhe durch. 13.00 Uhr: Endlich Mittagspause. Während Frau Mayer ein Sandwich isst, überschreibt sie ihrer Tochter im «Familienwallet» Rechte im Wert von 3000 Fr. – sie braucht ja noch eine Kaution für das neue Studentenzimmer. 18.00 Uhr: Endlich zuhause. Jetzt noch schnell die Kühlbox vor der Haustür leeren und den Kühlschrank füllen. Für den heutigen Jassabend werden ihre Freunde eine schöne Auswahl von Getränken und Snacks vorfinden. Diese imaginären Schnappschüsse zeigen, wie die Technologie unser Leben in nicht allzu ferner Zukunft prägen wird: Im Gespräch mit Jakob Gülünay und Toni Caradonna unterhält sich Jennifer Anthamatten über die verschiedenen Anwendungsmöglichkeiten von Blockchain und Ledger-Technologie im Alltag der Zukunft. Für die Experten ist klar: Das Internet der Dinge und der Werte werden die Schweizer Finanzinfrastruktur massiv prägen – und mit ihr auch die darauf basierenden Anwendungen. Für die neuen, kooperativen Geschäftsmodelle braucht es digitale Strukturen, die Werte verlässlich abbilden und Transaktionen ermöglichen. Während die grossen Technologiekonzerne fleissig ihre eigenen Datenstrukturen bauen, bietet sich für die Schweiz die einmalige Gelegenheit, ihre eigene Blockchain-Infrastruktur einzurichten und damit die Souveränität der Nutzer und die allgemeine Rechtssicherheit zu stärken. Im Gespräch zeigen sich die Experten einig, dass die Schweiz mit ihrer relativ fortschrittlichen Regulierung im Bereich Blockchain gut aufgestellt ist und die Entwicklung der Technologie gefördert wird. Es bestehen aber auch noch Herausforderungen, sei es in Bezug auf die Standards, im Bereich des Datenschutzes oder bei den globalen Regulierungen, bei deren Entwicklung sich die Schweiz vermehrt einbringen sollte.
Wir wollten eigentlich eine weitere Einsteigerepisode aufnehmen und waren daher auf der Suche nach einem einfachen Beispiel für die Verwendung der grundlegenden Datenstrukturen. Leider ist das Beispiel doch nicht so supereinfach geworden und so ist das hier dann eher eine Episode zum Thema Naive Bayes. Hmm, auch nicht so uninteressant, wie ich finde :). Shownotes Unsere E-Mail für Fragen, Anregungen & Kommentare: hallo@python-podcast.de News aus der Szene FrOSCon - Deep Learning Workshop Generatoren Coroutinen SHORTHANDED NEWS Django Chat, Episode 23: Async Django - Andrew Godwin Django 3 - Async Roadmap Naive Bayes Naive Bayes (wikipedia) Naive Bayes jupyter notebook Defaultdict Support Vector Machine Word Embeddings SpaCy Techtiefen: SpaCy Techtiefen: Moderne Sprachverarbeitung BERT RoBERTa XLNet gpt-2 AlterEgo Picks isort pptop Öffentliches Tag auf konektom
Zukunftsforscher Vince Ebert erklärt die Zukunft – Angst vor der Digitalisierung, Big Data oder künstlicher Intelligenz? Zukunftsforscher Vince Ebert weiß, die Digitalisierung 4.0 findet überall statt. Zugegeben, Algorithmen und Datenstrukturen können verwirrend und bedrohlich wirken, aber man sollte keine Angst vor der digitalen Revolution haben. Denn sie birgt Chancen für Innovation! Jemand, der sich genau mit der Thematik Digitalisierung auskennt, ist der Comedian und Zukunftsforscher Vince Ebert. Vince Ebert zeigt uns mit viel Humor, wieso man sich nicht vor der Digitalisierung 4.0 fürchten sollte, welche Chancen Technologie, Computer und die Globalisierung in naher Zukunft bergen und wieso der Mensch niemals zu ersetzen sein wird. Schau dir Vince Eberts witzigen Vortrag an, lache – und lerne dabei einiges dazu!
Um Kapitel 10 (Konzepte der Programmierung) des Handbuchs für Fachinformatiker geht es in der sechsundneunzigsten Episode des Anwendungsentwickler-Podcasts. Das Kapitel 10 des IT-Handbuchs für Fachinformatiker* von Sascha Kersken liefert einen Überblick über zentrale Konzepte der Programmierung: Algorithmen, Datenstrukturen, reguläre Ausdrücke, Netzwerkprogrammierung usw. Insgesamt ein spannendes Kapitel gefüllt mit viel Know-How für die Praxis. Auch wenn... Der Beitrag Buchclub: Handbuch für Fachinformatiker (Teil 13: Konzepte der Programmierung) – Anwendungsentwickler-Podcast #96 erschien zuerst auf IT-Berufe-Podcast.
In dieser Episode unterhalten sich Lucas Dohmen und Stefan Tilkov über Redis, eine NoSQL-Datenbank aus der Key-Value-Kategorie, die sich insbesondere durch ihre hohe Geschwindigkeit und ihre intelligenten Datenstrukturen auszeichnet. Dabei werden nicht nur die Features aufgezählt, sondern auch praktische Hinweise zum Einsatz gegeben.
Worin liegt die eigentliche Rolle des Managements? Im intelligenten Reagieren auf Veränderungen. Jean-Jacques Servan-Schreiber Die Folge 15: IT Projektmanagement, was macht es eigentlich besonders…Teil II Herzlich willkommen zum Zweiten Teil unseres Podcastes in dem wir uns mit der Frage beschäftigen, was IT Projektmanagement eigentlich so besonders macht. Dabei betrachteten wir Vorgehensmodelle, Methoden und deren Anwendung. Aber auch auf Rahmenbedinungen die zu beachten und klären sind um die richtigen Methoden und Vorgehensmodelle zu wählen. Die erste Folge dieses Podcasts endete mit der Betrachtung der unterschiedlichen IT Projektmanagementdiziplinen und deren Anforderungen an den Projektmanager. Betrachtet haben wir • Embedded System Entwicklung und • IT Infrastrukturprojekte Im Zweiten Teil dieser Folge möchte ich die begonnen Gedankengänge weiterführen und auch die anderen Arten betrachten: • Softwareevaluierungsprojekte • IT Rollout Projekte • Migrationsprojekte • Customizing Projekte • IT Umzugsprojekte • Oder Organisationsänderungsprojekte Softwareevaluierungsprojekte Bei dieser IT Projektart geht es primär um den Kauf eines Softwareproduktes und darum das am besten für die Anforderungen des Unternehmens geeignetste Produkt zu finden. Nehmen wir als Beispiel die Einführung eines CRM Systems im Unternehmen. Es gibt auf dem Markt eine Vielzahl von Systemen, mit einer großen Menge sich überschneidender Funktionen, aber auch Produkte die unterschiedliche Schwerpunkte setzten und damit unterschiedliche Stärken haben. Klassischerweise beginnt ein solches Projekt mit der Bedarfsermittlung in Form von Interviews. Die zukünftigen Anwender werden bezüglich ihrer Anforderungen befragt und deren Arbeitsablauf wie er heute ist dokumentiert oder sogar modelliert. Auf diese Weise erhält der Interviewer am Ende ein recht genaues Bild wo die Schwerpunkte liegen. Diese lassen sich dann beispielsweise auf eine Anforderungsmatrix übertragen. Zu den Anforderungen der zukünftigen Anwender kommen noch Anforderungen des Managements hinzu. Beispielsweise, kein Produkt, dessen Hersteller nicht wenigstens 200 Mitarbeiter hat, oder mindestens 2000 Referenz Installationen vorzuweisen hat, usw.. Im nächsten Schritt ist es wichtig, diese gesammelten Anforderungen zu gewichten. Denn nicht jede Anforderung ist gleich wichtig und ein Produkt wegen einer nebensächlichen Anforderung aus dem Raster fallen zu lassen, dient niemandem. Ist die Anforderungsarbeit geleistet, beginnt im nächsten Schritt die Marktsondierung. Zunächst im Groben- welche Produkte kommen aufgrund der Anforderungen überhaupt in die engere Wahl, welche sind maximal zweite Wahl und welche fallen ganz raus. Ist diese Arbeit getan und die Entscheidungen dazu dokumentiert, beginnt die Phase der Kontaktaufnahme mit den Produktherstellern. Es empfiehlt sich Referenzadressen zu Installationen mit vergleichbaren Anforderungen einzuholen. In der Regel sind diese Referenzadressen zumindest zu einem Telefongespräch- wenn nicht sogar zu einem Treffen bereit. Diese Termine und die Anwendererfahrungen sind sehr wertvoll und hier erhält man oftmals auch wertvolle Praxistipps. Als nächstes stehen die Präsentationstermine der Hersteller auf der Tagesordnung. Hier holt man sich eine komprimierte Einführung in das jeweilige Produkt, stellt gezielte Fragen und erhält ein Gefühl für die Bedienbarkeit des Produktes. Bei diesen Terminen sollten die Vertreter der zukünftigen Anwender dabei sein um deren Fragen zu klären und deren Meinungsbild am Ende mit zu berücksichtigen. Die Hersteller bekommen bei Bedarf am Ende noch einen Fragenkatalog zum Ausfüllen mit. der dann die einzelnen Produkte vergleichbarer macht. Mit Hilfe der Anforderungen und deren Gewichtung und der Erfüllung der einzelnen Hersteller, hat man am Ende ein valides Ergebnis mit einer Entscheidungsvorlage zur Produktbeschaffung. Anforderungen an den Projektmanager Bei dieser Projektart sollte der Projektmanager über eine ausgeprägte Kommunikationsfähigkeit verfügen, um bei den Interviews nicht nur die richtigen Fragen zu stellen, sondern auch um die Informationen und Hinweise zu erkennen, die sich hinter den Antworten verbergen. Ferner sollte er die fachlichen Hintergründe kennen und verstehen, die mit Hilfe der zu beschaffenden Software gelöst werden sollen. Der Projektmanager sollte zumindest grundsätzlich die am Markt befindlichen Softwareprodukte kennen. Idealerweise hat er eigene Erfahrungen mit den Produkten. Es ist aber unbedingt notwendig bei diesen Projekten Neutralität zu wahren. Der Knochen muss dem Hund schmecken- nicht dem Metzger. Es geht nicht darum, den Auftraggeber von der eigenen Lieblingssoftware zu überzeugen, sondern neutral, das gemäß Anforderungen beste Produkt für den Auftraggeber zu finden. IT Rollout Projekte Bei IT Rollout Projekten gibt es wiederum eine Reihe von Facetten. Häufig vermischen sich bei diesen Projekten auch die Grenzen zwischen Rollout und Migrationsprojekten. Vor wenigen Jahren gab es eine Phase in der ich teilweise mehrfach pro Monat zur Leitung von Windows 7 Rolloutprojekten angefragt wurde. Auch hier gibt es ganz unterschiedliche Anforderungen und damit Herangehensweisen. Die einfachste Variante wäre die Installation auf neuen Rechnern. Nachdem der neue Rechner vor Ort aufgebaut und angeschlossen ist, werden mit Hilfe von Netzwerkinstallationen Betriebssysteme- und mit Softwareverteilsystemen individuelle Softwareprodukte nachinstalliert. Alternativ können auch Festplattenimages auf die Rechner gespielt werden die dann per Powershell Scripte individuell konfiguriert werden. Das geht bis zu komplexen Installationen und Konfigurationen die, je nach Anforderung, pro Arbeitsplatz individuell händisch zu bearbeiten sind. Noch anspruchsvoller wird es, wenn alte Betriebssystemversionen upzudaten sind, sofern die Hardwareanforderungen dies zulassen. Bis zur Einstellung des Supports von Windows XP im April 2014 ist ein regelrechter Boom an Migrationsprojekten gestartet. Am 13. Januar 2015 wurde offiziell der sogenannte „Mainstream Support für Windows 7“ eingestellt. Microsoft garantiert allerdings den „extended Support für Windows 7“ noch bis zum 14. Januar 2020. Mit diesem extended Support werden zumindest wichtige Sicherheitsupdates weiterhin bereitgestellt. Momentan, also im März 2015, besteht also noch kein Grund um hektisch zu werden. Bleibt abzuwarten wie sich der „Windows 8“ Nachfolger „Windows 10“ am Markt behaupten wird. Gerade im Vorfeld solcher Projekte sind eine Reihe Fragen zu klären. • Ist alle Software, die unter dem alten Betriebssystem lief auch von deren Herstellern für das neue Betriebssystem freigegeben? • Sind Individualentwicklungen unter dem neuen Betriebssystem lauffähig? • Gibt es Treiber für Drucker, Scanner oder sonstige im Unternehmen befindliche Geräte? • Wenn nicht, stehen dann auch noch Neubeschaffungen an? • Gibt es alte Softwarelösungen die nicht unter dem neuen Betriebssystem lauffähig sind und die weder updatebar noch verzichtbar sind? • Können solche Systeme in eigenen DMZ (Demiliterized Zone) die also abgeschottet sind und keine Internetverbindung haben, laufen? Natürlich zählen in den letzten Jahren auch der Rollout von Mobile Devices, also Tablett PCs oder Smartphones mit in diese Kategorie von IT Projekten. BYOD Rollout, also „Bring your own Device“, stellt hier sicherlich eine weitere Unterkategorie von IT Rolloutprojekten dar. Gerade hierbei spielen Sicherheitsaspekte eine große Rolle. Anforderungen an den Projektmanager Bei dieser Projektart sollte der Projektmanager über fundierte Produktkenntnisse verfügen. Alleine damit wird schon klar, dass sich auch hier wieder die Reihen der Spezialisten gabeln. Es erfordert einiges an Erfahrung, steht man vor der Herausforderung eine komplette Infrastruktur mit neuen Geräten auszustatten. Dies stellt Ansprüche sowohl an logistische Fähigkeiten, als auch an eine gründliche Anforderungsanalyse. Denn nur wenn klar ist, was in die Zielumgebung muss, wie vollständige Funktion dort getestet werden kann und dies auch ist, ist der Betrieb nach dem Rollout sichergestellt. Wie erwähnt müssen bei diesen Projekten IT Security Kenntnisse und gute Netzwerkkenntnisse vorhanden sein. Migrationsprojekte Jede Software hat nur eine begrenzte Halbwertszeit und soll beispielsweise wegen toller neuer Funktionalität, oder z.B. wegen geänderten gesetzlichen Regelungen durch eine neue Version abgelöst werden. Je nachdem wie diese Software bislang in die Systemlandschaft des Unternehmens eingebettet war, muss man sowohl das Produkt selbst, als auch das Umfeld und hier im Besonderen die Schnittstellen zum Umfeld betrachten. Sind neue Schnittstellen zu programmieren? Wurden individuelle Änderungen- also Customizings an der alten Software durchgeführt und müssen diese Änderungen nun an der neuen Software ebenfalls wieder programmiert werden? Eine besondere Herausforderung stellt die Datenübernahme in das neue System dar. Oftmals wird diese Datenübernahme dazu genutzt, sich von Altlasten, also Datenmüll zu trennen um das „neue System“ auf einem sauberen Datenstand aufzusetzen. Hieran erkennt man, dass Migrationsprojekte sehr schnell in einzelne Teilprojekte zerfallen müssen um die individuellen Anforderungen zu steuern. Anforderungen an den Projektmanager Zu den Herausforderungen wie sie sich aus einer klassischen Softwareentwicklung ergeben, kommen bei Migrationsprojekten noch dazu, dass der Projektmanager sowohl das abzulösende Produkt, also den Istzustand, als auch den Zielzustand kennen sollte. Je mehr Schnittstellen zu berücksichtigen sind, umso komplexer wird ein solches Projekt. Je mehr komplexe Datenstrukturen auf ein Zielsystem mit ganz anderen Datenstrukturen zu übertragen sind, umso höher sind die Anforderungen diese in das Zielsystem zu überführen. Customizing Projekte Klassisch fällt hier sicher ein großer Walldorfer Softwarehersteller ein, dessen Software nach der Basisinstallation individuell an die Bedürfnisse und Anforderungen des Kunden nach dessen Vorgaben angepasst werden. Diese Möglichkeit schafft die Symbiose eines Standardproduktes und die Flexibilität einer Individualentwicklung. Dieses Customizing muss allerdings gesteuert werden wie eine klassische Softwareentwicklung, allerdings mit dem Wissen, welche Funktionalität das Basispaket bereits enthält, welche Schnittstellen existieren und welche entwickelt werden müssen. Anforderungen an den Projektmanager Grundsätzlich handelt es sich auch hier wieder um Softwareentwicklung, allerdings in Bezug auf die Anpassungsmöglichkeiten des betreffenden Produktes. Der Projektmanager sollte das Produkt und die Möglichkeiten der Adaptierung zumindest in groben Zügen kennen. IT Umzugsprojekte Häufig werden IT Umzugsprojekte belächelt und als etwas abgetan, was man nebenbei mitmachen kann. Doch wer so denkt, unterschätzt die mögliche Komplexität eines Umzugsprojektes. Es beginnt bereits bei der Planung. Die Anforderungsanalyse an den Zielstandort ist ein zwingender Schritt, um den Umzug erfolgreich durchzuführen. Die Schaffung der notwendigen Infrastruktur am Zielstandort, angefangen von der notwendigen Stromversorgung, der Klimatisierung, der Datennetzanbindung, bis hin zu Zugangskontrolle und Brandmeldesysteme sind notwendige Voraussetzungen die vor dem eigentlichen Umzug zu schaffen sind. Abgesehen, ob der Umzug offline passieren darf, also ein System darf vom Netz gehen, oder Online passieren muss- das System muss trotz Umzug verfügbar sein, müssen ganz unterschiedliche Vorgehensweisen gewählt werden. Für die einzelnen Systeme die auf der umzuziehenden Infrastruktur laufen, müssen Testpläne erstellt werden. Hierzu sind die Produkt- oder Systemowner zu befragen, sofern keine Testpläne vorliegen. Es ist ratsam, sich für den eigentlichen Transport ein spezialisiertes Unternehmen zu holen, dass auf den Umzug von IT Inftrastrukturkomponenten spezialisiert ist. Diese Firmen sind technisch in der Lage, ein Patchfeld oder die Patchung eines Switches zu dokumentieren, die Kabel zu entfernen, das Gerät aus dem Datenschrank auszubauen und transportsicher zu verpacken. Am Zielstandort werden die Geräte gemäß Planung verbaut und gemäß Dokumentation gepached. Bei diesen Umzugsfirmen handelt es sich also nicht um Hilfskräfte die Datenschränke schleppen, sondern um IT Umzugsprofis. Je nach Priorität gehen die Geräte nach mechanischer Montage wieder in Betrieb und die Systeme wieder ans Netz. Die im Vorfeld definierten Testpläne der einzelnen Systeme werden nun abgefahren um die Funktionalität der umgezogenen Systeme zu validieren. Anforderungen an den Projektmanager Der Projektmanager solcher Projekte sollte ohne Frage über logistische Erfahrungen verfügen. Das ist vor allem bei der Vorbereitung und bei der Koordination der einzelnen Arbeitsschritte wichtig. Die Priorisierung, was wann offline gehen kann, wie die Priorisierung zum Wideranlauf gestaltet wird und wie die Inbetriebnahme erfolgt, erfordert einiges an Verständnis des Gesamtsystems und vor allem Koordinations und Kommunikationskompetenzen um die unterschiedlichen (Teil-)Interessen in einem solchen Umzug miteinander zu vereinen. Organisationsänderungsprojekte Klassisch wäre hier beispielsweise die Einführung von ITIL Prozessen im Rechenzentrum zu nennen, oder eine Organisationsänderung im Unternehmen, die in Folge einer neuen Software notwendig ist. ITIL ist ein Framework mit best practice Prozessen für das IT Servicemanagement. Diese Prozesse sind heute Defacto Standard in Rechenzentren. Der Incidentmanagementprozess sieht beispielsweise einen Single Point of Contact (SPOC) vor, bei dem alle Incidents zentral gemeldet werden. Es handelt sich hierbei wohlgemerkt um eine Rolle die durchaus mehrfach besetzt sein kann. Aber alleine diese kleine Änderung ist bereits eine große Herausforderung an eine Unternehmensorganisation. War man doch gewohnt den Kollegen vom Clientmanagement direkt anzurufen wenn man ein Problemchen hat und jetzt soll man beim SPOC anrufen der nur ein Ticket aufmacht? Oder nehmen wir an, ein Unternehmen hat erkannt, welches Potenzial in der Einführung eines geregelten Lizenzmanagementprozesses steckt. Die bisher dezentral verstreut liegenden Softwarelizenzen werden nun zentral gehalten und automatisch abgeglichen. Das Lizenzmanagement muss in diesem Fall dem Einkauf vorgeschaltet werden. Soll Software beschafft werden, muss zunächst der Lizenzmanager prüfen, ob eine freie Lizenz für diese Anforderung genutzt werden kann, oder ob eine externe Beschaffung notwendig ist. Nur im letzten Fall geht die Anforderung an den Einkauf weiter. Anforderungen an den Projektmanager Der Projektmanager sollte die einzuführenden Prozesse sehr gut verstehen und idealerweise Kenntnisse über den Istzustand verfügen. Gerade bei Organisationsprojekten muss peinlich genau darauf geachtet werden, dass das Projekt in der Unternehmenshierachie „richtig aufgehängt“ ist. Das bedeutet, betreffen die Änderungen alle Abteilungen im Unternehmen, macht es keinen Sinn einen der Abteilungsleiter zum Projektauftraggeber zu bestimmen. In diesem Fall ist es erforderlich, das Projekt mindestens auf Bereichsleitungsebene anzusiedeln um überhaupt die notwendige Hebelwirkung zu erzielen. Die Aufzählung an IT Projektmanagementdisziplinen liese sich sicherlich noch weiter führen, aber ich denke wir können es an dieser Stelle damit belassen. Viele der Kollegen werden in der beruflichen Praxis häufig nur mit der einen, oder anderen dieser Herausforderungen konfrontiert. Doch die IT ist viel mehr und das ist es, was es so spannend macht und das ist es warum ich diesen Beruf so liebe. Das Managen von IT Projekten wird niemals zur Routine und gerade weil es so viele Facetten gibt, macht es Sinn sich innerhalb dieser zu spezialisieren. Denn das, was man immer wieder tut, beherrscht man irgendwann in Perfektion. Genau solche Menschen möchten wir von der Bundesvereinigung IT Projektmanagement gerne kennen lernen und Ihre Expertise vorstellen. Um die eingangs gestellte Frage noch einmal aufzugreifen: Gerade dieser Facettenreichtum, macht IT Projekte zu etwas ganz besonderem. Damit bedanke ich mich dass Sie auch heute wieder dabei waren und wünsche Ihnen in Ihren Projekten lauter grüne Meilensteine Ihr Andreas Haberer Weitere Informationen finden Sie unter www.Bundesvereinigung-ITPM.de
Survey2GIS ist eine kompakte und benutzerfreundliche Lösung, um Tachymeterdaten einer Grabung für die Weiterverarbeitung in einem GIS aufzubereiten. Dabei werden zwei- oder dreidimensionale Punktmessdaten zu komplexen Geometrien (Linien und Polygonen) verbunden. Als Eingabedaten erwartet survey2gis eine oder mehrere einfache Textdateien, wobei jede Zeile die Koordinaten eines Punktes und die Attributdaten hierzu enthält. Derart strukturierte Daten können nicht nur tachymetrisch per Totalstation, sondern auch per GPS-Vermessung gewonnen werden. Auf dieser Grundlage erzeugt Survey2GIS GIS-Dateien im Format ESRI(tm) Shapefile (2D oder 3D), nach Geometrietypen getrennt, mit Übernahme der vollständigen Attributdaten. Dieser Prozess lässt sich so konfigurieren, dass unterschiedlichste Arbeitsabläufe und Datenstrukturen unterstützt werden. Die Software verfügt über detaillierte Protokollfunktionen zur Qualitätssicherung und automatischen Dokumentation der Datenverarbeitung. Bei der Entwicklung von survey2GIS wurde größter Wert auf topologisch korrekte Ausgabedaten gelegt, die sich direkt für die quantitative Analyse im GIS eignen. Hierzu gehören Funktionen zum Eliminieren doppelter Messpunkte, zum Einrasten von Stützpunkten auf Polygongrenzen und zum "Ausstanzen" überlappender Polygone. Die freie Software (GNU General Public License) läuft unter Windows und Linux-Betriebssystemen. Dabei steht die erste Version 1.x von surveying sowohl als eigenständige Software als auch als Zusatz für das Open-Source-Desktop-GIS gvSIG CE zur Verfügung.
Direkt vor dieser Folge wollten sich Daniel und Max weiterentwickeln, aber dann wären sie nicht mehr so süß und liebenswert gewesen und darum wurde gerade rechtzeitig der B-Knopf gedrückt. Die Beiden sprechen über Youngster Joey, die Frage, was kein Medium ist, ein potentielles, unbekanntes Thema (Studium!), Algorithmen und Datenstrukturen, Pokémon, Pokémon und noch mal Pokémon, und dann ist die Folge auch schon wieder vorbei. Kara Daniels Freundescode: 3695 1204 6592 Max’ Freundescode: 3711 7410 8196 Es bringt echt fast nichts, uns auf Twitter zu folgen, da solltet ihr lieber die Metafolge anhören.