Podcasts about datenquelle

  • 18PODCASTS
  • 21EPISODES
  • 43mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • Mar 8, 2025LATEST

POPULARITY

20172018201920202021202220232024


Best podcasts about datenquelle

Latest podcast episodes about datenquelle

State of Process Automation
208 - Make or Buy? Warum Unternehmen strategisch entscheiden müssen, welche Daten sie selbst erheben und welche sie extern beziehen | Sören Saliger

State of Process Automation

Play Episode Listen Later Mar 8, 2025 34:33


In dieser Episode spreche ich mit Sören Saliger, Geschäftsführer der Datenservice+ GmbH.Wir sprechen über folgende Themen:Wann sollten Unternehmen eigene Daten erheben und wann lohnt sich der externe Einkauf?Welche Fehler machen Unternehmen häufig bei der Entscheidung zwischen internen und externen Daten?Wie erkennt man, ob eine externe Datenquelle zuverlässig und qualitativ hochwertig ist?Warum ist eine klare Datenstrategie entscheidend für den Unternehmenserfolg?Wie hilft eine Datenstrategie dabei, strategische Ziele zu erreichen?Welche Kriterien sollte man bei der Auswahl externer Datenquellen beachten?Wie können Unternehmen sicherstellen, dass gekaufte Daten langfristig einen Mehrwert bieten?Welche Branchen profitieren besonders von externen Datenquellen?Welche Daten sollten Unternehmen immer selbst besitzen und nicht extern einkaufen?Wie findet man den richtigen Anbieter für externe Datenquellen?Podcast-Moderator: Christoph PacherLinkedInInterviewgast: Sören Saliger, Geschäftsführer, Datenservice+ GmbHLinkedIn

SEOPRESSO PODCAST
Logfile Analyse mit der GSC mit Juliane Bettinga (SEOSOON) | Ep. 188

SEOPRESSO PODCAST

Play Episode Listen Later Jan 31, 2025 43:21


In dieser Episode des SEOpresso Podcasts spricht Björn Darko mit Juliane Bettinga (SEOSOON) über die Lockfile-Analyse und deren Bedeutung für die Suchmaschinenoptimierung. Juliane erklärt, wie Lockfiles Einblicke in das Crawling-Verhalten von Suchmaschinen geben und warum es wichtig ist, Crawling-Ressourcen effizient zu nutzen. Sie stellt die Vorteile der Google Search-Konsole vor und gibt eine Schritt-für-Schritt-Anleitung zur Durchführung einer Lockfile-Analyse. Die Episode bietet wertvolle Insights und praktische Tipps für SEOs. In dieser Episode diskutieren Juliane Bettinga und Björn Darko die Herausforderungen und Strategien zur Optimierung des Crawl-Budgets von Webseiten. Sie analysieren die Bedeutung von Serverantworten und Status Codes, die Rolle der Google Search Console und die Notwendigkeit einer regelmäßigen Logfile-Analyse. Zudem wird die Wichtigkeit einer erfolgreichen URL-Migration und deren Monitoring hervorgehoben. Abschließend beantworten sie Fragen zur Crawl-Optimierung und geben praktische Tipps für die Umsetzung. Takeaways Lockfile-Analyse bietet Einblicke in das Crawling-Verhalten. Crawling ist eine begrenzte Ressource, die optimiert werden muss. Die Google Search-Konsole ist eine wertvolle Datenquelle. Unnötiges Crawling kann die Performance negativ beeinflussen. Status-Codes sind entscheidend für die Analyse von Crawling-Daten. Ein Chrome-Plugin erleichtert den Export von Daten. Crawling-Ressourcen verschwenden kostet Geld und Zeit. Die Analyse von Crawling-Daten kann zur Verbesserung der SEO-Performance beitragen. Nachhaltigkeit ist ein wichtiger Aspekt der Crawling-Optimierung. Die Lockfile-Analyse ist eine effektive Methode zur Identifizierung von Problemen. Die Analyse der Serverantworten ist entscheidend für die Optimierung. Ein hoher Anteil an Status-Code 200 ist erstrebenswert. Crawl-Budget-Optimierung kann durch gezielte Maßnahmen erreicht werden. Regelmäßige Logfile-Analysen sind wichtig für die Crawling-Effizienz. Die Verteilung der Dateitypen kann auf Probleme hinweisen. Die Tageszeit hat Einfluss auf das Crawling-Verhalten von Google. Die interne Verlinkung spielt eine große Rolle für die Sichtbarkeit. Status Codes wie 410 können bei abgelaufenen Inhalten helfen. Die Performance der Webseite beeinflusst das Crawl-Budget. Technische Fehler können zu einem übermäßigen URL-Inventar führen. Chapters 00:00Einführung in die Lockfile-Analyse 04:04Die Bedeutung der Lockfile-Analyse 10:00Crawling-Ressourcen und ihre Optimierung 11:50Daten aus der Google Search-Konsole 18:08Schritt-für-Schritt-Anleitung zur Analyse 21:55Insights aus der Lockfile-Analyse 24:44Analyse der Serverantworten und Status Codes 30:55Optimierung des Crawl-Budgets 36:55Erfolgreiche URL-Migration und Monitoring 42:54Fragen und Antworten zur Crawl-Optimierung Link zum Template: https://lookerstudio.google.com/u/0/reporting/d0ff809a-32f5-4c4a-a367-de0097b2b3cd/page/xOR9C?s=vNtI14WGdaU Link zur Anleitung: https://seosoon.de/logfile-analyse-light-anleitung

IIoT Use Case Podcast | Industrie
#154 | 10 Jahre IoT-Trends: Was hat sich wirklich verändert? | Portainer.io & IoT Analytics

IIoT Use Case Podcast | Industrie

Play Episode Listen Later Jan 29, 2025 49:15


www.iotusecase.com#EDGE#TRENDS #PROGNOSENIn dieser Podcast-Folge diskutieren Ing. Madeleine Mickeleit, Knud Lasse Lueth, CEO von IoT Analytics und Tobias Mühlnikel, CTO and CPO Edge Business Unit von Portainer, die neuesten Entwicklungen und Herausforderungen im IoT-Markt. Die Reise beginnt mit einem Rückblick auf den IoT-Hype und die Plattform-Ära und führt bis zur aktuellen Konsolidierungsphase.Folge 154 auf einen Blick (und Klick):(13:11) Was ist ein Use Case für euch?(23:50) Welche Trends seht ihr?(32:29) Change Management(42:51) Was wird sich verändern?Zusammenfassung der PodcastfolgeEin zentrales Thema ist die IT-OT-Konvergenz, die Unternehmen vor große Herausforderungen stellt: Wie lassen sich IT- und OT-Welten erfolgreich verbinden? Die Diskussion beleuchtet Ansätze wie spezialisierte Teams oder interdisziplinäre Zusammenarbeit, um Brücken zwischen diesen beiden Bereichen zu bauen.Weitere wichtige Themen der Folge sind:Die Rolle von KI im IoT: KI hat sich von einer Randerscheinung zu einem Schlüsselfaktor entwickelt, insbesondere in Bereichen wie Predictive Maintenance, Quality Monitoring und Industrial Co-Pilots.Edge Computing: Die Verlagerung von Rechenkapazitäten näher an die Datenquelle reduziert Latenzen und ermöglicht Echtzeitanalysen – ein entscheidender Schritt für viele Industrieanwendungen.Industrial Data Ops: Moderne IoT-Plattformen entwickeln sich weiter, indem sie Daten nicht nur sammeln, sondern auch nahtlos kontextualisieren und analysieren.Herausforderung Change Management: Viele Unternehmen haben Schwierigkeiten, IoT-Use Cases über Standorte hinweg zu skalieren, da das Wissen oft isoliert bleibt.Priorisierung von Use Cases: Wie können Unternehmen den richtigen Fokus setzen? Welche Rolle spielen Managed Services, um den Einstieg und die Skalierung zu erleichtern?Ein Blick in die Zukunft:Generative KI und benutzerfreundlichere Interfaces werden voraussichtlich die Interaktion mit IoT-Daten grundlegend verändern. Gleichzeitig bleibt die Standardisierung von Hardware ein essenzieller Treiber für die Weiterentwicklung des Marktes.-----Relevante Folgenlinks:Madeleine (https://www.linkedin.com/in/madeleine-mickeleit/)Tobias (https://www.linkedin.com/in/tobias-mue/Knud (https://www.linkedin.com/in/knudlueth/)IoT market update 2023 (https://iot-analytics.com/iot-market-size/)IoT Startup Landscape 2024 (https://iot-analytics.com/iot-startup-landscape/)State of IoT 2024: Number of connected IoT devices growing 13% to 18.8 billionglobally (https://iot-analytics.com/wp/wp-content/uploads/2024/09/INSIGHTS-RELEASE-Number-of-connected-IoT-devices-vf.pdf)Jetzt IoT Use Case auf LinkedIn folgen

Devs on Tape
Devs on Tape - Caro und Martin Bach heute u.A. über CI/CD in der Oracle Datenbank!

Devs on Tape

Play Episode Listen Later Jul 10, 2024 59:56 Transcription Available


Können Sie sich vorstellen, dass die Verlagerung der Logik direkt in die Datenbank Ihre Entwicklungsprozesse revolutionieren könnte? Heute haben wir das Vergnügen, Martin wieder bei uns willkommen zu heißen, um über die Vorteile von SmartDB und Continuous Integration/Continuous Deployment (CI/CD) zu sprechen. Martin bringt uns seine wertvollen Erfahrungen aus der Zeit mit Oracle Forms und PLSQL näher und erklärt, wie dieser innovative Ansatz nicht nur technische, sondern auch kulturelle Aspekte der Softwareentwicklung positiv beeinflusst. Wir tauchen tief in die historischen Perspektiven ein und diskutieren, wie SmartDB die Effizienz und Nähe der Datenverarbeitung zur Datenquelle verbessert.

Zebras & Unicorns
Austrian Startup Monitor 2023: Analyse mit Markus Raunig und Karl-Heinz Leitner

Zebras & Unicorns

Play Episode Listen Later Apr 2, 2024 33:09


Der Austrian Startup Monitor 2023 wurde vor kurzem veröffentlicht. Er ist der sechste Bericht in Folge und liefert die beste Datenquelle zur österreichischen Startup-Szene. Einerseits geht es um das Geschäftsumfeld der österreichischen Startups, andererseits auch um deren Perspektiven. Umgesetzt wurde die Erhebung von AustrianStartups, dem Austrian Institute of Technology und der Wirtschaftsuniversität Wien. Im Talk: Markus Raunig, CEO von Austrian Startups und Studienleiter Karl-Heinz Leitner, Senior Scientist am Austrian Institute of Technology. Gemeinsam werden die Ergebnisse des aktuellen Austrian Startup Monitors analysiert: Die Themen: - Idee des Austrian Startup Monitors - Startup-Datenbank seit 2010 - Befragung der Startups - Top Findings - Gründungszahlen 2023 niedrig ausgefallen - Stagnierender Anteil weiblicher Startup-Founders - Green und Social Startups - Neuerfassung im AS-Monitor: Scaleups Definition und Einblicke - Höherer Anteil an internationalen Gründer:innen - Startup-Aufstellung pro Bundesland - Startups nach Branchen - Wünsche an die Politik: Lohnnebenkosten senken und Anreize für Risikokapital - Wünsche für AS Report 2024 Wenn dir diese Folge gefallen hat, lass uns doch vier, fünf Sterne als Bewertung da und folge dem Podcast auf Spotify, Apple Music und Co. Für Anregungen, Kritik, Feedback oder Wünsche zu künftigen Gästen schick uns jederzeit gerne eine Mail an ⁠⁠⁠⁠⁠⁠feedback@trendingtopics.at⁠⁠⁠⁠⁠⁠. --- Send in a voice message: https://podcasters.spotify.com/pod/show/trending-topics/message

BI or DIE
Tools - Dashboarding vs. Analytics | Teil 3

BI or DIE

Play Episode Listen Later Jun 27, 2023 34:16


Dashboarding vs. Analytics geht in die dritte Runde! Diesmal haben wir Power BI Experte Artur und SAC Experte Carsten am Start. Die beiden zeigen Stärken und Schwächen der Tools in verschiedenen Disziplinen. Außerdem erfahren wir… … wann ist ein Toolwechsel sinnvoll? … was ist das bessere Tool, Sac oder Power BI? … wer ist besser in Reporting, Dashboarding, Analytics und Planning? … was wünscht sich Artur von Microsoft? … was wünscht sich Carsten von SAP? Mit über 20 Jahren Berufserfahrung im Banking mit Schwerpunkt auf Datenmanagement und Reportingsysteme liegt Carsten die Verbindung zwischen effizientem und qualitativ hochwertigem Reporting und einem funktionierenden Backend sehr am Herzen. Er ist ein echtes Nordlicht und lebt bei Hamburg mit seiner Frau und zwei Kindern. Er baut gern an seinem eigenen Haus und verpasst nahezu kein Heimspiel des Hamburger SV. Artur König ist Informatiker mit dem Schwerpunkt in der BI-Beratung, Datenarchitektur und Datenanalyse. Bei der reportingimpulse GmbH verantwortet er die gesamte technische Umsetzung von der Datenquelle bis zum fertigen Datenprodukt im Microsoft-Umfeld. Zuvor war er über 12 Jahre als Berater und zuletzt als Leiter eines BI-Bereichs tätig. Artur lebt im Herzen von Köln und wenn er nicht gerade virtuell in der Power BI Community, auf Meetups, beim TDWI-Verein, in Live-Streams oder auf seinem eigenen YouTube-Kanal unterwegs ist, ist er auch sehr gerne analog auf Reisen oder in der Natur.

Startup Insider
Ninetailed sammelt Millionen für innovative Daten-API ein (Datenanalyse • Cherry Ventures • Mosaic Ventures)

Startup Insider

Play Episode Listen Later Oct 28, 2022 29:18


Interview mit Andy Kaiser, Co-Founder und CEO von Ninetailed In der Mittagsfolge sprechen wir heute mit Andy Kaiser, Co-Founder und CEO von Ninetailed, über die erfolgreich abgeschlossene Finanzierungsrunde in Höhe von 5 Millionen Euro. Ninetailed hat eine Daten-API entwickelt, die sich mit jeder Datenquelle verbinden lässt und einheitliche Kundenprofile erstellt. Damit erhalten digitale Teams Freiheit bei der Erstellung, Bereitstellung und dem Experimentieren mit Erlebnisvariationen, sodass Unternehmen ihre Kundenerfahrungen optimieren können. Dies kann insbesondere durch die Erstellung von personalisierten Erlebnissen bis hin zu vollständigen Customer Journeys erreicht werden. Die Integration gibt Developern mit einem Composable Stack vielseitige Möglichkeiten. Mit SDKs und Plugins für moderne Frontend-Frameworks wie Gatsby, React und NodeJS kann Ninetailed in weniger als einer Stunde mit einem Headless CMS verbunden werden. In diesem können Variationen beispielsweise direkt erstellt und bereitgestellt werden. Ninetailed wurde im Jahr 2021 von Andy Kaiser und Alexander Braunreuther in Berlin gegründet. In einer Finanzierungsrunde hat das Berliner Startup nun 5 Millionen Euro unter der Führung von Mosaic Ventures und Cherry Ventures eingesammelt. Mosaic Ventures ist ein Londoner Wagniskapitalgeber, der in innovative europäische Jungunternehmen investieren. Cherry Ventures ist ein Berliner Risikofonds, der Founder in Europa unterstützt. Neben den beiden Lead-Investoren haben sich auch First Momentum Ventures und Business Angels an der Runde beteiligt. Mit dem frischen Kapital will Ninetailed die Schaffung interaktiver Erlebnisse und Werte durch die Aktivierung von Kunden- und Inhaltsdaten weiter vorantreiben. Zudem plant das junge Technologieunternehmen sein Team zu erweitern, neue Technologie- und Lösungspartner in sein Netzwerk aufzunehmen und die Composable Architecture weiterzuentwickeln.

Der ichbindochnichthierumbeliebtzusein.com PodCast - Technik, Gadgets, Meinungen und aktuelle Themen, die das Netz und die We
#230 Das wirklich schlimmste an der neuen Grundsteuer sind die Software-Anbieter! Selten so viel Unsinn und Quatsch in den Web-Anwendungen gesehen!

Der ichbindochnichthierumbeliebtzusein.com PodCast - Technik, Gadgets, Meinungen und aktuelle Themen, die das Netz und die We

Play Episode Listen Later Oct 11, 2022 20:40


Das wirklich schlimmste an der neuen Grundsteuer sind die Software-Anbieter! Selten so viel Unsinn und Quatsch in den Web-Anwendungen gesehen!Die Zeit rennt. Auch wenn die Politik aktuell lautstark überlegt, was sie schön längst hätten machen sollen: die Frist verlängern. Worum es geht? Um die neueste Auslagerung von hoheitlichen Aufgaben auf das arme Opfer in dieser Kette: den Bürger. Oder wie will man mir das Chaos der "neuen Grundsteuer" sonst erklären? Wieso kann ich meine Erklärung in Bayern binnen 15 Minuten fertigstellen und auf Papier per Post schicken? Und wieso ist gerade wieder das jämmerliche Berlin "all in" gegangen? Ja, warum wohl? Weil in Berlin einfach niemand mehr einen Überblick hat und sich so vom Bürger die Arbeit machen lässt, die wir an sich durch unsere Steuern bezahlen. Und was diese Arbeit nun noch lustiger macht, sind die beiden Anbieter, die ich näher betrachtet habe. Kurz gesagt, schön im Internet gelöst, aber wer dumme und sinnlose Fehlermeldungen und keinerlei Erreichbarkeit des Supports bezahlen möchte, ist hier richtig! "Es ist ein Fehler aufgetreten. Wahrscheinlich." Mehr verraten wir nicht, weitermachen geht auch nicht. Super hilfreich! / Bild-/Quelle: WISO Grundsteuer Grundsteuer. 31.10. ist - aktuell noch - Einsendeschluss. Oder, wie ich es während meiner Kindheit ständig im Fernsehen gehört habe: Stichtag für den großen Preis: Sonnabend in acht Tagen - TSCHÜÜÜÜÜÜÜSS! Unabhängig davon, ob das bittere Ende der Neuberechnung und weiterer Belastungen für den Bürger nun Ende Oktober oder doch mit Silvester durch die Böllerparade durch den Schornstein gefegt werden, der Weg dahin ist eine Qual. Wobei - nicht ganz: je nach Bundesland ist es mal mehr, mal weniger anstrengend. Ich bin in der un- und glücklichen Position, für zwei Objekte zwei dieser "Erklärungen zur Feststellung des Grundsteuerwertes" abgeben zu müssen. Und da mein BWL-Herz nach kurzer Rücksprache mit meinem Steuerberater beschlossen hat, dass ich beide selbst erstellen und an die Finanzämter als Nachhilfe der jahrzehntelangen Blindbebauung übersenden werde, kann ich ein Liedchen singen. Ein Klagelied. Mit vielen Strophen. Kostenbeispiel Grundsteuer online selbst erledigen / Bild-/Quelle: smartsteuer.de Zum einen, und da wiederhole ich meinen Teaser-Text, sehe ich es echt nicht ein, für Behörden, die von meiner Steuer leben, den Job zu machen - erst recht, wenn sie durch ein oberstes Urteil zum endlich-agieren gezwungen werden. Vor allem, weil ich seit Jahren und auch schon mal länger immer das gleiche Lied höre. Zu wenig Personal, zu viel Bürokratie und dann noch die unfähige Politik obendrauf. Keine gute Gemengelage. Aber immerhin eine Einschätzung aus Mündern, die sich auskennen. Zum anderen, weil unsere Bundesländer hier ein Chaos gestrickt haben, an dem man deutlich sieht, wer seinen Laden, zumindest dem vorstehend zitierten Gejammer folgend, noch halbwegs im Griff hat. Beispiel gefällig? Ich habe ein Objekt in Bayern. Dafür benötige ich Grundbuch, meinen Anteil am Gesamt und noch ein paar Angaben, die ich problemlos aus dem Kaufvertrag und Grundbucheintrag entnehmen kann. Es hat mehr Zeit gebraucht, es mithilfe einer Software unterstützend einzugeben, als das zusammenzustellen. Ich will nicht zu viel verraten, aber für die Abgabe in Bayern habe ich letztlich über den amtlichen PDF-Vordruck zum Am-PC-Ausfüllen und einem Ausdruck per Kuvert in die Post mit allem in unter einer Stunde erledigt. Und dann kommt das Berliner Objekt. Und wem es noch so ergeht, wie mir, mit Baustelle zwei für die jämmerlichste Hauptstadt der Welt, der ist nur um Brechreizverdrängen. Volles Programm. Dafür, dass alle Ämter hier ständig das gleiche Klagelied anstimmen: zu wenig Personal, zu viel Arbeit. Ja, danke! Selbst schuld, man hätte auch den einfachen Weg gehen können. Allerdings beschleicht mich in der Berlin-Brandenburg-Vetternwirtschaft immer mehr der Gedanke, dass es niemanden gibt, der ahnungsloser sein könnte, als die jeweiligen Behörden. Und das klärt auch, warum ich in Berlin bis zum Kaufvertrag, der als vierstelliges Datum noch die 19-Hundert trägt, wirklich alles an Unterlagen benötigte, was sich rund um eine Immobilie so ansammelt. Was liegt also, gerade für das Länderfinanzausgleichaufsaugeloch, näher, als sich durch eine Software Unterstützung zu holen. Im Funktionsumfang sind die beiden, die ich bemüht habe, identisch: knapp unter 30 Euro für drei Objekte. Durch Abfragen wird der Nutzer langsam an das Thema und den Ernst der fehlenden Daten bei Berliner Behörden rangeführt, um dann, nach Kauf, über die Elster-Schnittstelle die finale Version verschicken zu können. Aber auf dem Weg dahin finden sich ebenso lächerliche wie dumme Fehlermeldungen, die für mich vorrangig eines bedeuten: Finger weg von den beiden Anbietern dieser Lösung! Wobei man an sich nicht viele Fehler machen kann: Man benötigt die Steuernummer und die persönliche Identifikationsnummer. Beides sollte man problemlos griffbereit haben, falls nein, hilft die letzte Steuererklärung, beides zu entdecken. Dann die Angaben zu dem Grundstück, sowohl die Wiso als auch die smartsteuer finden dies wahlweise über die Anschrift des Grundstücks oder per Zugriff auf staatliche Informationen. Die Zahlen werden, mal mehr mal weniger zuverlässig und korrekt übernommen und automatisiert in die Eingabemaske übernommen. Wer übrigens für ein Grundstück in Berlin verzweifelt ein Aktenzeichen sucht: Es ist die Steuernummer eines vormals jährlichen Grundsteuererlasses. In der Theorie berücksichtigen beide von mir getestete Produkte auch "Sonderfälle", etwa die Angabe von Erbengemeinschaften. Ebenso können Grundstücke, die mehr als einer Gemeinde und Gemarkung zugeordnet sind, problemlos hinterlegt werden - in smartsteuer werden diese Daten automatisch durch die automatisierte Lage per Adresse oder manuell über die Grundbuchdaten übernommen. Bei WISO wird ebenfalls über die Adresse im Grundbuch nach den benötigten Informationen gesucht. smartsteuer hat mich, ehrlich gesagt, von Anfang an mehr angesprochen. Allerdings stellte sich während der Eingabe heraus, dass das Produkt noch nicht fertig und in Teilen mit zu heißer Nadel auf schnell-schnell gestrickt wurde. Als ich zum Grundstück noch ein weiteres hinzufügen musste, da sich dort eine Garage befindet, führte dies zu Fehlern. Auch konnte ich bei meiner Adresse einen Buchstaben zur Hausnummer hinzufügen, dies aber nicht bei allen weiteren Feldern, die später abgefragt wurden. In Summe hatte ich per E-Mail diverse Fehler und Kleinigkeiten reklamiert, die ohne Antwort nun auch größtenteils korrigiert oder durch Schieberegler implementiert wurden. Ein Fehler, der mir seit meinem Test der Online-Lösung von der ersten bis zur jetzigen Version aufgefallen ist, dass bei Erbengemeinschaften immer von einer fehlenden Empfangsvollmacht die Rede ist, auch wenn die Angaben hinterlegt sind. Aber solche Systemfehler verhindern, dass man über ELSTER nach Fertigstellung kein Absenden auslösen kann. smartsteuer wirkt modern, übersichtlich und einfach. Schade, dass Programmfehler und wirre Fehlermeldungen das kaputt machen / Bild-/Quelle: smartsteuer.de Kurz gesagt: Meine Eingaben bei smartsteuer geben bei der Prüfung für die Freigabe an das ELSTER-Modul bis heute eine fehlerhafte Steuernummer aus. Da diese von einem entsprechenden früheren Bescheid stammt und nun mehrfach auf Tippfehler und Zahlendreher geprüft wurde, ein sehr lästiger Fehler. Auch die Texte zu den vom Programm gezogenen Flächen und Grundbuchinformationen, die jetzt in Summe nicht passen sollen und in Berlin für dieses Testgrundstück keinen Zähler und Nenner haben, sondern eben einen Zähler, verbieten eine ELSTER-Übergabe. Schön auch, dass zwei Grundstücke gewählt und angegeben wurden und die Auswertung jedoch einen Fehler auswirft, dass "zwei" als Angabe hinterlegt wurde, aber eben nicht als Grundstücke ausgewählt wurden. Aber: einen Vorteil hat smartsteuer, wenn auch mit gebührender Bearbeitungszeit von Service-Anfragen: hier kommen tatsächlich Antworten. Hier wird einem geholfen. Und seltsamerweise wurde eine meiner Anfragen tatsächlich "hochpriorisiert". Und: Fehlermeldungen führen zu Anpassungen. Aber: man sollte nicht auf den letzten Drücker mit der Erstellung loslegen! Und das gilt neben smartsteuer erst recht für WISO. Wesentlich katastrophaler wirkt die WISO Grundsteuer auf mich: Undurchdringliche Fehlermeldungen ohne handfeste Hinweise - und keine Erreichbarkeit des Kundenservices! / Bild-/Quelle: buhl.de Zwar wird, gleich vor Beginn, mit einem fiktiven "Beispiel" aus Rheinland-Pfalz auf die Datenquelle der Informationsschreiben der Finanzbehörden hingewiesen - allerdings scheint auch nur das Rheinland einen solchen Service zu bieten. Für meine beiden Testgrundstücke in Bayern und Berlin - identisch mit den Daten, die ich in smartsteuer benutzt habe - musste ich erst wieder die Daten aus diversen Quellen recherchieren, bevor ich überhaupt anfangen konnte. Aber: es hatte vom Start weg weniger Fehler. Hausnummern durften ohne Fehlermeldung in dem jeweiligen Feld einen Buchstaben am Ende haben, als "1a". Auch die Bestimmung, um welche Art von Grundstück es sich handelt, ist umfangreicher, deshalb aber nicht unbedingt einfacher zu verstehen. Nun gut, man hat es mit einer Steuererklärung zu tun, was habe ich auch erwartet. Die Daten des Grundstücks in der Software zu ermitteln und automatisiert zu übernehmen, ist mir in smartsteuer leichter gefallen. Auch, da ich mich nicht entscheiden musste zwischen "Ich habe sie griffbereit" oder "Ich muss sie online ermitteln". Ich konnte auch einfach verproben, ob die vorliegenden korrekt sind. Bei WISO muss ich wählen, danach ist der andere Weg verbaut. Auch wenn mich WISO mit sinnlosen und ebenso nutzlosen Fehlermeldungen bis Ende September geärgert hat und ich nicht weiterkam, mit meiner Testgrundstücksteuer in Berlin - das System ist ausgereifter. Es hat seine Macken, ist aber in Summe günstiger. Und, auch wenn ich davon keinen Gebrauch mache, es bietet für 99 € eine 45-minütige Sitzung mit einem steuerlichen Fachmann. Er sichtet den bisherigen Fortschritt und hilft mit Tipps bei der Erstellung und Übernahme der Daten aus den schriftlichen Unterlagen, die allerdings, logischerweise, vorliegen müssen. In beiden Programmen konnte ich, wahlweise in Abhängigkeit meiner Servicetickets oder auch der voranschreitenden Zeit, die Evolution erkennen. Ich gebe zu: Ich habe mich am Ende für die WISO-Lösung entschieden. Und am 30.09., als ich noch ein paar Screenshots zu den belanglosen und überflüssigen Fehlermeldungen machen wollte, gab es da plötzlich einen Link. Der brachte einen nicht mehr zum Start des jeweiligen Kapitels, sondern auf die passende Unterseite. Und schon tauchte unter dem Link auf der rechten Seite eine oder mehrere neue Boxen auf, mit konkreten Hinweisen, den Fehler zu finden und auszubessern. Und ja, auch wenn ich es nicht weiter genutzt habe, auch smartsteuer bessert nach. In Summe erleben wir also auf beiden Seiten eine Beta-Version. Mit heißer Nadel gestrickt. Und durch Hinweise und Anmerkungen als auch Fehlerberichten durch die zahlende Kundschaft verbessert. Bleibt zu hoffen, dass bis zum 31.10.2022 alle Fehler raus sind. Wenn ich nun auf die aktuelle Version von meiner Wahl, also WISO, blicke, endlich mit sinnvollen, nennen wir es Anmerkungen statt Fehlermeldungen, was denke ich dann. Ich ärgere mich immer noch, dass seitens des technischen Supports keinerlei Rückmeldung zu meinen Anmerkungen kann, auch wenn meine Kritik der "sinnlosen und dummen" Fehlermeldungen mittlerweile brauchbar und verständlich als auch wirklich hilfreich umgesetzt wurden. Ich finde es im Vergleich zu smartsteuer immer noch altbacken - aber es war weit hilfreicher in der Nutzung, zumindest für mich armen alten Mann, der sonst einen Steuerberater für seine jährlichen Abgaben einsetzt. Einzig offen ist für mich die Frage, wie ich den beiden Finanzämtern klarmache, dass die Grundstücke nur ein Test für einen Blogartikel und einen Podcast sind. Und ich eben nicht doppelte Grundsteuer in zwei Bundesländern abdrücken möchte... aber jeder Test hat auch immer seine wahren Seiten, ich bin gespannt, was vom Finanzamt kommt - und ob ich gewissenhaft gearbeitet habe. Wenn ihr das Thema noch vor euch herschiebt, mein Test ergibt, dass die beiden Tools nun eine Reife haben, um an einem Wochenende die Grundsteuer fertig zu bekommen und mit Mausklick direkt ans zuständige Finanzamt zu übermitteln. Und über all das, was mich beim Testen so richtig aufgeregt hat, spare ich mir weitere Aussagen, schließlich sind die Macken auch dank meiner sehr direkten E-Mails nun raus. Aber, ich sage es abermals: Ihr müsst bei den Anbietern erst eure Identität bestätigen lassen, also wartet nicht bis zur letzten Sekunde mit der Erstellung! All die Aufregung, die Beschwerden und das Rumgenerve: es ist vollbracht! / Bild-/Quelle: buhl.de Viel Erfolg, und sagt nicht, ich hätte euch nicht gewarnt! PodCast abonnieren: | direkt | iTunes | Spotify | Google | amazon | STOLZ PRODUZIERT UND AUFGENOMMEN MIT Ultraschall5 Folge direkt herunterladen

art internet man pr personal service chaos evolution system er mit tools berlin welt thema position software weg als euro arbeit mehr tipps ihr qual seite anfang beispiel finger antworten politik emails nun antwort lage kritik wahl fehler selbst garage viel beginn wirklich keine weil seiten kurz wieso ernst rede aufgaben bayern lied stunde identit kindheit zum programm erkl wochenende daten vergleich griff produkte bleibt opfer neuen allerdings produkt teilen beh fernsehen laden texte papier aussagen kauf feld einsch theorie silvester die zeit vorteil hinweise unabh nutzung screenshots abh fortschritt ausdruck quellen anteil fehlern worum urteil steuern gedanke gemeinde ebenso unsinn aufregung hauptstadt anbieter steuer quatsch beschwerden wahrscheinlich nutzer beides sekunde anfragen selten bestimmung wobei adresse bundesl summe anwendungen boxen baustelle belastungen erstellung testen bescheid angaben buchstaben schade kleinigkeiten zugriff anmerkungen auswertung objekt sitzung gebrauch blogartikel schlimmste anpassungen gesehen grundst frist kette nadel objekte programmen rheinland pfalz finanz bundesland immobilie steuerberater steuererkl unterlagen anbietern finanzamt feldern rheinland fachmann macken hinweisen die zahlen reife nenner kundschaft einzig ende oktober abgabe nachhilfe hundert erreichbarkeit freigabe feststellung fertigstellung die daten ein fehler angabe elster gemengelage kapitels grundsteuer abgaben einsendeschluss wesentlich gesamt die software stichtag hausnummer gejammer mausklick beta version eingabe kaufvertrag liedchen volles programm strophen unterseite tippfehler in summe aktenzeichen schornstein sonderf anschrift auslagerung grundbuch wiso systemfehler kuvert finanzbeh klagelied hausnummern fehlermeldungen steuernummer bearbeitungszeit fehlermeldung datenquelle absenden schieberegler
Der Data Analytics Podcast
Back to Basics - Datenreise von der Datenquelle über die Speicherung in relationalen Datenbanken...

Der Data Analytics Podcast

Play Episode Listen Later Feb 16, 2022 12:37


Datenreise von der Datenquelle über die Speicherung in relationalen Datenbankenbis zur Visualisierung in BI Tools

Avanet
#035 - Sophos News 02-2022

Avanet

Play Episode Listen Later Feb 10, 2022 53:34


## Log4Shell Zu Beginn sprechen wir über die Zero-Day-Schwachstelle Log4Shell, welche Anfang Dezember 2021 im Java Logging Framework Log4j entdeckt wurde. ## Produkte, von denen wir uns demnächst verabschieden müssen In dieser Podcastfolge erfahrt ihr, welche Produkte demnächst End of Life gehen und von denen wir uns verabschieden müssen. ## XDR News Sophos steckt im Moment sehr viel Liebe in das Central XDR-Produkt. Neben Server, Firewall, E-Mail und Cloud Optix kann nun auch Sophos Mobile mit XDR, die Android, iOS und Chrome OS Daten in den Data Lake speichern. Des Weiteren sind die zwei neuen Funktionen "Detection and Investigation" für alle verfügbar und Microsoft 365 Audit-Protokolldaten stehen als weitere Datenquelle für den Data Lake zur Verfügung. Abschliessend weisen wir noch darauf hin, dass der Zeitraum für Data Lake Abfragen geändert wurde. Statt den bisherigen 30 Tagen sind es jetzt standardmässig 7 Tage, welche für eine Analyse berücksichtigt werden. ## Account Health Check in Central (BETA) Erfahrt in dieser Podcastfolge, wie euch das neuen "Health Check" Dashboard dabei unterstützen soll, euren Central Account korrekt einzurichten. ## Neue Endpoint Scanner Architektur veröffentlicht Sophos hat die Architektur ihres Endpoints überarbeitet und Komponenten von Sophos Antivirus durch moderne Technologien wie Deep Learning ersetzt. Was dies genau bedeutet und wann der neue Client zur Verfügung steht, erfahrt ihr in dieser Folge.

Startup Insider
"Wir wollen das nächste Unicorn werden!" - die Erfolgsgeschichte der Datenplattform Y42 – Teil 2

Startup Insider

Play Episode Listen Later Nov 26, 2021 51:18


In unserer Nachmittagsfolge begrüßen wir heute erneut Hung Dang, CEO & Founder von Y42, und schließen in dem zweiten Teil an das Gespräch vom 9. November an. Vor kurzem hat Y42 eine Serie-A-Finanzierungsrunde in Höhe von 32 Millionen US-Dollar, unter der Leitung von Atomico und Insight Partners abgeschlossen.

Startup Insider
Die Datenplattform Y42 sammelt 31 Mio. US-Dollar ein

Startup Insider

Play Episode Listen Later Nov 9, 2021 21:57


In der Mittagsfolge begrüßen wir heute Hung Dang, CEO & Founder von Y42, und sprechen über die Serie-A-Finanzierungsrunde in Höhe von 31 Millionen US-Dollar. Hung hat Y42 (früher Datos Intelligence) 2020 in Berlin gegründet, nachdem er bereits eine globale Datenplattform für CTS Eventim entwickelt hatte. Außerdem war er Mitbegründer von „Party like Gatsby", einer globalen Veranstaltungsreihe. Er möchte mit Y42 laut eigenen Angaben ein Tool entwickeln, das jedes Unternehmen in ein Datenunternehmen transformiert und durch das sich jede Mitarbeiterin und jeder Mitarbeiter in einen Datenanalysten verwandelt. Mit Y42 erhält man demnach eine skalierbare Datenplattform, die den gesamten Data Lifecycle von Datenquelle bis Dashboard in einer Cloud-Lösung vereint. Y42 hat nun in einer Serie-A-Finanzierungsrunde $31 Millionen gesammelt. Die Runde wurde von Atomico und Insight Partners geleitet. Irina Haivas (Atomico-Partnerin) soll zudem im Rahmen der Investition in den Vorstand von Y42 eintreten. La Famiglia und Data Community Fund haben sich ebenfalls an der Runde beteiligt. Das Unternehmen will das eingeworbene Kapital nutzen, um die Entwicklung seiner Plattform weiter zu beschleunigen, seinen Kundenstamm auszubauen und das Team zu vergrößern.

Richtig Wetten
Richtig Wetten #12 - Vom Entwurf eines Wettprofis am Reißbrett (erster Teil)

Richtig Wetten

Play Episode Listen Later Aug 12, 2021 53:11


In Folge #12 bespricht Sebastian mit Joachim, wie man einen Laien am Reißbrett zum Wettprofi machen könnte, und welche Etappen es auf diesem Weg zu bewältigen gilt. Im ersten Teil geht es unter anderem um die ersten Schritte, Probleme der Datenverarbeitung bei der Erstellung eines Wettmodells und die Beschaffung von Daten. Joachims Blog: https://www.crimsoncorporation.de/ (Crimsoncorporation.de) Joachim auf Twitter: https://twitter.com/crimsonceo (@crimsonceo) ___________________________________________________ Notizen & Zeitstempel(00:00) Intro/Begrüßung (00:48) Warum heißt der https://www.crimsoncorporation.de (Blog Crimson Corporation)? (01:23) Das Geheimnis wird gelüftet: Das Computerspiel Star Control II als Inspirationsquelle (03:32) Parallelen zur seelenlosen Wettindustrie (04:32) https://sourceforge.net/projects/urquanmastershd/ (Star Control II zum kostenlosen Download in der HD-Fassung), und https://en.wikipedia.org/wiki/Star_Control_II (hier noch der Wikipedia-Artikel zum Spiel) (05:35) Hauptthema: Der Entwurf eines Wettprofis am Reißbrett (06:20) Wie hat Joachim selbst angefangen? Schritt 1: Tracken der eigenen Wetten (07:48) Schritt 2: Erstellen eines einfachen Modells (08:40) Erste Versuche bei Windhundrennen und Baseball - siehe dazu und zu dieser Folge auch den Blogost https://www.crimsoncorporation.de/wettblog/mit-sportwetten-geld-verdienen (Mit Sportwetten Geld verdienen: Der ultimative Leitfaden) (10:50) Experimentieren heißt das Zauberwort (11:25) Spreadsheetverarbeitung als wichtiges Element (13:04) Problemstellung verfolgen und Lösungen selbst finden (13:58) Zurück ans Reißbrett: Die nächsten Schritte (14:17) Optimale Datenverarbeitung mit Excel und Libre Calc Probleme: Anfallende Kosten und große Datenmengen (17:07) Programmieren mit Python und R – extrem wichtig oder Zusatzfähigkeit? (18:14) Libre Calc und Excel als ausreichende Programme (19:45) Fokus bewahren (20:34) Lohnen sich Anschubinvestionen auf lange Sicht? (22:18) Kreativität beim Erstellen eines Modells (23:07) Durch logisches Denken zum Modell (24:07) Korrelation und Kausalität: Stichwort Kausalrichtung (25:25) Die Suche nach Variablen mit guten Korrelationen (27:56) Korrelationen als wertvoller Hinweis – wenn sie plausibel sind (28:44) Wie bekommt man eigentlich seine Daten? (30:25) Daten automatisch erfassen: Scrapen mit verschiedenen Programmen (31:15) Eigene Programmiersprache in Libre Calc und Excel (34:35) Lässt sich jede Website scrapen? (35:15) Probleme beim Scrapen durch IP-Sperren (37:06) https://wyscout.com/pricing/ (Wyscout als billige Datenquelle) (38:22) Die teure Alternative: Scrapen lassen (Links folgen) (40:20) Finale Erkenntnis: Scrapen ist wie Krieg (40:47) Kurzer Rückblick auf Folge 11 (41:35) Stichwort Buchmacher: Was man bei der Wahl des Bookies beachten sollte (42:30) Das https://www.oddsportal.com/ (Oddsportal)-Problem (44:15) Moral von der Geschichte: Finger weg von Euro-Bookies (44:34) Kurze Anekdote von Sebastian zum Thema Limitierung (45:30) Eine zufriedenstellende Erkenntnis (46:53) Sebastian gegen das System Stand nach dem Heidenheim-Sieg in Ingolstadt: Sebastian 538,90 Joachim 341,30 Neue Wette aus der 3. Bundesliga: 1. FC Kaiserslautern -0.25 @ 1.97 (Joachim) Viktoria Berlin +0.25 @ 1.90 (Sebastian) (50:19) Faktor Zufall bei Sebastian gegen das System (51:04) Verabschiedung/Outro

Digitalisierung ist für Dich
#118- Simon Kranzer- Transfer für KMUs- Teil 3

Digitalisierung ist für Dich

Play Episode Listen Later Jul 1, 2021 23:29


Heute haben wir wieder eine neue Folge unseres Podcasts „Digitalisierung ist für Dich!“ Wir haben den dritten und auch letzten Teil des Interviews mit Simon Kranzer. Man arbeitet immer wieder daran, dass man die anderen Branchen mehr versteht. Dann können Architekten oder auch Juristen mit der IT besser kommunizieren.Alle Infos gibt es in der aktuellen Folge, hör also rein!

Smart Hotel Key, dein Podcast für erfolgreiches Hotelmanagement
SHK 031: Lass keine Datenquelle ungenutzt

Smart Hotel Key, dein Podcast für erfolgreiches Hotelmanagement

Play Episode Listen Later Jun 20, 2021 15:27


In der letzten Podcast-Folge wurden bereits einige Datenquellen beschrieben, die man als Hotelier sowohl erzeugen als auch nutzen kann.  Ein großes Fragezeichen sind dabei jedoch nicht nur die technische Herausforderungen, sondern oft auch die Sinnhaftigkeit der Auswertung bzw. deren Mehrwert.  Dieser Umstand kann dem Fehlen von zusätzlichen Daten geschuldet sein, die man entweder (noch) nicht aus dem System erhält, oder externen Datenquellen, die man bis dato noch nicht kannte. Shownotes/Links:  Link zum Blogbeitrag https://smarthotelkey.at/lass-keine-datenquelle-ungenutzt

Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz
Turtlezone Tiny Talks - Warum können wir kein Digital?

Turtlezone Tiny Talks - 20 Minuten Zeitgeist-Debatten mit Gebert und Schwartz

Play Episode Listen Later Mar 1, 2021 20:00


Immer wieder stehen wir in Statistiken im Mittel- oder Schlussfeld der Länder die konsequent auf Digitalisierung in der Verwaltung setzen – aber auch in der Corona-Pandemiebekämpfung. Schnell wird über ein etabliertes, verlässliches Medium wie das gute alte Faxgerät gelacht und dabei übersehen wie weit wir von funktionierenden digitalen Prozessen entfernt sind. Für die neueste Episode der Turtlezone Tiny Talks debattieren Dr. Michael Gebert und Oliver Schwartz über den digitalen Impfpass, der – lange verteufelt – nun ganz schnell europaweit kommen soll. Aber was ist die referenzierte Datenquelle? Im Gegensatz zu Ländern wie Estland verbummeln wir seit weit mehr als 20 Jahren die Bemühungen um eine digitale Patientenakte oder eine intelligente Gesundheitskarte. Statt selbstbestimmt aus der eigenen Akte eine Datenspende vornehmen zu können, werden wir vermutlich wieder eine mit heißer Nadel gestrickte Insellösung sehen und eine weitere App – statt eine Integration in täglich genutzte, etablierte Portale. Können wir wirklich kein Digital?

Donau Tech Radio - DTR
DTR204 Monitoring Follow-Up, Grafana, Traefik, Git Clients

Donau Tech Radio - DTR

Play Episode Listen Later May 26, 2020 86:29


Diese Episode hat sich spontanerweise in eine sehr entwicklungslastige entfaltet, die dem Namen dieses Podcasts alle Ehre macht. Es beginnt mit einem kleinen Follow-Up über Monitoring Tools, Tom erzählt von seinen ersten Schritten mit Prometheus und Grafana. Danach geht es um die Influxdb als Datenquelle für Grafana und die Integration/Anzeige von Loxone Daten aus dem gediegenen Smart Home. André erzählt etwas von seinen Erfahrungen mit Go und Traefik, und generell Deployments von Go Anwendungen. Zu guter Letzt gehen Tom und André noch kurz auf die neuesten Features von GitKraken und Tower ein.

Bitcoin Informant - Tägliche Bitcoin & Krypto News
#854 Binance schluckt CoinMarketCap – das bedeutet die Übernahme

Bitcoin Informant - Tägliche Bitcoin & Krypto News

Play Episode Listen Later Apr 7, 2020 9:36


*Sponsored Post - www.coin-ratgeber.de* CoinMarketCap ist eine der am häufigsten besuchten Seiten in der Krypto-Sphere. Folglich ist ein gewisses Interesse seitens anderer Unternehmen keine sonderliche Verwunderung. Nichtsdestotrotz sorgte die Mitteilung, dass die Krypto-Börse Binance nun die Übernahme von CoinMarketCap für ein Gesamtvolumen von 400 Millionen US-Dollar plant, für Verwunderung. Die Meldung hat das normalerweise gut informierte Medium TheBlock unter Berufung auf einen Insider veröffentlicht. In Zukunft wird die meistbesuchte Website der Krypto-Szene zur nach Handelsvolumen größten Krypto-Börse gehören. Doch was plant Binance mit der Übernahmen? In unserer Redaktion haben wir die Übernahme von CoinMarketCap diskutiert und vier grundlegende Thesen über die Intentionen von Binance aufgestellt. Szenario 1: Binance übernimmt Kontrolle neuer Coin Listings CoinMarketCap (CMC) ist nicht nur die erste Anlaufstelle für Anleger und Investoren zum Abruf von Krypto-Kursen, sondern auch die relevanteste Datenquelle in der Krypto-Szene. Die Website stand im Mittelpunkt zahlreicher Diskussionen, nachdem die SEC über künstlich generierte Handelsvolumina aufseiten der Handelsplattformen berichtete, welche unter anderem an CMC weitergeleitet wurden. Nichtsdestotrotz gilt CoinMarketCap als wohl wichtigste Seite in der Krypto-Sphere, sodass Binance mit der Übernahme neue Geschäftsmöglichkeiten erschließt. Da es sich bei CoinMarketCap um die wohl wichtigste Anlaufstelle den Abruf von aktuellen Kursen handelt, kann Binance dieses Potenzial ausnutzen. Aktuell sind auf Binance 2.503 Kryptowährungen gelistet. Für die dahinterstehenden Unternehmen haben die Listings auf CMC eine große Bedeutung, da sich die Reichweite massiv erhöht. Aus Sicht von Binance kann diese Reichweite ein enormer Vorteil sein, denn Unternehmen, die ein entsprechendes Listing benötigen, könnten in Zukunft eine entsprechende Gebühr entrichten. Außerdem könnte Binance auf diese Weise den Markt kontrollieren und festlegen, welche Projekte den Weg auf die eigene Plattform schaffen. Somit ließe sich die Marktmacht steigern und ein zusätzlicher Einkommensstrom aufbauen. Szenario 2: CoinMarketCap erhält Schnittstelle zu BinanceUnsere zweite These lautet, dass Binance das Potenzial von CoinMarketCap ausnutzt, um die eigene Marktstellung zu verbessern. Einerseits stehen vor allem die Kryptowährungen im Fokus des Marktes, die eine hohe Marktkapitalisierung aufweisen. Zum aktuellen Zeitpunkt notiert die Binance Coin auf Platz 9 der nach Marktkapitalisierung größten Kryptowährungen. Sollte sich das Unternehmen dazu entschließen, die neue Plattform vor allen Dingen für Werbemaßnahmen zu nutzen, ließe sich der Fokus der Marktteilnehmer schnell auf die eigene Coin fokussieren. So könnten extra Werbebanner, Sonderplatzierungen oder Angebote dazu beitragen, dass die Coin eine wichtigere Rolle im täglichen Handel einnimmt. Entscheiden sich andere Unternehmen dazu Werbung auf CMC zu schalten, ließen sich entsprechende Werbeplätze besonders teuer veräußern. Noch größer sollte jedoch das Potenzial entsprechender Schnittstellen sein. Binance steht als Krypto-Börse im Wettbewerb mit anderen Krypto-Börsen wie Kraken, Bitpanda oder Bitfinex. Im aktuellen Status Quo besuchen interessierte Anleger CoinMarketCap und rufen die aktuellen Preise der interessanten Kryptowährungen ab. Anschließend müssen diese Nutzer eine passende Börse – im Regelfall die Börse mit den geringsten Spreads – aufsuchen, um direkt in die entsprechende Kryptowährung zu investieren. In Zukunft könnte Binance jedoch die Customer Journey vereinfachen und Schnittstellen in CMC integrieren. So könnte beispielsweise eine direkte Integration von Binance stattfinden. Nutzer könnten sich in Zukunft direkt mit ihrem Binance-Konto anmelden und somit schneller handeln. Außerdem könnte Binance die verschiedenen Währungspaare zu attraktiveren Spreads anbieten und somit seinen eigenen Marktanteil steigern. Auch der Verkauf von Platzierungen für andere Krypto-Börsen ist denkbar und im Bereich des Möglichen. Inwiefern Binance hier aktiv wird, bleibt abzuwarten. Szenario 3: Binance nutzt die neue Reichweite zur Analyse des Marktes Unsere dritte These dreht sich um die weitere Expansion von Binance. In der Vergangenheit hat das Unternehmen vermehrt Akquisitionen durchgeführt, um das eigene Wachstum anzukurbeln. In der Krypto-Szene spielen jedoch vor allem Coins und Token eine fundamentale Rolle. So emittieren die Unternehmen ihre eigenen Coins oder Token, um sich zu finanzieren. Möchten diese Unternehmen ein Listing auf CMC haben, dann erfolgt eine Prüfung in einem frühen Stadium. Genau diese Chance kann Binance nutzen, um in potentiell interessante Unternehmen zu investieren. Mit dem bereitgestellten Kapital kann das geförderte Unternehmen wachsen – hier profitiert Binance direkt von der Beteiligung. Sollte das Unternehmen eine Konkurrenz zu Binance darstellen, könnte es gekauft und direkt integriert werden. Einerseits verhindert die beliebte Krypto-Börse so zwar den Wettbewerb. Allerdings wäre diese Entwicklung nicht von Vorteil, da somit die Innovationskraft des Marktes sinkt. Kommt die adaptierte Technologie dennoch zum Einsatz, könnte Binance die Innovationskraft erhöhen und somit einen Vorteil für den Markt schaffen. Bedeutend kritischer wäre die komplette Unterdrückung des Wettbewerbs. Nutzt Binance seine Marktmacht über CMC dazu, kleine Unternehmen vollends vom Markt zu verdrängen oder deren Mitarbeiter abzuwerben, könnte der Gesamtmarkt nachhaltig leiden. Aufgrund der Akquisitionen der Vorjahre ist davon auszugehen, dass das maltesische Unternehmen durchaus einige weitere Unternehmen akquiriert. Ob dies allerdings durch Datenanalysen auf Basis der CMC-Daten erfolgt, bleibt eher fraglich. Szenario 4: Entwicklung eines ganzheitlichen ÖkosystemsNachdem unsere vorhergegangenen Szenarien etwas düster waren, widmen wir uns einem etwas freundlicheren und ebenfalls möglichen Szenario: der Entwicklung eines ganzheitlichen Ökosystems. Immerhin steht nicht Binance und deren Profit im Zentrum eines jeden Trades. Vielmehr müssen auch die Investoren dazu bereit sein, die Plattform der Krypto-Börse mit Sitz in Malta zu nutzen. Aus diesem Grund können wir uns vorstellen, dass Binance ein komplettes Ökosystem erschaffen möchte, welches den Kunden bindet. Dabei soll die Reise des Kunden bereits beim Abruf der ersten Kurse im eigenen Ökosystem starten. Zahlreiche Komfortfaktoren wie eine unmittelbare Einbindung des eigenen Accounts, eine Verknüpfung der eigenen Handelshistorie, schnelle Kaufoptionen und eine automatische Weiterleitung in das Binance-Konto sind hier möglich. Aus Transparenzgründen könnte Binance sich auch dazu entscheiden die aktuellen Spreads verschiedener Handelsplätze offenzulegen und den Kunden weiterzuleiten. Im Hintergrund könnten Vermittlungsprovisionen das eigene Geschäft beflügeln. So könnte Binance einen maximalen Vorteil für den Kunden schaffen, das eigene Geschäft optimieren, weitere Daten der Konkurrenz sammeln und die eigene Stellung im Krypto-Markt festigen. Fazit: CMC-Kauf noch mit Fragezeichen Schlussendlich wissen auch wir nicht, welches Potenzial Binance in der Akquisition von CoinMarketCap sieht. Allerdings sind wir uns sicher, dass der Gründer und CEO, Changpeng Zhao, konkrete Pläne hat. Ob nun CMC dazu dienen soll, um eine direkte Schnittstelle zur Handelsplattform von Binance zu werden oder ob das Unternehmen ausschließlich eigene Werbeanzeigen einbindet ist fraglich. Auch eine Kontrolle der Coinlistings ist durchaus denkbar. Immerhin umfasst CMC bereits heute nicht alle verfügbaren Kryptowährungen. Nichtsdestotrotz sind wir uns sicher, dass CMC weiterhin die erste Anlaufstelle Investoren bleibt, um die Kurse der unterschiedlichsten Währungen abzurufen. Am nachhaltigsten erscheint uns persönlich das letztgenannte Szenario. Welche Pläne Changpeng Zhao wirklich hat, werden wir im Laufe der kommenden Monate sehen. Disclaimer: Dies ist ein bezahlter Artikel von www.coin-ratgeber.de

FOSSGIS 2014 (mp4)
Geodateninfrastruktur Rheinland-Pfalz INSPIREd

FOSSGIS 2014 (mp4)

Play Episode Listen Later Mar 22, 2014


Das vollständig auf FOSS basierende GeoPortal.rlp wurde seit seiner Inbetriebnahme im Januar 2007 sukzessive an die sich wandelnden Nutzeranforderungen angepasst. Es bildet die zentrale Komponente der Geodateninfrastruktur Rheinland-Pfalz (GDI-RP) und setzt das einer Serviceorientierten Architektur (SOA) zugrundeliegende Publish-Find-Bind Paradigma seit 7 Jahren konsequent und erfolgreich um. Im Gegensatz zu den allgemein verbreiteten GDI-Architekturen (z.B. GDI-DE und INSPIRE), deren Backends große Kataloge mit standardisierten Metadaten für Daten und Dienste bilden, basiert die GDI-RP auf dem Konzept einer Service-Registry. Dezentrale Stellen registrieren OGC konforme WMS und WFS (OWS) in einer zentralen Datenbank. Das zugrundeliegende Konzept wurde 2005 zu einem Zeitpunkt erstellt, zu dem es noch keine standardisierten Schnittstellen für den Austausch von Geo-Metadaten gab und basiert auf dem Prinzip eines Single Point of Access (SPA) als Datenquelle für alle innerhalb einer GDI benötigten Metadaten. Die Informationen werden dabei aus den Capabilities Dokumenten der OWS extrahiert und einer zentralen Recherche zugänglich gemacht. Das Prinzip erlaubt die Realisierung eines Metadatenproxies, der sowohl für Qualifizierungsmaßnahmen, als auch für eine zentrale Absicherung genutzt wird. Mit der ab 2007 beginnenden Umsetzung der INSPIRE-Richtlinie und ihrer Durchführungsbestimmungen in nationales Recht, ergaben sich neue Herausforderungen. Das auf einer "Standard GDI-Architektur" basierende Prinzip von INSPIRE stellt spezielle Anforderungen an die bereitzustellenden Daten, Dienste und deren Metainformationen und ist weltweit der erste reale Anwendungsfall für die ursprünglich vom OGC erarbeiteten Konzepte und Standards. Es fehlt bis heute noch an Softwareprodukten die diese Anforderungen vollständig umsetzen können. Um den ambitionierten Zeitplan der Richtlinie einhalten zu können, wurden in Rheinland-Pfalz verschiedene Verfahren entwickelt, die es den Datenanbietern erlauben, die bisherigen etablierten GDI Standards WMS 1.1.1 sowie WFS 1.1.0 weiterzuverwenden, ohne ihre Basissoftware anpassen zu müssen. Die komplexen Anforderungen werden dabei zentral über eine "INSPIRE-Proxy" Funktionalität der Service-Registry erfüllt. Mit dieser Vorgehensweise ist Rheinland-Pfalz das einzige Flächenland, dass bisher alle von der Richtlinie gesetzten Fristen einhalten konnte. Neben der Fassade für die INSPIRE-konformen Darstellungs- und Downloaddiensten umfasst das Verfahren auch die automatisierte Bereitstellung der für das EU-Berichtswesen geforderten "Monitoring"-Informationen. Alle entwickelten Funktionen sind in die zugrundeliegende OSGEO Software Mapbender2 zurückgeflossen und stehen damit frei zur Verfügung. Zusätzlich gibt es das komplette Portal auch in Form einer VM zum Download. Im Vortrag werden die zugrundeliegenden Prinzipien der INSPIRE-Umsetzung kurz erläutert und die implementierten Funktionen anhand praktischer Beispiele vorgestellt. Außerdem soll ein Ausblick auf das grundsätzliche Potential gegeben werden, das trotz aller auftretender Probleme in INSPIRE steckt.

FOSSGIS 2014 (mp4)
OpenStreetMap-Daten in der RoboCup Rescue Simulation League

FOSSGIS 2014 (mp4)

Play Episode Listen Later Mar 22, 2014


Bei der RoboCup Rescue Simulation League handelt es sich um einen Wettbewerb, bei dem Teams von Software-Agenten die Folgen einer simulierten Katastrophe in einer Großstadt bewältigen müssen. Simulierte Ambulanzen, Feuerwehren und Räumtrupps müssen dabei Brände unter Kontrolle halten und Verschüttete retten, was durch begrenzte Sicht und Kommunikation erschwert wird. Die Simulationsliga dient zwei unterschiedlichen Zwecken: Zum einen der Erforschung heterogener Multi-Agentensysteme, zum anderen der Entwicklung realistischer Simulatoren und Systeme die bei der Bewältigung solcher Katastrophen hilfreich sein können. Das Simulationssystem wird im Rahmen eines Open-Source-Projekts weiterentwickelt. Realistische Stadtkarten sind dabei für die Simulation enorm wichtig. Lange Zeit waren offizielle GIS-Daten die einzige Möglichkeit, realistische Karten für die Simulation League zu erzeugen. Solche Daten waren jedoch nur begrenzt verfügbar, und restriktive Lizenzbedingungen hätten es zum Teil unmöglich gemacht, die resultierenden Rescue-Karten frei zu veröffentlichen. Daher ist OpenStreetMap eine ideale Datenquelle für die Liga: So gut wie jede größere Stadt (und viele kleinere Städte) sind detailliert gemappt, die Daten sind unter einer freien Lizenz verfügbar in einem weltweit einheitlichen Format verfügbar. Dieser Vortrag stellt die RoboCup Rescue Simulation League vor, beschreibt die Unterscheide und Gemeinsamkeiten zwischen den verwendeten Datenmodellen und denen von OpenStreetMap und die Herausforderungen die bei der Konvertierung zwischen den Formaten auftraten.

Chaosradio
CR9 Gefahren durch das Internet

Chaosradio

Play Episode Listen Later Aug 28, 1996 176:51


Das Internet ist da. Rund zwei Jahre nachdem die Öffentlichkeit auf das Wissenschaftlernetz wirklich aufmerksam wurde hat sich der Hype emanzipiert und jede denkbare gesellschaftliche Instanz denkt darüber nach, wie sich ihre Aktivitäten in das Internet erweitern lassen können. HomeBanking, TeleVoting und CyberSex sind in aller Munde und dem einzelnen kann schon angst und bange werden. So stellt sich die Frage: wer hat Angst vorm bösen Wolf? Und: wer ist dieser Wolf eigentlich? Sind es wirklich die bösen Hacker, die durch Kreditkartenklau die virtuelle Öffentlichkeit unsicher machen? Oder ist es doch nur der pädophile Verstörte mit seinen Kinderpornos der an unserer Freiheitlich-demokratischen Grundordnung rüttelt? Die Medien zeigen hier auf jeden Fall das meiste Interesse. Aber für wen sind die anfallenden Datenmassen tatsächlich von größtem Wert? CNN und CIA investieren heute weit mehr Geld in das Internet als es sich die Bundesregierung für sich wohl auch nur vorstellen könnte. Das Internet ist Spielplatz und Datenquelle gleichermaßen. Sind alle erst einmal am Großen Netz, dann gewinnen auch die Begriffe Lauschangriff und Datenspur eine völlig neue Dimension. Die Realtime-Überwachung der Bevölkerung ist aber nur ein Aspekt. Welche Auswirkungen hat das Internet auf die Privatbevölkerung? Nimmt die Isolation zu oder ist das Web Terminal ein Ausweg aus der Einsamkeit? Ist die virtuelle Krankenpflege ein Zugewinn oder nur eine billige Methode, Dienst am Menschen einzusparen? Werden wir alle durchdrehen?