Storage Consortium

Follow Storage Consortium
Share on
Copy link to clipboard

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen.

Storage Consortium


    • Apr 24, 2025 LATEST EPISODE
    • monthly NEW EPISODES
    • 12m AVG DURATION
    • 171 EPISODES


    Search for episodes from Storage Consortium with a specific topic:

    Latest episodes from Storage Consortium

    Backup-Verfahren als Teil einer umfassenden Datenschutzstrategie gegen Cyberangriffe

    Play Episode Listen Later Apr 24, 2025 6:54


    Um was geht es in dieser Podcast-Episode? Die Datensicherung (Backup-Restore) kann alleine weder monetäre Verluste durch Ausfallzeiten noch Reputationsverluste ungeschehen machen, bildet jedoch für viele Betriebe eine zentrale Säule und Schutzmaßnahme gegen Cyberangriffe. Allerdings können Backups gegen Ransomware & Co. bei erfolgreichen Angriffen oftmals nur begrenzt erfolgreich sein. Welche Gründe dafür verantwortlich sind und weshalb sie „nur“ ein Teil einer breiter angelegten Datenschutzstrategie sind, erfahren Sie in dieser aktuellen Podcast-Folge...

    Zur Bedeutung einer leistungsfähigen Speicherinfrastruktur für KI-Entwicklung und Betrieb

    Play Episode Listen Later Mar 19, 2025 11:36


    Wie KI- und datenintensive Anwendungen von scale-out Filesystemen, Flash Storage und einem intelligenten Datenmanagement profitieren können... Parallele scale-out File Systeme, sequentielle I/O-Muster, effizientes Metadaten-Management und leistungsfähige Protokolle-/Technologien wie NVMe over Fabrics können dabei helfen, neben der KI-Leistung auch die Lebensdauer von NAND-Flash-Speichersystemen zu erhöhen.

    Virtualisierungs- oder Containertechnologien? Positionierung und gängige Einsatzszenarien

    Play Episode Listen Later Jan 28, 2025 7:34


    Um was geht es in dieser Podcast-Episode? Der Einsatz von Containerlösungen im Vergleich zur herkömmlichen Virtualisierung bietet für verschiedene Applikationsszenarien direkte Vorteile. Mit Cloud-nativen Architekturen wird es möglich, skalierbare Anwendungen für öffentliche, private- oder hybriden Umgebungen zu erstellen und auszuführen. Es entstehen lose gekoppelte Systeme, die sowohl flexibel und stabil als auch zentral verwaltbar sind. In Kombination mit einer robusten Automatisierung lassen sich zudem mit minimalem Aufwand im laufenden Betrieb Änderungen vorzunehmen. Die klassische Virtualisierung hingegen ist weiterhin für viele (Legacy-)Anwendungen gesetzt, insbesondere, wenn branchenspezifische Sicherheitsanforderungen mit Szenarien, die eine vollständige Betriebssystemisolation erforderlich machen, beachtet werden sollten. Das CSI (Container Storage Interface), wie es in Orchestrierungs-Lösungen wie Kubernetes zu finden ist, wird sowohl von physischen als auch von softwaredefinierten Lösungen verschiedener Anbieter im Bereich Enterprise Storage unterstützt. Ferner sind Software-Definierte Plattformen (vermehrt open-source) mit Unterstützung von File-, Block- und Objectstorage in diesem Umfeld gut positioniert..

    Storage und HBM Memory im KI-Daten-Lebenszyklus

    Play Episode Listen Later Jan 8, 2025 6:14


    Im Schnittpunkt zwischen künstlicher Intelligenz und leistungshungrigen Anwendungen stehen immer mehr Daten, während potentielle Infrastruktur-Engpässe bei der Verarbeitung auf der Netzwerk-, Server- und Speicherseite auftreten können. Beim Einsatz und Betrieb von KI-Projekten hat sich die Nachfrage nach geeignetem Arbeitsspeicher und Storagekapazitäten für die Unterstützung von Trainingssätzen und Inferenz-Engines erhöht. Vermehrt steht zudem die Verarbeitung aller Arten von Daten, einschließlich Text und Bilder sowie Audio- und Videoinhalte im Mittelpunkt und die Speicherung semi- und unstrukturierter Daten spielt dabei eine zentrale Rolle im gesamten KI-Lebenszyklus. Auf der Speicherebene hat GDDR5 inzwischen Schwierigkeiten, mit dem GPU-Leistungswachstum mitzuhalten, besonders in Bezug auf Kriterien wie Strom-/Energieverbrauch, Integration und Packungsdichte der verschiedenen eingesetzten Komponenten. High-Bandwidth-Memory HBM Produkte versprechen hier Leistungsvorteile... Diese und weitere Aspekte zu dem komplexen Themenkreis "Storage, Datenverwaltung und KI" werden in dieser Podcast-Episode kurz angerissen. Weitere Information dazu finden Sie auch unter www.storageconsortium.de

    Funktionen zum Betrieb cyberresistenter Speicherinfrastrukturen

    Play Episode Listen Later Nov 29, 2024 7:37


    Zum Inhalt dieser Podcast-Episode #300 Im modernen Anwendungsumfeld hat sich unterstützt von KI und weiter ausgefeilten Data Analytics Methoden inzwischen ein datenzentrierter Ansatz etabliert. Daten werden zudem als Unternehmenskritische strategische Ressource genutzt. Dieser dann vielfach aus unstrukturierten Daten bestehende Pool wächst jedoch schnell und will entsprechend gespeichert, geschützt und archiviert werden. Ein cyberresilienter Speicher gehört in diesem Zusammenhang neben der reinen Datensicherung zu den zentralen Komponenten einer IT-Infrastruktur. Über welche technischen Ausstattungsmerkmale und Funktionen ein Unternehmensspeicher verfügen sollte, um die Sicherheit von unternehmenskritischen Daten zu gewährleisten, darum geht es zusammengefasst in dieser Podcastfolge... Neben den im Podcast geschilderten Verfahren, Technologien und Maßnahmen bleibt der Faktor Mensch weiterhin ein wichtiger „Baustein“ in der Sicherheitsarchitektur von Unternehmen und Organisationen. Jedoch werden automatisierte KI-gestützte Speicher- und Datensicherungsverfahren mit pro-aktiver Ransomware-Erkennung zur Identifizierung kritischer Daten bei der rasch steigenden Menge an unstrukturierten Daten (siehe KI) immer wichtiger. Weitere Informationen zu Anbieterlösungen, Markt- und Technologietrends finden Sie auf unserer Webseite storageconsortium.de

    Scale-Out Filesysteme und Objektspeicher für die erfolgreiche Umsetzung von KI-Initiativen

    Play Episode Listen Later Oct 25, 2024 30:26


    Integrative IT-Strategien im Zeichen von (generativer) KI, unstrukturierten Daten und Infrastruktur-Modernisierung; in unserem Experten-Podcast mit Beteiligung von HPE und CANCOM nachgefragt Zum Inhalt dieser (nicht synthetischen) Podcast-Episode: In dieser Folge beschäftigen wir uns inhaltlich primär mit der Speicherung, Verwaltung und Analyse von stetig wachsenden unstrukturierten Datenmengen im Zusammenhang mit KI und anderen kritischen Unternehmensanwendungen; dies vor allem in Hinblick auf die Auswahl der richtigen Speicher- und Datenverwaltungslösung. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Gesprächspartner sind die Storage- und IT-Experten Juergen Ruhland vom HPE Storage Competency Center Germany und Christian Hansmann, Solution Sales Architect bei Firma CANCOM. (1) Um was geht es konkret? Die Anforderungen an IT-Infrastrukturen, also Storage, Netzwerke, Server etc. steigen weiter an. Dies hat direkte Auswirkungen auf die Speicher- und Datenverwaltung. Folgt man globalen Trends, so sollen sich in großen Unternehmen & Organisationen die Kapazitäten im Bereich der unstrukturierten Daten bis 2026 verdreifachen. Dies stellt Verantwortliche jeder Organisationsgröße vor Herausforderungen, aber es gibt Lösungen: Dazu gehören scale-out File- und Objektspeicher-Systeme, die heute bereits erfolgreich und bevorzugt im Umfeld von unstrukturierten Daten, S3 und der Cloud agieren. In diesem Zusammenhang zählt aktuell die Unterstützung Performance-orientierter KI-Anwendungen sowie ein möglichst einheitliches hybrides Cloud Daten Management zu den Top-Prioritäten vieler Unternehmen.

    Storage Consortium Podcast: Intelligente Dateninfrastrukturen zur IT-Infrastruktur-Modernisierung

    Play Episode Listen Later Sep 23, 2024 25:48


    IT-Herausforderungen "KI, Data Protection und Cloud-Integration". In unserem Experten-Podcast #297 mit dem Anbieter NetApp nachgefragt. Guten Tag und herzlich Willkommen zu dieser weiteren Podcast-Episode des Storage Consortium! In dieser Podcast-Episode sollen einige der zentralen Herausforderungen und Lösungsansätze im Bereich von IT-Infrastruktur-Modernisierung angesprochen und diskutiert werden; dies im Zusammenhang mit den aktuellen Speicher- und Daten-Management Angeboten des Anbieters. Das Storage Consortium (Norbert Deuschle) sprach dazu mit Herrn Marc Kleff, Director Solutions Engineering, bei Firma NetApp. Folgende Themen werden behandelt (Hörzeit: 26 min): 1. Gestiegene Anforderungen an ein intelligentes Datenmanagement 2. Cyberbedrohungen abwehren und den Datenschutz verbessern 3. Künstliche Intelligenz und Daten-Infrastruktur-Modernisierung 4. Anforderungen und Lösungsbeispiele zur Datenverwaltung in der Hybriden Multi-Cloud Fazit

    Flashspeicher oder Festplatten für KI-Projekte? Technologisch und wirtschaftlich bestimmende Faktoren.

    Play Episode Listen Later Jul 24, 2024 10:41


    Zum Inhalt dieses Podcasts: Das Interesse am Einsatz von KI in deutschen Unternehmen ist weiterhin hoch und das betrifft auch das Vertrauen in KI-generierte Resultate. Damit rückt die zugehörige Speichertechnologie weiter in den Fokus. Eigentlich sollte man meinen, Flash Storage für KI ist inzwischen ein „No-Brainer“, aber die Wahl des geeigneten Speichers hängt stark von den spezifischen Anforderungen des jeweiligen Projekts ab. Beispiel: Modelle müssen häufig auf große Datensätze zugreifen oder hängen direkt von Echtzeit-Analysen ab. Flash Storage ist aus Performance-Gründen sinnvoll, besonders wenn hohe Leistungsanforderungen wie niedrige Latenzzeiten bei zufälligen Zugriffsmustern (random IO) im Vordergrund stehen...

    SAP-Systemhärtung mit CANCOM und SUSE

    Play Episode Listen Later May 28, 2024 23:48


    Zum Inhalt dieser Podcast-Episode: Kritische Anwendungen und IT-Systeme - hier am Beispiel von SAP - müssen rund um die Uhr an 365 Tagen laufen und sich absolut stabil verhalten. Dies führt direkt zu den zentralen Gründen, weshalb Unternehmen eine SAP-Systemhärtung durchführen sollten, unter Berücksichtigung der hierfür notwendigen Sicherheitsaspekte und Compliance-Anforderungen. Ein Interaktiver Experten-Podcast mit Joachim Misselbeck, Senior Solution Manager SAP, CANCOM Jörg Bunse, Solution Achitect, SUSE Norbert Deuschle, Moderation / Storage Consortium Im Beitrag soll auf folgende Fragestellungen sowie Themenbereiche eingegangen werden: Zentrale Gründe, warum Unternehmen eine SAP Systemhärtung durchführen sollten, einschließlich der relevanten Sicherheitsaspekte sowie Compliance-Anforderungen. Konsequenzen bei Nicht-Durchführung einer SAP-Systemhärtung Analyse der potenziellen Risiken und Konsequenzen, denen Unternehmen gegenüberstehen, wenn sie keine Systemhärtung durchführen, wie Sicherheitslücken, Datenverlust oder Compliance-Verstöße. Status quo und praktische Umsetzung beim Kunden: Bewertung des aktuellen Standes in Unternehmen bezüglich der SAP-Systemhärtung. Wie gehen Unternehmen das Thema in der Praxis an und welche Herausforderungen bestehen? Welche Rolle wird der Einsatz von künstlicher Intelligenz (KI) spielen? Aspekte bei der praktischen Umsetzung einer SAP-Systemhärtung Besprechung der wesentlichen Punkte, die Unternehmen bei der Umsetzung einer SAP-Systemhärtung beachten sollten (Planung, Automatisierung, Durchführung, Überwachung...) Erläuterung, wie CANCOM Unternehmen bei der Umsetzung einer SAP-Systemhärtung unterstützen kann (Beratung, Implementierung, kontinuierliche Betreuung...) Zur Rolle von SUSE Linux für SAP-Applikationen: Konkrete Darstellung, wie SUSE Linux dazu beiträgt, die Sicherheit und Stabilität von SAP-Systemen zu verbessern und die Systemhärtung erfolgreich umzusetzen. Vorteile für Unternehmen und Zusammenfassung Wie Unternehmen von den Lösungen beider Unternehmen profitieren können und warum die SAP-Systemhärtung für Unternehmen relevant ist.

    NIS-2 Richtlinie, DORA und die Anforderungen an Datenspeicher-Systeme

    Play Episode Listen Later Apr 25, 2024 7:36


    Wichtige SLA-Parameter zur Verfügbarkeit und Leistung für die schnelle Wiederherstellung kritischer Daten im Disaster- und Recovery-Fall stehen neben sicheren Backups im Vordergrund. Die 2016 eingeführten Cybersicherheits-Vorschriften der EU wurde durch die 2023 veröffentlichte NIS2-Richtlinie weiter aktualisiert. Stichtag ist der 17. Okt. 2024. Was bedeutet NIS-2 für Speichersysteme, Datensicherung und Disaster Recovery und weshalb sollten betroffene Unternehmen-/Organisation verstärkt auf KI, AIOps und moderne Cybersecurity-Maßnahmen-/Verfahren setzen...

    Speicher- und Datenverwaltungs-Herausforderungen für Unternehmen - Ein Gespräch zu Trends und Lösungen mit dem Datei- und Objectstorage-Anbieter Cloudian

    Play Episode Listen Later Mar 6, 2024 20:02


    Eine Podcast-Episode mit dem Datei- und Objektspeicher-Anbieter Cloudian* zu kundenseitigen Anforderungen und strategische Antworten auf den stetig steigenden Speicherbedarf im Bereich von unstrukturierten sowie semi-strukturierten Daten, akuell verstärkt im Zusammenhang mit KI- und hybriden Cloud-Anwendungen. Mit Kundenbeispielen... *Gesprächspartner ist Herr Carsten Graf, VP EMEA Sales, bei Cloudian®. Cloudian ist ein spezialisierter Datei- und Objektspeicher Anbieter (aus dem Silicon Valley) und auf S3-API-Speichersysteme spezialisiert. Das Unternehmen stellte erstmals 2011 seine objektbasierte Plattform HyperStore® vor. Moderation und Fragen: Norbert Deuschle vom Storage Consortium. Einzelne Punkte, die in diesem Podcast näher behandelt werden (Hörzeit 20 min): Object Storage ist mit File Storage ein wesentlicher technologischer Aspekt jeder zukunftsorientierten Speicher- und Datenverwaltungsstrategie im größeren Maßstab. Objekt Storage als ein technisches Element in der Cloud hat die Datenspeicherung selbst in einen Service verwandelt (von CAPEX zu einer berechenbaren Betriebsausgabe, OPEX). Gerade entstehen mit dem raschen Wachstum im Umfeld von (generativer) KI neue Herausforderungen. Skalierbare Speicherservices für primär unstrukturierte Daten werden deshalb verstärkt nachgefragt. Ein weiterer Aspekt betrifft die Modernisierung und Integration mit Datensicherungslösungen, mit dem Schwerpunkt auf schnellen Restore und Unveränderlichbarkeit, sowie erhöhtem Datenschutz auf Grund von steigenden Cyberbedrohungen. Performance-Aspekte und Cloud-native Anwendungsszenarien sind weitere Aspekte des modernen Daten- und Speichermanagements. In diesem Zusammenhang gilt es die dynamischen Entwicklungen im KI-Umfeld auf der IT-Infrastrukturseite zu berücksichtigen und betrieblich sinnvoll abzubilden. In Summe ergeben sich daraus sich eine Reihe komplexer Anforderungen aber auch Lösungsansätze, über die wir in dieser Episode sprechen werden. Die (technologischen) Randbedingungen in diesem Zusammenhang sind: KI und Data Analytics, Flash Performance Backup- und Cyberprotection, Data Privacy DevOps-Initiativen, Cloud-native, Kubernetes & Co. Weitere Informationen zum Thema finden Sie unter www.storageconsortium.de

    Wichtige Unternehmensdaten auf sicheren Bandbiblotheken gegen Cyberangriffe schützen

    Play Episode Listen Later Feb 27, 2024 8:34


    Kritische Sicherheitsmerkmale von Tape-Automatisierungs-Systemen für mehr Schutz vor Ransomware & Co. Um was geht es in diesem Podcast? Tape ist technologiebedingt bereits ein sehr sicheres Speichermedium, da es vom Netz getrennt als sog. „Air-Gap"-Speicher fungieren kann und zudem mit AES-256-Bit-Verschlüsselung sowie WORM-Fähigkeiten ausgestattet ist. Die Erweiterung um Multi-Faktor-Authentifizierung (MFA) ist eine weitere Möglichkeit, den Sicherheitsstandard zu erhöhen. Aktuell werden automatisierte Bandbiblotheken verstärkt als hochsicherer Daten-Tresor verwendet, entweder zur Speicherung dauerhafter Archivkopien - Stichwort „kalte Daten“ - oder als Zielort von Offline-Datenkopien (3-2-2-1 Regel) zum Schutz vor Ransomware- sowie Malware-Infektionen. Norbert Deuschle vom Storage Consortium hat bei Frau Ines Wolf, Managerin Presales Central Europe, des Speicherspezialisten Quantum nachgefragt, über welche erweiterten Sicherheitsfunktionen konkret eine moderne Tape-Library neben den üblichen Standardmaßnahmen-/Verfahren im Zuge stetig steigender Anforderungen an die Datensicherheit verfügen sollte. In diesem Zusammenhang sind nach Ansicht der Expertin fünf Punkte von besonderer Bedeutung...

    Bessere KI-Ergebnisse mit Graphdatenbank-Technologien?

    Play Episode Listen Later Jan 24, 2024 10:40


    Um was geht es in diesem Podcast? Generative KI ist für Unternehmen eine der Schlüsseltechnologien mit einem wirklichen Transformations-Potenzial. Als KI-Enabler bereits etabliert haben sich dazu Graphdatenbanken. Anbieter sind Unternehmen wie ArangoDB, TigerGraph, Amazone Neptune, DataStax, Oracle, IBM, Redis, GraphDB, Neo4j und weitere... Knowledge Graphen verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Dies schafft ein geeignetes Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen. Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten. Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren dabei deutlich nach oben. Die Experten des Graphdatenbanken-Anbieters Neo4j werfen für uns nachfolgend einen Blick auf aktuelle Treiber sowie die tatsächlichen Folgen für das KI-Ecosystem, inklusive noch zu lösender KI-Hürden. Zusammengefasst sind 8 Punkte erwähnenswert:

    File System Storage und Objektspeicher: Trend zu mehr Software und Datenschutz bei flexibleren Verbrauchsmodellen

    Play Episode Listen Later Nov 28, 2023 7:25


    Nicht nur sichere Technologien, sondern auch flexiblere Verbrauchsmodelle sowie Beschaffungsangebote (STaaS) für konsolidierte software-definierte Datendienste werden verstärkt gefragt… Um was geht es in diesem Podcast? Fortschritte bei Digitalisierung, Vernetzung und Entwicklung neuer stark datengetriebener Anwendungen im Verbund mit hybriden Cloud-Deployments hat zu einem weiteren Wachstum im Bereich von semi- und unstrukturierter Daten geführt. Ältere Speichersysteme gerade im NAS-Umfeld stoßen dann schnell an ihre Grenzen, denn die möglichst nahtlose, unkomplizierte Erweiterung und Verwaltung von Leistung und Kapazität lässt sich in einer festen Hardware-Architektur nur bis zu einer bestimmten Größe sinnvoll abbilden. Ein weiterer kritischer Punkt betrifft die Zunahme von Cyberangriffen, besonders in Form von Ransomware. Diese zielen vermehrt auf unstrukturierte Datensätze und Backupdaten. Integrierte Cyber-Security-Funktionalitäten für verteilte Dateisysteme und Objektspeicherplattformen werden deshalb notwendig, je mehr Angriffe auf diese Systeme und Daten stattfinden. Vom Anbieter verwaltete Cloud-basierte Speicherlösungen as-a-Service (STaaS) als Ergänzung oder Ersatz für eigene Speicherinfrastrukturen vor Ort können eine Alternative darstellen (variable Kosten, Sicherheit, reduzierte Komplexität, immer die aktuellste Technologie etc.). Weiterer Vorteil: der Hersteller übernimmt die Verwaltung, Wartung und den Support und damit die komplette Verantwortung und je nach Angebot auch Sicherheit der Speicherumgebung... Mehr dazu in diesem Podcast und auf unserer Webseite www.storageconsortium.de

    Backupdaten effektiv gegen Cyberangriffe schützen

    Play Episode Listen Later Oct 31, 2023 6:09


    Sichere Snapshots, Air Gap und Immutability... Die sichere Offline-Aufbewahrung von Datenkopien für Backup-Zwecke ist ein entscheidender Faktor, um Lösegeldforderungen zu begegnen und die saubere Wiederherstellung von unternehmenskritischen Daten sicherzustellen. Moderne Verfahren sichern virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise und-/oder in der Cloud. Diese unveränderliche Speicherung (immutable Storage) über den mehrstufigen Schutz mit S3 Object Lock hat sich in der Praxis bewährt. Offline Speichermedien mit "Air Gap" haben keine direkte physische Verbindung zum Netzwerk und sind eine wirksame Barriere gegen Ransomware und auch Malware. Neben Festplatte oder Flash erlaubt es der Einsatz von Bandspeicher-Systemen (Tape) sowie Daten-Deduplizierung, auch große Kapazitäten energieeffizient zu sichern und bei Bedarf zeitnah wiederherzustellen; ohne wesentliche Betriebsunterbrechungen. Das physische Air Gap ist ein sicherer Weg, um kritische Daten vor Ransomware zu schützen. Die Technik ist aber wegen ihres Offline-Charakters nicht für die schnelle Wiederherstellung geeignet. Wie kann diese Herausforderung mit Backup-Verfahren und Lösungen wie (virtual) Appliances vor-Ort angegangen werden?

    Speicherkosten für kalte Daten reduzieren und gleichzeitig die Nachhaltigkeitsziele im Unternehmen erreichen

    Play Episode Listen Later Sep 14, 2023 24:46


    ESG, Stromkosten, CO2-Emissionen und steigende Datenmengen im semi-/unstrukturierten Bereich - Ist Active Cold Storage die Lösung? Im interaktiven Tech-Podcast mit Firma Quantum nachgefragt… Zum Inhalt dieses Podcasts (25 min.): Die Weiterentwicklung von Rechenzentrum-Infrastrukturen aus Sicht der Energieeffizienz nimmt an Bedeutung zu. KI, ML, Cloud-Computing, immer mehr Daten und die schnelle Entwicklung neuer Business-Apps führen nicht nur zu unvorhersehbaren Auslastungen innerhalb der IT-Infrastruktur, sondern auch zu höheren Kosten und Betriebsausgaben im Zusammenhang mit der Speicherung, dem Zugriff und der Verwaltung- besonders im Zusammenhang mit der langfristigen Aufbewahrung von Massendaten (Stichworte: Complinace, unstrukturierte Daten, Cold Storage etc.). Nachhaltigkeitsziele erreichen und die Energiekosten des Unternehmens zu minimieren – IT-Teams können dazu einen wichtigen Beitrag leisten, wenn sie richtig planen. Hintergrund: die ITK-Technologie steht derzeit für rund 10 Prozent des gesamten Energiebedarfs und ist damit für rund zwei Prozent der weltweit erzeugten CO2-Emissionen mitverantwortlich. Norbert Deuschle vom Storage Consortium spricht in dieser Podcast-Episode mit Frau Ines Wolf - Managerin Pre-Sales CE bei der Firma Quantum (1) zu den aktuellen kundenseitigen Herausforderungen sowie Lösungen Ihres Unternehmens aus Sicht der Datenspeicherung und Verwaltung. Im einzelnen werden folgende Punkte angesprochen und ausführlicher behandelt: Das Kürzel ESG beschreibt (drei) Verantwortungsbereiche von Unternehmen und Organisationen, die verschiedene nachhaltigkeitsbezogene Kriterien beinhalten. Umweltbewusstsein, Energiekosten (E), Emissionsvorgaben (G) etc. Was bedeutet ESG aus Sicht der Speicherverwaltung? Veraltete IT-Infrastrukturen und der Fachkräftemangel sind für viele Unternehmen eine Herausforderung bei der Umsetzung der Nachhaltigkeitsziele. Aus Sicht der IT im Rechenzentrums-Umfeld betrifft das konkret die Modernisierung und den optimierten Einsatz der dazugehörigen IT-Infrastruktursysteme- und Komponenten. Auf viele Daten wird nach einiger Zeit nur mehr selten zugegriffen. Als Konsequenz daraus kann die Migration kaum benutzter inaktiver (kalter) Daten von Festplattensystemen auf stromlose Bandspeicher oder teilweise auf Flash (Metadaten) zur deutlichen Verringerung der CO2-Emissionen beitragen. Voraussetzung: Datenworkflows und den Bedarf beim Kunden verstehen Begrifflichkeiten: Active Cold Storage; near-line storage; HSM, Active Archiving, Datenklassifizierung, Compliance-Vorgaben Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud. Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden? Quantum Active Cold Storage: Strategie und Lösungsangebot

 Neben dem geringeren Stromverbrauch steht die Speicherung auf stromlose Medien wie Tape auch für weniger Abfall und Elektronikschrott (Stichwort: E Umweltverschmutzung). Fazit Neben Speichermedien nebst Anwendungsprofilen ist der Einsatz von Software-Werkzeugen zur Datenklassifizierung und als Vorbereitung zur Migration zentral. Weiter spielen Verfahren zur Datenreduktion wie Deduplizierung, Kompression, Erasure Coding sowie HSM in Verbindung mit near-line Storage (active archving) und die mögliche Anbindung an die Cloud eine Rolle. Richtig umgesetzt können über das Jahr gerechnet daraus teils erhebliche Stromkosteneinsparungen pro KWh pro Anwendung und Speicher resultieren. In der richtigen Kombination von modernen Hardware- mit Software-Ressourcen lassen sich aus Sicht von Energieeffizienz und Nachhaltigkeit reale Synergien erzeugen.

    Unstrukturierte File-Datenverwaltung mit NASUNI als Service aus der Cloud

    Play Episode Listen Later Sep 5, 2023 26:56


    Interaktiver Podcast mit Experten der Firmen Cloudeteer und NASUNI zur SAS-basierten NAS-Plattform des Anbieters. Kundenseitige Herausforderungen und strategische Antworten auf einen stetig steigenden File (Storage) Bedarf... Um was geht es in der Episode? File-Daten Speicherdienste im Cloud-Zeitalter erfreuen sich einer verstärkten Nachfrage. Die Gründe liegen kundenseitig primär in der Notwendigkeit begründet, IT-Infrastrukturen so zu verändern und zu modernisieren, dass unter dem Strich für das Unternehmen - sowohl on-premise als auch in der Cloud - ein deutliches Mehr an Flexibilität und Vereinfachung resultiert. Dies gilt ebenfalls für Themen wie Backup-Restore und Datenschutz im Zusammenhang mit Cyberbedrohungen durch Ransomware & Co. Aber auch im Umfeld des Managements von unstrukturierten Daten generell besteht Handlungsbedarf, gerade was die IT-Kostenseite (CAPEX vs. OPEX) betrifft. Gesprächspartner unter Einbeziehung der Lösung der Anbieters NASUNI sind Matthias Bretag, Chapter Lead Azure und Multicloud Consultant bei Firma Cloudeteer, ein Microsoft- und Nasuni-Lösungspartner, zusammen mit Markus Warg, Field Technical Director EMEA bei Nasuni. Die Moderation und Fragen stellt Norbert Deuschle (Storage Consortium). Wichtige Punkte, die im Podcast ausführlich behandelt werden (Hörzeit 27 min): Prognosen zeigen, dass sich der Speicherbedarf im unstrukturierten Bereich in den nächsten Jahren mehr als verdoppeln soll. Klassisches NAS wurde dafür nicht entwickelt. Wie können Kunden im Kontext eines weiter steigenden Kapazitätsbedarf darauf reagieren. Stichworte: mehr Flexibilität (Skalierbarkeit), Vereinfachung (Verwaltung, Fachkräftemangel), Kostenreduzierung (Budgetsituation)... Gründe weshalb die Nasuni Lösung über die Firma Cloudeteer als Lösungspartner verkauft wird. Abgrenzung, Erweiterung und Ergänzung zu Lösungen wie z.B. von Microsoft mit Azure Files etc. Klassische Backup-Ansätze bringen bei großen Mengen an unstrukturierten Filedaten eine Reihe von Herausforderungen mit sich. Typisches Problem im Bereich Backup-Restore: Wie können PB's an Daten in möglichst kurzer Zeit - und zwar ohne Lösegeld zu zahlen - nach einer Verschlüsselungsattacke schnell wiederhergestellt werden? Weitergehende Ansätze zum Schutz vor Cyberangriffen im Bereich der Public Cloud.
 Die SAS-basierte NASUNI NAS-Plattform als Lösungsansatz zum schnellen Restore nach Verschlüsselungsangriffen. Erweiterte Filezugriffe im Hinblick auf den geschäftlichen Mehrwert und nicht nur die IT (Technik). Stichwort: Information als zentraler Unternehmenswert; Mehrwerte aus unstrukturierten Daten erzeugen. Objekt Storage als technisches Element in der Public Cloud hat die Datenspeicherung in einen Service verwandelt. Prozesse der Datenspeicherung transformieren damit von einer CAPEX-dominierten Funktion zu einer vorhersehbaren Betriebsausgabe, OPEX. Fazit: Die richtige Speicher-Strategie im Bereich von File-Daten kann helfen, die potentielle Lücke zwischen Datenwachstum und IT-Budgets zu schließen. Das Nasuni Datenservice-Modell transformiert traditionelle Datei-Infrastrukturen mit einer Reihe von spezifischen Services und mit der Möglichkeit, einen oder auch mehrere Cloud-Anbieter zu wählen... Weitere Information dazu finden Sie auch auf unserer Webseite.

    KI und Machine Learning für moderne Backup-Restore- und Disaster Recovery-Verfahren

    Play Episode Listen Later Aug 31, 2023 6:32


    Thema: Von manuell dominierten Backups zu hoch-automatisierten datengesteuerten Prozessen Zum Inhalt dieser Podcast-Episode: Automatisierte sichere Datensicherung und -Wiederherstellungsprozesse sind für viele Betriebe derzeit nicht die Realität. Im Gegenteil, gerade weil die damit verbundenen Prozesse und Technologien immer komplexer und kritischer werden (um Organisationen, Applikationen und Daten vor Angriffen und Unterbrechungen zu schützen), sind weiterhin jede Menge manueller Eingriffe und Verfahren selbst mit im Spiel. Bei Backup-Lösungen mit Teils veralteter Hardware und Software ist die geforderte schnelle Wiederherstellung nach Cyberangriffen mit vielfältigen manuellen und zeitaufwendigen Prozessen verbunden und kann somit extrem schwierig werden. Moderne KI-gestützte Backups sind über pro-aktive Ransomware-Erkennung oder die schnelle Identifizierung kritischer Daten in der Lage, mit Hilfe von ML-Technologien potentielle Risiken zu minimieren und die Bedrohungserkennung bereits im Vorfeld effektiv zu unterstützen. Die Einführung von KI und maschinellem Lernen macht aus manuell dominierten Backup-Wiederherstellungs (B/R)-Prozessen einen automatisierten und datengesteuerten Prozess, der eine konsistentere Abstimmung bzw. Integration mit IT-Service-Management-Tools ermöglicht. Dies gilt auch für notwendige Testverfahren im Bereich von Disaster Recovery (D/R). Weitere Infos unter www.storageconsortium.de

    Nachhaltigkeit, ESG und Storage: eine technologische Standortbestimmung

    Play Episode Listen Later Jul 24, 2023 11:20


    Welche Aspekte umfasst das Kürzel ESG und was hat das alles mit Storage zu tun? Tech-Podcast zu einem aktuellen Thema. Zum Hintergrund: Im Rechenzentrum stehen die Speichersysteme - neben Netzwerk und Servern - für einen größer werdenden Anteil am gesamten Stromverbrauch. Im Zuge der verstärkten Bedeutung von ESG als Standard für nachhaltige Anlagen ist die Datenspeicherung neben der Verarbeitung ein zentrales Element. Storage selbst ist mehr als nur ein Speichermedium und schließt den Einsatz geeigneter Datenverwaltungssoftware-Werkzeuge ein. Erst in der richtigen Kombination von Compute-Ressourcen mit Speicherhardware und Software lassen sich aus Sicht von Energieeffizienz und Nachhaltigkeit in diesem Bereich reale Synergien erzeugen. Um was geht es in diesem Podcast? Was versteht man unter ESG? Das Kürzel beschreibt (drei) Verantwortungsbereiche von Unternehmen und Organisationen, die verschiedene nachhaltigkeitsbezogene Kriterien beinhalten. In Bezug auf die Speicher- und Energieeffizienz in Rechenzentren spielen neben den heute verfügbaren Speichermedien als Basistechnologie (Flash, HDD, Tape, und Kombinationen) verschiedene Faktoren eine Rolle. Neben den Anwendungsprofilen selbst ist der Einsatz von Datenklassifizierung als Vorbereitung zur Migration ein wichtiger Punkt. Weiter spielen Verfahren zur Datenreduktion wie Deduplizierung, Kompression, Thin Provisioning und Erasure Coding (anstelle RAID) eine Rolle. Optimal kombiniert und eingesetzt, können über das Jahr gerechnet daraus teils erhebliche Stromkosteneinsparungen pro KWh pro Anwendung und Speicher resultieren. Der Modernisierung und dem optimierten Einsatz der entsprechenden IT-Infrastruktursystemen- und Komponenten kommt aus ESG-Sicht deshalb eine verstärkte Bedeutung zu. Mehr dazu in dieser Podcast-Episode (Hörzeit: ca. 11:45 min.)

    Quantum Corp. bringt mit Myriad neue Cloud-native All-Flash Speicherplattform auf den Markt

    Play Episode Listen Later Jun 20, 2023 7:22


    Moderne Softwarelösung für File- und Objectstorage auf Basis von NVMe-Flash, RDMA (Fabric) und Shared-Nothing Clustersoftware N-Node-Architektur. Erste Übersicht zu Leistungsmerkmalen und Vorteilen... Zum Inhalt der Podast-Episode: Speicherspezialist Quantum Corp. hat in diesem Frühjahr eine komplett neuentwickelte skalierbare All-Flash File- und Objektspeicher-Softwareplattform mit Namen "Myriad" vorgestellt, die sowohl on-premise als auch in der Public Cloud betrieben werden kann. Myriad nutzt die Fortschritte bei modernen Anwendungs-Frameworks und Designs, die noch vor wenigen Jahren in dieser Form nicht verfügbar waren. Die Lösung führt Inline-Datenservices wie Deduplizierung und Komprimierung, Snapshots und Cloning sowie Metadaten-Tagging ein, um die Verarbeitung von KI- und ML-Daten zu beschleunigen. Dazu werden bewährte Cloud-Technologien wie Microservices und Kubernetes genutzt, um eine einfache Cloud-Lösung zu abzubilden, egal wo diese eingesetzt wird. Daten zwischen Myriad-Clustern und Datei- und Objektspeichersystemen anderer Anbieter sollen sich replizieren lassen. Die Software selbst läuft auf Standard Flash Storage-Server mit hoher Kapazität. Unternehmen können damit ihre alten HDD-basierten Speichersysteme durch eine softwaredefinierte All-Flash-Plattform ersetzen, die höhere Leistung mit größere Skalierbarkeit verbindet und zudem effizienter hinsichtlich Energie- und Rackbedarf ist. Anstelle von File-Locking, das System-CPU plus Speicherressourcen und damit Performance kosten kann, verwendet Myriad ein neues intelligentes "Lock Free" Design, um Schreiblatenzen zu reduzieren. Die Software verwendet speicherseitig ein erweitertes NVMe-Protokoll, das Aufgaben von der RDMA Netzwerk Interface Controller-CPU dazu auf die leistungsstärkere Speicherknoten-CPU verlagert. Die Latenzzeit wird damit sowohl für Schreib- als auch für Lesevorgänge reduziert. Myriad nutzt ferner einen globalen, target-seitigen Lesecache, um die Lese-Latenzzeit weiter zu reduzieren. Das wesentliche Element eines Myriad-Systems ist der sog. transaktionale Key-Value Store als zentrales Repository für alle Daten und Metadaten. Diese Komponente ist über alle Speicherknoten in einem Myriad-Cluster verteilt und skaliert linear, wenn neue Knoten hinzugefügt werden. Sein Redirect-on-Write-Charakter unterstützt danach automatisch Snapshots und Rollback, und da er ohne File-Locking arbeitet, umgeht er einen häufigen Konfliktpunkt in gemeinsam genutzten (NAS) Speichersystemen. Myriad ist laut Anbieter für "Early-Access"-Kunden bereits verfügbar und soll voraussichtlich noch im dritten Quartal dieses Jahres allgemein verfügbar sein.

    Qumulo File Daten Management: Eine technologische und wirtschaftliche Standortbestimmung

    Play Episode Listen Later May 16, 2023 27:00


    Zum Inhalt dieser Podcast-Episode: In großen Unternehmen werden sich die Kapazitäten im Bereich von unstrukturierten Daten - on-premise, im Edge- und in der Cloud - von 2023 bis 2026 verdreifachen (Quelle: Gartner). Storage File Systeme sind damit mehr denn je gefordert. Dies stellt Verantwortliche jeder Organisationsgröße vor ganz unterschiedliche Herausforderungen. In diesem Zusammenhang werden leistungsfähige Lösungen und Plattformen, die eine wachsende Anzahl von Geschäftsanwendungen und Daten unterstützen, immer wichtiger. Mit ein Grund, weshalb hybride Cloud-Datei-Implementierungen im Trend liegen. Handlungsbedarf besteht zudem im Bereich von Anschaffungs- Betriebs- und Verwaltungskosten, die es zu beherrschen und konsolidieren gilt. Als Lösung bieten sich moderne, software-definierte (SDS) Scale-out-Filesystem Softwarelösungen an, die zudem Schnittstellen zu Cloud-Ressourcen und Objektspeicher-Angeboten besitzen. SDS-Speicherplattformen - basierend auf Industrie-Standard-Hardware-Komponenten wie CPU, Flash etc. - kombiniert mit einer skalierbaren Speicher- und Datenverwaltung als SDS-Ansatz bieten verschiedene Vorteile. Aus Gründen von Verfügbarkeit, Redundanz und Leistung werden die Daten bei dieser Cluster-Architektur über mehrere Knoten verteilt (n+1/-2 oder mehr), inklusive hybriden Cloud-Workflow-Support und Public Cloud IaaS Betrieb. Wie die oben genannten Anforderungen mit dem aktuellen Lösungsportfolio des Storage Filesystem- und Filedatenmanagement-Spezialisten Qumulo adressiert werden können, darum geht es in dieser interaktiven Podcast Episode mit Marc Frei und Jochen Kanta, beide Mitarbeiter der Firma Qumulo. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden folgende Themenbereiche angesprochen (Hörzeit ca. 27 min.): Grundsätzliche Anforderungen an moderne Dateisysteme-Lösungen. Auf welche spezifischen Leistungsmerkmale kommt es bei der Auswahl eines File Systems an? Granulare Snapshots, Quota Management, Data Movement, vereinfachte Integration in Netzwerke, Active Directories etc. Wie positioniert sich Qumulo und was bedeutet der Scale Anywhere™ Ansatz des Unternehmens? Welche Rolle spielt die Software Definierte Speicher- und Datenverwaltung im Zusammenhang mit Themen wie Infrastruktur-Modernisierung, Cloud Deployments, und Flash-Speicherentwicklung. File Systeme und Cloud Object Storage. Wie läßt sich das Zusammenspiel aus Anwendungssicht aktuell beschreiben? Kundenanforderungen, Herausforderungen etc. Cybersicherheit, Disaster Recovery, Backup. Wo liegen die Herausforderungen aus Sicht der Kunden von Qumulo und wie lassen sich Prozesse vereinfachen und beschleunigen? Anwendungsbeispiele aus dem Automotive- und Gesundheitswesen mit konkreten Kundenanforderungen. Wirtschaftliche (TCO / ROI) und technologische Aspekte. Zusammenfassung.

    NASUNI File Datenservices als Cloud-native SaaS-Software-Plattform

    Play Episode Listen Later Apr 25, 2023 25:12


    Zum Inhalt der Podcast-Episode: unstrukturierte Filedaten wachsen sowohl im Core als auch im Edge. Dazu kommt: technische Fortschritte als auch regulatorische Rahmenbedingen führen zu geänderten, dynamischen Anforderungen an den Daten-Lebenszyklus. Dazu gehört die Notwendigkeit die Verfügbarkeit dieser Daten über längere Zeiträume zu gewährleisten und sie vor Verlusten, Katastrophen und Cyber-Angriffen in verteilten Umgebungen zu schützen. IT-Verantwortliche stehen gerade hier unter zunehmenden Druck, ihre Datei-Infrastrukturen skalierbar zu erweitern aber auch zu vereinfachen und mit vertretbaren Kosten zu modernisieren. Hierbei spielen Aspekte wie Home Office, RZ-Konsolidierung nebst Rationalisierung, Datenmigrationen, Backup, Replikations-Verfahren für Disaster-Recovery-Zwecke sowie aktuell verstärkte Umweltauflagen und Compliance-Initiativen eine Rolle. Bei großen Mengen an unstrukturierten Filedaten kommen klassische Hardware-zentrierte NAS-Speicherumgebungen hier schnell an ihre Grenzen und moderne Lösungsansätze unter Einbeziehung von Cloud-Technologien sind gefordert. S3 Object Storage ist - wie bereits mehrfach thematisiert - zwar ein wichtiger Teil dieser Architektur, aber es braucht noch mehr. Wichtig sind leistungsfähige Dateisysteme, die eine sichere, kosteneffiziente und transparent skalierbare Datenspeicherung – je nach Anforderungen vor-Ort und in der Cloud - ermöglichen. Wie diese Anforderungen und Randbedingungen mit dem aktuellen Lösungsportfolio von NASUNI adressiert werden können, darum geht es in dieser Podcast Episode mit Herrn Markus Warg, Nasuni Field Technical Director, EMEA (1). Die Fragen stellt Norbert Deuschle vom Storage Consortium. Es werden u.a. folgende Aspekte angesprochen: Einleitung: Drängende Herausforderungen aus Sicht von NASUNI mit ausgewählten Beispielen. Unstrukturierte File-Daten, Objektdatenspeicher, S3 und die Cloud: Migration lokaler Fileserver-Ressourcen, NAS-, Backup- und DR-Infrastrukturen mit Hilfe von Nasuni Software und Public Cloud Anbietern wie Azure, Google oder AWS. Weshalb Organisationen diesen Weg gehen sollten. Cybersicherheit als eine Priorität: Ransomware-Angriffe nehmen zu. Business Case und Budgets für Infrastrukturinvestitionen in den Bereichen Datenschutz und Speicher-/Datenverwaltung über File-Backup- und Notfallplanung (Disaster Recovery). Welche Strategien sind für Nasuni in diesem Umfeld zielführend? Backup bringt bei einer großen Menge an unstrukturierten Filedaten aufgrund der Komplexität (Menge, Formate, Verteilung, Policies, usw.) eine Reihe von Besonderheiten mit sich, die Verantwortliche kennen sollten. Wo liegen die Herausforderungen und wie lassen sich diese Prozesse möglichst vereinfachen und beschleunigen? Reduzierung der Gesamtkosten zur Beschaffung und Verwaltung von Dateispeicher-Umgebungen (TCO) bei gleichzeitiger Erhöhung des Return-on-Invest (ROI) zur Erzeugung eines höheren Geschäftswerts aus den IT-Investitionen. Erweiterte Dateizugriffe im Hinblick auf die geschäftliche Vorteile und nicht nur auf die IT. Stichwort: Information als ein Unternehmenswert. Zusammenfassung: Die optimierte Strategie im Bereich von Filedaten-Speicherung und Verwaltung kann Unternehmen helfen die zunehmende Lücke zwischen Datenwachstum, Komplexität und IT-Infrastrukturkosten zu schließen. Das Nasuni Datenservice-Modell als Cloud-native SaaS-Software-Plattform transformiert traditionelle NAS Datei-Infrastrukturen mit einer Reihe von spezifischen Filedaten-Services und der Möglichkeit, dazu einen oder bei Bedarf mehrere Cloud-Anbieter zu wählen. Die Filedaten werden im Rahmen der Lösung innerhalb eines skalierbaren Cloud-Objektspeichers konsolidiert, um von überall auf diese Dateien sicher zugreifen zu können.

    Low Latency Storage und Hot Data; Anforderungen & Entwicklungstrends

    Play Episode Listen Later Mar 28, 2023 25:33


    Datenanalysen und neue KI-basierte Applikationen erfordern leistungsfähige IT-Infrastrukturen, aber keine Silos; ein Expertengespräch. Um was geht es in dieser Podcast-Episode? Storage-Technologien sind kein Selbstzweck und werden verstärkt über aktuelle Entwicklungen auf der Anwendungsseite beeinflusst. Beispiel: die Verschmelzung von Data Lake- und Data Warehouse-Architekturen, um als eine zentral aggregierte Ressource für alle strukturierten, semi- und unstrukturierten Daten eines Unternehmens zu agieren. Die Gesprächspartner dieser Podcast-Episode sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei der Firma Cancom (die Fragen stellt Norbert Deuschle vom Storage Consortium). Unternehmensrelevante Daten in immer größeren Mengen erzeugt. Zudem fordert der Einsatz von Big Data Analysen, ML und KI auf Grund von Digitalisierung die existierende Speicher- und IT-Infrastruktur von Core-to-Edge heraus. Verstärkt ist die Speicher- und Datenverwaltungsseite gefordert, kosteneffiziente und leistungsfähige Lösungen für Daten und Anwendungen (User) bereitzustellen. In den letzten beiden Podcast-Episoden sind wir darauf eingegangen, welche Herausforderungen und Lösungsansätze aus Speicher- und Datenmanagement-Sicht mit dem Fokus auf sogenannte kalte und warme Daten bestehen. Real-time Datenanalysen und neue teils KI-basierte Applikationen, erfordern Performance-seitig eine hohe und skalierbare Verarbeitungsgeschwindigkeit. Dies betrifft aber nicht nur den Storage mit I/O-Protokollen, sondern den gesamten IT-Infrastruktur-Stack, um Silos und Engpässe möglichst gar nicht erst entstehen zu lassen. Diese Podcast-Episode beschäftigt sich primär mit dem Thema Low-latency storage und „Hot- oder Fast Data“. Zudem werfen wir einen Blick auf Entwicklungstrends im Bereich von Multiprotokoll Storage, der Bedeutung von NVMoF im Zusammenhang mit Software Definierten Architekturen und Flash sowie einem gezielten Einsatz von hybriden Cloud Deployments. Angesprochen werden zudem einige damit verbundene Entwicklungstrends für die nächsten Jahre.

    Strategien gegen Cyberangriffe auf kritische Backupdaten

    Play Episode Listen Later Feb 24, 2023 8:28


    Zum Inhalt der Podcast-Episode: Backup-Umgebungen werden immer mehr zum Ziel von Angriffen. Sichere Offline-Datenkopien können im Fall der Fälle den Unterschied machen. Der konsequente Einsatz moderner Hardware- und Software-Sicherungssysteme, kombiniert mit dem Ansatz, wichtige Kopien von kritischen Daten verschlüsselt offline zu halten, kann sicher vor Ransomware & Co. schützen. Ein "Air-Gapped"-System darf dazu nicht physisch mit einem externen Netzwerk verbunden sein. Ransomware-Schutz bedeutet anders ausgedrückt auch zu verhindern, dass kritische Daten vor dem Ablauf ihres Lifecyles kompromittiert werden. Moderne Verfahren sichern dazu virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise oder in der Cloud. Weitere Stichworte: unveränderliche Speicherung, immutable storage über einen mehrstufigen Schutz mit S3 Object Lock. Eine sichere Lösung sollte Teil einer umfassenderen Architektur sein, die auch eine Offline-Kopie von Backup-Daten auf Medien wie Tape als externen Datenträger erforderlich macht. Nur offline (nicht am Netzwerk) gehaltene Daten bieten einen vollständigen Schutz vor Ransomware und böswilligen Fernzugriffen. Backup-Anbieter verweisen in diesem Zusammenhang auf die favorisierte 3-2-1-1-(0) Regel, d.h. 3 verschiedene Datenkopien auf 2 verschieden Medien; auf einem Off-site medium; dazu ein offline medium (air-gapped, verschlüsselt); und 0-Fehler nach verifiziertem Backup-Recovery-Prozess (der letzte Punkt "0-Fehler" geht auf eine Empfehlung des Softwareanbieters Veeam zurück). Kritische Anwendungsdaten über S3 direkt auf einen Objektspeicher (HDD, Flash) zu sichern, ist auch eine sinnvolle Lösung, um die Lücke zwischen Datenwachstum und Infrastrukturbudgets zu schließen. Im nächsten Schritt ist es deshalb bei immer mehr kalten (inaktiven) Massendaten praktikabel, unter Einbeziehung von automatisierten Tape- Ressourcen eine logisch konsolidierte Datenverwaltung aufzubauen... Mehr dazu auch unter www.storageconsortium.de

    Kalte Daten im Unternehmen weniger klimaschädlich speichern und Kosten senken

    Play Episode Listen Later Jan 26, 2023 7:21


    Podcastfolge zur Verwaltung und Speicherung von kalten Daten im Unternehmen. Unstrukturierte Massendaten mit Tape, File- und Object Storage effizient verwalten. Zum Inhalt dieser Episode: Folgt man Untersuchungen wie dem aktuellen IDC Global DataSphere Report, soll sich das unternehmensbezogene Datenaufkommen in den nächsten 5 Jahren verdoppeln. Wir sprechen beim Unternehmenseinsatz hier von 80% und mehr an unstrukturierten- sowie semistrukturierten Daten. Davon wird in der Praxis aktuell übrigens nur ein kleiner einstelliger Prozentsatz für Analysezwecke verwendet- wo doch eigentlich der Wert der Daten als strategisches Asset für die digitale Transformation im Mittelpunkt stehen sollte. Es besteht also dringend Handlungsbedarf, denn die Analysen von historischen und anderen Daten, auf die nur selten zugegriffen wird können helfen, wettbewerbsfähiger zu bleiben. Technologien wie Apache Hadoop ermöglichen die kosteneffiziente Durchführung von Big-Data-Analysen auf Basis von Open-Source-Technologien und die dazu geeignete Speichertechnologie entscheidet auch über den Projekterfolg. Nur ist es für viele gerade kleinere und mittlere Unternehmen aufgrund von Budgetbeschränkungen und fehlenden Fachkräften schwierig, diese Ziele mit rein internen Plattformen vor-Ort im eigenen Datacenter zu erreichen. Public Cloud-Speicher andererseits bringen andere Herausforderungen in Bezug auf die Datenhoheit und -kontrolle mit sich. Auch die Zugriffs- und Speichergebühren, die beim Zugriff auf kalte Daten teuer werden können sind nicht zu unterschätzende Faktoren. In dieser Episode erfahren Sie, weshalb kalte Daten aus Umwelt- und Kostengründen ein Thema sind. Es wird auch darauf eingegangen, wie diese energieeffizient gespeichert und verwaltet werden können. Weitergehende Informationen zum Thema mit Verweisen zu IT-Technologien und Anbieterlösungen finden Sie auf unserer Webseite.

    Speichersystem-Auswahlkriterien für primäre Unternehmens-Workloads

    Play Episode Listen Later Dec 19, 2022 6:11


    Zum Hintergrund: IT-Verantwortliche benötigen Transparenz, bevor sie in mehr Speicherplatz investieren, auch müssen sie steigende Kosten vermeiden. Untersuchungen zufolge geben Unternehmen derzeit bereits mehr als 30 % ihres IT-Budgets für die Speicherung und Verwaltung von Daten aus. Dies bedeutet aber auch, dass es für Service Provider (CSPs/MSPs) und interne Rechenzentren-/Dienstleister noch diverse Spielräume zur Optimierung gibt, über die richtigen Speicherangebote bei der Senkung der Storage- und damit IT-Infrastrukturkosten mitzuwirken. Zumal sich durch Software-gesteuerte Architekturen die Möglichkeit bietet, Daten nicht mehr in abgeschlossenen Silos bzw. abhängig von der Infrastruktur in der sie gespeichert sind, sondern auch unabhängig von den zugehörigen Anwendungen zu verwalten. Zum Inhalt dieser Podcast-Episode: Der hybride Cloud-Betrieb mit Hilfe integrierter Datendienste wird verstärkt durch softwaredefinierte Infrastruktur- und Asset-Verbrauchsmodelle bestimmt werden. Bei Auswahl eines Speicheranbieters im Primärspeicher-Umfeld sollte in diesem Zusammenhang deshalb auf folgende Leistungsmerkmale geachtet werden...

    Backup- und Ransomware-Schutz als Veeam Ready Lösung mit Quantum Storage

    Play Episode Listen Later Nov 22, 2022 6:08


    Mehrstufiger skalierbarer Ansatz - auch alternativ zur öffentlichen Cloud - zum Schutz vor Datenverlusten. Um Unternehmen die Sicherung und den Schutz vor Schwachstellen zu erleichtern, bietet die Zusammenarbeit beider Hersteller für Rechenzentren eine mehrstufige End-to-End-Lösung für eine Vielzahl von Datenschutz-Anwendungsfällen wie für Ransomware-Schutz und Backup, da in modernen Rechenzentren ein einzelnes Sicherungskonzept meist nicht mehr ausreichend ist, um vor Verlusten verschiedenster Art zu schützen. Hier einige Leistungsmerkmale von Quantum Storage für Veeam: Auf Basis der Veeam Ready-Qualifizierung für Object- und Object with Immutability des S3-kompatiblen Object Storage-Systems Quantum ActiveScale kann Anbieterseitig sichergestellt werden, dass allen Kunden, unabhängig davon welche Lösung sie nutzen, eine integrierte Option für Daten- und Ransomware-Schutz zur Verfügung steht. Dies wird zudem durch Funktionen wie Active Fault für die Scalar®-Tape-Bibliotheken und der "Snapshot für DXi®-Backup-Appliances“ - Funktion unterstützt. Weitere Details dazu finden Sie auf unserer Webseite unter www.storageconsortium.de

    Objektdaten-Speicherung, NAS-Migrationen und globale File Services

    Play Episode Listen Later Oct 12, 2022 27:02


    Im Tec-Podcast für Sie nachgefragt: Das Storage Consortium im Expertengespräch mit HPE und CANCOM zu CTERA Global File Services, 'Warm Data' und Object Storage Gesprächspartner dieser Episode unter Einbeziehung von Lösungen der Anbieter Scality (Object Storage) und CTERA (File Services) sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei CANCOM. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Um was geht es? Nachdem in einer der vorangegangenen Podcast-Episode geklärt wurde, ob und in wieweit die Objektdaten-Speicherung nur für große unstrukturierte Datenmengen sowie überwiegend inaktive (kalte) Daten geeignet ist, liegt der inhaltliche Fokus dieses Fachbeitrags bei der Speicherung-/Verwaltung von sog. 'warmen' Daten mit Hilfe globale File Services sowie cloud-native Objektspeicher-Technologien; dies aber im Zusammenhang mit NAS-Migrationen (File-Daten) und der Cloud. Im Detail werden neben kundenseitigen Anforderungen auch die Lösungen auf Basis Scality Ring bzw. Artesca (Objektspeicher) in Verbindung mit CTERA (Global File Services) vorgestellt. Hier einige Punkte, die in dieser Episode detaillierter behandelt werden (Hörzeit 27:02 min): Gewährleistung von Sicherheit, Datensouveränität und Datenschutz (EU-DSGVO...) Steigendes Risiko von Cyber-/Ransomware-Angriffen Kosten für die Migration in die Cloud; Kosten für den Zugriff auf Daten in der Cloud ?? Bereitstellung einer sicheren kosteneffizienten Plattform für Unternehmens-Dateidienste, um NAS-Migrationen in die Cloud zu vereinfachen. Traditionelle Speicher- und Sicherungssysteme mit herkömmliche dateisystembasierte Anwendungen und Arbeitslasten durch ein Cloud-Dateisystem ergänzen bzw. ersetzen, das auf softwaredefinierten File Services über Objektspeicher basiert und ohne Einschränkungen mit Object Storage funktioniert. File services mit Hilfe von CTERA's File Server Technologie. Globaler, optimierter Zugriff auf File-Daten Edge-to-core, der nativ objektbasiert ist. Vorteile gegenüber lokalen File-Diensten (klassischer Filer ohne global Namespace). Beispiele CTERA File Server Konsolidierung etc. Das globale Dateisystem ermöglicht die Speicherung einer "goldenen Kopie" aller Unternehmensdaten auf kostengünstigem und skalierbarem Cloud-Objektspeicher. Unternehmen erhalten eine unbegrenzte Dateikapazität am Edge, ohne dass zusätzlicher Speicherplatz für wachsende Datenmengen erforderlich ist. Workloads: Collaboration, PACS, Content, Video, Fotos, File-Storage etc. Geringere Speicherkosten: Edge-Caching sowie Deduplizierung und Komprimierung von Dateien vor der Speicherung tragen zur Senkung der Egress-Gebühren und des Objektspeichervolumens bei. Speicherkosten senken, indem alte Dateiserver durch kostengünstigen Objektspeicher ersetzt werden. Skalierbarkeit: Zwischenspeicherung und Speicherung von Hot-Files am Edge, während Cold-Files in den Cloud Object Storage ausgelagert werden. Anwendungen müssen nicht umgeschrieben werden... Benutzer arbeiten weiterhin mit einer hierarchischen Dateistruktur und Microsoft-kompatiblen NT ACL-Berechtigungen. Der Edge Filer speichert die Dateien für einen schnellen Benutzerzugriff lokal im Cache und synchronisiert die Dateien über mehrere Standorte hinweg, während der Großteil der Daten in einem kostengünstigen Objektspeicher vor Ort oder in der Cloud gespeichert wird. Georedundanz (kein B/R) Multi-Cloud-Datenreplikation stellt die Geschäftskontinuität sicher, wenn Unternehmen Daten und Anwendungen außerhalb des Unternehmens verlagern und ein neues externes Sicherungsziel benötigen. Einsatzvorteile mit MS 365 usw.

    Speicherinfrastrukturen für datenintensive KI-Anwendungsumgebungen

    Play Episode Listen Later Sep 23, 2022 7:48


    KI-Anwendungen mit zum Teil massiven Datensätzen verlangen nach skalierbar hoher Rechen- und Speicherleistung; dies zu vertretbaren Kosten. Klassischer SAN-/NAS-Speicher skaliert bei diesen Workload-Profilen in Bezug auf kritische Parameter wie I/O-Leistung, Latenzzeiten, lineare Erweiterbarkeit, OPEX und CAPEX nicht entsprechend. Gefordert sind moderne Speichertechnologien und Protokolle wie NVMe(oF) im Verbund mit QLC-NAND, DRAM-Caching, Storage Class Memory sowie massiv parallele Filesystem- und Speichersoftware-Lösungen; insbesondere bei steigenden Bandbreiten-Anforderungen mit zufälligen Zugriffsmustern von kleinen bis sehr großen Files. Weitere Details dazu finden Sie in dieser Podcast Episode...

    Mehrschichtige Backup-Architektur gegen Ransomware-Angriffe

    Play Episode Listen Later Aug 23, 2022 7:02


    Automatisiertes Data Recovery zum schnellen und sicheren Restore. Nach Ansicht der Spezialisten bei Quantum Corp. ist ein Drei-Schichten-Modell sinnvoll. Moderne Datensicherungs-Plattformen stellen automatisierte Data Recovery-Mechanismen bereit und ermöglichen einen schnellen Restore. Darüberhinaus ist es sinnvoll, die sog. '3-2-1-1' Regel anzuwenden. Jede Organisation sollte dazu drei Kopien ihrer wichtigen Daten besitzen, zwei davon auf verschiedenen Speichermedien, zusammen mit einer offsite-Kopie plus einer unveränderlichen off-line-Kopie an einem sicheren Ort / Medium (air-gapped / immutable). Mit einer entsprechend abgesicherten und geschützten Offsite-Datensicherungslösung haben Unternehmen dann die Möglichkeit, ihre Daten im Falle eines Angriffs sicher wiederherzustellen. Weitere Details finden Sie in diesem Beitrag...

    Objektdaten-Speicherung nur für große Datenmengen? Einsatzbereiche & Use Cases

    Play Episode Listen Later May 25, 2022 28:21


    Im Tech-Podcast nachgefragt: Expertengespräch mit HPE und Cancom am Beispiel von Scality ARTESCA, container-basierte „fast Object“ Storage Software Lösung Zum Hintergrund: Unternehmenswichtige Daten werden - von Core-to-Edge - in immer größeren Mengen erzeugt. Das betrifft Enterprise Anwendungen in Rechenzentren und in der Cloud / SaaS, Industrial Internet of Things mit Sensoren an Außenstellen, Video-Überwachung, Maschinendaten usw. Zusätzlich fordert der beschleunigte Einsatz von ML- und künstlicher Intelligenz auf Grund von Digitalisierungs-Initiativen die Speicher- und IT-Infrastruktur heraus. Stichworte: Datenmobilität, Agilität, Sicherheit, skalierbare Leistung, Kosten. Zum Podcast-Inhalt (Hörzeit: 28:21 min.) Die Gesprächspartner dieser Folge sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei Cancom SE. Die Fragen stellt Norbert Deuschle (Storage Consortium): Wo liegen für ihre Kunden derzeit die größten Herausforderungen im Bereich der Daten- und Speicherverwaltung ? ARTESCA ist ein verteiltes Objektspeichersystem, das mit Cloud-nativen Methoden als Set von containerisierten Mikroservices auf Basis einer Scale-out-Architektur aufgebaut ist. Warum soll ich mich als mittelständisches Unternehmen mit vielleicht nur 50 oder 100 TB überhaupt mit dieser Art von Lösungen beschäftigen? Mit Einsatzbeispielen (Use Cases) Kosteneffizienz, Performance und Hochverfügbarkeit sind im Bereich der Datenspeicherung wichtige Randbedingungen. Wie positioniert sich eine moderne Objekt Storage Lösung in diesem Umfeld? Hohe Datenverfügbarkeit und Sicherheit ist für Anwenderunternehmen überlebensnotwendig. Daneben spielen datenschutz-rechtliche Aspekte (Compliance, wer hat die Hoheit über die Daten), Schutz von Ransomware & Co sowie Backup- und Disaster Recovery Verfahren eine zentrale Rolle. Wie spielt das mit Object Storage zusammen und wo liegen betriebsseitig derzeit die größten Herausforderungen? Für welche Datenspeicherungs-Anforderungen ist ARTESCA primär konzipiert und was unterscheidet die Software von Scality RING, dem klassischen Objektspeicherangebot des Unternehmens? Das S3-Protokoll und Cloud-native gewinnen an Beliebtheit (Stichworte: Agilität, DevOps, Kubernetes & Co.). Allerdings besteht Kundenseitig der Bedarf, auch weiterhin bewährte File-Protokolle- und Daten einzusetzen-/zu verwalten. Wie lassen sich im Rahmen dieser Lösung beide Aspekte sinnvoll kombinieren? Weitere Information unter www.storageconsortium.de

    Tape-basierter S3 Object Storage mit PoINT Archival Gateway

    Play Episode Listen Later Apr 21, 2022 18:08


    Das Storage Consortium (N.Deuschle) spricht in dieser Podcast-Episode mit Herrn Thomas Thalmann, Geschäftsführer der Firma PoINT Software & Systems GmbH in Siegen zu den Technologien, Vorteilen und konkreten Anwendungsfällen einer S3-basierten Objektspeicher-Softwarelösung in Kombination mit Tape Storage. Im Einzelnen werden in dem Gespräch folgende Punkte adressiert und ausführlicher behandelt: Unstrukturierte Daten, Objektdatenspeicherung, S3, die Cloud und Bandsysteme... Wie sind die akuellen Entwicklungen in der Praxis zu bewerten und wo liegen die wesentlichen Gründe für das beschleunigte Datenwachstum auf der Seite Ihrer Kunden? Wo liegen die Vorteile bei der Verbindung einer Objekt-basierten Datenspeicherung mit Tape-Medien? Welcher Nutzen ergibt sich daraus gegenüber der verbreiteten Datei-basierten Speicherung? Warum die Archivdaten nicht einfach in der Cloud ablegen? Native S3-Schnittstelle und Bandspeicher: Sowohl zur Archivierung als auch für Objekt Storage verwendet man zum Zugriff (RESTful-)APIs. Das Verfahren arbeitet zustandslos über eine einheitliche Schnittstelle. Was sind die wesentliche Gründe, die für den Einsatz von APIs auf Basis der S3 Schnittstelle sprechen? Welche Voraussetzungen sollten geschaffen werden, um Tape-Technologien in Form von Bandbiblotheken sinnvoll in vorhandene Speicher-Infrastrukturen einzubinden? Welche bevorzugten Anwendungsfälle und Einsatzvorteile bietet die Tape-basierter S3 Object Storagelösung 'PoINT Archival Gateway'. Weitere Informationen zum Thema finden Sie auf der Webseite des Storage Consortium unter www.storageconsortium.de

    Moderne Datenverwaltung mit Object Storage unter Verwendung einer neuen Speicherklasse

    Play Episode Listen Later Mar 24, 2022


    Speicherverwaltungs-Technologien, um die zunehmende Lücke zwischen Datenwachstum und Infrastrukturbudget zu schließen. "Flash - Disk - Tape - Cloud - Object - Cold Storage" - Wie passt das alles zusammen? Norbert Deuschle vom Storage Consortium im Gespräch mit Ines Wolf - Managerin Pre-Sales CE der Firma Quantum. Ein technischer Podcast mit Details zum Quantum Active Scale Cold Storage - Speicherlösungsangebot. Im einzelnen werden folgende Punkte angesprochen und detaillierter behandelt: Was sind gerade die größten Herausforderungen bei der Speicherung, dem Zugriff und der Verwaltung im Zusammenhang mit einer langfristigen Aufbewahrung von Massendaten? Was bedeutet Cold Storage? Welche Zugriffsmöglichkeiten ergeben sich auf Basis welcher Technologien? Wie kann eine moderne Speicherverwaltung unter Einbeziehung von Storageklassen dabei helfen, kalte Daten bei Bedarf wieder "zum Leben" zu erwecken? Disk (HDD), Tape und die Cloud (S3) ? Wie passen die Technologien zusammen. Welche Anforderungen ergeben sich im Gegensatz zu HDDs beim Schreiben auf Band (Mengen, Kosten, Verwaltung usw.) Wie lassen sich die daran beteiligten verschiedenen Speichertechnologien möglichst einheitlich verwalten? Welche Rolle spielt Object Storage im Rahmen der Quantum Active Scale Cold Storage - Technologie? Was unterscheidet diese von anderen Lösungsansätzen? Intelligentes Data Staging, Tape Mgmt., 2D Erasure Coding, 3 GEO DDP usw. und weitere Optionen. Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud. Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden? Möglichkeiten, die Lösung als ‚Storage as a Service' zu beziehen (pay-as-you-use ), ähnlich wie bei Public-Cloud - Angeboten.

    Storage für künstliche Intelligenz (KI): Was kennzeichnet geeignete Speichertechnologien?

    Play Episode Listen Later Feb 15, 2022


    QLC-Flash, Storage Class Memory (SCM), Filesystem-Software und hochparallele Speicher-I/O-Architekturen für KI-Infrastrukturen. Zum Inhalt des Podcast: Moderne Speichertechnologien leisten in Bezug auf ihre Leistung, Skalierbarkeit und Kapazität viel mehr als noch vor drei bis fünf Jahren, was sich wiederum auf alle wesentlichen Aspekte von KI-Projekten wie Datenpflege und -Management bis hin zum Datenbanken-Design positiv auswirken kann. Ein Beispiel: Bei Deep Learning (DL) Projekten bedeutet ein langsamer Speicher immer eine langsamere maschinelle Lernleistung, denn das Deep Neural Network stellt ein Abbild eines massiv parallelen vernetzten Modells dar, bei dem bis zu Milliarden von Neuronen lose miteinander verbunden werden, um ein einziges Problem zu lösen. GPUs wiederum sind massiv parallele Prozessoren, bei denen jeder einzelne aus Tausenden von lose gekoppelten Rechenkernen besteht, um 100x höhere Leistungswerte und mehr als eine Standard CPU zu erzielen...

    Kontinuierlicher Datenschutz (CDP) zur Erweiterung von Backup-Restore-Verfahren

    Play Episode Listen Later Dec 9, 2021 8:53


    Eine Übersicht zu Leistungsmerkmalen, Einsatzbedingungen und Positionierung von Continuous Data Protection (CDP) im Zusammenhang mit Backup-/Restore und Disaster Recovery (D/R). Um was geht es in diesem Blogpost? Kontinuierlicher Datenschutz- oder auch Datensicherung (Continuous Data Protection, CDP) speichert automatisch alle Änderungen an Daten. Falls eine Modifikation erfolgt, werden je nach Implementierung kontinuierlich oder annähernd in real-time Kopien erzeugt. Im Vergleich dazu laufen Backup-Jobs mit Hilfe von Snapshots ein- oder mehrmals zu bestimmten Zeiten (periodisch). CDP ist im gewissen Sinn eine Backup-Weiterführung, allerdings mit Vorteilen in Bezug auf den Datenschutz, der Geschwindigkeit beim Restore, Migration, Datenverfügbarkeit und Disaster Recovery-Möglichkeiten; zudem besteht die Option, D/R-Tests on-premise und-/oder in Verbindung mit der Cloud einfacher und damit auch häufiger umzusetzen. In diesem Podcast werden im wesentlichen folgenden Themen behandelt: Warum überhaupt CDP und was unterscheidet kontinuierliche Datensicherung von Standard-Backup-Verfahren? Wie arbeitet CDP? Welche Einschränkungen gilt es bei CDP zu beachten?Wo liegen die Herausforderungen bei Backup-Verfahren ohne CDP-Funktionen?

    Kosten, Komplexität und Risiken der Cloud reduzieren - Ein Experten-Podcast mit NetApp und Cancom

    Play Episode Listen Later Oct 14, 2021 26:44


    Herausforderung „Hybride Cloud-Infrastruktur“; wo besteht Handlungsbedarf? Ein Gespräch zu Lösungen und Trends Zum Podcast-Inhalt: Der Trend zu Software-Definierten- und hybriden Cloud Infrastrukturen ist einerseits nicht von der Hand zu weisen, wirft aber Fragen auf: Welche Datenmanagement- und Cloud-Strategie ist für mein Unternehmen geeignet, was sind die zentralen Herausforderungen die es zu beachten gilt (Sicherheit, Kosten, Komplexität) und wie positioniert sich ein bislang eher traditionell an on-premise-Speicherlösungen orientierter Anbieter wie NetApp in diesem dynamischen Marktumfeld? Und welche Schwerpunkte im Lösungs-/Projektgeschäft sind dabei für ein IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation wie Cancom zentral? Diese und weitere Fragen werden (Hörzeit: ca. 26 Min.) im Rahmen einer Q & A in diesem Podcast genauer besprochen. Dazu stehen Ihnen mit Axel Frentzen, NetApp Senior Technical Partner Manager und Daniel Harenkamp, Solution Architect bei Cancom, zwei erfahrene Experten für die Bereiche Backup, Hochverfügbarkeit, Clouddaten- und Speichermanagement zur Verfügung; die Fragen stellt Norbert Deuschle vom Storage Consortium. Im Einzelnen werden im Podcast folgende Themenbereiche behandelt (Auszug): Was sind für ihre Kunden derzeit die größten Herausforderungen im Bereich der Datenverwaltung? Im Zuge der „Cloudifizierung“ stellen Unternehmenskunden Flexibilität, Sicherheit, Vereinfachung und Kostenreduzierung in den Mittelpunkt ihrer strategischen Initiativen zur Daten- und Speicherverwaltung. Was sind die spezifischen NetApp-Mehrwerte in der Cloud? Cloudifizierung und die Herausforderungen im Hinblick auf Komplexität, Datenschutz (Sicherheit) und das Einhalten von Compliance-Richtlinien Sicherheit / Cyberprotection / Ransomware und Backup-Restore. Wo sieht ein Dienstleister wie CANCOM aus Projektsicht hier aktuellen Handlungsbedarf? Die Cloud ist nicht nur ein Storage-Thema, sondern betrifft die Compute- und IT-Infrastrukturseite generell. Im Zusammenhang mit der Digitalisierung werden Anwendungsseitig technologische Entwicklungen wie z.B. API-gesteuerte Lösungen auf Basis von Microservices sowie Container wichtiger (cloud-native-Ansätze). Wie adressieren NetApp und Cancom Lösungsseitig diese Entwicklungstrends? Was sollten Kunden tun, um den für sie jeweils möglichst kosteneffizientesten Weg in die Cloud zu finden? Ist „lift & shift“ eine Lösung? Wie lassen sich die Infrastrukturkosten in der Cloud bestimmen / was kostet mich die Cloud? Welche Kostenoptimierungs-Potentiale lassen sich nutzen? Welche Daten speichert man wo (Handling, Sicherheit, Kosten)? Space Efficency Features wie Deduplication und Compression Data Tiering in günstigeren kalten Speicher (S3 / Blob) Zentrale Datenhaltung – dezentral nur Caching (z.B. GFC) Sicherheit durch Ransomwareschutz via Snapshots, Replikation der Snapshots, Fpolicy / VSCAN etc. Neues S3-Protokoll in ONTAP Storage Anbindung für Kubernetes Platformen (Trident) Applikationskonsistenter Backup Service für Kubernetes-Apps (Astra Control) Firmenübernahmen wie DataSense, Talon, Cloudjumper... FinOps und Security via NetApp Spot, Cloudcheckr usw...

    Persistenter Speicher und Cloud-native IT-Infrastrukturen

    Play Episode Listen Later Sep 29, 2021 4:55


    Gerade weil sich moderne Applikations-Arbeitslasten stärker in Richtung Container verschieben, steht der Storage weiterhin im Mittelpunkt. Teil 1: Als Container-Technologien wie Docker zu umfangreichen Orchestrierungslösungen mit Kubernetes führten, lag der Fokus nicht primär auf der Bereitstellung von persistenten „Enterprise-Class-Storage" Funktionalitäten. Für Anwender führt dies immer wieder zu Schwierigkeiten im Zusammenhang mit der Storage-Bereitstellung, zumal Kubernetes selbst generell nicht gerade einfach zu verwalten ist. Klassischer Enterprise Storage rechnet nicht mit kurzlebigen, sprunghaften Dev-Ops-Workloads. Auch Container Storage Interface (CSI) Implementierungen lösen das Problem nicht vollständig, denn mit der Erstellung und dem ‚Ableben' von Containern werden auch die Verbindungen zu den Speicher-Volumes verändert. Diese Prozesse belasten wiederum den Unternehmensspeicher, vor allem bei komplexen schnellwachsenden und dynamischen Umgebungen. Wichtige Themen wie Datensicherheit, Replikation, Thin Provisioning, Hochverfügbarkeit, Backup-Restore und weitere speicherbezogene Funktionen können damit zu einer echten Herausforderung werden... Im nächsten Podcast zu diesem Thema (Teil 2) soll dann näher auf den Bereich Cloud-native Speicherarchitekturen oder 'von SAN über HCI zu CAS (container attached storage)' eingegangen werden.

    Unternehmensweite Datensicherungs- und Disaster-Recovery Strategien gegen Cyberangriffe, Teil 2

    Play Episode Listen Later Aug 4, 2021 17:03


    Diskussionsrunde (Teil 2) mit Experten der Firmen Cancom SE und Quantum. Ratschläge und Entwicklungstrends im Bereich von Datensicherung-/Restore, Disaster Recovery und Schutz der IT-Infrastruktur. Die Fragen stellt Norbert Deuschle (Storage Consortium). Zum Inhalt: Cyber-Angriffe sind für Betroffene mit teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt dabei die Corona-Pandemie weltweit Cyberkriminellen in die Hände, während Unternehmens-Backups selbst verstärkt zu einem Angriffsziel werden. Wie lassen sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden und welche Strategien & Lösungen gibt es für effektive Gegenmaßnahmen? Dieser zweite Teil unserer Podcast-Episode (17:03 min.) befasst sich ausführlich mit den folgenden Punkten und Empfehlungen: 1. Daten müssen unveränderbar sein 2. Unproduktive Daten aus dem Backup ausschließen – Stichwort: Datenklassifizierung 3. Transparenz – Sauberes Monitoring auch für Backups - Stichwort: Änderungsrate 4. Einsatz von KI und maschinellem Lernen im Backup Prozess - Stichwort Software 5. Fokus auf kurze Wiederherstellungszeiten (restore) Im technischen Bereich werden u.a. folgende Optionen diskutiert: Backup to (2) Disk - Fast Backup 2 Disk – Archiv Backup 2 Tape – Log Term Backup 2 Cloud – Long Term Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Auswahl entsprechender Management-SW-Lösungen zu achten? Backup to Disk, Secure Snapshot Was bedeutet Daten-Unveränderbarkeit im Bereich Backup? Weitere Punkte die besprochen werden, umfassen: Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Die Cloud als Erweiterung bestehender Datenverwaltungs- und Speicherplattformen. Was bedeutet das für den Datenschutz und Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können? Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Edge Computing, IoT, Digitalisierung etc. vergrößern die Angriffsflächen für Cyberattacken und schaffen neue Herausforderungen beim Schutz von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen derzeit die größten Herausforderungen? Ein Fazit: Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe künftig noch weiter zunehmen und falls ja, in welchen Bereichen?

    Unternehmensweite Datensicherungs-Strategien gegen Cyberangriffe und Ransomware, Teil 1

    Play Episode Listen Later Jul 27, 2021 15:50


    Herzlich Willkommen zu dieser neuen Podcast- Episode des Storage Consortium. Inhalt: Cyberattacken und Ransomware-Bedrohungen sind für Betroffene mit Teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt die andauernde Corona-Pandemie dabei weltweit Cyberkriminellen in die Hände und Unternehmens-Backups werden inzwischen selbst zu einem attraktiven Angriffsziel. Deshalb ist es wichtig, sich damit aktiv auseinander zusetzen, insbesondere zu Fragen, wie sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden lassen und welche (Sicherungs- und Disaster-Recovery) Strategien& Lösungen als Gegenmaßnahmen sich in der Praxis bewährt haben. In diesem ersten Teil gehen wir insbesondere darauf ein, ob es heute überhaupt noch ausreichend ist, sich im IT-Betrieb auf eine bislang bewährte Datensicherungsumgebung- nebst Technologien und Prozessen zu verlassen? Weitere Punkte die besprochen werden, sind: Wie lässt sich eine moderne und gut durchdachte Sicherungsstrategie beschreiben? Welche zentralen Elemente beinhaltet ein solcher Ansatz? Backups sind zu einem akttraktiven Angriffsziel bei Ransomware & Co. geworden. Was sind essentielle Sicherungsmaßnahmen zum Schutz der Backup-Infrastruktur? Das Experten-Panel für diesen Podcast (15:50 min.): Herr Bjoern Hoeger, Manager Hybrid Data Center & Architecture - Firma Cancom, einem IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation Herr Bernhard Kölbl - Presales System Engineer - Firma Quantum, einem weltweit operierendem Hersteller & Entwickler von Hardware- und Software-Lösungen im Bereich der unternehmensweiten Speicher- und Datenverwaltung. Moderation und Fragen: Norbert Deuschle, Storage Consortium Der zweite Teil dieser Podcast-Episode (geplant für Anfang August 2021) wird sich dann detaillierter mit folgenden Fragestellungen auseinandersetzen: Gibt es ‚best-pratices', um eine Strategie zur Bekämpfung von Ransomware und Cyberübergriffen (inkl. Bitcoin-Mining) im Unternehmen zu etablieren oder ist jedes Unternehmen- bzw. Organisation individuell zu betrachten? Immer mehr Firmen nutzen die Cloud als Erweiterung ihrer bestehenden Datenverwaltungs- und Speicherplattform. Was bedeutet das für den Datenschutz und Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können. Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Datensicherungs- und Management-Software zu achten? Was bedeutet Daten-Unveränderbarkeit beim Backup? Zur Bedeutung von Datenklassifizierung im Zusammenhang mit der Auslagerung von Daten in Cloud (Achtung! Ransomware nicht mitsichern...) Edge Computing, IoT und die Digitalisierung generell vergrößern die Angriffsfläche für Cyberattacken und schaffen neue Herausforderungen beim Schutz und der Sicherung von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen die größten Herausforderungen für die Betreiber? Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe noch weiter zunehmen oder ist das letztlich Phänomen vorübergehend, über das man sich in einigen Jahren keine großen Gedanken mehr machen muss?

    Software-Definierte Daten- und Speicherverwaltung mit Scality ARTESCA

    Play Episode Listen Later Jun 1, 2021 11:46


    Im Tec-Podcast nachgefragt: Scality RING und ARTESCA; flexible Optionen zur anwendungsoptimierten, modernen Datenverwaltung. Zum Inhalt: Kritische Daten werden heute überall und in immer größerer Menge erzeugt – angefangen von traditionellen Enterprise-Anwendungen in Rechenzentren über neue SaaS Apps in der Cloud, Industrial Internet of Things Anwendungen und Sensoren – bis hin zu Edge Lokationen in Außenstellen mittels Video-Überwachung oder Maschinendaten-Sensoren. Aber natürlich trägt dazu auch der verstärkte Einsatz von ML und künstlicher Intelligenz im Rahmen der Digitalisierung massiv zu dieser Entwicklung bei. Der 2009 in Paris gegründete und inzwischen weltweit agierende Datenmanagement-und Speicher-Softwareanbieter Scality hat es sich zur Aufgabe gemacht, dieses Datenwachstum hochskalierbar und leistungsfähig zu verwalten, zu speichern sowie auswertbar zu mache; dies schließt aktuelle Anforderungen, wie sie aus Cloud-nativen Anwendungsumgebungen (Stichwort: Kubernetes & Co.) resultieren, ein. Im folgenden Gespräch mit Christoph Storzum - Regional Direktor DACH bei Scality - gehen wir in Bezug auf das aktuelle Lösungsangebot und die Strategie des Anbieters detailliert ein.

    Quantum ATFS: Neue filebasierte Speicherverwaltung mit integrierter zero-Touch Datenklassifizierung. Wo liegen die Vorteile und Einsatzgebiete?

    Play Episode Listen Later May 3, 2021 13:47


    Im Gespräch mit Frau Ines Wolf, Managerin Pre-Sales CE bei der Firma Quantum sprachen wir exklusiv über die neue ATFS - File Storage Software mit integrierter Datenklassifizierung des Unternehmens; insbesondere darüber, wie die Lösung aus Sicht der Daten- und Speichermanagement-Expertin ihnen helfen kann, die beschriebenen Herausforderungen zu adressieren. Die Besonderheit von ATFS besteht in der Zusammenführung von automatisierter Datenklassifizierung, Datenmanagement und Datenspeicherung innerhalb einer Plattform. Zum Hintergrund: rasches Datenwachstum, mangelnde Sichtbarkeit und Kontrolle sowie ein deutliches Mehr an Datenbewegungen über verteilte Architekturen stellen Organisationen vor Herausforderungen; insbesondere die starke Zunahme von unstrukturierten Daten will kosteneffizient beherrscht werden. Eine durchgängige, sichere und transparente Datenverwaltung –vor-Ort und-/oder in der Cloud - ist das Ziel. Hinzu kommt: Technische Fortschritte in den Bereichen künstlicher Intelligenz und Analyse führen zu geänderten und neuen Anforderungen an den Daten-Lebenszyklus. Dazu gehört auch die Notwendigkeit, die Verfügbarkeit der Daten ggf. über Jahrzehnte hinweg zu gewährleisten und sie vor Datenverlust, Katastrophen und Cyber-Angriffen zu schützen...

    Mit modernen Datensicherungs-Strategien die TCO im Unternehmen senken

    Play Episode Listen Later Apr 21, 2021 11:44


    In dieser dritten Podcast-Folge sprechen wir mit Herrn Wolfgang Huber, Regional Director, Central Europe bei Cohesity darüber, wie sich aus Sicht seines Unternehmens mit der richtigen Datensicherungsstrategie die Gesamtkosten (TCO) senken lassen und welche konkreten betrieblichen Vorteile sich daraus ergeben, wenn veraltete Backuplösungen durch einen modernen Architekturansatz ersetzt werden. Dies insbesondere vor dem Hintergrund, dass Backups, Archive, Dateisysteme, Objektspeicher und Daten für Tests, Analsen und Entwicklung sich vielfach in Infrastruktursilos befinden und damit eine fragmentierte Datenlandschaft darstellen...

    Objektdaten-Speicherung: Beschaffungskriterien und Einsatzmerkmale

    Play Episode Listen Later Apr 8, 2021 5:52


    Auf welche Randbedingungen sowie Funktionsmerkmale sollten Unternehmen bei der Evaluierung von Objektspeicherlösungen besonders achten? Katalysatoren für den Einsatz von Objekt-Speichersystemen sind das rasche Datenwachstum und neue Anwendungen, was verstärkte Investitionen in hybride Cloud-Implementierungen nach sich zieht. Traditionelle Dateisysteme spielen ebenfalls eine wichtige Rolle, um Objektstorage zu nutzen ohne bewährte Anwendungen aufwändig zu modifizieren, die im Zusammenhang mit CIFS- oder NFS-Zugriffen entwickelt wurden...

    Backup und Ransomware: Angriffe möglichst frühzeitig erkennen und verhindern

    Play Episode Listen Later Mar 25, 2021 7:17


    Interaktiver Podcast mit Cohesity zu den IT-seitigen Herausforderungen von Cyberattacken mit Lösungsvorschlägen. Untersuchungen zufolge melden fast die Hälfte der befragten Unternehmen seit dem Umstieg auf das Home Office eine deutliche Zunahme von Cyber-Angriffen; zudem werden diese immer ausgefeilter. In diesem Beitrag als Q & A mit Herrn Wolfgang Huber, Regional Director, Central Europe, bei Cohesity, dreht es sich schwerpunktmäßig darum, ob sich Ransomware-Angriffe überhaupt frühzeitig erkennen und verhindern lassen und wo die größten Gefahren für die betroffenen Betriebe lauern. Weiter wird in dem Gespräch auf Backup- und Recovery als „last line of defense“ eingegangen und mit welcher Palette an Funktionen eine moderne Datensicherungs-Strategie im Unternehmen diese Bedrohungen möglichst nachhaltig adressieren kann. Abschließend werden einige best practises auf Basis von Cohesity-Technologien gegen Ransomware-Angriffe vorgestellt.

    Backup- und Recovery-Prozesse mit Hilfe der Cohesity Helios Datenplattform vereinfachen

    Play Episode Listen Later Mar 2, 2021 10:42


    Zum Hintergrund: der Fokus bei vielen mittleren Unternehmensgrößen verschiebt sich derzeit von der reinen Backup- und Speicherverwaltung (aka Storage Management) hin zu einem hochautomatisierten Datenmanagement, das sowohl lokal als auch als Cloud-basierte Data Management as a Service (DMaaS) - Dienste als SaaS-Lösung zur Verfügung steht. Dieser Ansatz geht weit über einfache lokale Datensicherungs-Funktionalitäten hinaus, was IT-Teams rein aus Konsolidierungsgesichtspunkten viel Zeit, Geld und Ressourcen sparen kann. Ein Mehrbedarf an Flexibilität, Sicherheit, Vereinfachung und natürlich Kostenaspekte (TCO) sind wesentliche Treiber dieser Entwicklung. Diese stehen im Mittelpunkt von Initiativen zur Vereinfachung sowie der Modernisierung von IT-Infrastrukturen. Wir sprechen in diesem Podcast mit Wolfgang Huber - Regional Director, Central Europe bei Cohesity - darüber, wie aus Sicht seines Unternehmens IT-Infrastruktur-Verantwortliche möglichst effektiv unterstützt werden können, um die steigenden Anforderungen an das Datenmanagement erfolgreich zu bewältigen.

    Quantencomputer bedrohen die Sicherheit von Verschlüsselungs-Verfahren. Übersicht Teil 1

    Play Episode Listen Later Feb 22, 2021 5:31


    Die potentielle Rechenleistung künftiger Quantencomputer stellt eine Bedrohung für bestimmte Verschlüsselungsstandards und die Sicherheit der Blockchain dar. Dies erklärt auch das gestiegene Interesse an diesen Systemen in der Krypto-analytischen Forschung sowie dem verstärkten Aufkommen von Lösungen zum sicheren Schutz von kritischen Unternehmensdaten während der Übertragung im Netzwerk. Im Mittelpunkt dieses Blogposts in zwei Teilen als Audiodatei (Teil 1 & 2) steht ein erster Überblick zu Lösungen (kein Anspruch auf Vollständigkeit!) im Bereich von gesicherten Anwendungstransaktionen für Cloud-Deployments, quantenbasierte Schlüsselverteilung QKD, sowie Verschlüsselungsfunktionen für hybride Cloud-Speicherumgebungen auf Basis quantenresistenter Kryptographie.

    Intelligente Speicher- und Datenverwaltung von unstrukturierten Filedaten für Multicloud-Umgebungen

    Play Episode Listen Later Nov 30, 2020 8:41


    Diese 6. Podcast Episode ist eine inhaltliche Zusammenfassung der bisherigen Episoden 1-5 und gibt Ihnen damit die Möglichkeit, sich einen kompakten Überblick zum Leistungsumfang des Anbieters Komprise Inc. zu verschaffen. Einzelne Details der Lösung werden in den vorangegangenen Episoden jeweils ausführlicher behandelt. Gesprächspartner ist Thomas Rochner, Sr. Systems Engineer DACH. Der Softwareanbieter Komprise Inc. entwickelt Hardware-unabhängige Daten- und Speicherverwaltungs-Lösungen für die Analyse, Archivierung, Migration und Replikation von unstrukturierten Daten (Files) in Multicloud Umgebungen.

    Zur optimierten Nutzung von Daten für KI- und ML Anwendungen auf Basis von Komprise Inc.

    Play Episode Listen Later Nov 23, 2020 8:03


    Der Softwareanbieter Komprise Inc. entwickelt Hardware-unabhängige Daten- und Speicher Management Software für die Analyse, Archivierung, Migration und Replikation von unstrukturierten Daten (Files) in Multicloud Umgebungen; kurzgefasst: Analytics Driven, Automated Storage Tiering für NAS. In dieser 5. Podcast Episode wird auf einen weiteren Anwendungsfall der Lösung eingegangen, der den Bereich "Dynamic Data Analytics" umfasst. Stichworte: Lernen Sie Ihre Daten zuerst richtig kennen, bevor Sie weitere entscheidende Schritte zur Analyse sowie Datenverwaltung vornehmen. DYNAMIC DATA ANALYTICS: Analysiert Daten, damit die richtige Entscheidung getroffen wird, bevor mehr Speicher sowie weitere Backups eingesetzt werden. TRANSPARENT MOVE TECHNOLOGY: Verschiebt heiße, kalte, archivierte Daten ohne Unterbrechung für Apps und Benutzer. DIRECT DATA ACCESS: ermöglicht Ihnen direkt die Kontrolle Ihrer Daten...

    Quantum ATFS Filesystem kombiniert Datenverwaltung- und Storage innerhalb einer Plattform

    Play Episode Listen Later Nov 23, 2020 4:16


    Die neue Daten- und Speicherverwaltungsplattform Quantum ATFS (All-Terrain File System) ist eine netzwerkgebundene (NAS-)Speicherplattform, die Echtzeit-Datenklassifizierung und Erkenntnisse mit den Anforderungen von Anwendungen integriert und damit bestimmt, wie Speicherressourcen optimiert zugewiesen und verbraucht werden. Dateneinblicke sollen es Unternehmen ermöglichen, diese ohne die Einschränkungen eines Dateisystems zu visualisieren, eine zielgerichtete Datenplatzierung auf der Grundlage von Richtlinien zu automatisieren und Ressourcen durch "Just-in-Time"-Datenbewegungsrichtlinien zu optimieren.

    NAS-Datenmigration: Best Practices - Beispiele und kritische Erfolgsfaktoren

    Play Episode Listen Later Nov 13, 2020 8:13


    Der Softwareanbieter Komprise Inc. entwickelt Hardware-unabhängige Daten- und Speicherverwaltungslösungen für die Analyse, Archivierung, Migration und Replikation von unstrukturierten Daten (Files) in Multicloud Umgebungen. In dieser 4. Podcast-Episode wird auf einen weiteren wichtigen Anwendungsfall eingegangen. Nach Archivierung und Datenanalyse geht es in diesem Expertengespräch um NAS- und S3 Datenmigration. Es werden folgende Fragen beantwortet: Wie plane ich eine möglichst automatisierte Migration von Filedaten? Welche Rolle spielt dabei die intelligente Analyse meiner vorhandenen Daten und Speicherumgebung? Was sollten Anwender bei der NAS - Datenmigrationen besonders beachten?Kritische Elemente und Erfolgsfaktoren innerhalb der Migration und Best Practices Beispiele. Speicherklassen nach Zugriffen und Kosten unterteilen, z.B. Flash für heiße Daten oder SATA Festplatten und die Cloud für kalte Daten (on-prem / off-prem).Kostenreduzierung durch intelligente Migration von heißen Daten in die Cloud und kalter Daten in einen Objektspeicher? Im nächsten (5.) Podcast dieser Folge werden wir darauf eingehen, wie die Softwarelösung von Komprise Inc. als Brücke für Big Data- und KI-Anwendungen dienen kann. Stichworte: Tag, Search, virtuelle Data Lakes...

    Podcast: IBM Storage Strategy Days 2020 - IT vereinfachen und Kosten senken

    Play Episode Listen Later Nov 11, 2020 16:45


    Am 21. und 22. September 2020 fanden (überwiegend virtuell) die IBM Storage Strategy Days 2020 statt. Wir haben Herrn Markus Standau von IBM um eine Zusammenfassung der Strategie-Tage gebeten und in dem Podcast für Sie die aktuellen Schwerpunkte des Herstellers im Bereich Storage & Software Defined Infrastructure im Rahmen einer Q & A zusammengefasst.

    Claim Storage Consortium

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel