Meldung

DataCore präzisiert Storage-Zukunft

DataCore Software positioniert mit "DataCore ONE" seine Vision einer zukünftigen Speicherinfrastruktur. Die Neuvorstellung beschreibt die Implementierung von Software-defined Storage in Rechenzentren, in der Cloud und im Edge Computing. Es basiert auf der zentralen Steuerung und Kontrolle verschiedener Speicherklassen, die primär, sekundär und archivübergreifend arbeiten.
Zentrales Element von "DataCore ONE" ist die neue cloudbasierte vorausschauende Analyseplattform "DataCore Insight Services" (DIS) [1], die mit einer 360-Grad-Perspektive fundierte Einblicke auf den infrastrukturweiten Speicher liefern und konkrete Handlungsempfehlungen inklusive deren Ausführung anbieten soll. Dabei stützt sich die SaaS-basierte Plattform auf Telemetriedaten und die Erfahrungen aus weltweiten Kundenprojekten von DataCore. Probleme sollen so frühzeitig erkannt und mit Best Practices und Kapazitätsplanungsempfehlungen verbunden. Eine Kombination aus maschinellem Lernen und künstlicher Intelligenz soll aktuelle oder absehbare Anomalien in der Datenspeicherinfrastruktur erkennen, während die integrierte Empfehlungs-Engine verantwortliche Mitarbeiter auf die am besten geeigneten Maßnahmen hinweist.

Die vorgeschlagenen Maßnahmen sind laut Anbieter hoch automatisiert und können über dieselbe Weboberfläche oder lokal hinter der Firewall ausgeführt werden – je nachdem, wie es standortspezifische Sicherheitsrichtlinien vorschreiben. Nutzer sollen so von reduzierten Ausfallzeiten, schnellerer Reaktionszeit, höherer Leistungsfähigkeit sowie erheblichen Kosteneinsparungen profitieren. Sämtliche Anwendungen, egal ob sie in Containern, in virtuellen Maschinen oder auf physikalischen Servern ausgeführt werden, ziehen einen Nutzen aus den virtuellen Speicherpools, da permanent und vollkommen automatisch häufig, gelegentlich und selten genutzte Daten in die jeweils dafür geeignete Speicherklasse eingeordnet werden.

Begleitend gibt DataCore den Startschuss für eine neue Familie der "HCI-Flex Appliances" [2], die die Einfachheit hyperkonvergenter Systeme mit der Flexibilität von Software-definiertem Speicher kombinieren sollen. Unternehmen können aus mehreren unterschiedlichen 1U- und 2U-Konfigurationen zwischen vorinstalliertem VMware vSphere oder Microsoft Hyper-V wählen. Alle Speicherdienste des DataCore Software-defined Storage sind im Angebot enthalten, darunter Smart Caching, Thin Provisioning, Dynamic-Auto-Tiering und Parallel I/O-Beschleunigung.
9.07.2019/ln

Tipps & Tools

Katalogbackup regelmäßig durchführen [21.07.2019]

Viele Admins, die Veritas NetBackup nutzen, fragen sich, wie sie bei einem Katalogbackup die ideale Aufbewahrungsrichtlinie (Data Retention Policy) aufsetzen und ob diese identisch zur längsten Periode sein muss, mit der sie beim Backup arbeiten. Auf was tatsächlich geachtet werden sollte, zeigt Ihnen dieser Tipp. [mehr]

Großes Storage-Gewinnspiel [15.07.2019]

Die Datenmengen in Unternehmen wachsen stetig an. Ihre Speicherung und schnelle Bereitstellung wird zu einer immer größeren Herausforderung. storage2day, die neue Konferenz für Speichernetze und Datenmanagement, präsentiert an zwei Tagen im September Grundlagen, bewährte Lösungen für den Praxiseinsatz und zukünftige Entwicklungen. IT-Administrator verlost für die Konferenz drei Eintrittskarten im Wert von jeweils 895 Euro. Außerdem gibt es noch viel Lesematerial zum Thema zu gewinnen. [mehr]

Fachartikel

Data-Warehouse-Automatisierung beim Landmaschinenhersteller [17.07.2019]

Weil die Integration der ständig steigenden Zahl von heterogenen Datenquellen mit einem klassischen Ansatz nicht mehr zu bewältigen war, haben die norddeutschen Amazonen-Werke ihr Data Warehouse vollständig neu aufgesetzt. Wie der Anwenderbericht zeigt, setzten sie dabei von Beginn an auf eine Automatisierungsstrategie. Um die reibungslose Erweiterbarkeit des entstehenden Enterprise Data Warehouse weiter zu unterstützen, entschieden sich die Verantwortlichen für ein Design nach den Grundsätzen des Data Vault 2.0. [mehr]

Buchbesprechung

Anzeigen