Meldung

DataCore virtualisiert weiter

DataCore ergänzt sein Software-defined-Storage-Portfolio um "vFilO". Mit der speziell für verteilte Datei- und Objektspeicher entwickelten Virtualisierungstechnologie will der Hersteller unter anderem bei der Skalierung punkten – möglich seien zwei Instanzen mit einigen TByte, aber auch Milliarden von Dateien, die über zahlreiche Knoten verteilt sind.
"vFilO" [1] bietet sowohl ein Scale-Out-Dateisystem für unstrukturierte Daten als auch die Möglichkeit, bestehende Speichersysteme zu virtualisieren. Unternehmen mit Schwierigkeiten, über mehrere Dateiserver, NAS-Geräte und Objektspeicher verteilte Daten zu finden, zu teilen und zu schützen, können diese Silos unter einem globalen Namensraum assimilieren. Dieser ist über die Standard-Protokolle NFS, SMB und S3 zugänglich und lässt die Daten unverändert. Verschiedene Dokumentensammlungen und Multimedia-Inhalte werden in einem einheitlichen, globalen Katalog zugänglich – normalerweise ein Markenzeichen der Objektspeicherung, bei der Neuvorstellung aber laut DataCore gepaart mit der Reaktionsfähigkeit und Konsistenz eines verteilten Dateisystems.

Mit einem richtlinienbasierten Ansatz, der unter anderem Leistungsbedarf, Ausfallsicherheit, Kosten und Alterung berücksichtigt, platziert vFilO die Daten dynamisch über die verfügbaren Ressourcen hinweg. Zudem geht dies mit einer angemessenen Lastverteilung einher, alle Zugriffsrechte/-kontrollen bleiben bestehen. Wenn es angebracht ist, werden die Daten aktiv in öffentlich Clouds oder in lokalem Objektspeicher archiviert, de-dupliziert und komprimiert, was zu erheblichen Platz- und Kosteneinsparungen führt. Obwohl die Daten archiviert sind, bleiben sie vollständig zugreifbar – unabhängig davon, ob sie in der Cloud oder in einem entfernten Rechenzentrum gespeichert sind. Punkten soll der Neuzugang auch durch die Möglichkeit, dass Endnutzer unbeabsichtigt gelöschte Dateien selbst und ohne IT-Unterstützung wiederherstellen können.

Die vFilO-Software verteilt automatisch Kapazität und Last auf einen Scale-Out-Cluster, der für zahlreiche Speichersysteme verantwortlich ist. Die Software  kann auf physischen Servern oder in virtuellen Maschinen installiert und innerhalb von Minuten bereitgestellt werden. Wie bei DataCore SANsymphony ermöglicht die verteilte Datei- und Objektspeicher-Virtualisierung von vFilO eine optimale Nutzung der Hardware-Ressourcen durch Parallelisierung gleichzeitiger Anfragen und vermeidet serielle Engpässe. Sie soll so schnell auf Spitzenlasten reagieren können, und zwar durch weitreichende Parallelisierung sowohl innerhalb der Knoten als auch durch Lastausgleich zwischen den Knoten im hochverfügbaren vFilO-Cluster.

vFilO wird pro TByte lizenziert, mit einem Preis für aktive Daten und einem niedrigeren Preis für inaktive Daten, und soll ab dem 20. November erhältlich sein.
15.11.2019/ln

Tipps & Tools

Vorschau November 2019: Container & Anwendungsserver [21.10.2019]

Das Bereitstellen von Anwendungen ist eine zentrale Administrationsaufgabe und Fehler hierbei fallen Mitarbeitern wie Kunden unmittelbar auf. Eine wichtige Rolle spielt das Fundament für Applikationen, die Serverlandschaft. In der November-Ausgabe beleuchtet IT-Administrator das Thema "Container & Anwendungsserver". Darin lesen Sie etwa, welche Best Practices Sie bei Microsofts IIS nutzen sollten und wie Sie Container-Logdaten mit Fluentbit auswerten. Außerdem werfen wir einen Blick auf die Orchestrierung von Containern und die Kubernetes-Alternative Nomad. In den Tests tritt der Solarwinds Server & Application Monitor an. [mehr]

VPC richtig konfigurieren [18.08.2019]

Wenn Sie eine Virtual Private Cloud für die Verwendung mit Amazon Aurora anlegen, ist es wichtig diese richtig zu konfigurieren. Grundsätzlich muss eine Virtual Private Cloud (VPC), die einen Amazon-Aurora-DB-Cluster enthält, mindestens zwei Availability Zones (AZ) umfassen. Jede AZ muss außerdem mindestens ein Subnetz bereithalten. Für das folgende Beispielszenario melden Sie sich in der AWS Management Console an und öffnen dort die VPC-Konsole. [mehr]

Fachartikel

Monitoring in der Multicloud [4.12.2019]

Unternehmen kommen häufig nicht mehr mit einer einzigen Cloudumgebung aus, sondern entscheiden sich vermehrt für eine Multicloud-Strategie. Der Nachteil der Multicloud ist jedoch, dass die Komplexität der IT-Infrastruktur dadurch erheblich steigt. Abhilfe kann hier ein proaktives und plattformübergreifendes Monitoring der Infrastruktur und aller Applikationen schaffen. Der Beitrag stellt dar, warum das Monitoring in der Cloud besonders von der Kombination von AIOps und einem intelligenten, zentralen Nervensystem für die IT profitiert. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen