Fachartikel

Sichere Plattformen zum Datenmanagement

Durch Cloudmigration verändern sich die Datenströme in Unternehmen drastisch. Zusätzlich sehen auch die Anforderungen an Datenbanken und Informationsverarbeitung durch Big Data, IoT und Mobile Applications heute ganz anders aus. Dadurch wird es immer wichtiger, auf die richtige Plattform zum Datenmanagement zu setzen. Der Beitrag geht auf die Entwicklung von sicheren Datenbanken ein und zeigt, warum sich jeder IT-Administrator mit der Thematik auseinandersetzen sollte.
IT-Fachkräfte sind nicht mehr nur Verwalter von Informationen, sondern müssen Informationsfluss und Datenbanken optimieren.
Bis vor etwa 15 Jahren waren Datenbanken ein Stück Hardware, das in der Ecke in einem Rechenzentrum vor sich hinarbeitete. Damals hatten die meisten Entwickler und Administratoren nur selten mit dem Thema zu tun. Nur ein ausgewählter Personenkreis in der IT-Abteilung war sich überhaupt über die genaue Funktion der Datenbank bewusst. Dies hat sich mittlerweile grundsätzlich geändert. Verschiedene Cloudmodelle samt der Angebote von Amazon, Microsoft und Google rücken das Thema Datenbank stärker in den Fokus. Entwickler und Admins, aber auch Betriebsleiter, Sicherheitsverantwortliche und Geschäftsführer setzen sich heute wesentlich stärker mit dem Thema auseinander. Denn die Verteilung und Verarbeitung von digitalen Informationen ist wichtiger denn je.

Technologische Möglichkeiten verstehen
Durch neue Innovation gibt es heute mehr Möglichkeiten, um durch Informationen Mehrwert zu generieren. Dies geht aber nur, wenn IT-Fachkräfte von Anfang an in entsprechende Projekte mit einbezogen werden. In der Vergangenheit bestand bei (strukturellen) Datenbanken die Herausforderung vor allem darin, die Balance aus Konsistenz, Verfügbarkeit und Ausfalltoleranz zu finden. Hier galt lange das CAP-Theorem als Leitsatz, das eine Optimierung aller drei Bereiche nicht erlaubte. In der Praxis bedeutete dies, dass von den Punkten entweder die Replizierung von Daten über verteilte Systeme (Consistency), die Verfügbarkeit in Form von schnellen Antwortzeiten (Availability) oder die Funktionsfähigkeit auch bei Ausfall einzelner Partitionen & Netzwerkknoten (Partition Tolerance) nicht garantiert werden kann.

An diesem Grundsatz hat sich bis heute nicht viel verändert, allerdings hat sich der Verantwortungsbereich von Programmieren deutlich erweitert. Datenbanken sind die Quelle und treibende Kraft von unternehmerischer Wertschöpfung. IT-Fachkräfte sind nicht mehr länger Verwalter von Informationen, sondern stehen vor der Herausforderung, den Informationsfluss und Datenbanken so zu optimieren, damit diese als Antriebsmotor für visionäre Unternehmensprozesse zur Verfügung stehen. Dementsprechend wächst das Interesse an dem Thema und Datenbanken spielen eine wichtige Rolle bei Digitalisierungsstrategien. Dadurch wächst der Druck auf IT-Fachkräfte, denn die Komplexität der digitalen Ökosysteme wird von strategischen Beratern und Führungskräften häufig nicht in komplettem Umfang wahrgenommen.
Schnelle Verfügbarkeit aus der Cloud
Im Zeitalter der digitalen Integration hat sich die Umwelt für Entwickler deutlich gewandelt. Heute werden per Knopfdruck Datenbanken und andere IT-Bauteile aus der Cloud in Sekundenschnelle ausgerollt. Umfangreiche Prozesse werden in kurzer Zeit gestartet. Verteilte Systeme mit Hunderten von Servern und Backuplösungen, dazu eine dezentrale Verwaltung sind heute Alltag. Virtuelle Rechenzentren und Applikationen sorgen für immer größeren Datenmengen und mehr Traffic. Informationen müssen global verfügbar sein und sich über verteilte Speicherorte replizieren – außerhalb des eigenen Firmennetzwerks und auch durch geschützte Verschlüsselungstunnel über das Internet.

Dies verändert besonders die Sicherheitsanforderungen drastisch. Früher bestand die Umgebung der IT-Teams früher aus einer Firewall, einer Web Application, einer weiteren Firewall und einer SQL-Datenbank – alles im eigenen Unternehmen integriert. Das war relativ überschaubar und ein Entwickler hatte einen klaren Fokus auf die Erstellung von Software – Sicherheit war selten ein Thema.

Daten als Grundlage für Business Intelligence
Programmierer müssen sich einerseits in dieser neuen Spielwiese zurechtfinden, aber gleichzeitig sollen die Entwicklungen auch auf die Anforderungen der digitalen Welt passen. Software soll eine große Anzahl von interaktiven Features liefern und im Idealfall mit allen gängigen Plattformen kompatibel sein. Dadurch ist eine Verkettung von Entwicklungsprozessen nötig.

Neben der Veränderung der IT-Landschaft verändern sich auch die Daten an sich. Die Anforderungen an Datenbanken wachsen, da immer mehr Informationen erfasst werden müssen. Dies ist nötig, um die Nutzererfahrung durch ausführliche Analysen zu verbessern oder gar zu revolutionieren. Im Grunde wird heute jede Transaktion durch die IT erfasst und sollte von Unternehmen in Business Intelligence umgewandelt werden. Waren es früher "nur" Bestelllisten und Produktdetails, erlaubt die Technologie heute, Informationen in Echtzeit auszuwerten und in Interaktionen umzusetzen.

Die weitverbreitete Annahme, die Qualität würde durch die hohe Menge an Daten abnehmen, erweist sich in der Praxis als unzutreffend. Im Gegenteil: Die Qualität und dadurch auch die Sensibilität nimmt stetig zu. Aus Sicht der IT-Abteilungen sind es immer noch nur Bits und Bytes, wenn auch in ausgewachsener Menge. Für die Nutzer sind es aber private Informationen: Adressdaten, Passwörter, Social-Media-Profile, Nutzungsgewohnheiten, Finanzdaten und vieles mehr – alles liegt digital in Datenbanken und damit in den Händen von IT-Administratoren. Das bereitet vielen Privatpersonen und Unternehmen Sorgen.

Seite 1: Technologische Möglichkeiten verstehen
Seite 2: NoSQL für mehr Datenschutz und Digitalisierung


Seite 1 von 2 Nächste Seite >>
27.06.2018/ln/Bruno Šimić, Senior Solutions Engineer bei Couchbase

Nachrichten

Snapshot-Management für große Umgebungen [11.07.2018]

Fujitsu gibt den Startschuss für die neueste Version des 'ETERNUS Snapshot Manager'. Array-basierte Snapshots und Datenreplikation von ETERNUS-Speichersystemen sollen für ein sofortiges Disaster Recovery sorgen. Die neue Version bietet die Option, Array-basierte Snapshots zur Erhöhung der Datensicherheit auf ein zweites ETERNUS-System zu kopieren. [mehr]

Pure Storage setzt auf NVMe [5.07.2018]

Pure Storage erweitert seine FlashArray-Produktlinie und will unter dem Namen 'FlashArray//X' unter anderem Datenbanken, virtualisierte und Container-Umgebungen, Test-/Entwicklungsinitiativen und webbasierte Anwendungen schneller machen. Auf NVMe basierender Shared Accelerated Storage soll SAN und DAS in einer einzigen konsolidierten und gemeinsam genutzten datenzentrischen Architektur vereinen. [mehr]

Tipps & Tools

Einfache Synchronisierung von Ordnern [15.06.2018]

Für eine saubere Synchronisation von Ordnern auf dem lokalen System oder zwischen Servern lohnt ein Blick auf das kostenfreie Tool 'SimplySync Backup'. Bei dem Programm handelt es sich um eine intuitive Backup- und Synchronisierungssoftware, die Dateien zum entsprechenden Zielpfad kopiert. Das Werkzeug ist portabel sowie schnell und einfach zu bedienen. Insgesamt stehen vier Backup- beziehungsweise Sync-Methoden zur Auswahl. [mehr]

Speicherplatzwarnung einfach abschalten [7.06.2018]

Vor allem wer regelmäßig mit Recovery- oder anderen internen Festplattenpartitionen arbeitet, die in der Regel kleiner ausfallen als die Hauptpartition, stößt unter Umständen auf die Speicherplatzwarnung von Windows 10. Diese zeigt sich vor allem, wenn der Speicherplatz auf einer Partition mit verknüpften Laufwerksbuchstaben zur Neige geht. Mit ein paar Handgriffen können Sie diese Meldung bei Bedarf abschalten. [mehr]

Buchbesprechung

VoIP Praxisleitfaden

von Jörg Fischer und Christian Sailer

Anzeigen