Fachartikel

Sichere Plattformen zum Datenmanagement

Durch Cloudmigration verändern sich die Datenströme in Unternehmen drastisch. Zusätzlich sehen auch die Anforderungen an Datenbanken und Informationsverarbeitung durch Big Data, IoT und Mobile Applications heute ganz anders aus. Dadurch wird es immer wichtiger, auf die richtige Plattform zum Datenmanagement zu setzen. Der Beitrag geht auf die Entwicklung von sicheren Datenbanken ein und zeigt, warum sich jeder IT-Administrator mit der Thematik auseinandersetzen sollte.
IT-Fachkräfte sind nicht mehr nur Verwalter von Informationen, sondern müssen Informationsfluss und Datenbanken optimieren.
Bis vor etwa 15 Jahren waren Datenbanken ein Stück Hardware, das in der Ecke in einem Rechenzentrum vor sich hinarbeitete. Damals hatten die meisten Entwickler und Administratoren nur selten mit dem Thema zu tun. Nur ein ausgewählter Personenkreis in der IT-Abteilung war sich überhaupt über die genaue Funktion der Datenbank bewusst. Dies hat sich mittlerweile grundsätzlich geändert. Verschiedene Cloudmodelle samt der Angebote von Amazon, Microsoft und Google rücken das Thema Datenbank stärker in den Fokus. Entwickler und Admins, aber auch Betriebsleiter, Sicherheitsverantwortliche und Geschäftsführer setzen sich heute wesentlich stärker mit dem Thema auseinander. Denn die Verteilung und Verarbeitung von digitalen Informationen ist wichtiger denn je.

Technologische Möglichkeiten verstehen
Durch neue Innovation gibt es heute mehr Möglichkeiten, um durch Informationen Mehrwert zu generieren. Dies geht aber nur, wenn IT-Fachkräfte von Anfang an in entsprechende Projekte mit einbezogen werden. In der Vergangenheit bestand bei (strukturellen) Datenbanken die Herausforderung vor allem darin, die Balance aus Konsistenz, Verfügbarkeit und Ausfalltoleranz zu finden. Hier galt lange das CAP-Theorem als Leitsatz, das eine Optimierung aller drei Bereiche nicht erlaubte. In der Praxis bedeutete dies, dass von den Punkten entweder die Replizierung von Daten über verteilte Systeme (Consistency), die Verfügbarkeit in Form von schnellen Antwortzeiten (Availability) oder die Funktionsfähigkeit auch bei Ausfall einzelner Partitionen & Netzwerkknoten (Partition Tolerance) nicht garantiert werden kann.

An diesem Grundsatz hat sich bis heute nicht viel verändert, allerdings hat sich der Verantwortungsbereich von Programmieren deutlich erweitert. Datenbanken sind die Quelle und treibende Kraft von unternehmerischer Wertschöpfung. IT-Fachkräfte sind nicht mehr länger Verwalter von Informationen, sondern stehen vor der Herausforderung, den Informationsfluss und Datenbanken so zu optimieren, damit diese als Antriebsmotor für visionäre Unternehmensprozesse zur Verfügung stehen. Dementsprechend wächst das Interesse an dem Thema und Datenbanken spielen eine wichtige Rolle bei Digitalisierungsstrategien. Dadurch wächst der Druck auf IT-Fachkräfte, denn die Komplexität der digitalen Ökosysteme wird von strategischen Beratern und Führungskräften häufig nicht in komplettem Umfang wahrgenommen.
Schnelle Verfügbarkeit aus der Cloud
Im Zeitalter der digitalen Integration hat sich die Umwelt für Entwickler deutlich gewandelt. Heute werden per Knopfdruck Datenbanken und andere IT-Bauteile aus der Cloud in Sekundenschnelle ausgerollt. Umfangreiche Prozesse werden in kurzer Zeit gestartet. Verteilte Systeme mit Hunderten von Servern und Backuplösungen, dazu eine dezentrale Verwaltung sind heute Alltag. Virtuelle Rechenzentren und Applikationen sorgen für immer größeren Datenmengen und mehr Traffic. Informationen müssen global verfügbar sein und sich über verteilte Speicherorte replizieren – außerhalb des eigenen Firmennetzwerks und auch durch geschützte Verschlüsselungstunnel über das Internet.

Dies verändert besonders die Sicherheitsanforderungen drastisch. Früher bestand die Umgebung der IT-Teams früher aus einer Firewall, einer Web Application, einer weiteren Firewall und einer SQL-Datenbank – alles im eigenen Unternehmen integriert. Das war relativ überschaubar und ein Entwickler hatte einen klaren Fokus auf die Erstellung von Software – Sicherheit war selten ein Thema.

Daten als Grundlage für Business Intelligence
Programmierer müssen sich einerseits in dieser neuen Spielwiese zurechtfinden, aber gleichzeitig sollen die Entwicklungen auch auf die Anforderungen der digitalen Welt passen. Software soll eine große Anzahl von interaktiven Features liefern und im Idealfall mit allen gängigen Plattformen kompatibel sein. Dadurch ist eine Verkettung von Entwicklungsprozessen nötig.

Neben der Veränderung der IT-Landschaft verändern sich auch die Daten an sich. Die Anforderungen an Datenbanken wachsen, da immer mehr Informationen erfasst werden müssen. Dies ist nötig, um die Nutzererfahrung durch ausführliche Analysen zu verbessern oder gar zu revolutionieren. Im Grunde wird heute jede Transaktion durch die IT erfasst und sollte von Unternehmen in Business Intelligence umgewandelt werden. Waren es früher "nur" Bestelllisten und Produktdetails, erlaubt die Technologie heute, Informationen in Echtzeit auszuwerten und in Interaktionen umzusetzen.

Die weitverbreitete Annahme, die Qualität würde durch die hohe Menge an Daten abnehmen, erweist sich in der Praxis als unzutreffend. Im Gegenteil: Die Qualität und dadurch auch die Sensibilität nimmt stetig zu. Aus Sicht der IT-Abteilungen sind es immer noch nur Bits und Bytes, wenn auch in ausgewachsener Menge. Für die Nutzer sind es aber private Informationen: Adressdaten, Passwörter, Social-Media-Profile, Nutzungsgewohnheiten, Finanzdaten und vieles mehr – alles liegt digital in Datenbanken und damit in den Händen von IT-Administratoren. Das bereitet vielen Privatpersonen und Unternehmen Sorgen.

Seite 1: Technologische Möglichkeiten verstehen
Seite 2: NoSQL für mehr Datenschutz und Digitalisierung


Seite 1 von 2 Nächste Seite >>
27.06.2018/ln/Bruno Šimić, Senior Solutions Engineer bei Couchbase

Nachrichten

Plattformübergreifendes ReFS [29.08.2018]

Paragon Software veröffentlicht mit "ReFS for Windows" ein Werkzeug für den einheitlichen Zugriff auf ReFS-formatierte Datenträger über alle Windows-Varianten hinweg. Die Software, die sich stand-alone als auch integriert in die Infrastruktur betreiben lässt, adressiert Inkompatibiltäten, die bei der ReFS-Verwaltung auftreten, wenn unterschiedliche Releases von Windows darauf zugreifen. [mehr]

14 TByte auf neun Plattern [28.08.2018]

Toshiba bringt mit der 'MG07SCA'-Serie neue 14 und 12 TByte große, Helium-versiegelte HDDs der Enterprise-Klasse mit 12-GBit/s-SAS-Interface auf den Markt. Die Festplatten drehen mit 7.200rpm und basieren auf der Advanced-Format-Sector-Technologie. [mehr]

Tipps & Tools

Praktische Ablage für Webseiten [21.08.2018]

Oft stoßen Webnutzer auf interessante Seiten, die sie gerne später in Ruhe lesen möchten. Ein Weg sind Lesezeichen im Browser. Deutlich flexibler zeigt sich jedoch der Dienst 'Getpocket'. Dieser legt die zu merkenden URLs für eine spätere Verwendung einfach online ab, wobei auch Videos oder Bilder speicherbar sind. [mehr]

Standalone-Agent zur Datensicherung [10.08.2018]

Mit dem neuen 'Veeam Agent for Microsoft Windows' steht ab sofort ein neues Tool bereit, das auf Windows-Funktionalitäten aufsetzt und sichere Backup- und Wiederherstellungsroutinen ermöglicht. Im das Risiko von Datenverlust zu minimieren, lässt sich mit dem Werkzeug auch die Public Cloud als Zielort der Sicherung auswählen. Die Neuvorstellung ist für eine beliebige Anzahl von Endpunkten kostenlos. [mehr]

Buchbesprechung

VoIP Praxisleitfaden

von Jörg Fischer und Christian Sailer

Anzeigen