Fachartikel

Der Datenbankadministrator und seine neue Rolle

Big Data, künstliche Intelligenz und DevOps verändern die Herausforderungen für Datenbankadministratoren und dank Data-Base-as-a-Service aus der Cloud arbeiten diese ganz anders als noch vor Jahren. In der Cloud sind keine Datenbankverwalter gefragt, vielmehr muss der Datenbankadministrator Projekte anstoßen und umsetzen und dafür auf ein viel breiteres Wissen zugreifen. Um was sich Datenbankadministratoren jetzt kümmern sollten, um mit dieser Entwicklung Schritt zu halten und den eigenen Wert zu steigern, beschreiben wir in diesem Artikel.
Nicht zuletzt durch die zunehmende Verbreitung der Cloud hat sich die Rolle des Datenbankadministrators gewandelt.
Daten sind für Unternehmen heute wertvolle Assets, die vom Datenbankadministrator (DBA) verwaltet werden. Das Potenzial von Daten versuchen Unternehmen mit Business Intelligence und Data Warehousing auszuschöpfen. Daneben wirken sich Cloud, Automatisierung, Machine Learning (ML), DevOps und die dazugehörenden Werkzeuge auf die Datenbanktechnologie aus. Zugleich wächst das Datenvolumen in den Datenbanken rasant, wobei das Internet of Things und Big Data den Anteil unstrukturierter Daten in die Höhe treiben.

Doch auch die Menge an strukturierten Daten steigt, wie die Studie "Neue Herausforderungen für DBAS: Trends in der Datenbankverwaltung" von Unisphere Research im Auftrag von Quest Ende 2017 zeigt. Zum Erhebungszeitraum verwalteten 60 Prozent der Befragten mehr als 100 TByte strukturierter Daten. Bei 40 Prozent der Umfrageteilnehmer verteilen sich diese auf über 100 aktive Instanzen. Gehostet werden Datenbanken vermehrt auf Cloudplattformen, hebt die Untersuchung hervor.

Database-as-a-Service (DBaaS) nutzte bereits die Hälfte der befragten Firmen für mindestens eine Datenbank. On-Demand-Plattformen bieten unter anderem die Amazon Web Services (MySQL, Maria DB und mit Dynamo DB auch NoSQL), Microsoft Azure (Microsoft SQL und mit Cosmos auch NoSQL), Google Cloud (PostgreSQL, MySQL und mit Bigtable auch NoSQL) und Datenbankhersteller wie Oracle mit der Oracle Cloud oder MongoDB mit MongoDB Atlas. Mit dem einfachen Verwalten per Self-Service verändert sich der Alltag eines DBAs also erheblich.
Eine App zieht die erste Clouddatenbank nach sich
In der Praxis ist eine neue Applikation oft Auslöser dafür, eine Datenbank zum ersten Mal in der Cloud zu hosten. Der Mehrwert, den diese in Form von hoher Flexibilität, guter Skalierbarkeit, geringer Fehleranfälligkeit, hoher Produktivität sowie Verfügbarkeit und Unabhängigkeit von Infrastrukturen bietet, lässt sich so live erfahren. Im Zuge von Modernisierungen wandern schrittweise die nächsten Datenbankinstanzen in die Cloud.

In Folge von DBaaS entstehen hybride Umgebungen, in denen DBAs lokal klassisch weiterarbeiten. Zusätzlich müssen die Verwalter den Überblick über die Cloudnutzung bewahren, beispielsweise ob die Ressourcen für eine Clouddatenbank reichen und welche Parameter für die Bereitstellung zu setzen sind. Die Cloudprovider übernehmen Installation, Bereitstellung, Wartung mit Updates und Backup. Die Verantwortung für den Datenbankbetrieb verbleibt intern.

Zur Verwaltung stehen Managementoberflächen bereit, die es ermöglichen, den Datenbankservice zu skalieren und Benutzerrechte zu verwalten. Über das Einrichten von Policies passen sie die Datensicherung an die eigenen Gegebenheiten an. Zudem lassen sich nun Backup-Recovery-Tests einschieben, wofür bisher im klassischen lokalen Datenbankbetrieb die Zeit fehlte. Die Clouddatenbanken machen einen DBA alles andere als überflüssig. Sein Schwerpunkt verlagert sich: Er konzentriert sich auf die System- und Datenverfügbarkeit, Diagnose und Optimierung der Datenbanken.

Die Leistung und Kosten im Blick
Eine Datenbank wird niemals perfekt laufen, es lässt sich immer etwas verbessern. Zeigt das Dashboard seines Webportals beispielsweise an, dass sich das Lesen und Schreiben von Daten verlangsamt, muss der DBA eingreifen. So der Klassiker: Ein Benutzer greift auf seine Liste zu, während ein anderer Anwender gerade eine Abrechnung fährt, die mit denselben Daten arbeitet. Durch suboptimale Abfragen sind diese jedoch solange gesperrt, bis die Abrechnung durch ist – Komplikationen sind somit vorprogrammiert.

Die Ursache kann auch weniger banal sein – und fällt dem Admin erst auf, wenn er die Datenbankabfrage genauer betrachtet. Eine schlecht geschriebene SQL-Abfrage zieht womöglich unnötigerweise alle vorhandenen Datensätze, die anschließend durch eine Anwendung gefiltert wird. Das geht wesentlich effizienter, indem der Datenbankserver jeweils Häppchen zur Verfügung stellt. So kann die Datenbank wieder normal performen. Zudem schlagen viele DBaaS-Angebote dem Administrator Maßnahmen zum Autotuning vor, wie das Erstellen eines Indexes, um auf bestimmte regelmäßige Aktionen zu reagieren.

Außerdem gilt es, stets die Kosten im Blick zu behalten: Denn würde der DBA allen Kollegen die vollen Berechtigungen freischalten, dürften diese Datenbanken anlegen ohne Kontrolle, was wahrscheinlich den Budgetrahmen in kurzer Zeit sprengen würde. Es bedarf also eines Genehmigungsverfahren, das sicherstellt, dass nur die tatsächlich benötigten Ressourcen allokiert werden.
3.07.2019/ln/Pascal Poletto, Teamleiter Data Platform Solutions bei Axians IT Solutions

Nachrichten

Toshiba Memory heißt ab Oktober Kioxia [18.07.2019]

Nachdem Toshibas hiesige Notebook-Sparte bereits seit Anfang des Jahres Dynabook heißt, steht nun auch für den Flash-Sektor eine Umbenennung an. Ab dem 1. Oktober 2019 firmiert die Toshiba Memory Europe GmbH als Kioxia Europe GmbH. Bei der Namensfindung griff der Konzern auf ein Kunstwort mit japanischen und griechischen Elementen zurück. [mehr]

DataCore präzisiert Storage-Zukunft [9.07.2019]

DataCore Software positioniert mit "DataCore ONE" seine Vision einer zukünftigen Speicherinfrastruktur. Die Neuvorstellung beschreibt die Implementierung von Software-defined Storage in Rechenzentren, in der Cloud und im Edge Computing. Es basiert auf der zentralen Steuerung und Kontrolle verschiedener Speicherklassen, die primär, sekundär und archivübergreifend arbeiten. [mehr]

Tipps & Tools

Katalogbackup regelmäßig durchführen [21.07.2019]

Viele Admins, die Veritas NetBackup nutzen, fragen sich, wie sie bei einem Katalogbackup die ideale Aufbewahrungsrichtlinie (Data Retention Policy) aufsetzen und ob diese identisch zur längsten Periode sein muss, mit der sie beim Backup arbeiten. Auf was tatsächlich geachtet werden sollte, zeigt Ihnen dieser Tipp. [mehr]

Großes Storage-Gewinnspiel [15.07.2019]

Die Datenmengen in Unternehmen wachsen stetig an. Ihre Speicherung und schnelle Bereitstellung wird zu einer immer größeren Herausforderung. storage2day, die neue Konferenz für Speichernetze und Datenmanagement, präsentiert an zwei Tagen im September Grundlagen, bewährte Lösungen für den Praxiseinsatz und zukünftige Entwicklungen. IT-Administrator verlost für die Konferenz drei Eintrittskarten im Wert von jeweils 895 Euro. Außerdem gibt es noch viel Lesematerial zum Thema zu gewinnen. [mehr]

Buchbesprechung

Anzeigen