Grundlagen

Softwareverteilung

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

In diesem Beitrag wenden wir uns einem zentralen Aspekt des Client-Managements zu, der Softwareverteilung. Softwareverteilung bezeichnet den Prozess zur Installation von Software (Betriebssysteme und Anwendungen) auf einem Rechner. Dieser Prozess spielt zwar auch im Server-Bereich eine wichtige Rolle, doch die in der Regel sehr viel größere Zahl an Clients im Unternehmen spiegelt auch die Bedeutung des Verfahrens für diesen Bereich wieder.
Die Ziele beim Einsatz einer automatisierten Softwareverteilung sind in der Regel:
- verringerter Administrationsaufwand
- einheitliche Installationen
- schnelle Updates der Systeme
- schnelle System-Wiederherstellung
- Installationsmöglichkeit außerhalb der Arbeitszeit
- zentrale Betreuung dezentraler Infrastrukturen
- Kosteneinsparung

Bedeutung und Voraussetzungen der Softwareverteilung
Die Softwareverteilung ist ein kritischer Prozess, da mit ihr auch Betriebssystemkorrekturen sowie die Installation sicherheitsrelevanter Anwendungen wie Virenscanner, Browser und E-Mailprogramm erfolgen. Des Weiteren können Fehler bei der Softwareverteilung Störungen und Ausfälle an einer großen Zahl von Arbeitsplatzrechnern nach sich ziehen.

Heutzutage lässt sich die Softwareverteilung vollständig automatisieren. Voraussetzung dafür sind jedoch eine genaue Inventarisierung der Ziel-Hardware sowie eine geeignete Paketierung der Software. Diese Prozesse sind keineswegs trivial, ihre detaillierte Betrachtung sprengt jedoch den Rahmen dieses Beitrags. Sind jedoch beide Aufgaben erledigt, steht einer automatisierten Softwareverteilung nichts mehr im Wege: zum einen kennt der IT-Verantwortliche nun die Hardwarevoraussetzungen auf den zu bespielenden Systemen genau und kann dadurch geeignete Softwarepakete mit den passenden Hardwaretreibern erstellen.

Zudem bietet diese Automatisierung nicht nur den Vorteil, dass sie eine deutliche Reduktion der für die Softwareverteilung notwendigen (Personal-)Ressourcen mit sich bringt, sondern auch die Fehleranfälligkeit reduziert sowie eine verbesserte Übersicht der aktuellen Lizenzsituation mit sich bringt.

Technik der Softwareverteilung
Bei der Softwareverteilung liegt auf einem (oder mehreren) zentralen Servern ein sogenanntes Software-Depot (auf dem Depot-Server) mit den Installationsroutinen (oftmals Skripte, die Details der Installation und Erstkonfiguration steuern) und der zu installierenden Software. Wie viele solcher Depots es im Unternehmen gibt, hängt von Faktoren wie Datenvolumen, Unternehmensstruktur oder der Qualität der Leitung.

Die Software ist vor Ort gespeichert und kann zentral administriert werden. Von dort aus werden bestimmte Rechner oder Gruppen von Rechnern im Push- oder Pull-Verfahren mit der Software versorgt. Das Ansteuern der Rechner erfolgt über eine zentrale Konsole, die dem Administrator Anzahl, Konfiguration und Softwarebestand der einzelnen Rechner anzeigt.

Im Push-Verfahren bestimmt dabei der IT-Verantwortliche, wann welches Paket auf dem Zielrechner installiert werden soll. Die Installation wird dann unabhängig vom aktuellen Status des Rechners durchgeführt (etwa, wenn der Nutzer gerade arbeitet). Im Pull-Verfahren signalisiert hingegen der Client, dass er das bereitstehende Softwarepaket jetzt benötigt (etwa ausgelöst durch eine Anforderung des Anwenders). Kombinationen aus beiden Verfahren sind unter Umständen dann erforderlich, wenn ein Teil der Geräte nicht ständig erreichbar ist oder Benutzer wechselnde Stationen oder gar Standorte nutzen. Beide Verfahren haben Vor- und Nachteile, die IT-Verantwortlich abwägen müssen.

Für die Installation von Betriebssystemen stehen Lösungen für die automatisierte Softwareverteilung zur Verfügung, die eine technikerlose Erst- beziehungsweise Neuinstallation auf blanker Hardware erlauben. Die Funktion "Pre-Execution Environment" (PXE) ermöglicht ein ferngesteuertes Booten des Rechners über die Netzwerkkarte – einschließlich Partionierung, Formatierung und Installation der Festplatte. Geht ein Rechner im Betrieb kaputt, kann der Administrator ihn auch auf demselben Weg neu installieren.

Produkte zur Softwareverteilung
Alle zuvor beschriebenen Verfahren sind in der Regel nicht mit Bordmitteln der Betriebssysteme durchführbar, sondern bedürfen speziell für diese Aufgabe entwickelter Software. Da Softwareverteilung heutzutage eine Standardtechnologie darstellt, sind diese Werkzeuge oft Teil komplexer "Management-Suiten" die auch Aufgaben wir Inventarisierung, Lizenzmanagement et cetera wahrnehmen. Dennoch lassen sich gewisse Rahmenparameter definieren, die IT-Verantwortliche bei der Auswahl einer Softwareverteilungslösung berücksichtigen sollten:
- Unterstützte Netzwerkprotokolle und Erreichbarkeit der Stationen
- Anzahl der Systeme im Unternehmen
- Anzahl der Roaming User
- Lizenzverwaltung
- Zusammenwirken von Softwareverteilung, Inventarverwaltung und Konfigurationsmanagement
- Organisatorische Verfahren des Unternehmens, von der Paketdefinition bis hin zu Rechtekonzepten und deren Auswirkungen
- Alerting und Logging
- Fehlerbehandlung und -eskalation
21.12.2011/jp

Nachrichten

Quantenforschung in Bayern [30.04.2021]

Um die Potenziale von Quantencomputing auch für die Industrie nutzbar zu machen, erforscht das "Bayerische Kompetenzzentrum Quanten Security and Data Science", kurz BayQS, künftig relevante Fragestellungen in diesem Umfeld. Dadurch soll das BayQS Grundlagen für eine praxisnahe, vertrauenswürdige Nutzung von Quantencomputing schaffen. [mehr]

Daten richtig nutzen [27.04.2021]

Daten sind der Treibstoff für jedes Unternehmen – unabhängig von Größe und Branche. Ob es ein Formel-1-Rennteam ist, das dank sofortiger Datenanalyse an der Rennstrecke den ersten Platz belegt, oder ein klinisches Team, das den Prozess der Entwicklung neuer lebensrettender Medikamente beschleunigen kann: Jede Branche kann von der Macht der Daten profitieren. Pure Storage erläutert, welche Nutzungsmodelle sich hierfür anbieten. [mehr]

Backup in der Cloud [23.04.2021]

Tipps & Tools

Event-Streaming als Kern einer hybriden Cloudstrategie [6.05.2021]

Nutzer von heute sind es gewohnt, nahezu alles in Echtzeit zu erleben: Live-Berichterstattung selbst aus entlegensten Teilen der Welt oder die Nachverfolgung von Bestellungen. Im Hintergrund müssen sich dabei riesige Datenmengen mit hoher Geschwindigkeit zwischen der Cloud und on-premises bewegen – eine große Herausforderung für die IT. Wie unser Fachartikel darlegt, kann hier Event-Streaming als ständige Verbindung zwischen allen Unternehmensbereichen fungieren, gerade in Hybrid-Cloud-Umgebungen beim Verarbeiten großer Datenströme helfen und die Daten nahezu nahtlos fliessen lassen. [mehr]

PowerShell für Admins: Online-Intensiv-Seminar [3.05.2021]

Die PowerShell ist seit 2007 das zentrale Verwaltungswerkzeug für Administratoren von Windows-Servern und -Clients. Eine flexible und effektive Verwaltung vieler Serverdienste wie Exchange, SharePoint oder Hyper-V ist ohne die WPS nicht möglich. Zudem gelang mit der PowerShell Core auch der Brückenschlag in die Linux/Unix-Welt. Unser dreitägiges Intensiv-Seminar im Juli und September 2021 vermittelt die Kernkonzepte, Struktur und Einsatzbeispiele der PowerShell. Bedingt durch die aktuellen Umstände finden beide Veranstaltungen online statt. [mehr]

Buchbesprechung

Computernetze und Internet of Things

von Patrick-Benjamin Bök, Andreas Noack, Marcel Müller

Anzeigen