Praxis: Hochverfügbarkeit mit Hadoop

Gemeinsam sind wir stark

Mit Hadoop hat die Apache Software Foundation eine äußerst leistungsfähige und flexible Cluster-Software im Programm. Doch das Werkzeug ist auch für kleinere und mittlere Unternehmen interessant, die eine hochverfügbare Netzwerkinfrastruktur realisieren wollen. Hadoop stellt ein Framework dar, das die verteilte Verarbeitung großer Datenmengen auf Clustern mit vielen einzelnen Knoten mit einem einfachen Programmiermodell erlaubt. Aber das Apache-Projekt kann noch viel mehr, denn Hadoop skaliert von einem einzelnen Server bis hin zu tausenden Maschinen, wobei jeder einzelne Knoten lokalen Speicher und Rechenleistung zum Cluster beisteuert. Dieser Workshop begleitet Sie durch die Installation und Konfiguration von Hadoop.
Juni 2012 / Dr. Holger Reibold
[Rubrik: Praxis | Beitragsart: Workshop]

Den vollständigen Beitrag finden Sie in der Ausgabe Juni 2012 des IT-Administrator von Seite 44 bis 48.

Einzelne Ausgaben des IT-Administrators können Sie in unserem Online-Kiosk als Print- oder E-Paper-Exemplar bestellen. Ein Schnupperabo mit 6 Ausgaben zu 50% Rabatt – mit Lieferung ab der aktuellen Ausgabe – erhalten Sie im Aboshop.