Open Source im professionellen Einsatz
Linux-Magazin 04/2015
610

Vorarbeiter

Der Red Hat Enterprise Linux Open Stack Platform Installer ist gewissermaßen eine Schaltzentrale zum Ausrollen von Open Stack oder nur seiner Komponenten. Im Hintergrund ist wiederum Puppet, tatkräftig unterstützt von Foreman, am Werkeln. Auf dem Admin-Server läuft ein PXE-Dienst, der die Clients bootet. (In den Labortests kämpfte das Linux-Magazin allerdings mit dem unter [9] beschriebenen Fehler.)

Darüber hinaus sollte der künftige Cloudadmin die Dokumentation ausführlich studieren, bevor es losgeht. Einmal getroffene Entscheidungen und Konfigurationen lassen sich später nicht immer korrigieren. Auch eine Live-Variante steht bereit, unklar erscheint allerdings, ob diese Methode auch mit dem RHEL-7-Unterbau eine Option bleibt. Die Festplatteninstallation fiel im Test durch intensive Nachinstallationen verschiedener Softwarepakete auf, besser verträglich scheint es, wenn der Anwender »yum -y install rhel-osp-installer« aufruft. Schließlich induziert dieses Kommando schon die spätere Verwendung als Server für das RHEL-OPS-Kontrollzentrum.

Die Benutzung des Red Hat Enterprise Linux Open Stack Platform Installer ist weitgehend intuitiv. Nach dem PXE-Boot eines Servers, findet man diesen unter »Discovered hosts« (Abbildung 2). Der nächste Schritt ist die Ausstattung mit einem Basisbetriebssystem und der Konfiguration über Puppet-Module.

Brecheisen

Wie zu Red Hat beschreibt auch Suse die Installation der Cloud sehr ausführlich und detailliert. Allerdings sind für den ersten Start ein paar Überlegungen mehr notwendig. So erwartet die grüne Cloud mindestens drei Rechner für eine Infrastruktur. Das Open-Stack-Kontrollzentrum läuft dabei separat von Compute- und/oder Storage-Knoten. Diese Trennung ist eher künstlich und für die ersten Schritte eigentlich unnötig. Der dritte Rechner ist der Admin-Server. Er hat zwei Funktionen: als PXE-Bootserver zum Installieren von SLES auf den künftigen Open-Stack-Rechnern und als Crowbar-Master.

Hardware-Anforderungen für Admin- und Kontroll-Rechner beschreibt die Dokumentation sehr detailliert. Besondere Aufmerksamkeit sollte der künftige Cloudadmin auf die Netzwerk-Konfiguration legen. Die erweist sich bei Suse als deutlich komplexer als bei Red Hat. Nicht weniger als fünf Subnets muss der Admin im Auge behalten (Abbildung 3), dazu kommt, dass die gewählte Konfiguration später nicht mehr veränderbar ist. Gute Planung ist notwendig, Korrekturen funktionieren nur über einen kompletten Neuanfang.

Abbildung 3: Die Netzwerk-Konfiguration bei Suse Cloud erfordert vorausschauende Planung.

Das Austüfteln der Netzwerk-Konfiguration scheint das A und O bei der Installation der Suse Cloud. Dazu gehört auch das Aufsetzen der Softwareverzeichnisse. In der einfachsten Variante übernimmt der Admin-Rechner die Rolle eines SMT-Servers (Subscription Management Server, [10]). Andernfalls ist die Konfiguration eines so genannten Bastion-Hosts fast unerlässlich. Danach wird es aber recht simpel: Der Admin startet einfach die entsprechenden Rechner, die über den Admin-Server ihr Betriebssystem erhalten und anschließend auf weitere Anweisungen warten.

An dieser Stelle kommt Crowbar ins Spiel. Über so genannte Barclamps konfiguriert der Anwender die Rechner, die zur Suse Cloud gehören, die Reihenfolge ist dabei wichtig. Hier enthält die Dokumentation einen kleinen Fehler: Das Aufsetzen von Rabbit MQ muss vor dem Setup von Keystone erfolgen. Glücklicherweise ist die Software schlauer als die Dokumentation und gibt dem Anwender die richtigen Anweisungen (Abbildung 4).

Abbildung 4: Erst muss Rabbit MQ laufen, bevor Keystone an der Reihe ist.

Ansonsten verläuft das Aufsetzen der Open-Stack-Cloud nach Chamäleon-Art exakt so, wie es die Installationsanweisungen vorgeben. In der Minimalversion sind am Ende die genannten drei Rechner installiert und warten auf ihren Einsatz. Die Tests in den Labors des Linux-Magazins zeigten keine Auffälligkeiten. Jede weitere Kontrolle erfolgt über die Kontrollinstanz: Gibt der Anwender den Servernamen als URL im Browser ein, baut sich ein von Suse angepasster Anmeldebildschirm auf, der seine Open-Stack-Verwandtschaft in keiner Weise leugnet. Wer lieber auf der Kommandozeile arbeitet, findet die notwendigen Shellvariablen unter »/root/.openrc« hinterlegt.

Diesen Artikel als PDF kaufen

Express-Kauf als PDF

Umfang: 9 Heftseiten

Preis € 0,99
(inkl. 19% MwSt.)

Linux-Magazin kaufen

Einzelne Ausgabe
 
Abonnements
 
TABLET & SMARTPHONE APPS
Bald erhältlich
Get it on Google Play

Deutschland

Ähnliche Artikel

  • MCP

    Mirantis stampft seine Open-Stack-Distribution und das Deployment-Werkzeug Fuel ein und platziert in Zukunft einen hybriden Ansatz aus Open Stack und Kubernetes in die Auslage. Das Linux-Magazin hat sich die Mirantis Cloud Platform 1.0 genauer angesehen.

  • Mirantis mit neuem Release der eigenen Open-Stack-Distribution

    Mirantis hat heute das neue Release Mirantis OpenStack 7.0 freigegeben.

  • Mirantis Openstack 9.0 ist fertig

    Mirantis Openstack ist in Version 9.0 erschienen und soll Funktionen zur Vereinfachung des Openstack-Lebenszyklusmanagements bieten.

  • Open Stack verursacht Turbulenzen

    Boris Renski, Mitbegründer des Open-Stack-Experten Mirantis, plauderte gegenüber Business Insider aus dem Nähkästchen. Demnach wollen Pay-Pal und Ebay zukünftig auf zehntausenden Servern Vmware durch Open Stack ersetzen.

  • VW entscheidet sich für Mirantis Open Stack

    Der VW-Konzern möchte die Open-Stack-Lösung von Mirantis nutzen, um einen globalen Standard für die Private Cloud der nächsten Generation zu etablieren. Dabei verfolgt er das  Ziel, innovative Unternehmens- und Kundenanwendungen voranzutreiben.

comments powered by Disqus

Ausgabe 10/2017

Digitale Ausgabe: Preis € 6,40
(inkl. 19% MwSt.)

Artikelserien und interessante Workshops aus dem Magazin können Sie hier als Bundle erwerben.