Open Source im professionellen Einsatz
Linux-Magazin 02/2013
© tomwang, 123RF.com

© tomwang, 123RF.com

Netzwerk-Dateisysteme im Geschwindigkeitstest

Sieger!

Neben technischer Raffinesse und Verfügbarkeit trägt die in der Praxis erzielbare Geschwindigkeit wesentlich zur Nutzerzufriedenheit gegenüber jedem Storage-Setup bei. Das Linux-Magazin lässt darum NFS 3 und 4, CIFS-SMB 1 und 2 sowie Gluster-FS und Ceph-FS gegeneinander rennen.

838

Die bisherigen Artikel im Schwerpunkt des Magazins haben die funktionalen Aspekte der neuen Netzwerk-Dateisysteme beleuchtet. Dieser Beitrag dagegen macht sich eine fundierte quantitative Geschwindigkeitsanalyse zur Aufgabe. Denn was nutzen die schönsten Features eines neuen Dateisystems, wenn der Endbenutzer an seinem PC eine halbe Minute warten muss, bevor er ein etwas größeres Fileserver-Directory angezeigt bekommt?!

Um einerseits eine gute Referenz zu haben und andererseits die gängige Praxis in Produktivumgebungen zu würdigen, nehmen die Klassiker NFS und CIFS mittels Samba in den folgenden Tests und im Text anders als in den anderen Schwerpunkt-Artikeln einen großen Raum ein. Gar nicht betrachtet werden verteilte Systeme, die ihren Clients kein Posix-Dateisystem bereitstellen, also nicht als NAS auftreten, sondern ein SAN ersetzen wollen. Folgende Netzwerk-Dateisysteme stellen sich im Labor schließlich den Geschwindigkeitstests:

  • NFS 3 – der "Golden Standard" in den meisten Linux-Umgebungen mit dem Ruf schnell und unkompliziert Daten bereitzustellen, er gilt jedoch vielen als unsicher (RFC 1813, [1])
  • NFS 4 – Weiterentwicklung mit dem Ziel, bessere Performance und höhere Sicherheit zu bieten (RFC 3010, [2])
  • CIFS-SMB – das Original-SMB-Protokoll (Server Message Block), 1996 erweitert und zu CIFS umbenannt [3]
  • CIFS-SMB 2 – die Weiterentwicklung von CIFS, ausgeliefert mit Microsoft Windows 7 und 2008R2 sowie ab Samba 3.6 (August 2011) auch für Linux [4]
  • Gluster-FS – ursprünglich von Gluster, Inc., seit 2011 von Red Hat entwickeltes, in den Petabyte-Bereich skalierbares Netzwerk-Dateisystem [5]
  • Ceph-FS – die Mount-Schnittstelle zu Ceph ist neuester unter den Teilnehmern und noch als experimentell markiert. Es zeigt ähnliche Eigenschaften wie Gluster-FS und eignet sich seit der ersten Long-Term-Support-Version "Argonaut" zum Test [6].

Die ersten vier Teilnehmer des Tests decken den Löwenanteil heutiger Netzwerk-Dateisysteme in Produktivsystemen ab, im letzte Drittel treten die aussichtsreichsten Herausforderer an.

Aufbau und Setup

In ihrem Aufbau unterscheiden sich die Dateisysteme erheblich. Das gilt bereits bei NFS 3 und 4 (Abbildung 1). Wo mit NFS 3 getrennte Daemons mit dem Nfsd als Master und eigenständige Daemons für den Lookup (»rpcbind« ), das Mounten (»rpc.mountd« ) und das Locking (»rpc.statd« mit »rpc.lockd« ) obligatorisch sind, sorgt bei NFS 4 alleine der Nfsd als Master mit »rpc.mountd« als Helfer für die NFS-Exports. Der Admin muss lediglich »/etc/exports« anpassen, und nach Neustart des Daemons steht das Dateisystem zur Verfügung. Im Rahmen dieses Tests kamen zudem die NFS Utilities [7] der Version 1.2.6 zum Einsatz.

Abbildung 1: Die Architektur von NFS 4 ist deutlich simpler als die von NFS 3.

CIFS-Architekturen mit ihrem sehr modularen und konditionalen Aufbau lassen sich nicht in ein paar Sätzen schlüssig erklären. Wer sich verständlicherweise dafür interessiert, kann in [8] die Grundlagen nachlesen und dort insbesondere die Abbildung B.17 zu Rate ziehen. Die vorliegende Testumgebung war mit Samba 3.6.7 bestückt und das Konfigurieren über die bekannte »/etc/samba/smb.conf« -Datei schnell erledigt.

Gluster-FS teilt seine effektiv verwendeten Storage in so genannten Bricks auf, die Glusterd bereitstellt. Die Komponentenstruktur ist sehr einfach gehalten. Der Admin kommt sowohl auf dem Server als auch auf dem Client beim Einrichten lediglich mit dem Haupttool »gluster« in Kontakt. Für die Benchmark-Umgebung entschieden sich die Tester für Gluster-FS in der Mainline-Version 3.2.4, die Open Suse ausliefert.

Ceph-FS ist nur ein Bestandteil des gesamten Ceph-Rados-Gesamtpakets und trägt, anders als die anderen Komponenten Rados, Librados, Radosgw und RBD (Rados Block Device), den Experimentell-Status (siehe Abbildung 2). Das Setup von Ceph-FS erwies sich im Test als ein wenig komplexer, gelang schließlich mit Hilfe der Dokumentation Ceph Quickstart [9] aber auch in wenigen Minuten. Bei der Installation zuvor war dies leider nicht der Fall, offenbar sind die Deb-Pakete von Ceph besser erprobt als die RPMs. Als funktionsfähig erwies sich ein Suse-Paket [10], das ein Ceph-Poweruser in der aktuellen Long-Term-Support-Version 0.48.2 per Open Suse Build Service bereitstellt.

Abbildung 2: Ceph-FS stellt die Filesystem-Schnittstelle des Rados-Storage-Frameworks nach außen dar.

Gezielt: Die Auswahl der Performance-Tests

Die verwendeten Benchmark-Tools und die selbst geschriebenen Skripte schöpfen aus dem Pool jahrelanger Erfahrungen und sinnvoller Empfehlungen diverser Experten. Analog zum Linux-Magazin-Artikel [11], der lokale Dateisysteme untersuchte, kam auch hier ein Benchmark-Mix zur Anwendung, der einerseits ein Set einfacher Dateisystem-Operationen skriptgesteuert abarbeitet und andererseits ausgewählte Durchsatztests des Standardtools Iozone ansolviert (siehe Tabelle 1).

Ein Lauf der beiden Benchmarks dauerte etwa drei Stunden, jedes Dateisystem musste etwa 15 Läufe hinter sich bringen. Alle Ergebnisse wurden zum Schluss gemittelt und in Relation zueinander gebracht. Das Vorgehen stellt eine gute Basis der Vergleichbarkeit her. Die Testteile liefen sequenziell ab, denn die Tester verzichteten auf parallel Dateisystem-Zugriffe, da einerseits erste Experimente instabile Ergebnisse zu Tage förderten und andererseits Iozone im hier verwendeten Auto-Modus multiple Threads nicht zulässt.

Tabelle 1

Verwendete Benchmarks

Name

Beschreibung

Mkdir

16 Top- mit je 1024 Unterverzeichnissen anlegen

Touch

16*1024 leeren Dateien anlegen

Echo

63 Bytes langes Echo in erstellte leere Dateien

Cat

63-Byte-Dateien nach »/dev/null« ausgeben

DD-Write

Sequenzielles Schreiben von 16*128 1-MByte- und 10-MByte-Dateien mit einer Blockgröße von 512 Byte

DD-Read

Sequenzielles Lesen von 16*128 10-MByte-Dateien mit Ausgabe nach »/dev/null«

Rmfile

Löschen von 16*1024 63-Byte-Dateien und 16*128 10-MByte-Dateien

Rmdir

Löschen von 16*1024 Verzeichnissen

Iozone

Iozone-Benchmark (Read, Write, Random Read, Random Write) mit 32-MByte-Dateien ohne Prozessor-Caching

Diesen Artikel als PDF kaufen

Express-Kauf als PDF

Umfang: 5 Heftseiten

Preis € 0,99
(inkl. 19% MwSt.)

Linux-Magazin kaufen

Einzelne Ausgabe
 
Abonnements
 
TABLET & SMARTPHONE APPS
Bald erhältlich
Get it on Google Play

Deutschland

Ähnliche Artikel

  • Verteilte Dateisysteme

    Das Versprechen von Software Defined Storage ist es, heterogenen Speicher zentral und mit eingebauter Redundanz zu verwalten. Der folgende Test geht der Frage nach, wie kompliziert das Aufsetzen der dazu nötigen verteilten Dateisysteme ist. Ein Benchmark zeigt, welche Operationen jedes am besten beherrscht.

  • Ceph

    Der Objektspeicher Ceph bleibt ein Projekt im Wandel: Ein neues GUI, ein neues Storage-Backend und die Produktionsreife von Ceph-FS melden nun die Entwickler.

  • Storage-HA

    Admins, deren Telefonnummer nach dem Ausfall des Fileservers hundertmal in einer Minute gewählt wird, wissen: Verfügbarkeit ist mehr als nur eine theoretische Kenngröße. Die Wahl der richtigen Architektur, Clustersoftware und Filesysteme hilft das Schlimmste vermeiden.

  • Ceph und Gluster

    Riesige und ausbaufähige Speicher sind das A und O in modernen Unternehmen. NAS und SAN sind der Standard, doch Trends wie Cloud Computing und Big Data lassen die Grenzen zwischen Storage und Server verschwimmen und bringen neue Ansätze hervor.

  • Dateisystem Ceph erhält Finanzspritze von Shuttleworth

    Der Ubuntu-Gründer Mark Shuttleworth beteiligt sich an der Firma Inktank, die das verteilte Dateisystem Ceph entwickelt.

comments powered by Disqus

Ausgabe 02/2017

Digitale Ausgabe: Preis € 6,40
(inkl. 19% MwSt.)

Artikelserien und interessante Workshops aus dem Magazin können Sie hier als Bundle erwerben.