High Performance Computing war lange Zeit eine Domäne finanzstarker Hersteller, die Entwicklung von Parallelrechnern alten Schlags erforderte enorme Anlauffinanzierungen und war ein wirtschaftliches Abenteuer. Diese Zeiten sind vorbei. Die Verschiebung der Marktanteile zugunsten von HPC-Clustern mit Linux ist mittlerweile unübersehbar, vor allem im kostensensiblen Capability-Bereich.
Alle großen Anbieter haben mehr als nur einen Fuß in der Tür, jedoch bleibt vom Low-Cost-Sektor bis zur Spezialentwicklung auch Raum für die kleineren. Beowulf-Cluster mit Commodity-off-the-Shelf-Hardware und Linux als Betriebssystem könnte fast jeder bauen, die technologische Einstiegshürde in diesen Markt liegt nicht besonders hoch.
Megware aus Chemnitz ist eines der besten Beispiele für ein solches Unternehmen. Es startete Anfang der 90er Jahre als Kistenschieber und Partner von Escom und baut inzwischen einige der größten Cluster für die akademische Forschung und Lehre auf.
Von Megware stammt zum Beispiel der Chemnitzer Linux-Cluster CliC mit 528 Single-CPU-Knoten und Fast-Ethernet-Verkabelung oder ein Cluster an der Uni Heidelberg mit 256 Knoten aus Dual-Athlon-PCs mit Myrinet, der nach Herstellerangaben auf eine Leistung von 825 Gigaflops kommt. Die Hardware besteht aus Standardkomponenten, um das Preis-Leistungs-Verhältnis zu senken. In der Uni Chemnitz wurden sogar normale Minitower in 19-Zoll-Racks gestellt. Fürs Job-Management kommt meist die freie Software OpenPBS zum Einsatz.
Transtec bevorzugt derzeit Dual-Athlon-Rackserver mit zwei Höheneinheiten sowie Fast-Ethernet-Verkabelung und liefert standardmäßig Beowulf-Cluster mit Debian Linux als Betriebssystem. Jedoch sind auch Installationen mit dem schnelleren Myrinet oder Dolphin möglich.
Hardware zwischen Commodity und Eigenbau
Clusterlabs aus Berlin geht einen völlig anderen Weg. Die junge Firma entwickelt in einer für die Branche ungewöhnlichen Fertigungstiefe alles selbst. Anwendungsspezifische Routinen, die besonders zeitkritisch sind, werden in die Hardware ausgelagert, ein bereits realisiertes Beispiel sind SSL-Verschlüsselungskarten für Secure Mail Gateways oder Server. Auch Blade-Server mit sehr kleinem Formfaktor und 1 GByte SDRAM gehören zu den Eigenentwicklungen. Storage wird zentralisiert als NAS oder SAN verwaltet.
Science and Computing aus Tübingen gehört in Deutschland zu den Firmen mit den längsten Erfahrungen bei Linux-Clustern. Inzwischen auf etwa 120 Mitarbeiter angewachsen, hat sich S+C sehr stark auf die Anforderungen der Automobilindustrie konzentriert und bietet dort erfolgreich maßgeschneiderte Cluster-Lösungen für Computer Aided Engineering (CAE) an.
Bei fast allen deutschen Automobilbauern sind Cluster von Science and Computing vertreten, als Partner für die Hardware treten große Hersteller wie Fujitsu-Siemens oder IBM auf. Zusätzlich zur Cluster-Installation und Wartung liefert das Unternehmen auch noch Systemmanagement-Lösungen für heterogene Umgebungen.
Linux-Cluster im Technical Computing
MSC ist ein weiterer Spezialist für CAE und vor allem mit dem Programmpaket Nastran bekannt geworden. Seit 2001 hat MSC jedoch auch eine eigene Linux-Distribution speziell für Cluster im Angebot, die mittlerweile von den meisten führenden Hardwareherstellern unterstützt wird.
Teraport arbeitet ebenfalls mit dem Schwerpunkt im CAD/CAE-Umfeld, zu den Referenzkunden zählen Airbus, Fairchild Dornier oder Infineon sowie Automobilhersteller und deren Zulieferer. Teraport offeriert neben Beratungen und Dienstleistungen in diesem Gebiet auch Komplettlösungen für stochastische Simulationen auf Linux-Clustern und arbeitet eng mit Platform Computing zusammen, dem Hersteller des Jobmanagement-Systems LSF.
Partec aus Tübingen ist ein kleines Unternehmen, das die Cluster-Software Parastation vertreibt. Parastation sorgt dafür, dass ein Cluster aus Benutzersicht wie ein einziger Rechner erscheint (One System Image). Hardware-seitig konzentriert sich Partec auf Compaq-Server mit Myrinet-Technologie. Charakteristisch für die Parastation ist die gleichzeitige Nutzung von Myrinet als Kommunikationsnetzwerk und Fast Ethernet für die Adminstration des Clusters.