ISC-Cloud-Conference 2012
Hochleistungsrechnen in der Cloud?
06.09.2012Während Cloud Computing für viele Web- und Business-Anwendungen heute schon selbstverständlich ist, gibt es bei HPC und Big Data noch Anlaufschwierigkeiten in die Cloud.
(C) Claudiarndt, photocase.com
Während Cloud Computing für viele Web- und Business-Anwendungen heute schon selbstverständlich ist, gibt es bei HPC und Big Data noch Anlaufschwierigkeiten in die Cloud.
Im Vorfeld der Konferenz ISC Cloud '12 sprach deren Chairman Wolfgang Gentzsch mit Dr.-Ing. Frank Baetke, Global HPC Segment Manager bei Hewlett-Packard, und Stephan Gillich, Direktor HPC und Workstations EMEA bei der Intel GmbH, über High Performance Computing (HPC) und Big Data in der Cloud. Die Konferenz findet am 24. und 25. September im Mannheim statt und behandelt reale Fallbeispiele aus Industrie und Forschung.
Wolfgang Gentzsch: Inzwischen betrachten über 70 Prozent der CIOs in der Business-Welt Cloud Computing als strategisches Werkzeug. Warum vollzieht sich im Gegensatz dazu Ihrer Meinung nach die Akzeptanz der Cloud bei Wissenschaftlern und Ingenieuren langsamer?
Frank Baetke, HP: Hierfür gibt es verschiedene Gründe, die je nach Anwendergruppe sehr unterschiedlich sind. Im Bereich Ingenieurwissenschaften, nehmen wir zum Beispiel die Automobilindustrie, geht es oft um die Simulation von Produkten oder ganzen Fahrzeugen, die erst in vielen Jahren auf dem Markt erscheinen werden. Da für die eigentlichen HPC-Berechnungen, die Daten auf dem Cloud-Host entschlüsselt vorliegen müssen, spielen Sicherheitsbedenken hier eine entscheidende Rolle. Viele Hersteller führen sensitive Berechnungen daher nur in-house durch, obwohl hierbei durchaus eine Intra-Cloud-Architektur zum Einsatz kommen kann.
Im wissenschaftlichen Bereich spielt oft ein anderer Aspekt eine große Rolle: die schiere Datenmenge. Der Durchsatz eines lokalen Cluster-Filesystems liegt oft um Größenordnungen über dem was öffentliche Netze leisten. Liegt die Übertragungszeit der Daten im Zeitbereich der eigentlichen Berechnung, wird die Cloud weniger attraktiv. Daneben spielt aber Tradition und Budgetierung eine Rolle, grundsätzlich ist das Potenzial für HPC in diesem Bereich noch lange nicht ausgeschöpft.
Stephan Gillich, Intel: Cloud Computing basiert darauf, dass "alle Berechnungen gleich sind" - wenn das wahr wäre, wäre es einfach, alle Berechnungen auszulagern. Beim technisch wissenschaftlichen Höchstleistungsrechnen aber auch in anderen Bereichen gibt es genügend Beispiele, wo die Verzahnung zwischen Daten und Berechnung und Eigenschaften der Hardware einen großen Unterschied ausmachen können.
Dann muss man auch zwischen "private" und "public Cloud" unterscheiden. Oftmals handelt es sich bei den Daten, die bei Simulationen berechnet und manipuliert werden, um die "Kronjuwelen" – Konstruktionsdaten, um Produkte zu entwickeln oder Forschungsdaten der Unternehmen beziehungsweise Forschungseinrichtungen. Gerade für diese Daten wird aus Sicherheitsgründen die public Cloud oft nicht als geeignete Ressource gesehen.
Für Technologieunternehmen ist es deswegen eine Aufgabe, im Cloud-Bereich Flexibilität mit der richtigen Leistung und Sicherheit zu ermöglichen. Intel arbeitet in mehreren Bereichen daran: Mit den Endbenutzern etwa in der Open Datacenter Alliance (ODCA) als technischer Berater, innerhalb der Initative "Intel Cloud Builders" mit den Firmen, die im Cloud-Bereich Technologie und Produkte einsetzen – sowohl um an Referenzlösungen zu arbeiten als auch mit unseren eigenen Technologien und Produkten (Hardware-Unterstützung für Virtualisierung, Sicherheitstechnologien).
Wolfgang Gentzsch: Herr Gillich, Ihr Unternehmen hat vor zwei Jahren eine Initiative ins Leben gerufen, der so genannten "Missing Middle", also den kleinen und mittleren Unternehmen (den KMUs), das Hochleistungsrechnen näher zu bringen. Der Ausdruck "Missing Middle" bedeutet für mich, dass man diesen KMUs, die bisher vorwiegend nur ihre Workstations einsetzen, kaum ausfindig machen kann. Welche Mittel hätten wir denn, diesen KMUs die Vorteile von HPC und Cloud Computing näherzubringen?
Stephan Gillich: "Missing Middle" wird oft als Begriff für die potenziellen Kunden genannt, die heute Simulation nicht für Forschung und Entwicklung benützen, aber hohen Nutzen davon haben könnten – wie zum Beispiel Ingenieurbüros, die nur Workstations für CAD ohne Simulation verwenden. Dort sind zwei Dinge relevant: erstens die Nutzer davon zu überzeugen, dass Simulation Ihr Geschäft oder ihre Forschung signifikant beschleunigt und verbessert - etwa dadurch, dass wesentlich weniger reale Versuche zur Produktentwicklung notwendig sind, und zweitens, das Nutzungsmodell von HPC Lösungen möglichst einfach zu machen.
Wolfgang Gentzsch: Wie können denn auch Wissenschaftler und Ingenieure in Zukunft gleichermaßen von der Cloud profitieren? Was müsste sich verbessern?
Frank Baetke: Speziell auf der Anbieterseite, also beim HPC-Cloud-Provider, müsste sich die HPC-Kompetenz deutlich verbessern.
Stephan Gillich: Ingenieure und Forscher sind daran gewöhnt, eine Workstation für Ihre Forschungs- und Entwicklungsarbeit zu benutzen. Sie wünschen sich eine Art "Super-Workstation", die schneller mit Resultaten aufwartet – ohne sich dabei kümmern zu müssen, wo die Berechnungen tatsächlich stattfinden – auf der Workstation, auf einem HPC-Cluster oder womöglich basierend auf einer privaten oder dann auch einer öffentlichen Cloud- Infrastruktur. Diese enge Integration existiert heute nur sehr bedingt, und die Möglichkeit die Rechenlast zwischen den Ressourcen zu verschieben ist nicht sehr einfach. Es werden Technologien und Standards gebraucht um eine einfache Migration der Daten und Berechnungen zu erlauben.
Wolfgang Gentzsch: Welches sind Ihrer Meinung nach die größten Hürden auf dem Weg zur Cloud, speziell in den Bereichen High Performance Computing und Big Data?
Frank Baetke: Alle kritischen Bereiche haben wir, glaube ich, schon angesprochen, jede Verbesserung hier führt auch zu einer Verbesserung der Cloud-Akzeptanz.
Stephan Gillich: Standards für die Integrität und Migration von Daten zwischen Workstation, lokalem Cluster, privater und public Cloud, Authentifizierung und Sicherheit im Allgemeinen, daneben aber auch wie eine leistungsfähige und richtig konfigurierte (Middleware) Hardware, die flexibel für wechselnde Leistungsanforderungen zur Verfügung gestellt werden kann.
Wolfgang Gentzsch: Können Sie uns zum Schluss bitte noch kurz die Cloud-Strategien Ihrer beiden Firmen erläutern?
Frank Baetke: Von unserer Seite würde bereits nur kurze Beschreibung den Rahmen dieses Interviews bei weitem sprengen. HP bietet Konzepte sowohl für den internen als auch für den externen Cloud-Einsatz an, wobei spezieller Wert auf automatisierte "spill-over"-Konzepte gelegt wird, bei denen interne Engpässe durch Ansprechen externer Cloud-Ressourcen gelöst werden.
Darüber hinaus glauben wir, dass speziell für kleine und mittlere Unternehmen, die HPC-Lösungen brauchen, aber nicht über eine IT-Infrastruktur verfügen, Cloud-Lösungen eine sehr attraktive Alternative sein können. Hier arbeiten wir eng mit Intel zusammen.
Stephan Gillich: Intel stellt Schlüsseltechnologien und –Produkte für die Cloud zur Verfügung. Die Prozessorfamilie Intel Xeon E5 stellt hohe Leistung auch in einer virtuellen Umgebung zur Verfügung – in Kombination mit hoher I/O Leistung, Energie-Effizienz und Sicherheitstechnologien. Intel arbeitet an Referenzimplementierungen (Intel Cloud Builders) und stellt seine Expertise Kunden als auch als technischer Berater unter anderem über die Open Datacenter Alliance (ODCA) zur Verfügung. Daneben arbeitet Intel maßgeblich mit, eine größere Auswahl an interoperablen Lösungen zu fördern, etwa in Organisationen wie Open Stack.
Wolfgang Gentzsch: Vielen Dank, meine Herren, für dieses aufschlussreiche Gespräch. Ich freue mich schon auf Ihre Vorträge auf der kommenden ISC Cloud-Veranstaltung.
Alle Rezensionen aus dem Linux-Magazin
Im Insecurity Bulletin widmet sich Mark Vogelsberger aktuellen Sicherheitslücken sowie Hintergründen und Security-Grundlagen. mehr...