Die richtigen Strategien für den Server-Kauf

Die Renaissance der rack-mounted Server

von - 21.07.2015
Bei Neuanschaffungen von x86-Servern sollte man vorsichtig bei dem Begriff Standardrechner sein. Auch bei x86-Servern mit gleicher Grundausstattung sind die Spezifikationen der eingesetzten Software genau auf ihre Abstimmung mit dem physikalischen Server oder den Details der geplanten Virtualisierung zu überprüfen. Hat man bereits virtualisiert und entsprechende Erfahrungen gesammelt, oder steht der Umstieg noch bevor? Ist der geplante Hypervisor auch für die CPU des Standard- oder No-Name-Servers lizensiert?
Klaus Gottschalk, Systems Architect, Lenovo Deutschland
Klaus Gottschalk, Systems Architect, Lenovo Deutschland: „Das Betriebssystem ist für die Server-Auswahl zweitrangig. In der Regel entscheidet man sich für ein Betriebssystem auf Basis der Inhouse-Skills und der Erfahrung.“
Wer auf der x86-Ebene, die inzwischen viele hochkarätige Server-Angebote kennt, für eine betriebskritische Datenbank, ERP- oder Big-Data-Anwendung einen performanten, abgesicherten physikalischen Server sucht, wird wohl zu einem geclusterten Intel-, AMD- oder eventuell auch ARM-Server greifen, auf dem das Betriebssystem direkt auf der Hardware liegt. Hier gibt es inzwischen durchaus leistungsstarke Server als Alternative zur Unix-Plattform, sofern die Softwarehersteller passende Lösungen anbieten. Selbst IBM als Verteidiger der Mainframe-Bastion hat noch kurz vor dem Verkauf seiner x86-Produktlinie von „Mainframe-artigen x86-Architekturen“ gesprochen.
Laut Ulf Schade von Computacenter werden die meisten Server-Käufe heute als Ersatzinvestitionen oder zum Ausbau der jeweiligen Virtualisierungs-Plattform vorgenommen: „Diese Investitionen müssen zur Gesamt-IT-Strategie des Unternehmens passen.“ Um dies in die Praxis umzusetzen, seien Converged- oder Hyper-Converged-Ansätze von Bedeutung. Bei der Konsolidierung von Virtualisierungs-Hosts spielen vor allem CPU-Geschwindigkeit und Größe des ausgebauten RAM eine Rolle, sodass die Kooperation zwischen verschiedenen CPUs und weiteren Komponenten für den Ausbau der Systeme entscheidend ist.

Hyperkonvergente Systeme

Um bei Hyper-Converged-Systemen die erforderlichen Server-Festplatten unterzubringen, gibt es laut Schade derzeit eine Renaissance der Rack-Server. So bietet EMC mit seiner Division VCE eine VXRack genannte große Box aus Server, Speicher und Netzwerk an, die durch weitere Boxen nahtlos skaliert werden kann.
Michael Ganzhorn, Bereichsleiter Enterprise Compute Platforms, Fritz & Macziol
Michael Ganzhorn, Bereichsleiter Enterprise Compute Platforms, Fritz & Macziol: „Moderne Applikationen verfolgen in der Regel den Scale-out-Ansatz: Hier kann mit vielen, oft auch virtuellen Servern auf Windows oder Linux eine flexible Architektur aufgebaut werden.“
Auch Klaus Gottschalk von Lenovo empfiehlt den Einsatz von Rack-Systemen: „Für Einzel-Server, Infrastruktur- und Service-Maschinen würde ich eine rack-mounted Server-Plattform wählen. Bei diesen Standard-Systemen hat man die volle Flexibilität, alles anzuschließen und alles so zu kon­figurieren, wie man es möchte. Rack-mounted Server sind immer noch das Brot- und Buttergeschäft im Server-Markt.“ Man könne so die Komponenten zusammen verwalten und das Zusammenspiel der Server intern über die integrierten LANs und SANs kontrollieren.
Virtualisierung und Applikationsfunktionen müssen sich auch unter dem Gesichtspunkt der Erweiterung der Systeme ergänzen, Stichwort Scale-out. Hierzu bemerkt Michael Ganzhorn, Bereichsleiter Enterprise Compute Platforms bei dem Systemhaus Fritz & Macziol: „Moderne Applikationen verfolgen in der Regel den Scale-out-Ansatz: Hier kann mit vielen, oft auch virtuellen Servern auf Windows oder Linux eine flexible Architektur aufgebaut werden. Diese funktioniert aber nur dann perfekt, wenn alle Verfügbarkeits- und Skalierungs­aspekte durch die Applikation selbst erbracht werden können.“
Als Vorbild in Sachen Standard-Server gelten manchmal die riesigen Rechenzentren von Facebook, Google oder anderen. Sie sollen, so heißt es, statt mit Servern von Markenherstellern fast vollständig mit „einfachen und billigen“ Geräten ausgestattet sein. Und diese kleinen Server von der Stange, die in Clustern zu Server-Farmen zusammengefasst sind, sollen auf diese Weise mindestens die gleiche Leistung wie die Superdomes von Hewlett-Packard, die High-End-Unix-Server von Sun (heute Oracle) oder die Mainframes von IBM erbringen. Jedermann, so wird gesagt, könne das heute genauso machen und spare dabei enorme Beträge, besonders wenn man außerdem günstige Linux-Betriebssysteme und jede Menge Open Source einsetzen würde.
Doch bei dieser populären Einschätzung wird übersehen, dass Unternehmen wie Google ihre „Standard“-Server nach eigenen Vorgaben in großen Stückzahlen assemblieren lassen. Zudem setzen sie neben günstigen, individuell angepassten Linux-Betriebssystemen selbst entwickelte Anwendungen und Tools ein und verfügen überdies über ein sehr gut ausgebildetes IT-Fachpersonal. Ihre unter Webbedingungen laufenden Anwendungen müssen überall ständig erreichbar sein und plötzlich auftretende massenhafte Zugriffe aushalten. Dieses Modell eignet sich nur sehr bedingt als Vorbild für andere Unternehmen.
Verwandte Themen