All About Security

17.10.2011 Rechenzentrum, Fachartikel

Standardisierung im Rechenzentrum

Rittal RiZone Anwender

Kompatibler & günstiger: Vorteile von Infrastruktur-Standardisierung. Ein Blick in viele Rechenzentren offenbart – vorsichtig formuliert – erheblichen Spielraum für Optimierung: Organisch gewachsene IT-Landschaften unterschiedlicher Hersteller, Ausrüstung, die nach und nach angeschafft wurde, eine Infrastruktur, die den gestiegenen Anforderungen längst nicht mehr gewachsen ist.

Viele IT-Verantwortliche sind sich der Problematik durchaus bewusst: Eine 2009 von Dell und der London School of Business durchgeführte Studie hat ergeben, dass die Verwendung anerkannter Industriestandards als wichtiges Mittel zur Kostenreduktion in der IT gesehen wird. Mehr als 30 Prozent der befragten IT-Entscheider glauben, dass die Standardisierung von Technologien dazu beitragen kann, ein Unternehmen effizienter zu gestalten. 50 Prozent der Befragten meinen, sie könnten mehr als fünf Prozent ihres IT-Budgets durch Verbesserungen der IT-Effizienz und durch Verringerung der Ressourcenverschwendung in der IT einsparen. Standardisierte Komponenten sind geeignet der steigenden Komplexität im Rechenzentrum durch vereinfachte und automatisierte Prozesse entgegenzuwirken.

Die Standardisierung der IT-Infrastruktur im Rechenzentrum ist ein Trendthema. Im großen Rahmen hat sie sich bereits bewährt: Hallen voller hochstandardisierter Server-Container arbeiten für die Internet-Großkonzerne und liefern die gigantischen Mengen an Speicherplatz und Rechenleistung, die Google, Microsoft und Co. benötigen. Dabei erreichen die Serverfarmen extrem gute Werte für Energieeffizienz – Wirkungsgrade jenseits der 99 Prozent sind hier machbar. Allerdings benötigen Unternehmen in den seltensten Fällen derartig großformatige Lösungen. Vielmehr sind Lösungen gefragt, mit denen kleine bis mittelgroße Unternehmen ihre Rechenzentren optimieren können. Ähnlich wie bei den großen Serverfarmen ist auch hier die Standardisierung der Königsweg zu größerer Effizienz und geringeren laufenden Kosten. Um optimale Resultate zu erzielen, sollte die Standardisierung allerdings bereits bei der Planung einbezogen sein. Es empfiehlt sich, hier auf objektive, externe Berater zurückzugreifen, um die Gefahr von „betrieblichen Scheuklappen“ zu minimieren.

Standardisierung als Planungsziel

Am Anfang sollte immer die grundsätzliche Überlegung stehen: Benötigt das Unternehmen ein eigenes Rechenzentrum oder ist ihm mit dem Outsourcing der benötigten Dienstleistungen besser gedient? Hierbei handelt es sich in erster Linie um eine wirtschaftliche Frage, denn neben den höheren Initialkosten müssen für ein eigenes Inhouse-Rechenzentrum beispielsweise auch dauerhaft personelle Ressourcen vorgehalten werden. Ein Vorteil dagegen ist der direkte, physische Zugriff auf die eigenen Daten sowie die Hardware und Infrastruktur – in vielen Branchen existieren gerade in Deutschland äußerst strenge Datenschutzrichtlinien, beispielsweise im Gesundheits- oder Finanzsektor.

Ist die Entscheidung für ein eigenes Rechenzentrum im eigenen Haus gefallen, gilt es, den optimalen Standort zu ermitteln: Neben offensichtlichen Aspekten wie Hochwassersicherheit oder Fensterlosigkeit gibt es auch weniger augenfällige Merkmale für einen geeigneten Standort: So empfiehlt es sich beispielsweise, das Rechenzentrum mit direktem Kontakt zur Außenwand des Gebäudes zu planen, wenn eine freie direkte Kühlung zur Klimatisierung eingesetzt werden soll. Sie nutzt die kühle Außenluft, um das benötigte Kaltwasser zu erzeugen und reduziert so erheblich den Energiebedarf gegenüber einer herkömmlichen Klimatisierungslösung. In jedem Fall sollte der Standort so gewählt sein, dass möglichst durchgehend Standard-Komponenten verwendet werden können.

Verfügbarkeit – wie viel Ausfallsicherheit ist nötig?

Eine der wichtigsten zu klärenden Fragen ist der Verfügbarkeitsanspruch des Anwenders. Die Verfügbarkeit wird maßgeblich von der Redundanz des Rechenzentrums beeinflusst und generell grob in vier Stufen, englisch „Tiers“ unterteilt. Tier 1 bezeichnet ein Rechenzentrum ohne jegliche Redundanz – auch elementar wichtige Elemente wie Kühlung oder USV sind nur einmal vorhanden. Die Folge sind eine Vielzahl sogenannter „Single Point of Failures“ – Punkte im System, die bei einem Ausfall das Rechenzentrum als Ganzes lahmlegen. Die maximale Verfügbarkeitsstufe ist Tier 4 und bezeichnet eine vollständige Redundanz, also praktisch die parallele Versorgung des „Reserve-Rechenzentrums“.

Obwohl Tausende von Rechenzentrumsbetreibern eine Tier 4-Verfügbarkeit für sich in Anspruch nehmen, schätzen Experten jedoch, dass es weltweit nicht mehr als 20 Rechenzentren auf diesem Niveau gibt. Mit gutem Grund – nur wenige Branchen oder Unternehmen benötigen eine vollständige Redundanz, die ja auch kostspielig ist. Für den überwiegenden Großteil aller Anwendungsbereiche reicht eine gegebenenfalls erweiterte Tier 3-Verfügbarkeit vollkommen aus. Dabei sind neben den Stromversorgungskomponenten auch Klimatisierung und Leitungswege doppelt ausgelegt. Nicht zu vergessen ist, dass ein Mehr an Redundanz natürlich auch höhere Kosten bei Anschaffung und laufendem Betrieb nach sich zieht. Insgesamt gilt es, den optimalen Schnittpunkt zwischen Sicherheit und Kosten zu ermitteln. Standardisierte Komponenten können maßgeblich dazu beitragen, die Kosten ohne Abstriche bei der Sicherheit niedrig zu halten. Hier zahlen sich externe Experten rasch aus, wenn sie Erfahrungen aus vergleichbaren Projekten vorweisen können.

Auch die Leistungsfähigkeit des geplanten Rechenzentrums ist natürlich eine entscheidende Größe hinsichtlich Komplexität und Kosten des Projekts. Hierbei ist wichtig, dass etwaige Marktentwicklungen oder Wachstumspläne des Unternehmens berücksichtigt werden. Sonst laufen Unternehmen Gefahr, dass das neue Rechenzentrum bei Fertigstellung bereits kaum noch Leistungsreserven hat. Ein aktuelles Beispiel hierfür ist Facebook: Aufgrund der explosiven Zunahme an Mitgliedern auf inzwischen über 500 Millionen hat das soziale Netzwerk die Kapazität des eigenen Rechenzentrums mehr als verdoppeln müssen – noch bevor dieses überhaupt vollständig errichtet ist. Unternehmen können hier von der Verwendung standardisierter Module profitieren: Die Zusammensetzung kompletter Rechenzentrumsbereiche in Modulbauweise – beispielsweise der „Energieblock“ für die Stromversorgung oder der „Kälteblock“ für die Klimatisierung – beschleunigt nicht nur die Planung, sondern reduziert auch den Installationsaufwand.

Der konkrete Entwurf des Rechenzentrums wird mittlerweile in der Regel nicht mehr am Reißbrett, sondern mit einer CAD-Software erstellt. Allerdings verschwinden die detailreichen, digitalen Pläne nach der Fertigstellung meist im Archiv. Eigentlich schade drum, dachten sich die Experten von Rittal. Der Systemanbieter arbeitet daher derzeit an einer Lösung, mit der die vorhandenen CAD-Pläne nach der Fertigstellung bei der Verwaltung und Steuerung des Rechenzentrums weiter eingesetzt werden können.

Standardisierung in der Bauphase

Auch während dem eigentlichen Bau des Rechenzentrums bieten Standard-Module bereits greifbare Vorteile. So sind die standardisierten Komponenten optimal aufeinander abgestimmt, in mehr als nur einer Hinsicht: Beispielsweise können sie kompakter gebaut werden und ermöglichen eine bessere Nutzung der verfügbaren Fläche. Damit ergibt sich folgerichtig für das Rechenzentrum eine höhere Packdichte und ein kleineres Gesamtvolumen. Durch Einhausungen wird ein intelligenter Luftfluss erreicht, da weniger „leerer Raum“ gekühlt werden muss. Die Folge: eine geringere Verlustleistung bei der Klimatisierung und damit geringere laufende Kosten.

Der Bauprozess selbst gestaltet sich ebenfalls einfacher, denn Standard-Module erleichtern die Zusammenarbeit und Verzahnung der verschiedenen Gewerke. Sie sorgen so für verbesserte Transparenz auf der Baustelle. Auch hinsichtlich der etwaigen Harmonisierung von mehreren weltweit verteilten Rechenzentren gewährleistet die Definition von Standards Kompatibilität. Nicht zuletzt können Standard-Module zu einem hohen Grad durch den Hersteller vormontiert werden, was die am Bauplatz benötigte Zeit deutlich verringert.

Rittal: Das System - Die zahlreichen Vorzüge einer weitgehend standardisierten Rechenzentrums-Infrastruktur liegen auf der Hand – sowohl hinsichtlich vereinfachter Prozesse als auch eines energie- und kosteneffizienten Betriebs können organisch gewachsene Insellösungen nicht mithalten. Grafikdownload

Kostenfalle laufender Betrieb

Immer mehr Unternehmen sind de facto abhängig von einer einwandfrei funktionierenden IT-Infrastruktur, ein Ausfall der IT kommt meist einem Arbeitsstopp gleich. Auch das bewegte Datenvolumen steigt stark an: Weltweit betrug der IP-Traffic 2009 rund 160 Exabyte. Für 2014 wird eine Steigerung auf 0,75 Zettabytes prognostiziert – eine Zahl mit 21 Nullen. Das Verkehrsaufkommen im Internet entspricht dann ungefähr dem Fassungsvermögen von 16 Milliarden DVDs – pro Monat. Die Datensintflut erfordert auf Seiten des Rechenzentrums, dass die Infrastruktur skalierbar ist und mit den technischen Trends mithalten kann. Derzeit führt hier an Virtualisierung und Cloud Computing kaum ein Weg vorbei.

Der stetig, teils explosiv steigenden Nachfrage an Rechenleistung steht der Sparzwang gegenüber: Neueste Technik und adäquate Leistungsreserven haben natürlich ihren Preis. Der Löwenanteil an den Gesamtkosten entfällt dabei auf die laufenden Kosten, vornehmlich auf Energie und Klimatisierung. Gerade die in den vergangenen Jahren kontinuierlich gestiegenen Energiepreise verleihen einer möglichst hohen Energieeffizienz im Rechenzentrum höchste Priorität. Die Wirtschaftskrise hat zudem das ihrige getan, um für enge budgetäre Grenzen zu sorgen. Es gilt also, den Bedarf an Rechenleistung zu decken, gleichzeitig aber die laufenden Kosten möglichst gering zu halten. Hier können Standard-Module helfen. Sie weisen durch die standardisierten Schnittstellen eine sehr hohe Kompatibilität auf – Plug-and-Play ermöglicht neben einer schnellen Planung und Installation auch die flexible Skalierung, um zukünftigen Anforderungen gewachsen zu sein. Alle Funktionsbauteile lassen sich zudem mit einer Managementsoftware wie RiZone von Rittal verbinden. So können Parameter wie beispielsweise die Ventilationsdrehzahl automatisiert und bedarfsgerecht gesteuert werden. Wird in einem Serverschrank die Temperaturgrenze überschritten, kann die Management-Software die dort untergebrachten Anwendungen automatisch in einen kühleren Schrank verlegen und von dort aus weiter betreiben. In Zeiten mit geringerem Rechenleistungsbedarf, meistens nachts, können die kontinuierlich benötigten Anwendungen in wenigen Schränken zusammengelegt werden. Die übrigen Schränke werden dann einfach bis zum Morgen abgeschaltet und dann wieder angefahren. Das sorgt für eine deutlich verbesserte Energieeffizienz und dämpft die laufenden Kosten. Die Verwendung von Standard-Modulen hat auch im Hinblick auf Wartung und Service große Vorteile. Ersatzteile sind aufgrund größerer produzierter Stückzahlen schneller lieferbar, was zu einer kürzeren Reaktionszeit führt. Das vereinfacht nicht nur den Betrieb, sondern sorgt auch für eine erhöhte Verfügbarkeit des gesamten Rechenzentrums.

Fazit: Standardisierung als Königsweg zu mehr Effizienz

Die zahlreichen Vorzüge einer weitgehend standardisierten Rechenzentrums-Infrastruktur liegen auf der Hand – sowohl hinsichtlich vereinfachter Prozesse als auch eines energie- und kosteneffizienten Betriebs können organisch gewachsene Insellösungen nicht mithalten. Unternehmen, die einen Neubau oder die Modernisierung eines bestehenden Rechenzentrums planen, sollten daher darauf achten, möglichst wenige technologische Sonderwege zu gehen. Die Beratung mit externen Experten ist empfehlenswert, um einen unverstellten Blick auf sämtliche Optionen zu gewährleisten.

 

Thorsten Weller, Abteilungsleiter Technische Dienste – Rechenzentrum bei Rittal

 

Rittal RiZone Anwender: Im Niederspannungshauptverteiler werden der Gesamtstrom sowie die Werte nachgelagerter Abgänge ermittelt und an die Management-Software RiZone übergeben. So können Betreiber auf einen Blick sehen, wie sich der Energieverbrauch beispielsweise der Klimageräte in Abhängigkeit von der Auslastung der Server verändert.

 

Diesen Artikel empfehlen

Autor: Thorsten Weller