All About Security

03.09.2010 Virtualisierung, Fachartikel

Auf sicherem Weg zu virtuellen Umgebungen

Die Automobilindustrie hat es im Laufe der Jahre geschafft, die Öffentlichkeit davon zu überzeugen, dass ein neues Kalenderjahr bereits im Oktober beginnt. Steht doch zu diesem Zeitpunkt die neue Modellgeneration in den Ausstellungsräumen und wirbt mit einer Vielzahl von vielversprechenden Neuerungen um die Gunst der Käufer.

In mancher Hinsicht folgt auch das Beschaffungsverhalten der IT-Branche diesem Muster: Fortlaufende Verbesserungen versprechen leichtere Bedienbarkeit, nahtlose Integration, neue Funktionen und höhere Produktivität. So wie die Frage, ob eine Urlaubsreise unvergesslich wird, weniger von dem neuen Auto als von dem gewählten Ziel oder der Route dorthin abhängt, hängt auch die erfolgreiche Implementierung neuer Technologien, wie die Virtualisierung, mehr von dem geschäftlichen Nutzen als von den jeweiligen Features dieser Technologie ab.

Das bedeutet nicht, dass ein Kleinwagen den gleichen Komfort wie eine Luxuslimousine bietet - die man mit zunehmendem Alter zu schätzen weiß - aber sechs Monate nach der Urlaubsreise werden Ledersitze, Zweizonenklimaanlage oder Navigationssystem einfach kein Thema mehr sein. In Erinnerung bleiben dagegen die besuchten Orte, die Restaurantbesuche, die schönen Augenblicke und die besonderen Erlebnisse. Besondere Erlebnisse sind allerdings nicht notwendigerweise positive Erlebnisse. Man denke an lange Staus oder eine Reifenpanne auf der Autobahn. Unvergesslich bleiben sie dennoch.

Zwar hat die Virtualisierungstechnik das Potenzial, IT-Prozesse zu verbessern, Betriebskosten zu senken und die Produktivität zu steigern. Aber der Weg zum Erfolg oder Misserfolg und die „unvergesslichen Momente“ hängen auch bei dieser Technologie ganz wesentlich von der geplanten Route, von den Etappenzielen und von der Aktualität der „Verkehrsnachrichten“ ab, nach denen man sich orientiert. So wie die Wege zum gewünschten Urlaubsziel, so hält auch das Netzwerk eine Reihe von Gefahrenstellen und Schlaglöchern bereit, die entweder umfahren werden oder zu einem Unfall mit möglicherweise weitreichenden Folgen führen. Eine Routenplanung, die die physische Infrastruktur für das schicke neue Virtualisierungsvehikel berücksichtigt, führt nicht nur erfolgreich ins gewünschte Ziel, sondern macht auch den Weg dorthin zu einem entspannten Erlebnis.

Route sorgfältig planen

Für fundierte Entscheidungen über die richtige Mischung und Umsetzung der Virtualisierungstechnik reicht die übliche Betriebsdatenflut nicht aus. In einem dichten Datenwald besteht die Gefahr, die Bäume aus dem Blick zu verlieren, die dem wirtschaftlichen Erfolg im Wege stehen. Die durch Einsatz  virtueller Server erzielten Einsparungen bei der Hardware können sehr schnell von teuren Wartezeiten eingeholt werden, die den Benutzern von Unternehmensanwendungen auf einem virtuellen Server abverlangt werden.

Prinzipiell ermöglichen virtuelle Server eine bessere Auslastung der physischen Server und können so dazu beitragen, die Wirtschaftlichkeit zu verbessern. Mit jedem neuen virtuellen Server erhöht sich aber das wirtschaftliche Ausfallrisiko. Fällt ein physischer Server aus, der mehrere virtuelle Server unterstützt, ist nicht nur eine einzige Unternehmensanwendung betroffen, sondern eine Vielzahl von Anwendungen und eine größere Zahl von Endbenutzern. Zudem konkurriert eine größere Zahl von Benutzern um den Informationszugriff über die Netzwerkkarte des Servers. Hinzu kommt, dass das Verkehrsaufkommen aus mehreren Netzwerksegmenten steigt und von dem betreffenden Switch bewältigt werden muss. Die Entscheidung, eine weitere Unternehmensanwendung auf einem physischen Server zu hosten, hängt nicht allein von den CPU-Reserven des Servers ab. Es ist auch eine Frage des Verhältnisses zwischen Benutzerzahl, Verkehrsaufkommen und der physischen Kapazität der gesamten Infrastruktur entlang der Route vom Benutzer zum Server.

Bei der Analyse komplexer, voneinander abhängiger Datenmengen mit mehreren Variablen helfen einfache Reports und Tabellen nicht weiter. Hier sind flexible und interaktive Instrumente gefragt. Die neue Generation der grafischen, webgestützten Dashboards ermöglichen die Auswahl, Erforschung, Analyse und Visualisierung von Daten, um bislang unbekannte Trends und Muster zu erkennen und strategische geschäftliche Entscheidungen treffen zu können.

Die 10.000-km-Inspektion

Ein großer Vorteil der Virtualisierungstechnologie ist die Möglichkeit, Server zu virtualisieren. Dadurch wird nicht nur die schnelle Implementierung verschiedener Betriebssysteme möglich, sondern auch die Reduzierung der Wartungskosten, des Administrationsaufwands, des Energieverbrauchs, des Kapitalaufwands und der Sicherheitsrisiken. Da jede virtuelle Maschine (VM) eine eigenständige Instanz bildet, können mehrere virtuelle Server auf einem einzelnen physischen Server eingesetzt werden, sodass die Auslastung – insbesondere auf x86-Plattformen – und damit auch die Wirtschaftlichkeit steigt.

Über 80 Prozent der heute verkauften Server sind x86-Architekturen. x86-Rack-Server mit hoher Packungsdichte erleichtern die physische Implementierung und ermöglichen ein besseres Hardwaremanagement im Rechenzentrum. Auf den Tag gerechnet nutzt ein typischer x86-Server allerdings nur fünf bis zehn Prozent seiner verfügbaren Rechenkapazität. Die Unterstützung mehrerer virtueller Server kann die Auslastung auf 60 bis 70 Prozent steigern, wie von Kapazitätsplanungsfachleuten empfohlen. Müssen dann neue Unternehmensanwendungen installiert werden, sinkt Beschaffungsbedarf für neue Hardware und damit auch der Stromverbrauch und der Kühlungsbedarf. Diese Praxis ermöglicht es zudem, unterschiedliche Betriebssysteme schnell zu implementieren, die Wartungskosten insgesamt zu senken, den Zeitaufwand für die Administration des Netzwerks zu reduzieren und die Sicherheitsrisiken zu mindern.

Defensives Fahren zahlt sich aus

Ein weiterer wesentlicher Vorteil der Virtualisierungstechnologie ist die schnelle und einfache Implementierung neuer Instanzen für eine Vielzahl von Benutzern. So ist es beispielsweise möglich, Testumgebungen für neue Unternehmensanwendungen einzurichten, isolierte Umgebungen zur Abschottung sensibler Projekte oder als Schmutzmechanismus gegen Virenangriffe zu schaffen und spezielle Betriebssysteme zu konfigurieren, ohne die ursprüngliche Hardware dafür vorhalten zu müssen.  Dank dem Anwendungsumfang, der einfachen Nutzung und Implementierung und der Vielseitigkeit machen IT-Organisationen sogar schneller und umfassender davon Gebrauch, als es die Anbieter von Virtualisierungslösungen vermutet hätten. Diese rasante Entwicklung und die damit einhergehenden Schwierigkeiten haben sogar einen neuen Begriff entstehen lassen: „M Sprawl“.

Jetzt reicht es nicht mehr aus, genau zu wissen, wie viele VMs eingesetzt werden oder wo sich diese befinden. Mit Technologien, wie VMware VMotion, können die VMs dynamisch zwischen den physischen Servern verschoben werden, sollte sich die Leistung einer VM verschlechtern. Dabei ändert sich allerdings auch die Route zwischen dem Nutzer und seiner Geschäftsanwendung, wodurch sich der gewünschte Nutzen möglicherweise wieder aufhebt. Die Zahl der zu überwindenden Netzwerkgeräte könnte steigen. Der Durchsatz der betroffenen Geräte, die Kapazität des Netzwerksegments oder die Zusammensetzung des gesamten Verkehrs könnten sich verschlechtern. Unter dem Strich würde der Benutzer dies als Leistungseinbuße empfinden. Eine Managementlösung, die VMs auf ihrem Weg im Netz nachverfolgt und den gesamten Leistungsanteil des Netzwerks bewerten kann, könnte es dem Betriebspersonal ermöglichen, die Einhaltung der Vorgaben zu untersuchen, zu begreifen und zu dokumentieren, um die Kapazität bereitzustellen, die den Benutzern eine optimale Leistung gewährleistet.

<< Erste < Vorherige 1 2 Nächste > Letzte >>

Diesen Artikel empfehlen

Autor: Kenneth Klapproth