Virtueller Speicher 08.12.2008, 13:32 Uhr

Weniger ist mehr

Unternehmen nutzen meist nur ein Drittel des Speichers, den sie bezahlt haben. So aktivieren Sie die Reserven.
Die tatsächliche Storage-Auslastung eines Unternehmens beträgt im Durchschnitt nur 25 bis 40 Prozent. Ein Grossteil der Daten ist zudem auch noch redundant. Das gilt besonders in virtuellen Serverumgebungen, in denen dasselbe Betriebssystem und dieselbe Applikation mit jeder neuen virtuellen Maschine erneut gespeichert werden. Das verschwendet nicht nur Speicher, sondern auch Energie und Raum - alles Faktoren, die Ihre IT-Kosten erhöhen. Es gibt jedoch Storage-Techniken, mit denen Unternehmen bis zu 50 Prozent weniger Speicher in virtuellen Umgebungen verbrauchen als mit traditionellen Datenspeichern.

Pauschal von Storage-Virtualisierung zu sprechen, greift in der Praxis zu kurz. Bereits das Aufsetzen von RAID-Volumes fällt darunter: Physische Platten werden zu einem virtuellen, ausfallsicheren Verbund. Auch LUNs (Logical Unit Numbers) sind im Prinzip virtuelle Festplatten: ein logisches Konstrukt aus Platten oder Plattenteilen, dessen Umfang grösser aber auch kleiner als eine physische Festplatte sein kann. Die Bemessung der logischen Einheiten ist eine Kunst für sich und richtet sich nach Performance-Bedarf und geschätztem Datenwachstum. Die Volume-Entwicklung ähnelt jedoch einer Einbahnstrasse: Vergrössern ist schwierig, aber möglich, verkleinern in der Regel nicht. Bleibt das tatsächliche Datenwachstum hinter den Prognosen zurück, lässt sich zugewiesener Storage nicht mehr umschichten - ob er genutzt wird oder nicht.

Flexibel durch Thin Provisioning

Hier greift der NetApp-Ansatz des Thin Provisioning. Da Anpassungen schwierig und Mengenprognosen unsicher sind, wird der Speicherplatz oft sehr grosszügig bemessen - und häufig nicht ausgeschöpft. Thin Provisioning trennt die logische Repräsentation des Storage von den physischen Disk Arrays, sodass sich Applikationen mehr Speicherkapazität zuweisen lassen, als tatsächlich installiert ist. Der Knackpunkt ist die Flexibilisierung der Volumes anhand eines logischen Datencontainers, der unabhängig von den Festplatten gesteuert und bewegt werden kann. Da sämtliche Platten prinzipiell allen Datensets als Speicherpool zur Verfügung stehen, lassen sich ungenutzte Ressourcen gezielt zuweisen. Physischer Speicher wird erst dann fix belegt.
Und so sieht die Praxis aus: Wie von der Fachabteilung gefordert, erhält eine Applikation beispielsweise 500 GByte. Aktuell belegt sie jedoch nur 100 GByte. Mit Thin Provisioning befinden sich die 400 ungenutzten GByte weiterhin im Pool. Real zugewiesen wird der Speicher erst dann, wenn tatsächlich Daten geschrieben werden. Werden Schwellenwerte für die Auslastung definiert, warnt das System rechtzeitig, sobald es auf den Platten zu eng wird. Dann, bzw. wenn Speicher gerade günstig ist, kann immer noch neuer eingekauft werden.

Virtualisierung auf Systemebene

Selbst Systeme an verschiedenen Orten lassen sich mit der entsprechenden Technik zu einem logischen Storage Pool bündeln. Ebenso gut lässt sich ein System in mehrere unabhängige splitten. Bei der Frage nach dem Sitz der Virtualisierungsintelligenz scheiden sich die Geister. Software-Hersteller verfolgen die hostbasierte Variante mit einem JBOD-Plattensubsystem. Hier werden «verbundlose» Festplatten (JBOD = Just a Bunch Of Disks) per Software zusammengeschlossen. Storage-Hersteller neigen zur Virtualisierung anhand von Controllern. Storage-Virtualisierung braucht in der Regel eine hohe Verarbeitungsleistung des Systems. Wird hostbasiert virtualisiert, steht diese neue Funktion mit anderen Host-Funktionen im Wettbewerb um die vorhandene CPU-Leistung.

Die klassische SAN-basierte Virtualisierung verlagert die Virtualisierungsfunktion in das Storage-Netzwerk, als Appliance oder Switch-Funktion. In beiden Fällen agiert der Virtualisierer janusköpfig: Gegenüber dem Storage Controller erscheint er als Host, für den Host tritt er als Storage Controller auf. Um die SAN-Performance durch den zusätzlichen Layer nicht zu kompromittieren, sind entweder sehr leistungsfähige Switches oder Direktoren nötig oder aber mehrere Appliances mit Load Balancing. Controller-basierte Virtualisierung setzt direkt am Storage an und ist eng damit integriert. Anders als eine statische Virtual Machine, die auf partitionierter Hardware aufsetzt, ist der virtuelle Storage Controller dynamisch. Auch hier besteht kein direkter Bezug zu den Festplatten.
Im Netzwerk erscheint jedes virtuelle wie ein normales System. Es lässt sich unabhängig managen, ist ohne Betriebsunterbrechung migrierbar und steht in seinen Fähigkeiten einem physischen System kaum nach. Das macht diese Option so interessant für Hosting-Anbieter. Sie können die Datenbereiche ihrer Kunden auf einem unabhängig aussehenden Storage präsentieren und profitieren hinter den Kulissen von der Konsolidierung mehrerer Kundeninstanzen auf einer Plattform. Auch dem, der vorhandene Strukturen weiterentwickeln will, bietet sich mit der Virtualisierung per Storage Controller ein vielseitiges Konzept. Bestehende Arrays, NAS- oder SAN-Systeme unterschiedlicher Hersteller lassen sich mithilfe einer Virtualisierungs-Engine als logische Einheit präsentieren.
Global Namespace
Eine Möglichkeit der Virtualisierung für Dateien ist der Global Namespace, ein ortsunabhängiger Verzeichnisdienst über mehrere heterogene, verteilte Dateisysteme. Nach Eingabe der Webadresse übernimmt der Browser die Navigation zum richtigen Server und das Konvertieren von Text und Grafik auf dem Bildschirm. Der Datenpfad bleibt dem Benutzer ebenso verborgen wie eine mögliche Verlagerung der Webpage auf andere Server oder Speicher. Ist ein Global Namespace eingerichtet, dient zum Beispiel der Windows Explorer als Zugangsmittel.
Der Administrator kann nun Dateien so verschieben, dass Performance und Kapazitätsauslastung optimiert werden. Wird Storage hinzugefügt oder konsolidiert, Dateien verschoben oder umbenannt, richten sich die Clients automatisch auf die neue Lokation aus, wobei die Datenbewegung unbemerkt bleibt. Dieser Ansatz vereinfacht das Datenmanagement im Netzwerk, da permanente Neukonfigurationen der Desktops, Mappen der Laufwerke und Modifizieren von Anmeldeskripten entfällt. Weitere Vorteile sind einheitliches Netzwerkdatenmanagement, Datenmigration und Konsolidierung, Business Continuity, Speicheroptimierung, Datenlebenszyklusmanagement, ortsübergreifendes, remote Datenmanagement, Datenklassifizierung und Reporting. Storage-Virtualisierung hat viel mit dem Internet und dessen Plattformunabhängigkeit gemein. Eine reine SAN- oder NAS-Virtualisierung wäre genauso unsinnig wie je ein Web für PCs und Macs. Virtualisierung macht Storage-Silos durchlässig - die beste Voraussetzung, um Kapazität und Performance optimal auszulasten.
Zum Autor: Daniel Bachofner ist Country Manager Switzerland bei NetApp



Das könnte Sie auch interessieren