Storage-Tipps 08.06.2011, 13:20 Uhr

Kosten reduzieren, Performance erhöhen

HP hält 20 Prozent am Schweizer Storage-Markt. Im Interview mit CW verraten HPs Speicherexperten, wie Schweizer Firmen ihre Speicher auf Wirtschaftlichkeit trimmen.
Reto Dorigo, Business Unit Manager HP Storage: Bei der Entwicklung der 3PAR war Wirtschaftlichkeit das zentrale Kriterium.
Storage brauchen Schweizer Unternehmen immer; und immer mehr, denn die Datenvolumina steigen. HP hält etwa 20 Prozent am Schweizer Speichermarkt. Computerworld sprach mit Reto Dorigo und Martin Casaulta über den neuen, starken Trend zur Wirtschaftlichkeit, und wie Schweizer IT-Chefs Unternehmen die Speicheranforderungen ihrer Unternehmen kosteneffizient und performant bedienen. Reto Dorigo ist Business Unit Manager bei HP Storage, Martin Casaulta Presales Manager im Geschäftsbereich Enterprise Servers, Storage und Networking. 
CW: HP ist im Storage-Markt bereits sehr stark positioniert. Mit der neuen Speicherlösung 3PAR wollen Sie gezielt Cloud-Provider ansprechen. Was macht 3PAR für diese Zielgruppe besonders interessant?
Dorigo: Die sieben grössten Cloud-Provider weltweit sind zwar 3PAR-Kunden, aber es ist nicht nur eine Cloud-Lösung. 3PAR ist ein Produkt für Service-Provider und servicebezogene IT-Abteilungen, die mit wechselnden Workloads zurechtkommen müssen.
CW: Warum ist 3PAR für wechselnde Workloads prädestiniert?
Dorigo: Hinter 3PAR steckt das Konzept, für jede Applikation möglichst immer alle Komponenten zur Verfügung zu stellen. Das heisst, eine LUN (logische Speichereinheit) wird möglichst über alle Disks, Storage-Kontroller und andere Ressourcen verteilt. Die Auslastung kann dadurch viel besser ausbalanciert und extreme, unvorhergesehe Workloads können besser - über die gesamte Infrastruktur - abgefedert werden.
CW: Mit diesem Konzept kann der Workload auch aufgesplittet und parallel abgearbeitet werden, was wieder die Performance verbessert.
Dorigo: Genau, die T-Serie enthält neben zwei Intel-Prozessoren auch einen Spezialprozessor, einen Application Specific Instruction Computer Set ( ASIC), dessen alleinige Aufgabe darin besteht, Daten möglichst schnell zu bewegen. Der ASIC ist praktisch die reservierte Express-Spur der Datenautobahn. Auf der Schweizer Autobahn wäre das analog der Tempostreifen für das Allerwichtigste, das Lebenserhaltende, also etwa Krankenwagen, Feuerwehr und Polizei. Alle weiteren Aufgaben wie zum Beispiel Snapshots übernehmen andere Prozessoren.
CW: Für Kunden ohne wechselnde, hochvolumige Workloads wäre 3PAR dann also überdimensioniert. Er würde mit Kanonen auf Spatzen schiessen.
Dorigo: Ein Kunde hat bestimmte Anforderungen, die man analysieren und abholen muss. Eine Handvoll Anforderungen sprechen stark für eine 3Par-Lösung: ein hoher Performance-Anspruch, grosse Workloads, Hochverfügbarkeit, Effizienz etwa durch Tiering.
CW: Effizienz ist doch ein Kriterium, das in der gesamten IT, nicht nur bei Storage-Lösungen, sehr wichtig ist.
Casaulta: Klassische Systeme wie die XPs, die EVAs waren funktionsgetrieben. Bei ihrer Entwicklung, vor 10 oder 15 Jahren, hat man die Kosten für Speicher einfach hingenommen. Die 3PAR wurde geboren, als die Wirtschaftlichkeit der IT-Infrastruktur zum zentralen Kriterium für den CIO avancierte. Was bezahle ich für die Beschaffung und danach für den Betrieb einer Infrastruktur? Die 3Par soll dem CIO helfen, seine Kosten zu minimieren. Auf diesen Aspekt hat HP bei der Entwicklung der 3PAR ganz besonderen Wert gelegt.
Die Gruppe der Service Provider ist für Wirtschaftlichkeitserwägungen besonders empfänglich, denn sie lebt von der Differenz zwischen den Aufwänden und dem Preis, den die Kunden entrichten. Mit einer auf Wirtschaftlichkeit getrimmten Infrastruktur können Provider ihre Margen optimieren und kompetitive Preise anbieten.
Nächste Seite: Benchmarks von HPs 3PAR, Vergleich mit Konkurrenzprodukten
CW: Das klingt jetzt so, als sei die 3PAR HPs wirtschaftlichste Storage-Produktserie, und die anderen Lösungen erledigen zwar auch ihre Arbeit, aber lange nicht so kosteneffizient, wie es möglich wäre.
Casaulta: Das ist auch ein Stück weit so, und das liegt nicht an den Komponenten an sich, sondern am Umgang mit ihnen. Stellen Sie sich vor, Sie verkaufen 300 Terabyte Speicher, brauchen dafür physikalisch aber nur 100 Terabyte (Thin-Technologie). Das ist ein Riesenpotenzial, das Sie ausschöpfen können und das ihren Gewinn maximiert. Mit HP kann man ausserdem Daten physikalisch löschen, also den Speicherplatz explizit freigeben. Nicht alle Speicherlösungen bieten das an. Ich bin mir sicher, dass jeder CIO der Welt diese Vorteile nutzen will.
CW: Wie viel Workload schafft denn so eine 3PAR, eine bestimmte Konfiguration vorausgesetzt?
Dorigo: Der Hauptfaktor sind die Anzahl der Disks. Ein Benchmark der 3PAR T-Serie hat 228.000 I/Os ergeben (Input/Output-Operationen pro Sekunde). Die T-Serie ist unser leistungsstärkstes Modell. Deren Kapazität und Performance kann der Kunde selbst skalieren, er kann relativ klein anfangen, und die Lösung wächst dann mit ihm mit.
Assessments, die Wachstum über die nächsten fünf Jahre prognostizieren, gehen häufig fehl. Dann ist die 5-Jahresprognose schon nach zweieinhalb Jahren erreicht, getrieben durch Akquisen, Fusionen oder andere Entwicklungen, das habe ich als Berater häufig erlebt. Die Flexibilität, mit dem Kunden zu wachsen, ist bei einer 3PAR unerreicht.
CW: Wie hoch legt HP die Latte auf, wo liegt das maximale Datenvolumen?
Dorigo: Getestet haben wir bisher ein maximales Datenvolumen von 800 Terabyte pro 3PAR T800, das grösste Modell.
CW: Gegen welche Lösungen der Konkurrenz positioniert sich HP mit seiner 3PAR-Produktserie?
Dorigo: 3PAR arbeitet mit blockbasierten Daten. Die F-Serie ist ein Midrange-Modell, da vergleichen wir uns etwa mit EMCs Clariion, mit Netapps 2000er- und 3200er-Serie. Die Highend-T-Serie bewegt sich in den gleichen Dimensionen wie etwa die EMCs VMAX oder IBMs DS8000-Serie.
CW: Bis jetzt haben wir über Hardware gesprochen. Konkurrenten wie EMC-Chef Joe Tucci sind davon überzeugt, dass Fortschritte im Speichermarkt zukünftig durch Software-Technologie getrieben werden, etwa durch extreme Komprimierung bis hin zu Raten von 90 Prozent und mehr. Das würde Speicherplatz und Geld sparen. Teilen Sie diese Ansicht?
Casaulta: Grundsätzlich ist es immer die Software, die den Dienst verrichtet, wir nennen es nur nicht immer so. Funktionalitäten, die auf der Low-Level-Hardware aufsetzen, sind softwaregetrieben. Die Kompression von Daten muss aber verlustfrei sein, Datenverluste können Sie sich nicht leisten.
Mit 3PAR bringen wir eine Lösung auf den Markt, die das Offensichtlichste zuerst macht. 3PAR nutzt Referenzwerte, um Speicherplatz optimal zu nutzen, also um lange, monotone Datenfolgen - auf Bit-Level Nullen und Einsen - zu reduzieren. Das erledigt der ASIC-Spezialprozessor der 3Par. Wichtig ist aber nicht nur, die Speicherbelegung zu optimieren, sondern auch die Effizienz im Blick zu behalten. Komprimieren Sie um 30 Prozent, haben aber, um das zu erreichen, 50 Prozent Overhead, dann ist das nicht wirklich eine spannende Sache. Erreichen Sie aber mit 50 Prozent Overhead eine Kompressionsrate von 90 Prozent, dann ist das clever.
Die heutigen Deduplizierungstechnologien sind - meine persönliche Meinung - noch nicht so ausgereift, um extrem hohe Kompressionsraten mit vernünftigem Aufwand zu realisieren. Deduplizierung lohnt sich nicht, wenn die referenzierten, also nicht im Original abgespeicherten "chunks" zu klein werden. Der Overhead, also der Aufwand, steigt im Online-Bereich exponenziell.
Dorigo: Ich hatte einen Kunden, dessen Backup-Zeiten sich durch starke Deduplizierung vervielfacht haben, weil die ganzen Daten erst wieder zusammengesetzt werden mussten, bevor sie auf Tape gespeichert werden konnten. Das vernachlässigt man gerne, und der Kunde ist schlussendlich den Weg zurückgegangen. Er hat im Online-Bereich zwar 20 Prozent gespart, musste aber massiv in seine Backup-Infrastruktur investieren, was sich unterm Strich nicht bezahlt gemacht hätte. Auch die Performance ging durch massive Deduplizierung stark nach unten.
Nächste Seite: Wie sieht die optimale Storage-Infrastruktur aus?
CW: Welches Mischungsverhältnis aus den drei Tiers, also schnellen Solid State Disks (SSD), Fibre Channel/SAS und langsamen Speichermedien empfiehlt HP? Das ist ja auch eine Preisfrage, je schneller, desto teurer.
Casaulta: Die Anforderungen, die an uns herangetragen werden, beinhalten die Parameter: Datenkapazität, Serveranzahl, die Bandbreite und die benötigten Input-Output-Operationen. Auf Basis dieser Vorgaben des Kunden machen wir das Design der Subsysteme. In vielen Fällen reichen zwei Tiers aus. Es gibt aber auch Extremanforderungen, die zwingend den Einsatz von SSDs erfordern, um alle I/O-Wünsche erfüllen zu können. Sonst würde ein totales Missverhältnis zwischen Leistungs- und Fassungsvermögen entstehen.
Eine andere Möglichkeit besteht darin, hochverfügbare Daten direkt im Hauptspeicher des Servers abzulegen. Das muss nicht zwingend im Subsystem passieren. Ein weiterer, sehr wichtiger Aspekt: Man konzentriert sich in der Schweiz gerne auf die Einkaufskosten, und die Betriebskosten verliert man dabei aus dem Blick, das sind etwa 80 Prozent der Gesamtkosten.
Für jeden ausgegebenen Franken braucht es vier Franken, um die eingekaufte Lösung zu betreiben. Unser Ansatz besteht darin, vor allem die Betriebskosten, also die vier Franken, zu optimieren. 3PAR passt sich zum Beispiel automatisch an veränderte Situationen an, rearrangiert die Datenbereiche. Klassischerweise musste man das früher von Hand machen.
CW: Viele Speicheranbieter steigen momentan in den Markt für "Advanced Analytics" ein (zum Beispiel EMC Greenplum). Mit dem Argument: Die Kunden haben Riesendatenvolumina gespeichert, jetzt wollen sie mithilfe von Analyse-Software auch Vorteile daraus ziehen. Klingt wie der nächste, logische Schritt. Was macht oder plant HP punkto Analytics?
Casaulta: Mit der Akquise von Vertical Systems hat HP ein klares Signal gesetzt, wie wichtig wir diesen Markt nehmen. Der Kunde will in Echtzeit sehen, wohin die Trends laufen. Wir setzen durch hohe Verkaufsvolumina sehr kostengünstige, standardisierte Komponenten ein, um dem Kunden Real-Time-Analytics anzubieten.
Aber: Analytics ist für uns kein Treiber für die 3PAR-Serien. Analytics treibt mehr den Direct-Attached-Storage-Bereich, der direkt dem Server zugeordnet ist.
Dorigo: Der Layer, wo Daten analysiert werden, ist nicht der blockbasierte Speicher-Layer, sondern der Applikationslayer. Insofern ist Analytics sicher kein reines Storage-Thema. Im Extremfall werden die Daten gar nicht mehr gespeichert, sondern gleich, denken Sie an SAPs HANA, In-Memory gehalten.
CW: Wir leben mittlerweile im Petabyte-Zeitalter. Glauben Sie wirklich, dass es möglich ist, Petabytes im Arbeitsspeicher zu halten?
Causaulta: Ich kann mich noch an Zeiten erinnern, da hat man über Gigabytes im Memory gelächelt, danach über Terabytes im Arbeitsspeicher gewitzelt. Ausserdem: Der Export etwa einer Oracle-Datenbank umfasst nur ein Bruchteil des gesamten Datenbestand. Und nur diesen Export benötigt man für die Analysen.



Das könnte Sie auch interessieren