Cohesity gilt als das nächste grosse Ding

Im Gespräch mit Klaus Seidl, VP EMEA bei Cohesity

Klaus Seidl: VP EMEA bei Cohesity
Klaus Seidl ist VP EMEA bei Cohesity und hat eine lange Vergangenheit bei anderen US-Start-ups  vorzuweisen. Vor seiner Arbeit bei Cohesity, die im November 2017 begann, war er bei Simpli-Vity, Palo Alto, Riverbed und NetApp. Im Interview mit Computerworld erläutert er, was Cohesity von der Konkurrenz unterscheidet und was er von «Cold Data» hält.
Computerworld: Sie haben viel Erfahrung mit US-Start-ups, die auf den europäischen Markt drängen. Was treibt Sie immer wieder dazu, bei solchen Start-ups einzusteigen?
Klaus Seidl: Ihre Technologie und die Art und Weise, etwas zu verändern, eine Disruption herbeizuführen, wie die Amerikaner so schön sagen. Nachdem ich lange Jahre bei IBM in der Entwicklung verbracht hatte, bin ich zum Vertriebsmann geworden – eine Position, in der man wirklich etwas verändern kann. Seitdem schlägt mein Herz für Start-ups.
Computerworld: Was ist disruptiv an Cohesity?
Seidl: Bei Unternehmen entstehen ständig riesengrosse Datenmengen. Sechs Siebtel dieser Daten gehören zu den nicht sichtbaren Teilen des Dateneisbergs, und Cohesity eröffnet den Zugang zu diesem bisher verborgenen Bereich. Damit verändert Cohesity einen Speicherbereich, in dem aus meiner Sicht in den letzten 20 Jahren wenig passiert ist: Tier-2-Storage.
Computerworld: Was ist das Besondere an den Cohesity-Lösungen?
Seidl: Bei uns geht es um File Services rund um richtig grosse Datenmengen, um Backup- und Search-Algorithmen sowie um SLAs und Smart-Contract-Elemente, um die Daten zweckmässig zu sortieren oder auszuwerten. Es geht um mehr, als nur darum, grosse Datenmengen irgendwohin zu überspielen und für den Notfall zugriffsfähig zu halten.
Computerworld: Das behauptet nicht nur Cohesity von sich.
Seidl: Cohesity stellt einen Data Backbone dar, der all diese Gesichtspunkte und technologischen Komponenten abdeckt, und nicht nur zum Beispiel Backup. Andere Anbieter sprechen auch von Hyperkonvergenz, meinen aber damit nur, dass sie Server mit zwei Höheneinheiten verwenden. Sie können nur Backup und Restore. Bei Cohesity geht es dagegen darum, wirklichen Mehrfachnutzen aus Tier-2-Daten zu gewinnen. Die Funktionalitäten, die Cohesity abdeckt, sind also andere als die, die SimpliVity oder Nutanix abdecken.
Computerworld: Was meinen Sie mit Mehrfachnutzen?
Seidl: Der Mehrfachnutzen besteht aus einer Plattform, die auf einem Google- und Hadoop-Subsystem aufsetzt. Damit kann man Daten irgendwohin schreiben, aber unter bestimmten Umständen auch wieder
zurückholen – zum Beispiel wenn ein Mitarbeiter das Unternehmen verlässt. Cohesity bietet unterschiedliche Managementformen für die Daten an – das können andere so nicht. Die Daten müssen nur einmal abgespeichert werden. Für besondere Auswertungen wie Analytics oder Big Data muss man nicht wie bei anderen Lösungen jeweils eigene Datenumgebungen aufbauen (was dazu führen kann, dass die Daten mehrfach vorhanden sind und gepflegt werden müssen).
Computerworld: Wie lässt sich der Unterschied zur SimpliVity-Lösung (heute Teil von HPE) beschreiben?
Seidl: Bei SimpliVity geht es auch um Backup, Restore, Cloning und entfernte Datenhaltung. Wichtig ist dort zudem der Einsatz von Flash und normalen Festplatten sowie die Cloud-Anbindung, um den Tier-1-Use-Case abzusichern. Bei Cohesity geht es um ähnliche Themen, aber eben bei Tier 2, zum Beispiel um Data-Copy-Management, wobei bei uns nicht die Datenkopien im Vordergrund stehen, sondern das Management der Daten. Sicher, es geht auch um Recovery, aber primär ist die aktive Nutzung der  gesicherten Daten wichtig.
Computerworld: Es geht Ihnen also weniger um die Daten, die aktuell produktiv sind, sondern um die «Cold Data» jenseits dieser Prozesse?
Seidl: Ja, wir können sie ruhig als Cold Data bezeichnen. Aber sie sind eigentlich nicht «kalt», sondern für unterschiedlichste Zwecke «warm» und «aktiv». Es handelt sich um riesige, wachsende Datenmengen, weshalb auch eine skalierbare Architektur erforderlich ist, die mit diesem Prozess Schritt halten kann. Es braucht genügend Speicherplatz, um dann diese Daten für Analytics oder Tests dienstbar zu machen oder um Remote-Kopien davon für verschiedene Anwendungsfälle zu erstellen. Aber das alles geschieht bei Cohesity auf der Basis einer einzigartigen Tier-2-Architektur, die dem Kunden Mehrfachdienste «for free» zur Verfügung stellt.
Computerworld: Verstehen Sie unter einer «einzigartigen Architektur» so etwas wie einen einzigen grossen Datentopf?
Seidl: Genau. Und der ist frei skalierbar, es kann also je nach Bedarf ein Stück hinzugekaut werden.
Computerworld: Was passiert denn, wenn ein Teil der Daten nicht mehr gebraucht wird? Die liegen dann doch immer noch in dem gleichen Topf?
Seidl: Ja, schon.
Computerworld: Und das verursacht doch Kosten. Wäre es denn nicht sinnvoller, sie irgendwohin zu verschieben?
Seidl: Im alten Denken liegen sie dort und werden bald eiskalt. In unserem Fall geht es aber um Funktionalitäten, die in gewisser Weise dem Status von Tier 1 entsprechen. Nach bestimmten Fristen können natürlich Daten verschoben werden, wenn das Unternehmen es so entscheidet, und der Speicher wird wieder kleiner. Bei Cohesity aber wird die Brauchbarkeit der Daten zu einem eigenen Kriterium, was in den zurückliegenden 20 Jahren im Zeitalter von Backup und Restore nicht der Fall war.
Computerworld: Hyperkonvergent bedeutet bei Cohesity also Mehrfachausbeute – und nicht wie bei vielen anderen Anbietern nur die enge Koppelung von Compute und Storage.
Seidl: Das machen wir auch, es ist allerdings nicht unser Schwerpunkt. Hyper-converged-Technologie hat immer zwei Dimensionen: Einmal meint «converged», proprietäre Hardware in Standard-Hardware umzuwandeln und dann dieses eigentlich un interessante Gerät zu einem Multi-Purpose-System auszubauen. Das ist in etwa in den letzten fünf, sechs Jahren für Tier 1 geschehen, aber nicht für Tier 2. Spezialfirmen haben lediglich einzelne Funktionen für Tier 2 tauglich gemacht, was in der Praxis zu einer Vielzahl verschiedener Geräte führen konnte, die alle «Appliance» hiessen. SimpliVity, Nutanix und andere haben dann damit begonnen, in Google-Manier einzelne White-Label-Server für Spezialaufgaben wie Search oder Analytics anzubieten. Der Cohesity-Gründer Mohit Aron, der früher CTO bei Nutanix war, ist dann noch einen Schritt weitergegangen und hat on top auf die Software diverse Use Cases gepackt.
Computerworld: Liesse sich die Cohesity-Technologie denn auch für Tier-1-Daten einsetzen?
Seidl: Durchaus. Es müssten nur einige Parameter für CPU, Memory, Flash oder SLAs geändert werden. Natürlich würde bei Search-Funktionen und Ähnlichem eine starke CPU-Belastung eintreten. In unserem Modell spielen dagegen Copy Management und Second Usage die entscheidende Rolle – kalte Daten werden wieder warm oder heiss.



Das könnte Sie auch interessieren