Backup & Recovery 15.10.2018, 10:55 Uhr

Die Cloud als flexibler Rettungsanker

Wer seine Daten optimal sichern will, kommt um die Cloud nicht mehr herum. Bei einem Datenverlust ist die Geschwindigkeit der Wiederherstellung der Daten teilweise existenzentscheidend.
(Quelle: Joe Techapanupreeda / shutterstock.com)
Die Verfügbarkeit von Daten und Applikationen ist für Unternehmen ein entscheidender Faktor. Das gilt nicht nur für Grossunternehmen wie die Betreiber von Online-Marktplätzen, Banken, Fluggesellschaften und Fertigungsunternehmen mit vernetzten Produktionsumgebungen. Treten Datenverluste auf, geht es vor allem für kleinere Unternehmen schnell um «Leben oder Tod».
Diese Einschätzung bestätigten 64 Prozent der IT-Fachleute kleiner und mittelständischer Unternehmen, die das Marktforschungshaus IDC im Auftrag des Backup-Spezialisten Carbonite befragt hat.
71 Prozent der IT-Experten halten dabei eine Ausfallzeit von maximal 24 Stunden für akzeptabel. Mehr als 60 Prozent der kleineren und mittelständischen Unternehmen sehen bei geschäftskritischen IT-Ressourcen sogar lediglich eine maximale Ausfallzeit von vier Stunden als akzeptabel an, so die Carbonite-Untersuchung. Das gilt beispielsweise für E-Mails, branchenspezifische Anwendungen sowie IT-Management-Applikationen, inklusive der damit verbundenen Daten­bestände.

Backups stossen an Grenzen

Bislang galten klassische Backup-Systeme im hauseigenen Rechenzentrum als probates Mittel, um die Verfügbarkeit von Applikationen und Daten sicherzustellen. Doch dieses Konzept stösst mittlerweile an seine Grenzen: «Die meisten Backup- und Disaster-Recovery-Lösungen stützen sich immer noch auf physische Einheiten», berichtet Sven Haubold, Territory Account Director Large Account Reseller beim Datensicherungsanbieter Arcserve. «Die können nicht mit den Datenmengen Schritt halten, die in modernen Organisationen anfallen.» Durch Trends wie Internet der Dinge, Big Data und Industrie 4.0 verschärft sich diese Situation weiter.
“Die meisten Backup- und Disaster-Recovery-Lösungen stützen sich immer noch auf physische Einheiten. Die können mit den Daten­mengen nicht Schritt halten, die in modernen Organisationen anfallen„
Sven Haubold, Arcserve
Hinzu kommt ein zweiter Faktor: Unternehmen, die eine wasserdichte Backup-Strategie umsetzen wollen, müssen einen Satz der Datensicherungen ausser Haus aufbewahren. Das besagt die «3-2-1-Regel»: Neben den primären Daten sollten zwei Sicherungen von Informationen vorhanden sein. Diese Kopien werden idealerweise auf zwei unterschiedlichen Sicherungsmedien gespeichert. Von diesen Versionen wiederum sollte eine an einem externen Speicherort abgelegt werden, etwa an einem anderen Standort des Unternehmens. «Dazu wurden früher Magnetbänder per Kurier verschickt», erklärt Felix Welz-Temming, Director Cloud Solution Sales beim IT-Dienstleister Comparex aus Leipzig. «Heute geht es auch über eine Datenverbindung in die Cloud.»
Nur für grosse Unternehmen kommt eine weitere Variante in Betracht: der Aufbau einer Disaster-Recovery-Infrastruktur mit Hilfe von zwei Rechenzentren an zwei räumlich getrennten Standorten. Diese Lösung ist jedoch für kleine und mittelständische Unternehmen nur bedingt brauchbar: «„Nicht jeder Mittelständler verfügt über einen zweiten IT-Standort, der im Idealfall mehr als 15 Kilometer vom eigenen Rechenzentrum entfernt ist», erläutert Uwe Jockel, Business Development EMEA Emerging Solutions and Innovation Group beim Storage-Hersteller NetApp. Eine solche georedundante In­frastruktur stellt sicher, dass auch bei Katastrophen wie Hochwasser und Erdbeben Daten und Server verfügbar sind.


Das könnte Sie auch interessieren