- Anzeigen -


Sie sind hier: Home » Fachbeiträge » Grundlagen

Reality Check: Was ist ihr RTO?


Auch mit den fortschrittlichsten Speichersystemen können die meisten IT-Manager keine Antwort über den RTO des von ihnen verwalteten Systems geben
Viele Branchen haben konkrete Vorgaben des Gesetzgebers, definiert über die RTOs, zu erfüllen

- Anzeigen -





Von Johan van den Boogaart, Regional Sales Manager bei Zerto

Unternehmen müssen sich darauf verlassen können, dass ihre IT und damit wichtige Applikationen stets verfügbar sind. Um konstante Verfügbarkeit zu bieten, ihre Systeme gegen Hardwareausfälle zu wappnen und gesetzeskonform mit geltenden Vorschriften zu sein, haben viele Unternehmen bislang in teure Speichersysteme als das Herzstück ihrer DR-Strategie (Disaster Recovery) investiert. In einer immer stärker virtualisierten IT-Welt erkennen IT-Manager nun, dass ihr Recovery Time Objective (RTO - Wie lange darf ein System ausfallen?), also die Zeit, die verstreicht, bis alle Systeme wieder verfügbar sind, keinesfalls wie erhofft ‚Null’ ist und in vielen Fällen tatsächlich gänzlich unbekannt ist. Dies liegt unter anderem daran, dass das Testen der Notfallwiederherstellung in einem operativen Umfeld auf aktiven Systemen in vielen Fällen unmöglich durchzuführen ist. Was genau sind die Schwächen derzeit gängiger DR-Strategien? Und welche neuen Lösungen können endlich einen kalkulierbaren RTO garantieren, DR-Testing vereinfachen und generell Komplexität aus dem System nehmen?

Der derzeitige Standard für DR: Stretched Cluster
Eine der wichtigsten Aufgabe einer jeden IT ist es, die Nutzung unternehmensrelevanter Applikationen ohne Unterbrechung zu garantieren. Gerade in der IT sind ganze Geschäftsmodelle darauf ausgerichtet, ihre Dienste 24/7 anzubieten, weil Kunden keinerlei Unterbrechung ihrer gebuchten Dienste akzeptieren. Viele Branchen haben sogar konkrete Vorgaben des Gesetzgebers, definiert über die RTOs, zu erfüllen. Um diese Ziele zu erreichen, haben viele Firmen in Stretched-Cluster-Technologie investiert, um bei Hardware-Ausfällen sogar für komplette Rechenzentren abgesichert zu sein. Snapshots und regelmäßige Backups auf der Softwareseite sind dazu gedacht, Recovery Point Objectives (RPOs – Wie viel Datenverlust ist akzeptabel?) zu reduzieren und RTOs auf ein Minimum zu verkürzen. Der Stretched Cluster bietet im Idealfall einen transparent Failover bei einem Ausfall der Hardware. Die Nachteile eines Stretched Clusters hingegen sind die sehr hohen Kosten, die mit der Technologie einhergehende Komplexität und der oft übersehene Fakt, dass der Cluster nicht gegen logische Fehler oder verlorene Daten von Applikationen absichert.

Die Eine-Millionen-Euro-Frage: Was ist ihr RTO?
Worauf es letzten Endes ankommt, bei einer so wichtigen Zielstellung und sehr hohen Investitionen in die entsprechende Systeme: Was ist der RTO? Ein IT-Manager, dessen Aufgabe es ist den Betrieb koste es was es wolle jederzeit zu garantieren, sollte eigentlich in der Lage sein diese einfache Frage zu beantworten.

In der Realität funktioniert es nicht ganz so einfach. Auch mit den fortschrittlichsten und teuersten Speichersystemen, aufbauend auf Stretched-Cluster-Technologie, können die meisten IT-Manager keine Antwort über den RTO des von ihnen verwalteten Systems geben. Dies wäre exakt natürlich möglich, indem man einen Disaster-Recovery-Test durchführt. Das sollte auch regelmäßig geschehen, um zu bestätigen, dass das System funktioniert und im Notfall, bei einem echten Desaster, bereit wäre.

In der Theorie ist DR-Testing tatsächlich sehr einfach – Man zieht einfach den Stecker und startet die Stoppuhr. In der Praxis scheint das Vertrauen der meisten IT-Manager in ihr System, trotz der enormen Summen die sie gekostet haben, nicht sehr hoch zu sein. Niemand der seine fünf Sinne beisammen hat, würde an einem funktionierenden System einfach den Stecker ziehen – obwohl man sehr viel Geld dafür bezahlt hat, damit man genau das tun kann könnte. Insbesondere bei sehr großen Organisationen mit hohem Datenbestand kann es fast unmöglich sein, einen DR-Test durchzuführen. Allein die Planung kann mehrere Tage Vorbereitung benötigen, weil verschieden IT-Abteilungen involviert sind, die alle zur selben Zeit bereit sein müssen. Und die einzige Zeit im Jahr, zu der große Unternehmen tatsächlich einen DR-Test durchführen können, ist zwischen Weihnachten und Neujahr, damit man das System im Notfall noch richten könnte, falls tatsächlich etwas schief geht. Man hat schon von Fällen gehört, dass diese Großunternehmen einen DR-Test sogar innerhalb von acht Tagen nicht erfolgreich abschließen konnten, weil die Menge an zu bewegenden Daten einfach zu groß war, um den Test zu einhundert Prozent sicher zu gestalten.

Lesen Sie zum Thema "Compliance" auch: Compliance-Magazin.de (www.compliancemagazin.de)

Was jedoch sagt dies über die Compliance dieser Organisationen aus, wenn man in der Realität unfähig ist einen DR-Test durchzuführen? Gesetzliche Vorgaben, wie etwa in Deutschland das Bundesdatenschutzgesetz (BDSG), legen fest, dass "Es sichergestellt werden muss, dass personenbezogene Daten gegen zufällige Zerstörung oder Verlust geschützt werden." Diese Anforderung wird durch die sogenannten "8 Gebote der Datensicherheit" spezifiziert. Dort ist unter dem Punkt "Verfügbarkeitskontrolle" geregelt, dass als Maßnahme dafür das Vorhandensein eines Disaster- bzw. Backup-Konzepts vorgesehen ist. Die Realität sieht für die meisten Organisationen ganz anders aus, was im Umkehrschluss bedeutet, dass die meisten Organisationen trotz teurer Stretched-Cluster-Technology die gesetzlichen Vorgaben nicht erfüllen. Zum Kreis dieser Organisationen zählen laut Industrieexperten durchaus auch sehr große und bekannte Unternehmen aus der Medizin, dem Finanz- und Versicherungswesen.

Die Bedrohung durch Ransomware – ein Glück im Unglück?
Ein positiver Nebeneffekt der neuesten Ransomware-Attacken scheint zu sein, dass Organisationen so langsam verstehen, dass ihr System, aufbauend auf sicherer Hardware, sie nicht von ‚Katastrophen’ wie menschlichem Versagen oder Softwareproblemen schützt und sie allein mit einem Stretched Cluster nicht ausreichend geschützt sind. Obwohl es keine offiziellen Zahlen gibt, glauben Industrieexperten, dass circa 25 Prozent aller deutschen Krankenhäuser Opfer einer Ransomware-Attacke wurden und zum Teil monatelang an den Folgen zu leiden hatten, bevor die Systeme wieder liefen. Dies ist leider ein gutes Beispiel für eine schlechte DR-Strategie, weil natürlich niemand einen RTO von drei Monaten akzeptieren würde. Mit diesem gravierenden Defizit konfrontiert, müssen sich Organisationen damit auseinandersetzen über den Hardware-Ansatz hinaus zu blicken um sich vor Katastrophen zu schützen und gleichzeitig das Vertrauen darauf zurückzugewinnen, dass ihre Systeme sich jederzeit in Kürze wiederherstellen lassen.

Ein RTO von Null mit hardware-basierten DR-Strategien? Nicht in einer virtuellen Welt!
Ein weiteres Problem von DR-Testing ist, dass die meisten Applikationen heute konstant aktiv sind und es nicht möglich ist, sie einfach anzuhalten. Was für einen Test aber notwendig wäre. Ein ‚Transparent Failover’ auf Hardwareebene schaltet einfach ohne Unterbrechung von einem Speicher auf den anderen um. Dies funktioniert leider nicht bei Applikationen, die schlimmstenfalls mit mehreren Datenbanken gleichzeitig verbunden sind. Ein DR-Test würde die Applikation anhalten und auf einem anderen System neu starten. Eine kurze Unterbrechung ist folglich unausweichlich, weil Systeme heute in einer virtuellen Welt laufen und nicht mehr in einer physischen. Seitdem die meisten Umgebungen virtualisiert sind, muss die Frage erlaubt sein, warum viele Organisationen ihr Geld buchstäblich auf hardware-basierte DR-Strategien setzen, die dann nicht einmal einen RTO von Null garantieren können, weil die Applikationen, die auf dem System laufen, ohnehin virtualisiert sind und es auch nicht möglich ist einen effektiven DR-Test durchzuführen.

Hypervisor-basierte Replication
Um die Nachteile der derzeitig vorherrschenden DR-Strategie auszugleichen, müssen Organisationen zuerst einmal verstehen, dass ihre Hardware-basierte Strategie mit Snapshots für ein physisches Rechenzentrum entwickelt wurde und den Bedingungen einer virtuellen Welt nicht gerecht wird. Der nächste logische Schritt, um die Notfallwiederherstellung in einem virtualisierten Rechenzentrum zu garantieren, ist hypervisor-basierte Replikation, die nicht nur die Gefahr logischer Fehler bannt sondern auch das Testen von DR vereinfacht und damit das Vertrauen in die Systeme wiederherstellt. Das Resultat ist DR-Testen als tagtägliche Routine, ohne Planung und ohne Unterbrechung der Dienste, mit nur ein paar Klicks und einem anschließenden Report für Audits. Dies klingt bisher nach Zukunftsmusik für DR-gestresst IT-Admins. Dank hypervisor-basierter Replikation ist diese Zukunftsvision jedoch bereits heute Realität.

Über den Autor:
Johan van den Boogaart ist Regional Sales Manager bei Zerto, blickt auf fast zwei Jahrzehnte Erfahrung in der IT-Branche zurück und bekleidete während seiner Karriere verschiedene Vertriebspositionen in den Bereichen Storage, Disaster Recovery und Virtualisierung. Vor Zerto verantwortete Boogaart den Vertrieb von Nexenta und Open-E in der deutschsprachigen Region als Sales Manager. Bei Acronis bekleidete er davor den Posten des OEM/ Corporate Account Managers. Boogaart ist Diplom Kaufmann und Absolvent der Universität Groningen.
(Zerto: ra)

eingetragen: 18.09.16
Home & Newsletterlauf: 06.10.16


Zerto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser IT SecCity-Newsletter
Ihr IT SecCity-Newsletter hier >>>>>>

- Anzeigen -


Meldungen: Grundlagen

  • Internet-Ausfall: Stationärer Handel in der Klemme

    In nur wenigen Bereichen hat sich in den letzten 30 Jahren so viel verändert wie im stationären Handel. Während manche Einzelhändler das Internet immer noch als Bedrohung empfinden, profitiert das Gros von vielen Vorteilen, die das World Wide Web mit sich bringt. Beispiel Kartenzahlungen: Sie wären ohne Internetanbindung gar nicht möglich. Somit ist für Einzelhändler eine kontinuierliche Internetverbindung essenziell, ja gerade überlebenswichtig. Umso schlimmer, wenn das Netz ausfällt. Doch für den unangenehmen Fall der Fälle gibt es gute Lösungen. Ohne Internet sind moderne Verkaufserlebnisse undenkbar: Zu den neueren Entwicklungen im Einzelhandel zählt das so genannte Omni-Channel-Retailing. Dabei nutzen Shops oder Filialen mehrere, vor allem onlinebasierte Kanäle, um dem Kunden ein optimales Verkaufserlebnis zu bieten. So beispielsweise der Reifenwechsel am Auto: Bei größeren Werkstätten und Werkstattketten ist es heute State-of-the-Art, dass der Kunde seine Wunschreifen und Felgen online bestellt, eventuell unterstützt durch eine telefonische Beratung. Nach dem Kauf vereinbart er dann über eine Webseitenschnittstelle gleich den Montagetermin. Die Werkstatt erhält die Terminanfrage in ihrem CRM und bestätigt per E-Mail. Zum Termin liegen die bestellten Reifen in der Werkstatt bereit und werden montiert.

  • Cyber Intelligence - Mehr als ein Trend?

    Cyber Intelligence, auch Cyber Threat Intelligence oder nur Threat Intelligence, ist keine neue Disziplin innerhalb der Informationssicherheit. Die US-amerikanische National Security Alliance hat gemeinsam mit dem Beratungsunternehmen Deloitte bereits 2011 (!) verlautbaren lassen, dass Cyber Intelligence tatsächlich so etwas wie die intelligentere Art und Weise ist, mit Datenschutzverletzungen und Bedrohungsszenarien umzugehen. Zitat: "The consultancy Deloitte deems cyber intelligence as a vastly more sophisticated and full set of threat management tactics (than IT security itself), providing tools to move to a more proactive, over-the-horizon threat awareness posture."

  • Vorschriften im Gesundheitswesen

    Personenbezogene Daten geheim und sicher zu halten, ist im Gesundheitssektor immens wichtig. Mittlerweile ist es bereits 21 Jahre her seit Titel I des Health Insurance Portability and Accountability Act (HIPAA) in den Vereinigten Staaten verabschiedet wurde, um den Krankenversicherungsschutz für Arbeitnehmer und Familien zu gewährleisten. 2003 wurde Titel II als nationaler Standard für elektronische Transaktionen im Gesundheitswesen und nationale Kennzeichnungsvorschriften für Versorger, Krankenversicherungen und Mitarbeiter eingerichtet. Zu diesem Zeitpunkt wurden etliche Datenschutz- und Sicherheitsregeln zum Schutz elektronischer Gesundheitsdaten (e-PHI) definiert. Vor einigen Jahren haben der US-Kongress und das Department of Health and Human Services (Gesundheitsministerium HHS) im Cybersecurity Act von 2015 die Health Care Industry Cybersecurity (HCIC) Task Force eingerichtet. Grund war die wachsende Sorge um Risiken und Bedrohungen der Cybersicherheit für das Gesundheitswesen. Erst vor kurzem hat die Task Force ihre Ergebnisse in einem sehr detaillierten Report on Improving Cybersecurity in the Health Care Industry veröffentlicht. Der Report betont die Dringlichkeit der empfohlenen Maßnahmen angesichts der wachsenden Zahl komplexer Cyberbedrohungen. Das Gesundheitswesen müsse eben diese Maßnahmen zeitnah zum Schutz von Systeme und Patienten umsetzen.

  • Datensicherheit und Datenschutz

    Im Mai 2018 wird das EU-Regelwerk zum Datenschutz scharf gestellt. Unternehmen bleibt nicht viel Zeit, ihre IT für einen gesetzeskonformen Umgang mit personenbezogenen Daten umzubauen. Dabei ist mehr als Datenklassifizierung, Risikoanalyse und Dokumentation gefragt. Die gute Nachricht: Es ist noch nicht zu spät. Der Datenschutz in Europa wird vereinheitlicht. Darauf zielt die EU-Datenschutz-Grundverordnung (DSGVO) ab. Das Regelwerk, die Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates, wurde im April 2016 im EU-Parlament verabschiedet und am 4. Mai 2016 im EU-Amtsblatt veröffentlicht. Die 28 EU-Mitgliedstaaten haben bis zum 25. Mai 2018 Zeit, alle Vorgaben umzusetzen. In Europa gibt es Richtlinien, die von den EU-Staaten in nationales Recht umgesetzt werden müssen und Verordnungen, die unmittelbar geltendes Recht sind.

  • Googeln für Hacker

    Google ist die Suchmaschine schlechthin, auch wenn die Datensammelwut des Weltkonzerns aus Mountainview immer wieder kontrovers diskutiert wird. Fast 80 Prozent der Suchanfragen weltweit gehen an Google, während andere Suchmaschinen noch nicht einmal die 10-Prozent-Hürde schaffen. Bei Mobilgeräten liegt der Anteil von Google sogar bei mehr als 96 Prozent. Das ist selbst für Laien keine Überraschung. Weniger verbreitet ist das Wissen, dass Google sich auch bei Hackern großer Beliebtheit erfreut. Verschiedene versteckte Funktionen ermöglichen es Eingeweihten, sehr schnell an umfangreiche Listen potenzieller Opfer zu kommen. Versehentlich freigegebene Dokumente ausspähen, verwundbare Log-in-Seiten finden oder sich in schlecht geschützte Webcams einloggen - Google liefert bequem die einfachsten Ziele. Das ist nicht alles: durch verschiedene Tricks kann sich ein Angreifer quasi hinter der "harmlosen" Suchmaschine verstecken und so gezielt seine Spuren verwischen.