Reality Check: Was ist ihr RTO?


Auch mit den fortschrittlichsten Speichersystemen können die meisten IT-Manager keine Antwort über den RTO des von ihnen verwalteten Systems geben
Viele Branchen haben konkrete Vorgaben des Gesetzgebers, definiert über die RTOs, zu erfüllen



Von Johan van den Boogaart, Regional Sales Manager bei Zerto

Unternehmen müssen sich darauf verlassen können, dass ihre IT und damit wichtige Applikationen stets verfügbar sind. Um konstante Verfügbarkeit zu bieten, ihre Systeme gegen Hardwareausfälle zu wappnen und gesetzeskonform mit geltenden Vorschriften zu sein, haben viele Unternehmen bislang in teure Speichersysteme als das Herzstück ihrer DR-Strategie (Disaster Recovery) investiert. In einer immer stärker virtualisierten IT-Welt erkennen IT-Manager nun, dass ihr Recovery Time Objective (RTO - Wie lange darf ein System ausfallen?), also die Zeit, die verstreicht, bis alle Systeme wieder verfügbar sind, keinesfalls wie erhofft Null" ist und in vielen Fällen tatsächlich gänzlich unbekannt ist. Dies liegt unter anderem daran, dass das Testen der Notfallwiederherstellung in einem operativen Umfeld auf aktiven Systemen in vielen Fällen unmöglich durchzuführen ist. Was genau sind die Schwächen derzeit gängiger DR-Strategien? Und welche neuen Lösungen können endlich einen kalkulierbaren RTO garantieren, DR-Testing vereinfachen und generell Komplexität aus dem System nehmen?

Der derzeitige Standard für DR: Stretched Cluster
Eine der wichtigsten Aufgabe einer jeden IT ist es, die Nutzung unternehmensrelevanter Applikationen ohne Unterbrechung zu garantieren. Gerade in der IT sind ganze Geschäftsmodelle darauf ausgerichtet, ihre Dienste 24/7 anzubieten, weil Kunden keinerlei Unterbrechung ihrer gebuchten Dienste akzeptieren. Viele Branchen haben sogar konkrete Vorgaben des Gesetzgebers, definiert über die RTOs, zu erfüllen. Um diese Ziele zu erreichen, haben viele Firmen in Stretched-Cluster-Technologie investiert, um bei Hardware-Ausfällen sogar für komplette Rechenzentren abgesichert zu sein. Snapshots und regelmäßige Backups auf der Softwareseite sind dazu gedacht, Recovery Point Objectives (RPOs Wie viel Datenverlust ist akzeptabel?) zu reduzieren und RTOs auf ein Minimum zu verkürzen. Der Stretched Cluster bietet im Idealfall einen transparent Failover bei einem Ausfall der Hardware. Die Nachteile eines Stretched Clusters hingegen sind die sehr hohen Kosten, die mit der Technologie einhergehende Komplexität und der oft übersehene Fakt, dass der Cluster nicht gegen logische Fehler oder verlorene Daten von Applikationen absichert.

Die Eine-Millionen-Euro-Frage: Was ist ihr RTO?
Worauf es letzten Endes ankommt, bei einer so wichtigen Zielstellung und sehr hohen Investitionen in die entsprechende Systeme: Was ist der RTO? Ein IT-Manager, dessen Aufgabe es ist den Betrieb koste es was es wolle jederzeit zu garantieren, sollte eigentlich in der Lage sein diese einfache Frage zu beantworten.

In der Realität funktioniert es nicht ganz so einfach. Auch mit den fortschrittlichsten und teuersten Speichersystemen, aufbauend auf Stretched-Cluster-Technologie, können die meisten IT-Manager keine Antwort über den RTO des von ihnen verwalteten Systems geben. Dies wäre exakt natürlich möglich, indem man einen Disaster-Recovery-Test durchführt. Das sollte auch regelmäßig geschehen, um zu bestätigen, dass das System funktioniert und im Notfall, bei einem echten Desaster, bereit wäre.

In der Theorie ist DR-Testing tatsächlich sehr einfach Man zieht einfach den Stecker und startet die Stoppuhr. In der Praxis scheint das Vertrauen der meisten IT-Manager in ihr System, trotz der enormen Summen die sie gekostet haben, nicht sehr hoch zu sein. Niemand der seine fünf Sinne beisammen hat, würde an einem funktionierenden System einfach den Stecker ziehen obwohl man sehr viel Geld dafür bezahlt hat, damit man genau das tun kann könnte. Insbesondere bei sehr großen Organisationen mit hohem Datenbestand kann es fast unmöglich sein, einen DR-Test durchzuführen. Allein die Planung kann mehrere Tage Vorbereitung benötigen, weil verschieden IT-Abteilungen involviert sind, die alle zur selben Zeit bereit sein müssen. Und die einzige Zeit im Jahr, zu der große Unternehmen tatsächlich einen DR-Test durchführen können, ist zwischen Weihnachten und Neujahr, damit man das System im Notfall noch richten könnte, falls tatsächlich etwas schief geht. Man hat schon von Fällen gehört, dass diese Großunternehmen einen DR-Test sogar innerhalb von acht Tagen nicht erfolgreich abschließen konnten, weil die Menge an zu bewegenden Daten einfach zu groß war, um den Test zu einhundert Prozent sicher zu gestalten.

Lesen Sie zum Thema "Compliance" auch: Compliance-Magazin.de (www.compliancemagazin.de)

Was jedoch sagt dies über die Compliance dieser Organisationen aus, wenn man in der Realität unfähig ist einen DR-Test durchzuführen? Gesetzliche Vorgaben, wie etwa in Deutschland das Bundesdatenschutzgesetz (BDSG), legen fest, dass "Es sichergestellt werden muss, dass personenbezogene Daten gegen zufällige Zerstörung oder Verlust geschützt werden." Diese Anforderung wird durch die sogenannten "8 Gebote der Datensicherheit" spezifiziert. Dort ist unter dem Punkt "Verfügbarkeitskontrolle" geregelt, dass als Maßnahme dafür das Vorhandensein eines Disaster- bzw. Backup-Konzepts vorgesehen ist. Die Realität sieht für die meisten Organisationen ganz anders aus, was im Umkehrschluss bedeutet, dass die meisten Organisationen trotz teurer Stretched-Cluster-Technology die gesetzlichen Vorgaben nicht erfüllen. Zum Kreis dieser Organisationen zählen laut Industrieexperten durchaus auch sehr große und bekannte Unternehmen aus der Medizin, dem Finanz- und Versicherungswesen.

Die Bedrohung durch Ransomware ein Glück im Unglück?
Ein positiver Nebeneffekt der neuesten Ransomware-Attacken scheint zu sein, dass Organisationen so langsam verstehen, dass ihr System, aufbauend auf sicherer Hardware, sie nicht von Katastrophen" wie menschlichem Versagen oder Softwareproblemen schützt und sie allein mit einem Stretched Cluster nicht ausreichend geschützt sind. Obwohl es keine offiziellen Zahlen gibt, glauben Industrieexperten, dass circa 25 Prozent aller deutschen Krankenhäuser Opfer einer Ransomware-Attacke wurden und zum Teil monatelang an den Folgen zu leiden hatten, bevor die Systeme wieder liefen. Dies ist leider ein gutes Beispiel für eine schlechte DR-Strategie, weil natürlich niemand einen RTO von drei Monaten akzeptieren würde. Mit diesem gravierenden Defizit konfrontiert, müssen sich Organisationen damit auseinandersetzen über den Hardware-Ansatz hinaus zu blicken um sich vor Katastrophen zu schützen und gleichzeitig das Vertrauen darauf zurückzugewinnen, dass ihre Systeme sich jederzeit in Kürze wiederherstellen lassen.

Ein RTO von Null mit hardware-basierten DR-Strategien? Nicht in einer virtuellen Welt!
Ein weiteres Problem von DR-Testing ist, dass die meisten Applikationen heute konstant aktiv sind und es nicht möglich ist, sie einfach anzuhalten. Was für einen Test aber notwendig wäre. Ein Transparent Failover" auf Hardwareebene schaltet einfach ohne Unterbrechung von einem Speicher auf den anderen um. Dies funktioniert leider nicht bei Applikationen, die schlimmstenfalls mit mehreren Datenbanken gleichzeitig verbunden sind. Ein DR-Test würde die Applikation anhalten und auf einem anderen System neu starten. Eine kurze Unterbrechung ist folglich unausweichlich, weil Systeme heute in einer virtuellen Welt laufen und nicht mehr in einer physischen. Seitdem die meisten Umgebungen virtualisiert sind, muss die Frage erlaubt sein, warum viele Organisationen ihr Geld buchstäblich auf hardware-basierte DR-Strategien setzen, die dann nicht einmal einen RTO von Null garantieren können, weil die Applikationen, die auf dem System laufen, ohnehin virtualisiert sind und es auch nicht möglich ist einen effektiven DR-Test durchzuführen.

Hypervisor-basierte Replication
Um die Nachteile der derzeitig vorherrschenden DR-Strategie auszugleichen, müssen Organisationen zuerst einmal verstehen, dass ihre Hardware-basierte Strategie mit Snapshots für ein physisches Rechenzentrum entwickelt wurde und den Bedingungen einer virtuellen Welt nicht gerecht wird. Der nächste logische Schritt, um die Notfallwiederherstellung in einem virtualisierten Rechenzentrum zu garantieren, ist hypervisor-basierte Replikation, die nicht nur die Gefahr logischer Fehler bannt sondern auch das Testen von DR vereinfacht und damit das Vertrauen in die Systeme wiederherstellt. Das Resultat ist DR-Testen als tagtägliche Routine, ohne Planung und ohne Unterbrechung der Dienste, mit nur ein paar Klicks und einem anschließenden Report für Audits. Dies klingt bisher nach Zukunftsmusik für DR-gestresst IT-Admins. Dank hypervisor-basierter Replikation ist diese Zukunftsvision jedoch bereits heute Realität.

Über den Autor:
Johan van den Boogaart ist Regional Sales Manager bei Zerto, blickt auf fast zwei Jahrzehnte Erfahrung in der IT-Branche zurück und bekleidete während seiner Karriere verschiedene Vertriebspositionen in den Bereichen Storage, Disaster Recovery und Virtualisierung. Vor Zerto verantwortete Boogaart den Vertrieb von Nexenta und Open-E in der deutschsprachigen Region als Sales Manager. Bei Acronis bekleidete er davor den Posten des OEM/ Corporate Account Managers. Boogaart ist Diplom Kaufmann und Absolvent der Universität Groningen.
(Zerto: ra)

eingetragen: 18.09.16
Home & Newsletterlauf: 06.10.16


Zerto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Grundlagen

Verstärkter Angriff auf Backup-Infrastrukturen

Ransomware-Angriffe nutzen Schwachstellen aus, um in Unternehmen einzudringen. Sie verschlüsseln Business-Daten und versuchen damit hohe Lösegeldzahlungen zu erpressen. Eine besonders stark betroffene Branche ist das Gesundheitswesen. Hier verzeichnete man im Jahr 2021 einen erschreckenden Anstieg der Ransomware-Angriffe um 755 Prozent.

Wie "grün" ist Tape?

Die aktuellen Zeiten des Klimawandels verbunden mit zahlreichen Umweltproblemen stellen Unternehmen jeder Art vor die Herausforderung umweltfreundlicher zu werden. Altmodisch nannte man dies Umweltschutz, heute spricht man von "Nachhaltigkeit" oder "ESG", kurz für Environmental Social and Governance. Gemeint ist im Prinzip dasselbe. Auch die IT muss sich der Frage stellen, wie nachhaltig sie ist. Kann sie etwaige negative Einflüsse auf die Umwelt verringern? Ein Faktor, an dem der Einfluss der IT messbar gemacht werden kann, ist die seit Beginn der digitalen Revolution in den 1980er Jahren exponentiell steigende Datenmenge – und natürlich deren Speicherung. Um dies mit einer Zahl zu verdeutlichen, wir steuern derzeit auf eine globale Datenmenge von 175 Zettabyte im Jahr 2025 zu. Es ist schwer zu beschreiben, was 175 Zettabyte tatsächlich darstellen. Mathematisch ausgedrückt sind ein Zettabyte jedenfalls 1,000,000,000,000,000,000,000 (1021) Bytes.

Präventiver Schutz alleine reicht nicht

In Zeiten von Ransomware, Insider Threats und Advanced Persistant Threats sind viele Unternehmen in puncto Security in der Defensive. Neben der eigentlichen Abwehr geht es im Kern darum, lange IT-Ausfallzeiten und Datenverluste zu vermeiden. Backups bieten bei der Wiederherstellung weniger wichtiger Daten eine einfache und praktikable Lösung. Kritische Daten und Workloads benötigen allerdings eine ausgereiftere Wiederherstellungstechnologie.

Erpressung durch Ransomware-Kriminelle

Moderne Datensicherung, bestehend aus zuverlässigem Backup und fehlerfreier Wiederherstellung, ist für viele Unternehmen und Institutionen kein unbekanntes Thema. Ein Bereich, den man nicht sofort auf dem Radar hat, ist jedoch die Finanzdienstleistungsbranche (FSI). Gerade hier sind sehr sensible – und damit für Hacker attraktive – Daten unterwegs, die dringend gesichert werden müssen, um die gesetzlichen Vorgaben zu erfüllen und den möglichen Schaden gering zu halten.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>


Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.