- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Disaster Recovery-Plan zwingend notwendig


Sechs Aspekte für einen effektiven Disaster Recovery-Plan
Die Bedeutung von effizienten Datenmanagements in Notfällen

(15.04.16) - Unternehmen, die heute mehr denn je auf IT-Verfügbarkeit und ihre Daten angewiesen sind, müssen sicherstellen, dass sie richtig vorbereitet sind, um mit einer Katastrophe fertig zu werden. Deshalb ist ein umfassender Disaster Recovery-Plan zwingend notwendig, um den Betrieb so schnell wie möglich wieder aufnehmen zu können. Actifio, spezialisiert auf Copy-Data-Virtualisierung, verdeutlicht aus der Perspektive des Datenmanagements, worauf es bei Disaster Recovery, also der Wiederherstellung im Notfall, ankommt.

"Unternehmen können planen, für den Ernstfall trainieren und Sie können noch so viele Maßnahmen treffen, um sich gegen eine Katastrophe zu wappnen. Diese passiert jedoch oft, wenn sie am wenigsten erwartet wird. Egal ob eine Naturkatastrophe ist, die ein Rechenzentrum offline schaltet, oder ein Cyberangriff, der kritische Systemschäden hinterlässt: Mögliche Katastrophenszenarien gibt es viele – und die Folgen sind teuer", erklärt Thorsten Eckert, Sales Director DACH bei Actifio. "Laut Analysen von Gartner kann ein Unternehmen bei einem Systemausfall durchschnittlich 5.600 US-Dollar pro Minute verlieren – und damit über 300.000 US-Dollar pro Stunde."

Ein Disaster Recovery-Plan muss daher absolut wasserdicht sein, was im Falle einer Überschwemmung sogar wörtlich genommen werden kann. Actifio hat sechs entscheidende Aspekte zusammengestellt, die beim Thema Disaster Recovery zu beachten sind:

1) Hat Ihr Disaster Recovery-Team definierte Rollen?
Entscheidende Komponente eines Disaster Recovery-Plans ist ein Team mit definierten Rollen. Dabei ist es wichtig, die individuellen Verantwortlichkeiten und Autoritätsebenen zu berücksichtigen. Zur gleichen Zeit gilt es einen Kommunikationsplan aufzustellen. Dazu gehören Kontaktinformationen, um mit dem verantwortlichen Team jederzeit in Kontakt treten zu können. Klar definierte Rollen zusammen mit dem Kommunikationsplan erleichtern die Durchführung eines Disaster Recovery-Plans erheblich.

2) Sind Sie auf unerwartete Ausgaben vorbereitet?
Während eine Katastrophe selbst nicht vorhersehbar ist, ist es absehbar, dass diese Kosten nach sich ziehen kann, etwa für ein Cloud-Failover. Ebenso kann es nötig sein, Berater und Dienstleister zur Unterstützung heranzuziehen. Diese ungeplanten Kosten müssen im Disaster Recovery-Plan berücksichtigt werden. Actifio empfiehlt zudem, die Datensicherung generell zu überdenken. Datenmanagement auf Basis von Copy-Data-Virtualisierung bietet neben operativen Vorteilen wie schnellere Datenverfügbarkeit auch bessere Kosteneffizienz im Vergleich zu herkömmlichen Methoden.

3) Sind Ihre Daten mobil?
Wenn ein Rechenzentrum offline ist, müssen die Daten vorübergehend an einem anderen Ort, etwa in der Cloud, vorgehalten werden. Ziel ist es, so schnell wie möglich wieder darauf zugreifen zu können. Sind die Daten auf eine physische Infrastruktur angewiesen sind oder können auf einfache Weise bewegt werden? Datenmobilität bedeutet auch sofortigen Self-Service-Datenzugriff. Dies beschleunigt die Anwendungsentwicklung, erhöht die Produktivität und sorgt schneller für geschäftlichen Mehrwert. Bei Datenmobilität geht es darum, die Mobilität der Daten zwischen verschiedenen Speicherorten mit dem geringsten Aufwand an Tools und Arbeitszeit zu erreichen.

4) Kennen Sie die größten Schwachstellen?
Bei der Erstellung eines Disaster Recovery-Plans ist es wichtig, sich bewusst zu sein, welche Probleme höchstwahrscheinlich auftreten könnten und sich auf diese Schwachstellen zu konzentrieren. Typische Beispiele sind Fehler im IT-Betrieb, Datenbank-Inkonsistenzen und Datenlecks. Diese Schwachstellen zu identifizieren, sorgt dafür, dass der Disaster Recovery-Prozess im Ernstfall glatt läuft. Zur gleichen Zeit ist es wichtig, eine ganzheitliche Sicht auf die Infrastruktur zu gewinnen und sicherstellen, dass alle Speicherorte abgedeckt sind. Denn "alles, was schiefgehen kann, wird schiefgehen", so Murphys Gesetz.

5) Funktioniert der Plan?
Nun gilt es den Plan zu testen, um sicherzustellen, dass er im Ernstfall auch funktioniert. Nach dem Test muss das Ergebnis analysiert werden, um gegebenenfalls einzelne Details zu verbessern. Sobald die Optimierung abgeschlossen ist, sollte der Plan konsequent regelmäßig getestet werden, um im Ernstfall optimale Unterstützung zu leisten.

6) Sind Ihre Systeme auf dem neuesten Stand?
Ebenfalls entscheidend für eine effektive Disaster Recovery-Fähigkeit sind Systeme, die auf dem aktuellen Stand der Technik sind. Ist die modernste Backup- und Recovery-Lösung im Einsatz oder wurden immer wieder Lösungen angedockt, die im Zusammenspiel mit der bestehenden Umgebung nicht richtig funktionieren? Neueste Datenmanagement-Technologien wie Copy-Data-Virtualisierung machen auch den Disaster Recovery-Plan effektiver. Risiken wie kompletter Datenverlust, unvorhergesehene Ausgaben und der Verlust von Kundenvertrauen können vermieden werden, wenn bereits bei der Planung alle genannten Aspekte berücksichtigt werden. Durch schnelle Wiederherstellung, werden Ausfallzeiten und Kosten minimiert. Das macht der IT-Abteilung das Leben leichter – und dem gesamten Unternehmen. (Actifio: ra)

Actifio: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.