Disaster-Recovery-Plan implementieren

Unternehmen benötigen eine effiziente Backup- und Wiederherstellungs-Strategie – idealerweise mit einer zentralen, einfachen Verwaltung und mit klar definierten Service Level Agreements (SLAs)

Die traditionelle 3-2-1-Regel empfiehlt, dass man mindestens drei Kopien der Daten aufbewahrt



Was haben Fotografie und Backups gemeinsam? Auf den ersten Blick nicht viel. Aber interessanterweise verdanken wir die bekannte und vielfach angewendete 3-2-1-Backup-Regel einem professionellen Fotografen. Peter Krogh stellte das Konzept in seinem 2009 erschienenen Buch "The DAM Book: Digital Asset Management for Photographers" vor. Diese Backup-Strategie hat seither entscheidend dazu beigetragen, Datenverluste in Unternehmen zu verhindern. Allerdings sind 11 Jahre in der digitalen Welt eine enorme Zeitspanne. Es lohnt sich daher, über eine Aktualisierung der gleichermaßen beliebten wie betagten Regel nachzudenken – insbesondere vor dem Hintergrund der anhaltenden und wachsenden Gefahr durch Ransomware.

Wenn ein Unternehmen angegriffen wird, kann jede Sekunde eines Systemausfalls katastrophale Auswirkungen haben. Laut Gartner können die Kosten pro Minute bis zu 5.600 US-Dollar betragen. Ein nicht unerhebliches Problem bei der traditionellen 3-2-1-Backup-Regel kommt bei der gewünschten Wiederherstellungszeit (RTO) und dem angestrebten Wiederherstellungspunkt (RPO) zum Tragen. Oft können beide nicht eingehalten oder erreicht werden. Noch schlimmer: Die Backups sind kompromittiert und die Gefahr eines kompletten Datenverlusts ist groß – selbst wenn man das Lösegeld bezahlt. Es ist also sinnvoll sich einen zeitgemäßen Ansatz für die 3-2-1-Regel zu überlegen.

Die traditionelle 3-2-1-Regel und die langsame Wiederherstellung

Die traditionelle 3-2-1-Regel empfiehlt, dass man mindestens drei Kopien der Daten aufbewahrt. Zwei Kopien sollen vor Ort auf unterschiedlichen Medien (oder auf zwei Festplatten auf unterschiedlichen Systemen) gespeichert sein. Eine dritte Kopie wird laut der Regel an einem entfernten Ort aufbewahrt. Damit hätte man zwei Kopien auf verschiedenen Medien an zwei Lokationen oder auf zwei Geräten. Das wäre prinzipiell gleichbedeutend mit einem schnellen Zugriff auf das Backup, sollte der Primärspeicher ausfallen. Doch das ist nicht immer der Fall. Angenommen, es tritt eine standortweite Katastrophe ein und es fallen beide Speichersysteme aus? Und was, wenn eine Ransomware in das System des Administrators gelangt und sich die Schadsoftware wie ein Lauffeuer ausbreitet und sogar den Sekundärspeicher infiziert?

Tritt dieser Fall ein und sind die primären Speicher und die Backups vor Ort kompromittiert, dann fährt man alle Systeme herunter und startet anschließend den Backup- und Disaster-Recovery-Prozess. Im selben Moment widmet man sich den verbleibenden Offsite-Backups. Und genau an diesem Punkt beginnen die Probleme. Da Sekundärspeicher in erster Linie auf die Sicherheit und Skalierbarkeit von Backups zu relativ geringen Kosten ausgelegt wird, kommt häufig bandbasierter Speicher zum Einsatz. Tape ist zwar vergleichsweise günstig, jedoch langsam. Selbst der Einsatz herkömmlicher Festplatten anstelle von Tape behindert eine schnelle Wiederherstellung allein aufgrund von Bandbreitenbeschränkungen. Die Folge: Es nimmt eine lange Zeit in Anspruch, bis Anwendungen und Daten nach einer Katastrophe wiederhergestellt und online sind. Diese Zeit kann für Unternehmen sehr kostspielig oder sogar existenzgefährdend sein. Darum gilt es, einen 3-2-1-Ansatz zu finden, der eine schnelle Wiederherstellung garantiert.

100%iger Datenschutz inklusive schneller Wiederherstellung

In der traditionellen 3-2-1-Regel bezieht sich die 2 auf die Anzahl der Medientypen (und/oder separaten Systeme), die zum Einsatz kommen. In einer überarbeiteten Regel sollte sich die 2 besser auf die Standorte beziehen.

Es ist sinnvoll, die erste Kopie so nah wie möglich an den Endpunkten zu positionieren. Damit können Daten im Katastrophenfall schnell wiederhergestellt werden und man braucht sich keine Sorgen um Latenz oder den Zugriff zu machen. Die zweite Sicherungskopie sollte außerhalb des Virtual Local Area Network (VLAN) oder entfernt vom Standort aufbewahrt werden. Wenn die Kopie nicht innerhalb des VLAN oder des Standorts aufbewahrt wird, sind die Daten vor den meisten Schadprogrammen oder vor Ransomware geschützt. Die externe Aufbewahrung schützt zudem bei einer standortweiten Katastrophe, beispielsweise Feuer oder Überflutungen.

Backup und Wiederherstellung nach Plan ohne viel Administration

Unternehmen benötigen eine effiziente Backup- und Wiederherstellungs-Strategie – idealerweise mit einer zentralen, einfachen Verwaltung und mit klar definierten Service Level Agreements (SLAs). Damit werden die gewünschten RTOs und RPOs erreicht. Sollte ein Primärsystem aus welchen Gründen auch immer ausfallen, muss ein Unternehmen in der Lage sein, die ausgefallenen Server inklusive der Dateien und Ordner innerhalb von Sekunden aus dem Backup wiederherzustellen.

Einfache Skalierbarkeit, kontinuierliche Datensicherung

Unveränderliche Snapshots sind eine wichtige Funktion zum Schutz vor Ransomware. Mit Snapshots kann man Daten beispielsweise alle 90 Sekunden sichern. Das Elegante an dieser Art der Sicherung ist, dass Snapshots in einem versteckten Share und ausschließlich mit Lesezugriff gespeichert werden. Damit sind sie automatisch vor Ransomware und einer Verschlüsselung geschützt. Noch besser: Sollten die Daten auf dem primären Speicher kompromittiert werden, können alle Daten innerhalb von 15 Sekunden aus den versteckten und sicheren Kopien wiederhergestellt werden.

1 für 100%ige Geschäftskontinuität

Es stellt sich die Frage, was passiert, wenn die lokale Kopie und der externe Speicher bei einer Katastrophe ausfallen? Hier kommt die 1 der 3-2-1-Regel ins Spiel. Sie bezieht sich auf die Speicherung der dritten Kopie an einem sicheren, externen Ort. Heute handelt es sich dabei oft um Cloud-Speicher, der auch in Bezug auf Kosten und Skalierbarkeit eine sinnvolle Alternative darstellt. Allerdings ist der Transfer großer Datenmengen zwischen lokalen Systemen und der Cloud sehr bandbreitenintensiv und kann das lokale Netzwerk beeinträchtigen. Wenn die benötigte Geschwindigkeit für eine schnelle Wiederherstellung nicht zur Verfügung steht und die Einhaltung von RTO und RPO nicht garantiert werden kann, gibt es Möglichkeiten, auch mit Cloud-Speicher eine Geschäftskontinuität zu erreichen. Beispielsweise können Lösungen wie das zusätzliche Starten virtueller Server in der Cloud die Zeit während der Wiederherstellung der lokalen Systeme sinnvoll überbrücken und das Unternehmen arbeitsfähig halten.

Einige Teile der 3-2-1-Regel sind auch heute noch sinnvoll. Allerdings muss das Prinzip an die heutigen technologischen Möglichkeiten angepasst und mit besseren Methoden ergänzt werden. (StorageCraft Technology: ra)

eingetragen: 03.09.20
Newsletterlauf: 25.11.20

StorageCraft Technology: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

Deutliche Verbesserung der Netzwerksicherheit

Täglich neue Angriffsszenarien, der Mangel an und die Kosten von Security-Fachkräften sowie die Vermehrung staatlich unterstützter Hackergruppen machen den Einsatz von Künstlicher Intelligenz und Machine Learning in der Verteidigung gegen Cyberangriffe unabwendbar, so der Schweizer Security-Spezialist Exeon Analytics. Während Unternehmen immer mehr Daten sammeln, um bösartiges Verhalten zu erkennen, wird es immer schwieriger, trügerische und unbekannte Angriffsmuster und damit die sprichwörtliche Nadel im Heuhaufen zu entdecken.

Lückenlos Ende-zu-Ende-verschlüsselt

Smartphone und Tablet sind im Homeoffice und unterwegs beliebte Arbeitsgeräte – praktisch für Mitarbeitende und verlockend für Cyberkriminelle. So nutzen Hacker die mobilen Endgeräte oft und gerne für ihre Angriffe. Der Kommunikations-Anbieter Materna Virtual Solution zeigt, welche Sicherheitsrisiken beim dezentralen Arbeiten lauern. E-Mails beantworten, Dokumente bearbeiten, Fotos aufnehmen: Mobile Endgeräte sind bei vielen Anwenderinnen und Anwendern auch beruflich im Dauereinsatz. Nicht selten erlauben Unternehmen ihren Mitarbeitenden, private Smartphones auch geschäftlich zu nutzen (Bring Your Own Device – BYOD) oder firmeneigene Mobiltelefone auch privat zu nutzen (Corporate Owned, Personally Enabled – COPE). Doch egal, ob BYOD oder COPE: Beide Modelle sind anfällig für Hackerangriffe. Um die Sicherheit der mobilen Endgeräte und die Integrität des Datentransfers beim Arbeiten aus dem Homeoffice und von unterwegs gewährleisten zu können, müssen sich Unternehmen der drohenden Risiken bewusst werden und sich gezielt davor schützen.

Phishing-Betrügereien effektiver gestalten

ChatGPT, entwickelt vom US-amerikanischen Unternehmen OpenAI, ist ein Chatbot, der weltweit für Aufsehen sorgt. Bisher ist ChatGPD die am schnellsten wachsende App der Geschichte und hat in nur zwei Monaten 100 Millionen aktive Nutzer erreicht – der bisherige Rekordhalter TikTok benötigte dafür neun Monate. Dieses leistungsstarke Open-Source-Tool ist zum Beispiel in der Lage, Schulaufsätze zu schreiben, rechtliche Vereinbarungen und Verträge aufsetzen oder komplexe mathematische Probleme zu lösen.

Keine Chance für Ransomware

Die Bedrohung durch Ransomware wächst, doch mehr und mehr ausschließlich in die Erkennung der Schadprogramme zu investieren, ist nicht zielführend. Forcepoint erläutert, wie ein zuverlässiger Schutz aussieht, der auf Zero Trust setzt. Bei einer typischen Ransomware-Attacke nutzen Cyberkriminelle üblicherweise eine Sicherheitslücke oder die Unachtsamkeit eines Anwenders aus, um einen Rechner zu kompromittieren.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>

Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.