- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

BSI hebt RZ-Distanz drastisch an


Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern
Der Grund, die Entfernung anzuheben, liegt laut BSI darin, dass es nicht möglich sei, "zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen"

- Anzeigen -





Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert.

Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher.

"Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

Der Grund, die Entfernung anzuheben, liegt laut BSI darin, dass es nicht möglich sei, "zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen". Im Klartext geht es um regionale Katastrophen, die auf einen Schlag beide Rechenzentren ausfallen lassen könnten. Dazu zählen neben Naturkatastrophen wie Überschwemmungen, Großbrände, Erdbeben, Vulkanausbrüchen oder Tsunamis auch von Menschenhand gemachte Unglücke, wie etwa Störfälle in Atommeilern. Für Betreiber von Rechenzentren, insbesondere, die vom Gesetzgeber als "kritische Infrastrukturen" eingestuften, hat diese Änderung weitreichende Folgen.

Empfehlungen des BSI für den sicheren Betrieb von Rechenzentren gelten vielen Organisationen als Richtschnur für den sicheren IT-Betrieb. Viele Branchen folgen den Empfehlungen deshalb freiwillig, andere, wie etwa die Bankenbranche, werden von ihren eigenen Verbänden bindend zur Einhaltung der Richtlinien des BSI angehalten.

Die Herausforderungen sind Migration, neue Technologien und eine Anpassung der Cloud-Strategie
Die neuen Kriterien des BSI für die Standortwahl hochverfügbarer und georedundanter Rechenzentren werden Unternehmen kurzfristig vor zahlreichende Herausforderungen stellen und vielerorts eine Anpassung der heutigen DR-Strategie erfordern.

Unternehmen, die die bisher empfohlenen fünf Kilometer zwischen ihren georedundanten Rechenzentren einhielten, müssen sich nun nach mindestens einem neuen Standort für das zweite Rechenzentrum umschauen. Und das wird kein Kinderspiel, bedeutet der Wechsel doch eine umfangreiche Migration von Infrastruktur, Daten und aktiven Workloads. In vielen Fällen werden Organisationen ihre heutigen Disaster-Recovery-Strategien überdenken und entsprechend anpassen müssen.

Neue Voraussetzungen haben direkte Folgen für BC/DR
Auch auf die von vielen Unternehmen genutzten Systeme für BC/DR, die auf Technologien wie synchroner Spiegelung, Backups und Snapshots aufbauen, hat die Empfehlung Folgen: Mit der weiteren Entfernung erhöhen sich gleichzeitig die Latenzzeiten der Daten, die zwischen den Rechenzentrum hin und her verschoben werden. Die deutlich höhere Latenzzeit zweier so weit voneinander entfernter Rechenzentren macht insbesondere die Synchrone Replikation von Daten, auf der die Hochverfügbarkeit vieler Systeme aufbaut, effektiv unmöglich.

Wenn die verwendeten Technologien aufgrund geänderter Rahmenbedingungen nicht mehr funktionieren, bedeutet dies für Unternehmen, dass sie vor dem Problem stehen, zukünftig ihre VMs mit minimalem Performanceverlust und geringen RPOs zu schützen. Und zu guter Letzt, kann diese neue Empfehlung komplette DR- und Backupstrategien. die auf der Basis der bisherigen Richtlinien erstellt wurden, auf den Kopf stellen. Ganz gleich in welchem Stadium der Migration in das neuen DR-Rechenzentrum einer Organisation sein mag, die neue Richtlinie hat sehr wahrscheinlich Einfluss auf die DR-Strategien der meisten Unternehmen.

Die Stunde von asynchroner Replikation und CDP scheint gekommen
"Die meisten Unternehmen werden ihr zweites georedundantes Rechenzentrum wohl in einem Umreis von weniger als 200 Kilometern haben und sind demzufolge unmittelbar von der neuen Empfehlung des BSI betroffen," kommentiert Johan van den Boogaart von Zerto die neue Empfehlung des BSI und ihre Folgen. "Somit stehen diese Unternehmen jetzt vor der Wahl, entweder ein drittes, weiter entferntes RZ aufzubauen, oder gleich in die Cloud zu migrieren. Dabei gibt es jedoch einen Haken. Die weitere Entfernung bereitet hinsichtlich Latenz, Bandbreite und der Größe von Snapshots unlösbare Probleme. Unter Berücksichtigung all dieser Faktoren, bleibt nahezu nur eine technische Möglichkeit auf diese weite Entfernung Redundanz zu gewährleisten: Continuous Data Protection, kurz CDP, mit asynchroner Replikation." (Zerto: ra)

eingetragen: 05.04.19
Newsletterlauf: 09.05.19

Zerto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • MySQL als unorthodoxes neues Einfallstor

    Cyberkriminelle finden immer wieder Wege, unbemerkt in Systeme einzusteigen, um von der Ferne aus Schadcode auszuführen. Beliebt als Einstiegsluken hierfür sind beispielsweise RDP oder SSH. Nun rückt auch SQL als Zugriffsmöglichkeit in den Fokus. Ein Sophos-Honeypot konnte kürzlich einen typischen Angriff über MySQL dokumentieren. Hacker haben verschiedene Möglichkeiten, in Systeme zu gelangen. Sie können etwa Schwachstellen und Exploits für ausgeklügelte Hackerangriffe verwenden, um vorhandene Sicherheitsüberprüfungen zu umgehen und Server dazu zu bringen, Schadsoftware auszuführen. Sie können aber auch versuchen herauszufinden, wie man ohne viel Aufwand über einen offiziellen Eingang und mit offiziellen Systembefehlen illegal und unbemerkt in fremde Systeme einsteigen kann.

  • Kontrolle von und über Zugriffsberechtigungen

    Gesetzliche Vorgaben einhalten, IT-Sicherheit gewährleisten und den Datenschutz nicht vernachlässigen - nur ein kleiner Einblick in die Aufgaben und Herausforderungen, die Unternehmen bewältigen müssen. Doch wie lassen sich diese Anforderungen professionell erfüllen? Die Verwaltung von Benutzern und deren Zugriffsberechtigungen nimmt dabei in jeder ganzheitlich ausgerichteten IT-Security-Strategie eine wesentliche Rolle ein. Access-Management ist im Zeitalter von Industrie 4.0 und Internet of Things unverzichtbar. Heutzutage vernetzt sich jedes Unternehmen vielfach mit Lieferanten, Kunden, Partnern sowie Mitarbeitern und tauscht sämtliche Daten mit diesen aus. Diese weltweite Vernetzung bietet viele Chancen aber auch Risiken: Denn die Zahl virtueller Angriffe mit dem Ziel an geschützte, häufig hoch brisante Daten zu gelangen, steigt stetig. "Ohne die Kontrolle von und über Zugriffsberechtigungen funktioniert deshalb nichts mehr. Der Mehrwert von konsequentem, transparentem Access-Management stellt die flexible Nutzung von Vernetzungen bei deutlicher Risikominimierung dar", erläutert Dr. Consuela Utsch, Geschäftsführerin der Acuroc Solutions und der AQRO GmbH. "Ein effektives Access-Management führt dazu, dass sich Funktionen, Rollen und damit Verantwortlichkeiten an Veränderungen bei Bedarf automatisch anpassen."

  • Ein Jahr DSGVO: keinerlei Anlass zur Freude

    Im ersten Jahr nach Inkrafttreten der DSGVO hat sich das Datenrisiko in Deutschland nicht reduziert, sondern ist tendenziell noch gestiegen. Zu diesem Ergebnis kommt der Datenrisiko-Report der Security-Spezialistin Varonis Systems dem Risk Assessments bei rund 50 deutschen Unternehmen unterschiedlicher Größe - vom mittelständischen Hersteller bis hin zum international agierenden Healthcare/Biotech-Konzern - zugrunde liegen. Weltweit wurden insgesamt 700 Unternehmen aus rund 30 Branchen und mehr als 30 Ländern mit einem Datenvolumen von insgesamt 54,6 Petabytes analysiert.

  • Ausweitung der Videoüberwachung

    Spätestens seit den Enthüllungen des Whistleblowers Edward Snowden ist klar: Jeder kann in einem schier unglaublichen Umfang überwacht und ausspioniert werden, und das nicht nur von der NSA. Auch Unternehmen wie Facebook, Google und Amazon überwachen, wo es nur geht. Die Überwachung fängt zwar im Internet an, ist aber nicht auf dieses beschränkt. "Der Datenskandal der Deutschen Post zeigt, dass die Überwacher längst in den eigenen Reihen sitzen. Da wäre die Meldebehörde, die unsere Daten für Parteiwerbung weitergibt, wenn wir nicht widersprechen. Oder Reise-Anbieter, die aufgrund bisher gebuchter Reisen neue passende Angebote machen. Oder auch Auskunfteien wie die Schufa, die überlegt hatte, Facebook-Daten für die Schufa-Auskunft mit auszuwerten", macht Christian Heutger, IT-Sicherheitsexperte bei der PSW Group Consulting aufmerksam.

  • Best Practices-Checkliste für die Cyber-Hygiene

    Nicht nur für die menschliche Gesundheit, sondern auch in der IT-Sicherheit gilt: Vorbeugen ist besser als Heilen. Angesichts steigender Bedrohungen durch fortschrittliche Malware und Datendiebstahl in großem Stil, ist eine solide Cyber-Hygiene für die gesamte Hard- und Software eines Unternehmens essentiell. Regelmäßig durchgeführte Hygienepraktiken sorgen dafür, Systeme effizient zu halten und vor Angriffen zu schützen. In Unternehmen gibt es viele Elemente, die ohne adäquaten Cyber-Hygiene-Plan zu Schwachstellen führen und damit die Geschäftskontinuität gefährden können. Deshalb sollten alle Geräte, Softwareprogramme und Web-Anwendungen in einen kontinuierlichen Wartungsplan aufgenommen werden. Hierdurch erfolgt eine grundlegende Prävention gegen Cyberattacken. Zudem ermöglicht die regelmäßige Wartung bestmögliche Effizienz der eingesetzten Soft- und Hardware. Schwachstellen werden frühzeitig erkannt und schwerwiegende Probleme vermieden. Obwohl mit jedem digitalen Puzzleteil zahlreiche Bedrohungen einhergehen, ist die Einführung einer effektiven Cyber-Hygiene-Routine nicht so schwierig, wie es auf den ersten Blick scheint. Einige wenige Best Practices, die regelmäßig umgesetzt werden, können die Sicherheit eines jeden Systems enorm verbessern.