- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Public Clouds bringt viele Risiken mit sich


Hochverfügbarkeit von Cloud-Anwendungen für den Mittelstand
Vor allem beim Einsatz von Public Cloud-Technologien müssen Manager zwischen Kostenvorteilen und der Verfügbarkeit von IT-Systemen abwägen



Jedes zweite mittelständische Unternehmen nutzt derzeit Anwendungen und Apps aus der Cloud, so eine Analyse von Techconsult. Bis Ende 2018 werden voraussichtlich 50 Prozent der genutzten Software-Lösungen aus der Cloud kommen. Eine Untersuchung von IDC zeigt, dass kleine und mittelständische Betriebe für weltweit bis zu 40 Prozent der Public Cloud-Ausgaben bis zum Jahr 2019 verantwortlich sein könnten. Bei der zunehmenden Integration von Cloud-Ressourcen und der steigenden Bedeutung von Daten als Produktionsfaktor wird es für Unternehmen immer wichtiger, ausfallsichere IT-Infrastrukturen zu betreiben.

Lesen Sie zum Thema "Cloud Computing" auch: SaaS-Magazin.de (www.saasmagazin.de)

Was es dabei zu beachten gilt, und wie Cloud-Technologien beitragen, die Verfügbarkeit von IT-Systemen sicherzustellen, zeigt Christian Lorentz, Senior Product and Solution Marketing Manager bei NetApp.

Vor allem beim Einsatz von Public Cloud-Technologien müssen Manager zwischen Kostenvorteilen und der Verfügbarkeit von IT-Systemen abwägen. Geschäftsführer von kleinen und mittelständischen Unternehmen (KMU) gehen häufig davon aus, dass sie keine Verfügbarkeitslösungen benötigen, da sie vergleichsweise geringe Datenmengen in die Cloud übertragen. Das ist ein Irrtum, denn die folgenden Ursachen für Anwendungsausfälle können Unternehmen jeder Größe treffen:

>> Missmanagement: Menschliche Fehler sind die Hauptursache für Ausfälle von Cloud-Anwendungen. Unabhängig vom Umfang der Workloads kann eine Cloud-Anwendung nur unterbrechungsfrei laufen, wenn sie korrekt administriert wird.

>> Anwendungsfehler: Ähnlich wie bei klassischen Anwendungen müssen auch Public Cloud-Applikationen kontinuierlich getestet werden, um die Verfügbarkeit sicherzustellen.

>> Sicherheitsrisiken: Public Clouds bringt viele Risiken mit sich – doch häufig gewinnt der Funktionsumfang der Public Cloud-Anwendungen gegenüber den Sicherheitsbedenken. Wenn aber ein DDoS-Angriff eine Standardanwendung zum Absturz bringen kann, dann besteht dieses Risiko auch für eine in der Cloud betriebene Anwendung.

Dies sind nur drei von vielen möglichen Ursachen für Anwendungsausfälle. Ohne eine Verfügbarkeitslösung drohen KMU unzufriedene Kunden und Umsatzverluste. Daher sollten IT-Verantwortliche Konzepte implementieren, um die Hochverfügbarkeit ihrer geschäftskritischen Software-Applikationen zu sichern. Hierbei sind sechs Punkte wichtig:

>> Datenverluste vermeiden: Ziel ist ein Recovery Point Objective von Null, also dass ein Backup mit möglichst aktuellen operativen Daten arbeitet.
>> Kurze Wiederherstellungszeiten: Recovery Time Objective sollte weniger als 60 Sekunden betragen.
## Funktionen zur Wiederherstellung sollten bereits in der Datenmanagementlösung integriert sein, also unabhängig von externer Software funktionieren.
## Setup und Failover sollten automatisiert arbeiten.
## Monitoring und Administration müssen einfach bedienbar sein.
## Unterstützung eines unterbrechungsfreien Systemmanagements.
## Herkömmliche Verfügbarkeitslösungen, die all diese Anforderungen erfüllen, nutzen häufig teure geclusterte Storage Area Netzwerke, welche nur durch geschultes IT-Personal bedient werden können und sind daher eher für große Unternehmen geeignet. Eine gute Hochverfügbarkeits-Storage-Lösung für KMU sollte folgende Vorteile für eine Kostenersparnis bieten:

>> Thin-Provisioning: Flexible Plattenspeicherplatzzuteilung, abhängig vom erforderlichen Mindestplatz pro Benutzer.
>> Komprimierung: Redundanzen in Dateien identifizieren und beseitigen, um Speicherplatz zu sparen.
>> Deduplizierung: Redundanzen über alle Dateien im Speichersystem hinweg reduzieren.
>> Pay as You Go Pricing: Die Kosten sollten sich am tatsächlichen Speicherbedarf orientieren.
(NetApp: ra)

eingetragen: 20.12.16
Home & Newsletterlauf: 17.01.17


NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.