Die richtige Infrastruktur für das IoT


Virtuelle SANs bietet Hochverfügbarkeit für weit verzweigte Unternehmen und bieten die Grundvoraussetzung für industrielles IoT
Neue, software-definierte Technologien senken nun die Kosten für Hochverfügbarkeit und machen hochverfügbare IoT-Anwendungen zur Prozessoptimierung nun auch für kleinere Firmen möglich




Von Hans O"Sullivan, CEO von StorMagic

Vernetzte Systeme, die Prozesse überwachten und als Urahn des IoT gelten, gibt es tatsächlich schon sehr lange. Die Systeme wurden meist in der Industrie für die Prozessverwaltung und -automatisierung eingesetzt, lange bevor die Digitalisierung so gut wie alle IT-Systeme auf standardisierten x86-Systemen konsolidierte. Die Systeme waren selbstredend aufwändig in der Verwaltung, meist voneinander isoliert und der zuständige Administrator musste tatsächlich noch von einem System zum anderen gehen um nach roten Lämpchen Ausschau zu halten. Die moderne IT hat in den letzten Jahren auch für diese Anwendungsfälle Lösungen hervorgebracht, deren Applikationen Daten aus mehreren Systemen in Echtzeit konsolidieren und analysieren und sie in einem einzelnen Dashboard bereitstellen.
Ein Administrator kann Warnhinweise mehrerer Bestandteile eines Prozesses nun auf einmal beobachten und direkt darauf reagieren, anstatt durch die Produktionshalle zu laufen und nach Fehlerzuständen zu suchen und das prinzipiell auch von jedem Ort der Welt. Die Verwendung von moderner IT hat hier, wie in vielen Fällen, bestehende Lösungen vorteilhaft ersetzt.

Virtualisierung ermöglicht Verwaltung von entfernten Standorten
Gleichzeitig zur Konsolidierung von Prozessverwaltung und -automatisierung in die moderne IT hat die umfassende Virtualisierung die IT in Zweigniederlassungen stark vereinfacht. Hypervisoren ermöglichen eine zentralisierte Überwachung der IT-Infrastruktur an Remote-Standorten, sodass an diesen Standorten weniger oder gar keine IT-Mitarbeiter vor Ort sein müssen. Das Internet macht es prinzipiell möglich, Sensoren, Geräte oder komplett automatisierte Prozesse über eine zentrale IT an jedem Ort der Welt zu steuern und zu überwachen. Die Voraussetzung ist eine virtualisierte IT und entsprechende Infrastruktur an jedem Standort, die heutzutage eigentlich schon überall vorhanden ist.

Die Realität sieht bei geografisch weit verteilten Unternehmen mit Produktionsstätten in Regionen mit geringer Bandbreit jedoch noch anders aus. Um Prozesse in Echtzeit aus der Zentrale steuern zu können, wäre eine schnelle und vor allem zuverlässige Internetverbindung vonnöten, die vor allem in wenig entwickelten Ländern oft nicht vorhanden ist. Systeme laufen hier also oft auf der Infrastruktur vor Ort, die natürlich in diesem Fall auch hochverfügbar sein muss.

Egal also ob im Hauptrechenzentrum oder in der IT in der Niederlassung IoT-Anwendungen müssen zu allen Zeiten funktionieren. Für moderne IT-Systeme bedeutet dies, dass die Infrastruktur, auf der eine Anwendung läuft, hochverfügbar sein muss. Hochverfügbarkeit bedeutete auf der Hardwareebene bisher die Anschaffung teuer und aufwändig zu verwaltender Speicher-Arrays, was meist nur für die größten Firmen erschwinglich war. Neue, software-definierte Technologien senken nun die Kosten für Hochverfügbarkeit und machen hochverfügbare IoT-Anwendungen zur Prozessoptimierung nun auch für kleinere Firmen möglich.

Hochverfügbarkeit an jedem Standort mit virtuellen SANs
Neben der komplexen Verwaltung von SANs ist deren hoher Anschaffungspreis für kleinere Firmen die größte Hürde Hochverfügbarkeit zu garantieren. Unternehmen, die eine hohe Anzahl an Niederlassungen außerhalb schnellen Internets haben, müssten theoretisch sogar für jede Niederlassung ein eigenes SAN einrichten um ihre lokale Infrastruktur und die lokalen Prozesse hochverfügbar zu machen. Das ist für viele Unternehmen natürlich sehr schwer zu realisieren.

Die Lösung für dieses Problem können virtuelle SANs bringen, die ebenfalls Hochverfügbarkeit für ein automatisiertes Failover ermöglichen, jedoch ohne physische Arrays, Kabel und Switches auskommen und somit die Anschaffungs- und Verwaltungskosten enorm reduzieren. Die Technologie besteht aus einer software-definiert Speicherlösung, die in Kombination mit hyperkonvergenten Servern teure SANs ersetzen kann. Dabei kommen zwei zur Datenspiegelung miteinander verbundene hyperkonvergente Server zum Einsatz, die interne Festplatten und Flash-Speicher nutzen und damit mit der geringst möglichen Menge an Komponenten auskommen. Neben den Anschaffungskosten, die gut 30 Prozent einsparen, fallen Kosten für Platz im Rack sowie Strom für den Betrieb und die Kühlung weg.

Einsatzszenarien für virtuelle SANs
Software-definierte Speicherlösungen bieten mittlerweile Lösungen für zahlreiche Anwendungsfelder und mit virtuellen SANs hat sich somit auch eine kostengünstigere Alternative zum klassischen, teuren SAN entwickelt um vor Systemausfällen zu schützen. Zahlreiche Branchen sind prädestiniert für den Einsatz dieser Technologie, insbesondere wenn sehr viele Standorte mit hochverfügbarer Infrastruktur ausgerüstet werden müssen.

Der Einzelhandel ist mit seinen zahlreichen Niederlassungen ein natürliches Szenario für den Einsatz von virtuellen SANs und zahlreiche Großunternehmen in dieser Branche haben die Technologie bereits eingeführt, weil im Normalfall jede vor Ort verwendete Anwendung auf standardisierter Infrastruktur ausgeführt werden muss. Anders sieht es in der industriellen Fertigung aus, die zwar ebenfalls viele Standorte nutzt, wo jedoch noch sehr viele Anwendungen auf proprietären Systemen mit spezifischen Schnittstellen und APIs eingesetzt werden. Hier wird zukünftig eine ähnliche Konsolidierung wie bei der zuvor genannten Prozess- und Automatisierungsverwaltung stattfinden, die alle Systeme in auf die x86-Plattform bringen wird.

Virtuelle SANs senken Kosten für industrielles IoT
Die Hochverfügbarkeit der IT-Infrastruktur ist für jedes moderne Unternehmen ein Muss. Das industrielle IoT verlangt die Verfügbarkeit aller Systeme an jedem Standort, was Unternehmen bisher dazu zwang in teure SAN-basierte Infrastruktur zu investieren. Virtuelle SANs bieten hier die Möglichkeit die gleiche Funktionalität für ein deutlich geringeres Investment zu erreichen, indem sie SDS und Hyperkonvergenz kombinieren und so unnötige Hardware vermeiden. Unternehmen, die zahlreiche Standorte vernetzen und industrielle IoT-Anwendungen konsolidieren wollen, sollten sich mit den Möglichkeiten dieser Technologie beschäftigen um Investitionskosten einzusparen.

Über Hans O"Sullivan
Hans O"Sullivan ist Mitbegründer und CEO von StorMagic und hat mehr als 30 Jahre Erfahrung in der IT-Industrie. O"Sullivan ist Experte für IP-basierte Speicherung und Protokolle und besitzt sieben Patente in diesem Bereich. Vor der Gründung von StorMagic 2006 war er mehrere Jahre lang CTO bei Eurologic, einem führenden Anbieter von Speicherplattformen für Firmen wie Network Appliance, Dell, Fujitsu Siemens und Avid. Später wurde O"Sullivan CEO bei Elipsan, einem Spinoff von Eurologic in 2003.
(StorMagic: ra)

eingetragen: 09.12.16
Home & Newsletterlauf: 22.12.16


StoreMagic: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Grundlagen

Verstärkter Angriff auf Backup-Infrastrukturen

Ransomware-Angriffe nutzen Schwachstellen aus, um in Unternehmen einzudringen. Sie verschlüsseln Business-Daten und versuchen damit hohe Lösegeldzahlungen zu erpressen. Eine besonders stark betroffene Branche ist das Gesundheitswesen. Hier verzeichnete man im Jahr 2021 einen erschreckenden Anstieg der Ransomware-Angriffe um 755 Prozent.

Wie "grün" ist Tape?

Die aktuellen Zeiten des Klimawandels verbunden mit zahlreichen Umweltproblemen stellen Unternehmen jeder Art vor die Herausforderung umweltfreundlicher zu werden. Altmodisch nannte man dies Umweltschutz, heute spricht man von "Nachhaltigkeit" oder "ESG", kurz für Environmental Social and Governance. Gemeint ist im Prinzip dasselbe. Auch die IT muss sich der Frage stellen, wie nachhaltig sie ist. Kann sie etwaige negative Einflüsse auf die Umwelt verringern? Ein Faktor, an dem der Einfluss der IT messbar gemacht werden kann, ist die seit Beginn der digitalen Revolution in den 1980er Jahren exponentiell steigende Datenmenge – und natürlich deren Speicherung. Um dies mit einer Zahl zu verdeutlichen, wir steuern derzeit auf eine globale Datenmenge von 175 Zettabyte im Jahr 2025 zu. Es ist schwer zu beschreiben, was 175 Zettabyte tatsächlich darstellen. Mathematisch ausgedrückt sind ein Zettabyte jedenfalls 1,000,000,000,000,000,000,000 (1021) Bytes.

Präventiver Schutz alleine reicht nicht

In Zeiten von Ransomware, Insider Threats und Advanced Persistant Threats sind viele Unternehmen in puncto Security in der Defensive. Neben der eigentlichen Abwehr geht es im Kern darum, lange IT-Ausfallzeiten und Datenverluste zu vermeiden. Backups bieten bei der Wiederherstellung weniger wichtiger Daten eine einfache und praktikable Lösung. Kritische Daten und Workloads benötigen allerdings eine ausgereiftere Wiederherstellungstechnologie.

Erpressung durch Ransomware-Kriminelle

Moderne Datensicherung, bestehend aus zuverlässigem Backup und fehlerfreier Wiederherstellung, ist für viele Unternehmen und Institutionen kein unbekanntes Thema. Ein Bereich, den man nicht sofort auf dem Radar hat, ist jedoch die Finanzdienstleistungsbranche (FSI). Gerade hier sind sehr sensible – und damit für Hacker attraktive – Daten unterwegs, die dringend gesichert werden müssen, um die gesetzlichen Vorgaben zu erfüllen und den möglichen Schaden gering zu halten.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>


Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.