- Anzeigen -


Sie sind hier: Home » Markt » Hintergrund

Rechenzentrumsausfälle durch Attacken


Rechenzentrumsinfrastruktur 2017: Trendprognose
Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus - Wer sich in der IT diesen Entwicklungen verweigert wird untergehen

- Anzeigen -





Vertiv, früher Emerson Network Power, stellt sechs Trends vor, die 2017 für die Infrastruktur von Rechenzentren wichtig werden. Diese Trends schließen sich an die Rechenzentrumsinnovationen 2016 an, die im letzten Jahr von Emerson Network Power veröffentlicht wurden. "Weltweite Trends wie Cloud, Big Data und Mobility rücken immer mehr in den Fokus. Wer sich in der IT diesen Entwicklungen verweigert wird untergehen", so Reinhard Purzer, Vice President & Managing Director Deutschland, Österreich & Schweiz (DACH) von Vertiv. "Aber um hier mithalten zu können, braucht man leistungsfähige Infrastrukturen – Systeme, die agil und skalierbar sind. Wir glauben, dass nach einem Boom im Applikationsbereich das Augenmerk 2017 stärker auf der Zukunftsfähigkeit der Rechenzentren liegen muss: nur wer es versteht, die Möglichkeiten richtig zu kombinieren, ressourcensparend einzusetzen und dennoch vollkommen flexibel zu bleiben, kann wirtschaftlich arbeiten."

Die folgenden sechs Infrastrukturtrends werden das Ökosystem Rechenzentrum 2017 prägen:

1. Die Infrastruktur wird mit der Konnektivität am Netzwerkrand Schritt halten müssen
Verteilte IT und das industrielle Internet der Dinge (IIoT) bringen die IT-Ressourcen näher zu den Benutzern und industriellen Prozessen. Dabei bleibt das Rechenzentrum das Herzstück bei der Bereitstellung von Anwendungen und Dienstleistungen, wie beispielsweise am Point of Sale oder bei der Bestandsverwaltung. Doch je mehr Daten durch Sensoren und Geräte entstehen und je mehr Anwender aus der Ferne einen schnellen Zugriff auf diese Daten benötigen, desto mehr Netzwerkschränke und Mikro-Rechenzentren werden eingesetzt. Deswegen nimmt deren Bedeutung zu. Um auf diese Veränderungen zu reagieren, werden sich Unternehmen mehr für vorkonfigurierte Mikro-Rechenzentrumslösungen interessieren, die eine schnelle Bereitstellung, ein höheres Maß an Standardisierung und die Fernverwaltung über verteilte IT-Standorte hinweg unterstützen. Standardisierung und Modularität werden damit für verteilte IT-Standorte genauso wichtig, wie sie es bereits jetzt für große Rechenzentren sind.

Vorhandene Netzwerkschränke und entfernte IT-Standorte werden auch neu bewertet werden. Denn es muss sichergestellt werden, dass die Stromversorgungs- und Kühlsysteme ausreichen, um der zunehmenden Bedeutung dieser Standorte gerecht zu werden. Nicht zuletzt, weil diese zunehmend für die lokale Sammlung und Analyse der von den vernetzten Sensoren und Geräten stammenden Echtzeitdaten verantwortlich sein werden.

2. Thermal Management ist zunehmend von Nachhaltigkeit geprägt
Wohl kaum ein anderes System im Rechenzentrum hat sich in den vergangenen fünf Jahren so verändert wie die Kühlung. Ausschlaggebend dafür war der Wunsch nach Senkung der Energiekosten. So wurden traditionelle Ansätze, die auf "maximale Kühlung" abzielten, durch intelligentere Ansätze ersetzt, bei denen es um eine möglichst effiziente Wärmeableitung geht. Die zunehmende Verwendung moderner Economizer-Technologien und die Weiterentwicklung intelligenter Lösungen zur Klimaregelung ermöglichen hochflexible Thermal-Management-Strategien, mit denen sich PUE-Werte unter 1,2 erzielen lassen.

Neben der Energieeffizienz, die weiter ein wichtiger Faktor bleibt, spielen in einigen geografischen Regionen auch Faktoren wie der Wasserverbrauch und der Kühlmitteleinsatz eine wachsende Rolle. Dank der erweiterten Vielfalt an heute verfügbaren Thermal-Management-Strategien können sich die Betreiber von Rechenzentren ein maßgeschneidertes Thermal Management für ihren Standort und ihre verfügbaren Ressourcen zusammenstellen. Globale Markttrends zeigen eine zunehmende Nutzung von neuen Technologien wie dem Einsatz von Verdunstungs- und adabiatischer Kühlung, bei denen Wasser zur Kühlung der Umgebungsluft verwendet wird. Diese Technologien bieten ein hocheffizientes, zuverlässiges und sparsames Thermal Management.

Wo die Verfügbarkeit oder der Preis von Wasser jedoch problematisch sind, gewinnen Kühlsysteme ohne Wasser an Bedeutung. Ein traditionelles Kaltwassersystem mit offenem Kreislauf benötigt zur Kühlung von 1 MW an IT-Kapazität pro Jahr mehr als 15 Millionen Liter Wasser. Dank neuartiger Economiser-Systeme mit Kältemittelpumpe, die kein Wasser benötigen und dem Rechenzentrum keine Außenluft zuführen, konnten in Nordamerika 2016 fast vier Milliarden Liter Wasser eingespart werden.

3. Sicherheitsverantwortung verlagert sich zunehmend in das Rechenzentrumsmanagement
Während es in den Schlagzeilen vor allem um Datendiebstahl geht, ist die IT-Sicherheit längst auch zu einem Verfügbarkeitsproblem von Rechenzentren geworden. Die Studie des Ponemon Institute zu den Kosten von Rechenzentrumsausfällen für 2016 kam zu dem Ergebnis, dass Cyber-Angriffe für 22 Prozent der untersuchten Rechenzentrumsausfälle verantwortlich waren.

Je mehr Geräte vernetzt sind, um die Verwaltung zu vereinfachen und letztlich die Automatisierung zu ermöglichen, desto mehr Angriffsziele gibt es. Rechenzentrumsexperten ordnen daher die Sicherheit auf ihrer Prioritätenliste ganz oben ein und suchen zunehmend nach Lösungen, um Schwachstellen zu erkennen und die Abwehr von Angriffen zu verbessern. Management-Gateways, die Daten von zahlreichen Geräten für die Unterstützung von DCIM konsolidieren, können hier eine Lösung sein. Mit einigen Änderungen erkennen sie ungesicherte Ports in der gesamten kritischen Infrastruktur und warnen rechtzeitig vor Denial-of-Service-Angriffen.

4. DCIM bewährt sich
DCIM wird seinen Wert weiter unter Beweis stellen. Das gilt sowohl für Probleme, die sich schon jetzt damit lösen lassen, als auch für seine Fähigkeit zur erfolgreichen Verwaltung des immer komplexeren Ökosystems Rechenzentrum. Zukunftsorientierte Betreiber meistern mit DCIM ihre Herausforderungen im Rechenzentrum. Dazu zählen die Einhaltung behördlicher Vorschriften, die Information Technology Infrastructure Library (ITIL) und die Verwaltung hybrider Umgebungen. Letztlich sehen auch Colocation-Anbieter in DCIM ein wertvolles Tool. Sie analysieren damit ihre Kosten pro Kunde und können ihren Kunden remote Einblicke in deren Ressourcen gewähren.

DCIM hat sich zur Vorstufe des IIoT im Rechenzentrum entwickelt. Denn es gibt die gewünschten Einblicke, ermöglicht eine erweiterte systemübergreifende Koordination und unterstützt die Automatisierung – und damit den Kern der Wertschöpfung des IIoT.

5. Alternativen zur Blei-Säure-Batterie werden verfügbar
Neue Lösungen für das schwächste Kettenglied bei den Stromversorgungssystemen von Rechenzentren zeichnen sich ab. Denn die Betreiber wollen den Platzbedarf, das Gewicht und die Gesamtkosten von herkömmlichen ventilgeregelten Blei-Säure-Batterien (VRLA) senken. Dabei sind Lithium-Ionen-Batterien die vielversprechendste Lösung. Die Preise der Lithium-Ionen-Batterien sinken, und ihre Chemie und Konstruktionsweise werden ständig weiterentwickelt. Sie lassen sich auf die Anforderungen auf Reihen- und Raumebene skalieren und werden damit zu einer sinnvollen Option für das Rechenzentrum. Obwohl diese Technologie für Batterien bereits zuvor verfügbar war, sorgt die verbesserte Wirtschaftlichkeit für erhöhte Vermarktungsbemühungen in der Rechenzentrumsbranche.

Die Betreiber von Rechenzentren sind schon seit langem an Alternativen für Blei-Säure-Batterien interessiert, doch die bisher verfügbaren Technologien konnten mit dem Wert und der Speicherkapazität herkömmlicher Batterien nicht mithalten. Jetzt zeichnen sich echte Alternativen ab, mit denen der Platzbedarf gesenkt, die Laufzeiten verlängert und die Nachhaltigkeit verbessert werden kann.

6. Noch stärkere Integration von Rechenzentrumsdesign und -bereitstellung
In den vergangenen Jahren hat die Technologie-Integration in Rechenzentren stark zugenommen. Betreiber verlangen modulare, integrierte Lösungen, die schnell bereitgestellt, leicht skaliert und effizient betrieben werden können. Jetzt gilt diese Philosophie auch bei der Entwicklung von Rechenzentren. Die schnelle Markteinführung ist einer der wesentlichen Treiber für die Firmen, die heute den Großteil der Rechenzentrumskapazität entwickeln. Sie haben erkannt, dass die traditionell abgeschotteten Strukturen zwischen der Entwicklungs- und Konstruktionsphase hinderlich und unproduktiv sind. Daher verfolgen sie inzwischen bei Design und Bereitstellung von Rechenzentren schlüsselfertige Konzepte. Diese umfassen integrierte, modulare Designs, die die Konstruktion unabhängig vom vorgesehenen Standort machen, und ein diszipliniertes Projektmanagement. Anbieter, die Infrastruktur-Know-how, Design- und Engineering-Fähigkeiten und leistungsfähiges Projektmanagement zur Lieferung von schlüsselfertigen Lösungen kombinieren, können schneller bessere Rechenzentren bauen.

"Eine starke IT-Infrastruktur ist und bleibt Mittelpunkt des Erfolgs für Unternehmen, die dynamisch zwischen on-Premise und Cloud-basierten Technologien wechseln wollen.", erklärt Reinhard Purzer. "Zwei Trends werden das nächste Jahr prägen: der Umgang mit den immer größeren Datenmengen, die gespeichert, verarbeitet und ausgewertet werden müssen und die Sorge um die Sicherheit eben dieser Daten. Diesen Anforderungen gerecht zu werden, ist alleine kaum möglich. Hier braucht man einen Partner, der bei Rechenzentren jederzeit Hilfestellung leisten kann – sei es bei Skalierbarkeit und effizienten Betrieb, sei es bei der Absicherung gegen die immer raffinierteren Angriffe. Eine langjährige Erfolgsgeschichte im Bereich des Rechenzentrumsbetriebs ist dabei Gold wert."
(Vertiv: ra)

eingetragen: 22.01.17
Home & Newsletterlauf: 07.02.17


Vertiv: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.



Meldungen: Hintergrund

  • IT-Security 2019: die Zwischenbilanz

    Die erste Halbzeit ist vorbei: Wie lautet der Zwischenstand für das Jahr 2019 im Bereich IT-Sicherheit? Dies soll aus fünf Perspektiven betrachtet werden: Datenschutz-Verletzungen, Cloud Computing, Domain Name System (DNS), mobile Geräte und Bots. Durch Cyberangriffe, Ransomware und Datenschutz-Verletzungen wurden von Januar bis April 2019 etwa 5,9 Milliarden Datensätze offengelegt. Fast jeder Privatnutzer erhält inzwischen Erpressungs-Mails von Cyberkriminellen, weil sie im Besitz seines Passworts oder der E-Mail-Adresse seien. Ob Gesundheitswesen, Automobilbranche, öffentliche Hand, Einzelhandel oder IT-Sektor: Auch Unternehmen jeder Branche werden heute angegriffen.

  • Angreifer erhalten erhebliche Angriffsfläche

    Mit bis zu 6 Millionen betroffenen Bürgern war die Attacke der SamSam-Gruppe auf Atlanta im Jahr 2018 der wohl bisher folgenreichste Ransomware-Angriff auf eine einzelne Stadt. Auch andere Großstädte wie Cincinnati oder Baltimore waren bereits Opfer von Ransomware-Angriffen. Deutlich häufiger jedoch sind derartige Attacken laut Radware auf kleinere Gemeinden, Kreise oder Bezirke.

  • Cyber-Werkzeuge und Darknet-Marktplätze

    Die Cyberkriminellenszene wandelt sich stetig. Nicht nur die Angriffsmethoden werden cleverer, auch die Cyberkriminellen selbst verändern sich. Michael Veit, Security Evangelist aus Deutschland, Gabor Szappanos, Principal Malware Researcher der SophosLabs in Ungarn, Andrew Brandt, Principal Researcher der SophosLabs, USA, sowie Chester Wisniewski, Principal Research Scientist bei Sophos in Kanada, haben gemeinsam einen Blick auf die Entwicklungen in der Szene geworfen. Ihre wichtigsten Überzeugungen: Der Trend in der Cykerkriminalität geht zu Zusammenarbeit und Spezialisierung. Es gaunert sich dabei zunehmend professionell, es ist ein lukratives Geschäft und es ist (immer noch) einfach. Es gibt gut betuchte, gut ausgebildete Cyberkriminelle auf der einen, Hacker mit einfachen Schadwarebausätzen aus dem Darknet auf der anderen Seite. Die Branche setzt dabei stark auf Service - was man selbst nicht schafft, kauft man dazu. Dazu gehört auch das Fachwissen um menschliche Schwächen: Die Manipulation von Menschen ist den vier Experten zufolge eine ausgeprägte Angriffsstrategie der Cyberkriminalität. Auch zu deren Ursachen sind sich die IT-Security-Experten einig. In ihren Augen haben neben dem finanziellen Anreiz auch Armut und mangelnde Strafverfolgung einen bedeutenden Anteil am florierenden, illegalen Geschäft mit den Daten.

  • Wissen, das geschützt werden muss

    Mit der wachsenden Zahl immer ausgefeilterer Cyberattacken stellt sich nicht mehr die Frage, ob, sondern eher wann ein Unternehmen Opfer eines Angriffs wird. Viele Organisationen konzentrieren ihre Sicherheitsbemühungen immer noch auf Techniken zur Absicherung von Perimetern und investieren große Summen in den Versuch, Angreifer von ihren Netzwerken, Servern und Anwendungen fernzuhalten. Doch sollte der Sicherheitsfokus heutzutage auch auf den sensiblen Unternehmensdaten liegen und nicht nur auf den immer anfälligeren Schutzmauern, die sie umgeben - denn auf lukrative Daten haben es Angreifer zumeist abgesehen. Deshalb verlagern immer mehr Unternehmen ihre Security-Strategie hin zu einer optimierten Identifizierung, Kontrolle und Absicherung ihrer sensiblen Datenbestände.

  • Wachsendes Risiko der Cyberkriminalität

    Spionage, Datendiebstahl, Sabotage: Die deutsche Industrie leidet unter Cyberattacken. Deutschen Unternehmen ist in den Jahren 2016 und 2017 ein Schaden von 43 Milliarden Euro durch Datenspionage und Sabotage entstanden. Das bezifferte der Branchenverband Bitkom in seinem Report im letzten Jahr. Besonders kleine und mittlere Unternehmen waren nach Angaben der Bitkom von den Angriffen betroffen; die Zahl der Phishing-Attacken ist dabei stark gewachsen. Laut der Studie "Annual Cost of Cybercrime 2019" des Beratungshauses Accenture benötigen Unternehmen jedoch immer länger, um Angriffe zu erkennen und abzuwehren und verlieren dadurch mehr Geld. Demnach verändern sich die heutigen Cyberangriffe auf vielfältige Weise: von den Unternehmen, die im Visier der Kriminellen sind, über Angriffstechniken, bis hin zu den Arten von Schäden, die sie anrichten. Im letzten Jahr gab es laut der Studie durchschnittlich 145 Sicherheitsverletzungen, die in die Kernnetze der Unternehmenssysteme eingedrungen sind. Das sind elf Prozent mehr als im Vorjahr und 67 Prozent mehr als vor fünf Jahren. Und nicht nur die Zahl der Angriffe selbst steigen, sondern auch die Kosten. Der Studie zufolge belaufen sich diese im Schnitt auf ca. 13 Millionen Dollar pro Unternehmen. Das sind 1,4 Millionen Dollar Zusatzkosten gegenüber dem Jahr 2018.