- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Flash-Speicher im Rechenzentrum


Flash-Speicher im Businessumfeld setzt Siegeszug fort: Zusammenspiel mit Copy-Data-Virtualisierung
Die rasante Entwicklung des Flash-Storage-Markts in den letzten zwei Jahren setzt sich in Kombination mit der Virtualisierung von Datenkopien fort

- Anzeigen -





Der Siegeszug von Flash-Speicher im Rechenzentrum setzt sich fort, immer mehr Unternehmen steigen um auf die effiziente Speichertechnologie. Actifio, spezialisiert auf Copy-Data-Virtualisierung, hat dazu eine Partnerschaft mit dem "All-Flash"-Pionier Pure Storage bekannt gegeben. Hervorgegangen ist daraus die Testdatenmanagement-Lösung "AppFlash", die auf Flash-Speicher von Pure Storage und Actifio-Technologie basiert und DevOps-Szenarien unterstützt.

"Das Thema Flash wurde bei uns nicht von heute auf morgen aktuell. Bereits im Jahr 2014 gab es zunehmendes Interesse bei Unternehmen – und einige begannen mit einer allmählichen Umstellung. Dabei erwies sich die Kombination der Geschwindigkeit und Effizienz des Flash-Speichers mit den Möglichkeiten der Datenreduzierung als attraktiv", so Thorsten Eckert, Sales Director DACH bei Actifio. "Durch die erhebliche Reduzierung von Datenkopien wird eine große Anzahl an Festplatten überflüssig. Gleichzeitig ermöglichen die kleineren Kapazitätsanforderungen, Flash als alternative Speichertechnologie ins Auge zu fassen. Flash beansprucht weniger Fläche im Rechenzentrum bei gleichzeitiger Reduzierung des Energieverbrauchs für Betrieb und Kühlung. Angesichts der sinkenden Preise für Flash trat der betriebswirtschaftliche Vorteil von Flash immer deutlicher zutage."

Andere Nutzer betonen den Zeitvorteil als einen der größten Vorteile von Flash. Die Performance ist deutlich schneller, wobei die Latenzzeit auf wenige Millisekunden sinkt. Die Verarbeitungszeiten für einige Transaktionen verringern sich um bis zu 80 Prozent. Eine schnellere Abwicklung von Transaktionen bedeutete mehr Geschäft in weniger Zeit. Und da Flash einfacher zu verwalten ist, wurde auch der Betriebsaufwand reduziert.

Die Kosten für Flash waren bislang für viele Unternehmen eine Hürde – oder zumindest eine Herausforderung in der Kalkulation. Die Verringerung der Komplexität, die Erhöhung der Geschwindigkeit und die höhere Zuverlässigkeit sind jedoch nicht zu vernachlässigen.

"Einige Unternehmen verzeichnen ein durchschnittliches Datenwachstum von 50 bis 60 Prozent pro Jahr. Da diese Unternehmen aber mittels Copy-Data-Virtualisierung die vormals unkontrollierte Vermehrung von Datenkopien in den Griff bekommen haben, ist heute die tatsächliche Zunahme an Speicherbedarf gering. Je nachdem, welcher Datenanteil bereits als virtuelle Datenbasis intelligent verwaltet wird, kann der Speicherbedarf sogar sinken – trotz Datenwachstum", so Thorsten Eckert. "Dabei spielt Copy Data Virtualization einen weiteren Vorteil aus, indem sie eine reibungslose Datenmigration ermöglicht. Der Umzug von den alten Festplatten-basierten, herkömmlich verwalteten Plattformen auf die zeitgemäße Kombination aus Flash und Datenvirtualisierung geht einfach und schnell vonstatten."

Die Preise für Flash sind in diesem Jahr weiter gesunken. Bis Jahresende sollen die Kosten für SSD und HDD nahezu auf gleichem Niveau sein. Als weitere Hürde erwies sich bislang aber die Form, in welcher Flash-Speicher verfügbar war. Viele etablierte Speicheranbieter taten ihr Möglichstes, um langjährige Kunden zu binden – mit Hybrid-Arrays. Dabei kommen SSDs in einer Architektur zum Einsatz, die eigentlich für HDDs konzipiert wurde. 2014 waren zudem die Auswahlmöglichkeiten bei All-Flash-Arrays begrenzt. Diejenigen, die verfügbar waren, hatten nur wenige typische Datenmanagement-Funktionen, die man von einem Enterprise-Array erwartet, wie etwa Thin Provisioning, Snapshots oder Verschlüsselung. Die heute erhältlichen All-Flash-Arrays verfügen aber nun über den erforderlichen Funktionsumfang.

Gartner kam bereits zu dem Schluss, dass Solid-State-Speicher zum Mainstream wird. In seiner März-Analyse mit dem Titel "Moving Toward the All Solid-State Storage Data Center” empfiehlt das Analystenhaus die Implementierung von Solid-State-Arrays im gesamten Unternehmen, um Management- und Betriebskosten zu reduzieren und gleichzeitig neue Dienste zu erschließen, die diese erheblichen Leistungsverbesserungen nutzen. SSDs mit höherer Kapazität in dichteren Speichersystemen werden es Gartner zufolge ermöglichen, das digitale Geschäft besser zu unterstützen, indem neue Anwendungen realisiert werden können.

"Höhere Geschwindigkeit, reduzierte Kosten und zuverlässige Verfügbarkeit auf globaler Ebene sind die Anforderungen großer Unternehmen an die Speicherumgebung. Akquisitionen erfordern zudem die Aufnahme neuer heterogener Betriebsumgebungen in die unternehmensweite IT-Landschaft. Dabei sollen zuverlässige Disaster-Recovery- und Business-Continuity-Funktionen zur Verfügung stehen. Hier ist Plattformunabhängigkeit gefragt", fasst Thorsten Eckert abschließend zusammen. "Copy-Data-Virtualisierung unterstützt einen solchen heterogenen Betrieb und befreit die Unternehmen in Sachen Speicherumgebung von der Abhängigkeit von einem bestimmten Anbieter. So können sukzessive neuen Architekturen für All-Flash-Plattformen aufgebaut werden. Unternehmen haben auch die Flexibilität, eine hybride Cloud einzurichten, die für ihr neues Geschäftsmodell optimiert ist und sich dynamisch verändern kann, wenn es erforderlich ist." (Actifio: ra)

eingetragen: 09.02.17
Home & Newsletterlauf: 02.03.17


Actifio: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Detektion bislang unbekannter Verhaltensmuster

    Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat in seinem Ende Februar veröffentlichten Whitepaper "Monitoring und Anomalieerkennung in Produktionsnetzwerken" die Nutzung einer Anomalieerkennung in industriellen Steuerungsnetzen außerordentlich empfohlen. Rhebo hat an dem Whitepaper maßgeblich Inhalte beigesteuert. Unter anderem waren Ergebnisse aus Industrie 4.0 Stabilitäts- und Sicherheitsaudits und Langzeitmonitoring-Projekten Grundlage für die Definition der Anforderungen an die Systeme.

  • Trojaner Emotet gefährlicher denn je

    Die Gefahr, die von dem Trojaner Emotet ausgeht, ist noch nicht vorüber. Ganz im Gegenteil: "Die Risiken, die durch den Trojaner entstehen können, werden immer größer und Emotet gilt schon jetzt als eines der gefährlichsten Schadprogramme der Welt", warnt Christian Heutger, IT-Sicherheitsexperte und Geschäftsführer der PSW Group nachdrücklich. Erstmal trat Emotet im Dezember letzten Jahres auf den Plan. Nachdem der Trojaner eine kleine Weihnachtspause eingelegt hat, finden sich jetzt wieder massenhaft Spam-E-Mails mit dem Schädling anbei in zahlreichen Postfächern. Hinzu kommt: Virenscanner erkennen den Trojaner oft noch nicht.

  • Angriffe auf Produktionsanlagen

    Im Produktionsumfeld kommen noch immer technische Komponenten und Bauteile zum Einsatz, die über keinen oder bestenfalls einen unzureichenden Schutz vor Cyber-Angriffen verfügen. Mit Best Practices von NTT Security können Unternehmen zentrale Sicherheitsanforderungen wie Schwachstellen- und Patch-Management oder Incident-Handling-Management umsetzen und ihre Maschinen und Anlagen wirksam schützen. In vielen Fällen sind Industrieanlagen ein leichtes Ziel für Hacker. Das Schwachstellen-Management ist in diesem Umfeld bislang weitgehend unbekannt, vor allem aber fehlt auch das Sicherheitsbewusstsein. Unternehmen begeben sich daher in die größte Gefahr, Opfer von Cyber-Attacken zu werden, denen sie schutzlos ausgeliefert sind. Angreifer nutzen diesen Bewusstseinsmangel gezielt aus, wie der Global Threat Intelligence Report 2018 von NTT Security ergeben hat: In Deutschland entfielen 36 Prozent aller Cyber-Attacken auf die Fertigungsindustrie. Das sind, im Vergleich, deutlich mehr Angriffe als auf andere Branchen - ein starkes Indiz dafür, dass ein Großteil auf Produktionsanlagen zielte.

  • Data Warehouse erfolgreich automatisieren

    Volume, Velocity, Variety, Veracity. Im englischen IT-Sprachgebrauch haben sich die vier Vs der Datenspeicherung längst etabliert. Volumen, Geschwindigkeit, Vielfalt und Wahrhaftigkeit gilt es in Einklang zu bringen, um die Daten eines Unternehmens erfolgreich verwalten zu können. Herkömmliche Data Warehouse-Infrastrukturen sind häufig nicht mehr in der Lage, die enormen Datenmengen, die Vielfalt der Datentypen, die Geschwindigkeit mit der Daten entstehen, ausgewertet und weiterverarbeitet werden sowie die Fehlerfreiheit von Daten zu managen. In Zeiten, in denen Daten für Unternehmen immer wertvoller werden, hat sich mittlerweile ein fünftes "V" zum bestehenden Quartett dazugesellt: V für Value beschreibt den Wert der Daten für das Unternehmen.

  • Fernüberwachung von kritischen IT-Infrastrukturen

    Können aufgrund eines Netzwerkausfalls Mitarbeiter nicht mehr auf ihre Arbeitsumgebung zugreifen oder werden ganze Produktionsabläufe oder Auslieferungsprozesse gestört, kann es teuer werden: 4.900 Euro pro Minute kostet Downtime ein Unternehmen durchschnittlich laut Gartner. Bezieht man unterschiedliche Unternehmensbranchen mit ein, reichen die Downtime-Kosten von 120.000 Euro bis zu 475.000 Euro pro Stunde. Grund für die hohen Ausfallzeitkosten ist die immer umfangreichere Digitalisierung verschiedenster Unternehmensprozesse. Überall laufen mehr und mehr kritische Daten über Netzwerke. So wird der Zugriff beispielsweise auf Anwendungen und Daten aus der Cloud in vielen Unternehmen mittlerweile häufig unabdingbar, um reibungslose Geschäftsabläufe zu gewährleisten. Das Absichern einer robusten Connectivity ist auch für den IoT-Bereich geschäftskritisch.