- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Data Warehouse erfolgreich automatisieren


V für Value: das fünfte 'V' der Datenspeicherung
Wie Automatisierung des Data Warehouse den Wert der Unternehmensdaten erhöhen kann



Von Neil Barton, CTO bei WhereScape

Volume, Velocity, Variety, Veracity. Im englischen IT-Sprachgebrauch haben sich die vier Vs der Datenspeicherung längst etabliert. Volumen, Geschwindigkeit, Vielfalt und Wahrhaftigkeit gilt es in Einklang zu bringen, um die Daten eines Unternehmens erfolgreich verwalten zu können. Herkömmliche Data Warehouse-Infrastrukturen sind häufig nicht mehr in der Lage, die enormen Datenmengen, die Vielfalt der Datentypen, die Geschwindigkeit mit der Daten entstehen, ausgewertet und weiterverarbeitet werden sowie die Fehlerfreiheit von Daten zu managen. In Zeiten, in denen Daten für Unternehmen immer wertvoller werden, hat sich mittlerweile ein fünftes "V" zum bestehenden Quartett dazugesellt: V für Value beschreibt den Wert der Daten für das Unternehmen.

Selbst nur die vier Vs der Datenspeicher in Unternehmen in Einklang zu bringen war für viele IT-Teams schon immer sehr schwierig, wenn nicht gar unmöglich. Flash ist beispielsweise zwar schnell (Velocity), kann aber kaum bei großem Volumen helfen. Und für verschiedene Datentypen, wie etwa Datei-, Block- oder Objektdaten (Variety) unterschiedliche Speicher anzuschaffen, sprengt schnell jedes Budget.

Das fünfte V (Value) stellt die IT jedes Unternehmen nun vor die zusätzliche Herausforderung die Daten nicht nur so effektiv wie möglich speichern zu müssen, sondern auch noch den Wert der Daten für das Unternehmen optimal nutzbar zu machen. Für CDOs ist dies bereits jetzt eine der wichtigsten und zeitaufwändigsten Aufgaben geworden. Die Facette den Wert von Daten für ein Unternehmen zu erhöhen, und damit zu monetarisieren, wird somit immer wichtiger und IT-Abteilungen suchen aktiv nach Methoden, die dabei helfen aus Daten Wert zu schaffen.

Data Warehouse ist die zentrale Schaltstelle für Informationen im Unternehmen
Unabhängig von den genutzten Speichertechnologien und -orten ist das Data Warehouse der zentrale Punkt, an dem alle Unternehmensdaten zusammenkommen. Im Data Warehouse werden aus einem Berg von Rohdaten im besten Fall wertvolle Informationen, die anschließend vorteilhaft genutzt werden können. Daten helfen wichtige Entscheidungen zu treffen, und entsprechend sind die Erwartungen der Benutzer, was den potentiellen Mehrwert von Daten anbetrifft, in den letzten Jahren enorm gestiegen.

In vielen Unternehmen führt dies bei den Benutzern jedoch zu Enttäuschung, da viele Data Warehouses die Anforderungen aktuelle, nutzbare Daten zeitnah bereitzustellen oft nicht bieten können. Benutzer wollen Erkenntnisse aus den Daten heute in Echtzeit, was viele Data Warehouses nicht leisten können. Gleichzeitig wächst die Menge neu generierter Daten stetig: Social-Media-Daten, Sensor-Daten, IoT-Daten, Kundenkommunikation und hochauflösende Videodaten bringen nicht nur die Speichertechnologien an ihre Grenzen, sondern auch das Data Warehouse und die für die Systeme zuständigen IT-Teams.

Diese Teams waren es bisher gewohnt, das Data Warehouse in lange andauernden Projektzyklen weiterzuentwickeln. Das Data Warehouse ist seit jeher ein komplexes System, das man nicht mal so im Vorübergehen umbauen kann. Als ein Kernelement der Digitalen Transformation sind Unternehmen jedoch gezwungen ihre Data Warehouses schneller zu modernisieren, um moderne Anforderungen zu erfüllen. Aufwändige Projektzyklen widersprechen einer schnellen und kontinuierlichen Transformation.

Automatisierung des Data Warehouse hilft Time to Value zu verkürzen
In vielen Unternehmen stellt sich an diesem Punkt die Frage, wer denn für die Modernisierung des Data Warehouse, und damit direkt auch für die Schaffung von Mehrwert aus Daten, zuständig sein soll. In den meisten Unternehmen liegt die Zuständigkeit hierfür in der meist noch frisch geschaffenen Stelle des CDO, also des Chief Digital Officer. Und eine der zentralen Aufgaben eines CDOs, ist es, die Zeitspanne zu verkürzen, bis Daten für Unternehmen einen greifbaren Wert darstellen. "Time to Value" heißt die Forderung. Und das zu erreichen, kommt kein CDO um eine Prozessautomatisierung herum. Automatisierung bringt in vielen Bereichen der IT Vorteile.

Das gilt natürlich auch im Data Warehouse, wo entsprechende Softwarelösungen das Fundament automatisierter Prozesse bilden. Die Data Warehouse-Automation ist jedoch mehr als eine bloße Softwarelösung. Sie ist eine Philosophie, die das Unternehmen in seine Kultur durchaus einbinden muss um sie erfolgreich zu meistern. Mindestens genauso wichtig sind darüber hinaus ein starke Führung und transparente Prozesse.

Vier praktische Schritte für CDOs das Data Warehouse erfolgreich zu automatisieren

1. Wissen, was tatsächlich benötigt wird
Bevor CDOs Entscheidungen über die Zukunft der Data Warehouse-Infrastruktur treffen, sollten sie sich im Klaren sein, was genau die spezifischen Herausforderungen sind. Insbesondere sollte man im Detail wissen, wozu die Benutzer die Daten benötigen um Entscheidungen zu treffen.

2. Verstehen, was man bereits hat
Die meisten Unternehmen verfügen bereits über ausgefeilte Datenmanagement-Tools, die als Teil ihrer Infrastruktur eingesetzt werden. Unternehmen, die bereits SQL Server, Oracle oder Teradata einsetzen, verfügen beispielsweise bereits über eine Reihe von Tools für das Datenmanagement und die Datenbewegung, die im Rahmen eines Projekts zur Data Warehouse-Automation effektiv genutzt werden können. Bei diesem Inventurprozess sollten die CDOs sicherstellen, dass sie aktuellen und zukünftigen Kapazitätsanforderungen ihres Data Warehouse berücksichtigt haben.

3. Priorisieren, was zuerst automatisiert werden sollte
Die Automatisierung eines Data Warehouse erfordert Ressourcen - und diese sind aufgrund strenger Budgets und konkurrierender Prioritäten oft knapp. Das bedeutet, dass CDOs genau darüber nachdenken müssen, was zuerst automatisiert werden sollte. Einige gute Beispiele dafür, wo Automatisierung ein kostengünstiger Schritt ist, könnten die manuelle Programmierung von SQL, das Schreiben von Skripten oder die manuelle Verwaltung von Metadaten sein.

4. Mit Veränderungen rechnen
Die Modernisierung und Automatisierung des Data Warehouse ist leider kein Projekt mit einem definierten Ziel, da sich das Data Warehouse jedes Mal anpassen muss, wenn sich die Geschäftsanforderungen ändern oder neue Datenquellen entstehen.
Entsprechend müssen CDOs ständig in der Lage sein, verschiedene Teile der Infrastruktur anzupassen. Um Störungen zu minimieren und den Übergang für Geschäftsanwender zu erleichtern, sollten CDOs bei der Modernisierung einen schrittweisen Ansatz mit einem festen Zeitplan wählen, und genau definieren, wann unterschiedliche Stufen der Modernisierung erfüllt werden.

Unternehmen, die den Wert ihrer Daten steigern möchten, sollten auf die Automatisierung ihres Data Warehouse setzten. Dieser Wandel positioniert die IT-Abteilung so, dass sie zeitgemäße Technologien und neue Datenquellen leichter integrieren und flexibler agieren kann, wenn es die Geschäftsanforderungen erfordern. Ohne eine robuste Data Warehouse-Automatisierung werden Unternehmen zukünftig kaum das "fünfte V" der Datenspeicherung erreichen können.
(WhereScape: ra)

eingetragen: 02.04.19
Newsletterlauf: 18.04.19

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.