26.08.2021 | Annette Weil

Datenwachstum - und kein Ende in Sicht

Das allgemeine Datenvolumen nimmt zu. Das ist weder ein Geheimnis noch eine bahnbrechend neue Erkenntnis. Der exponentielle Anstieg, einhergehend mit einer nahezu furchteinflößenden Rasanz, hat aber vermutlich die Mehrheit überrascht.

Eine IDC Prognose besagt, die weltweite Datenmenge wird 2024 auf 143 Zettabyte anwachsen, d. h. die Zahl 143 mit 21 Nullen! Um dies bildlich darzustellen: Würde man diese Datenmenge auf handelsübliche DVDs speichern, überträfen die gestapelten Datenträgern fast 19 Mal die Entfernung zwischen Erde und Mond.

Muss das so sein? Und welche Lösungen gibt es, um Masse und Chaos beherrschbar zu machen?

Darauf gibt es mit Sicherheit viele Antworten, die auf unterschiedlichen Wegen ein und dieselbe Zielsetzung verfolgen: Struktur geben, Ordnung schaffen und Daten, wenn möglich so komprimieren, dass sie nicht uferlos Speicherplatz in Anspruch nehmen.

Bei sich selbst als User beginnend, könnte natürlich auch das Stichwort „Daten-Hygiene“ ins Felde geführt werden. Möge man sich selbst fragen, ob jedes spontan mit dem Smartphone erzeugte Bild auch wirklich der Archivierung bedarf. Mit Sicherheit nein! Dessen ungeachtet tun wir es fortwährend. Paradigmatisch mag an dieser Stelle das Influencer-Epizentrum Instagram angeführt werden.

In diesem Kontext gelangt man dann sehr schnell zu Themen wie Speicher-Virtualisierung, Software-Defined Storage (SDS) oder Storage Hypervisor, die im Prinzip auf EIN Thema rekurrieren. Es geht um eine Richtlinien-basierten Bereitstellung und Verwaltung des Datenspeichers, unabhängig von der zugrundeliegenden Hardware. Da die physischen Eigenschaften von Speichergeräten durch Abstraktion und Poolbildung aufgehoben werden, müssen User den vorhandenen Speicherplatz eben nicht mehr entlang physischer Grenzen von Speichergeräten verwalten. Die Folge ist, dass sich die Flexibilität erhöht und Datenspeicher auch skalierbarer werden.

 

Weiterlesen auf Seite 2

Ist dies allein die Ursache wachsender Datenmengen?

Legitimiert die Technologie und deren Möglichkeiten gewissermaßen das ungehinderte Ansammeln von Daten oder hat sie vielmehr die Funktion eines Pflasters, das eine durch andere Umstände entstandene Wunde lindert?

Begibt man sich auf Spurensuche, so findet man unterschiedliche Ursachen, die sich aber partiell gegenseitig nähren und / oder einzelne, den Daten-Moloch nährende Puzzle-Teile sind.

  • Sensordaten aus dem “Internet der Dinge” treiben die Vervielfachung voran. Immer mehr Geräte werden mit Sensoren ausgestattet und sind vernetzt.
  • Datenvolumina werden in den kommenden Jahren massiv wachsen – angetrieben durch die kontinuierlich steigende Nutzung von Internet, Smartphones sowie sozialen Netzwerken und vor allem durch das „Internet of Things“.
  • Schlagwörter wie „Predictive Analytics“, „Predictive Maintenance” stehen für neue Trends, gewinnbringende Geschäftsmodelle, die es gilt voranzutreiben und auszubauen. Predictive Analytics hat nicht zuletzt durch die Fokussierung auf Big Data und Machine Learning zunehmend Aufmerksamkeit erhalten. Sicher ist die Vorstellung charmant, dass sich unser Kühlschrank rechtzeitig meldet, wenn bevorzugte Lebensmittel zur Neige gehen. Oder, dem Komfort-Gedanken folgend, gleich nachbestellt wird. Doch, um diesen Prozess in Gang zu setzen, werden unendlich viele Daten benötigt, die dann auch noch zueinander in Bezug gebracht werden müssen.

Um eine Zwischenbilanz zu ziehen: Das Credo „Höher, schneller, weiter!“ hat seinen Preis. Dieser liegt in einem inflationären Daten-Wachstum, das zeitgleich einen nicht zu stillenden Hunger nach Datenspeicher gebiert.

Ein kurzer Exkurs an dieser Stelle. Das Verhältnis strukturierter zu unstrukturierter Daten war im Jahr 2020 ungefähr 1:5. Ein Ungleichgewicht, welches ebenfalls zunimmt. Viele dieser unstrukturierten Daten entstehen z. B. im Bereich der Sensorik und Produktion. Wurden in der Vergangenheit Daten gelöscht, wenn neue Produktionsprozesse neu gestartet wurden, werden diese heutzutage aufbewahrt, um aus ihnen neue Erkenntnisse zu gewinnen. Das bedingt, dass Daten archiviert, gehortet und kumuliert werden.

Gibt es noch andere Verursacher des Daten-Tsunamis?

Vorweggenommen: Der Lebenszyklus von Daten liegt im Regelfall bei 4 Minuten. Dessen ungeachtet bewahren wir diese teilweise 6, 10, 15 sogar auch mitunter bis 30 Jahre oder noch länger auf, was direkt zu den regulatorischen Aspekten in diesem Drama führt: den gesetzlich definierten Aufbewahrungsfristen. Ausgeprägt sicherheitsliebende Personen bzw. Unternehmen archivieren die Daten vielleicht auch länger als erforderlich oder vergessen diese schlichtweg, während jene ihr friedliches Grab innerhalb vor sich hin staubender Datenspeicherorte finden.

In diesem Kontext sei noch der Hinweis von Alexander Best (DataCore) in einer der Tech Data EINSEN & NULLEN Podcast Folgen aufgegriffen. Er verwies zurecht darauf, dass das wirklich Spannende in dem Kontext sei, dass eigentlich keine Speichertechnik existiert, die länger als 5 bis 10 Jahre ohne den Austausch der Hardware-Komponenten möglich ist. Im Regelfall, d. h. in der Praxis werden die Speichersystem alle 5 bis 6 Jahre ausgetauscht, weil dann schlichtweg die Standzeit dieser System abgelaufen ist. Der Zielkonflikt ist also gewissermaßen systemimmanent. Dies am Rande und vorgreifend erwähnt, da im Folgenden noch auf Software-defined Storage Lösungen eingegangen wird.

Darüber hinaus erwarten wir im Zuge der Digitalisierung, dass Daten immer jederzeit, von überall, just in time griffbereit zur Verfügung stehen. Dies hat seinen Preis, der da heißt: Wachsende Anforderungen an die Speicherkapazitäten.

Während vor 30 Jahren z. B. eine Handwerkskammer noch einen sogenannten Registratur-Keller unterhielt, in dem die Akten aller in der sog. Handwerksrolle aufgenommenen Handwerker sorgsam abgelegt waren, sind eben diese Informationen heute digitalisiert verfügbar. Der Vorteil ist ein Mehr an Schnelligkeit. Der Nachteil ein steigendes Datenvolumen, das es ebenfalls zu verwalten gilt.

Ein letzter Schlüsselfaktor sei an dieser Stelle noch angeführt, der auf die Geschehnisse des vergangenen Jahres zurückgeht und, dessen Folgewirkungen bis heute andauern. Die Pandemie hat die Welt in vielfältiger Weise beeinflusst und verändert.

Bei unserem Thema bleibend, ist festzuhalten, dass Homeoffice, Homeschooling und Co. vor allem im Festnetz für eine Daten-Explosion sorgte. Zurückgeworfen auf die heimischen vier Wände, erzeugte die liebgewonnene Kommunikation per Video, aber auch der Verbrauch von heruntergeladenen und gestreamten Videos eine Entladung von Bits & Bytes, die ihresgleichen suchte.

Kommen wir zurück zur Lösung des Problems

Vernon Turner, Senior Vice President bei IDC stellte 2018 bereits fest, dass herkömmliche Storage-Services künftig deutlich stabiler und fehlertoleranter sein müssen, um das Datenvolumen des Digitalen Universums zu unterstützen, was nur in Software-basierten Umgebungen sicherzustellen sei.

Also sind wir erneut beim Speicher angelangt. Wenn dieser benötigt wird, muss es auch jemanden oder etwas geben, dass diesen zur Verfügung stellt, wie z. B. der Hersteller DataCore, der vor über 18 Jahren das sog. Thin Provisioning einführte.

Thin Provisioning, auch als virtuelle Bereitstellung bezeichnet, bedeutet, physischen Speicher in kleineren Teilen, anstatt einen gesamten Datenträger zum Bereitstellungszeitpunkt zuzuweisen. Der zur Verfügung gestellte Datenträger scheint für die Anwendungsserver über die volle bereitgestellte Kapazität zu verfügen. Es wird jedoch kein Speicherplatz zugeordnet, bevor der Schreibvorgang beginnt. Dies bedingt eine dreimal besseren Speichernutzung. Diese Technik ist fester Bestandteil virtueller Datenträgerpools. Aus einem Datenträgerpool wird eine virtuelle Festplatte erstellt, welche den Anwendungsservern zur Verfügung gestellt wird. Den Rest erledigt DataCore SANsymphony!

Die Vorteile bestehen darin, dass Computern sehr große Laufwerken angezeigt werden. So kann ein virtueller Datenträger von mehr als 2 Terabyte aus physischen Laufwerken mit einigen hundert Gigabyte bestehen. Wenn nötig, kann mehr Speicherplatz dynamisch zugewiesen werden und ungenutzter Speicherplatz wird zurückgewonnen.

Führende Analysten sind mittlerweile davon überzeugt, dass Storage über die Software definiert wird! Da es illusorisch wäre, auf eine Reduktion der Datenmengen zu hoffen, wird der Lösung über SDS eine immer größere Bedeutung zukommen. Und sei es eine korreliert zu den Datenmengen wachsende!

Die im Mai 2020 von DataCore veröffentlichten Marktstudie „Storage Diversity Seen as Imperative to IT Modernization Efforts“ ergab, dass vor allem drei essentielle Erwartungen an die Speicher-Infrastruktur gestellt werden: Hochverfügbarkeit, Geschäftskontinuität / Disaster Recovery und Kapazitätserweiterung ohne Betriebsunterbrechung.

Moderne IT-Infrastrukturen müssen dem entsprechend dem Bedarf nach Geschwindigkeit, Flexibilität und Wirtschaftlichkeit entsprechen; dabei zeitgleich aber auch Kostensenkung und eine höhere Skalierbarkeit gewährleisten. Diesen Spagat zu bewerkstelligen und auch noch höchste Qualitätsstandards zu erfüllen, lässt Unternehmen branchenübergreifend auf einen Software-Defined-Storage Ansatz setzen.

Die Entscheidung für eine SDS-Implementierung ist vielfach ökonomisch getrieben und begründet sich mit dem Invest in eine zukunftssichere Infrastruktur, eine vereinfachte Verwaltung unterschiedlichster Speichertypen (Direct Attached, Arrays, JBODs, Fibre Channel, iSCSI etc.) sowie die Verlängerung der Lebensdauer bestehender Speicherressourcen.

Anders formuliert: Nimmt das Datenaufkommen enorm zu, entfaltet SDS sein Potenzial, da es eine einheitliche, intelligente und agile Speicherumgebung, unabhängig von Anbieter und Architektur, schafft.

Ein Hauptgrund für steigende Akzeptanz von Software-Defined-Storage ist in seiner Flexibilität begründet. So können beispielsweise neue Speicher und Technologien unterbrechungsfrei hinzugefügt werden – von AFAs, NVMe zu Containern oder Cloudspeichern. Erscheint neue Hardware, ist diese dank SDS meist problemlos integrierbar– vollständige Hardwarewechsel sind nicht mehr nötig. Die Technologie gibt volle Wahlfreiheit bei den Bereitstellungsmodellen: von SANs zu hyperkonvergiert oder Hybrid Converged.

Storage-Experten sind nahezu die Hälfte Ihrer Arbeitszeit damit beschäftigt, Daten von einem System zum nächsten zu migrieren. Durch SDS sind aber die Speichersysteme bereits virtualisiert. Dadurch wird es wesentlich einfacher, die Kapazitäten zu planen. Das System kann dann die Daten auf Pool-Ebene verwalten und, das bereits erwähnte, Thin Provisioning hilft dabei, die Ausnutzung zu maximieren. Die Daten lassen sich unterbrechungsfrei verschieben, oftmals unterstützt durch Machine Learning basiertes Auto Tiering über die Speichersystem hinweg. So werden die Daten auf dem dafür geeignetsten Storage System abgelegt. Dem entsprechend werden die Leistungen der verschiedenen Systeme optimal genutzt.


Suchen Sie einen Fachmann, um ineffektive Methoden durch automatisierte Lösungen für Datenschutz, -platzierung, -update und -abruf zu ersetzen? Dann können Sie von der Expertise des DataCore und Tech Data Teams profitieren. Wir erläutern auch gerne im persönlichen Gespräch, warum DataCore der einzige Anbieter ist, der das SDS-Versprechen wirklich erfüllt. Schreiben Sie uns einfach an datacore@techdata.de. Wir melden uns umgehend bei Ihnen.

Annette Weil | Website

Annette Weil ist als Business Managerin seit mehr als 20 Jahren für Tech Data tätig und verantwortet im Marketing die Software Hersteller Acronis, DataCore, Docker, FalconStor, Quest und Veritas.

  • Drei Fragen an die Autorin

    Was ist deine Funktion bei Tech Data?

    Ich bin Senior Business Manager Value and Volume Software

    Wie lange bist du schon beim Unternehmen?

    Ich bin seit über 20 Jahren für Tech Data tätig.

    Was für einen Unterschied macht deine Arbeit?

    Der Unterschied liegt in der Vielfältigkeit und Spannbreite der Tätigkeit sowie die Möglichkeit jeden Tag Neues erlernen und anwenden zu können.

Zur Specialists Übersicht