15.09.2022 | Annette Weil

IT in Zeiten der Lieferengpässe

DataCore @ Tech Data Specialists

Sind die Zeiten des Überflusses, der uneingeschränkten Verfügbarkeit, des scheinbar grenzlosen Zugriffs auf jedwede Ressource vorbei? Es hat den Anschein, ohne dass die folgenden Zeilen intendieren, ein komplett dystopisches Szenario darzulegen.

Dessen ungeachtet existiert ein virulentes Thema, mit dem sich nahezu jeder, sei es beruflich oder privat, zwischenzeitlich ernsthaft auseinandersetzen muss. Und so soll es hier im Wesentlichen um das Aufzeigen eines Plan B gehen.

Noch im Juni 2021 war zu lesen, dass der weltweite Mangel an Elektronikbauteilen und Komponenten anhalte, man aber gleichzeitig davon ausgehe, dass in einem Jahr eine Normalisierung stattfinden würde. Das wäre dann jetzt!

Wie schwer es grundsätzlich ist, weitere Entwicklungen der Situation abzuschätzen, belegt die derzeitige IST-Situation hinreichend. Maßgebende Teile des asiatischen Raumes sind durch die Auswirkungen der Pandemie in ihren Handlungsspielräumen immer noch bzw. schon wieder sehr stark eingeschränkt. Damit einhergehende, umfassende Lockdowns und geschlossene Fabrikationsstätten implizieren, dass sich die Situation eben nicht bessert und noch weniger IT-Hardware-Komponenten – bei gleichzeitig steigenden Preisen – verfügbar sind. Denn ohne Frage gehören Lieferschwierigkeiten zu den Hauptgründen der Verknappung im IT relevanten Hardware-Sektor.

Kurz gesagt: Die Realität schreibt augenscheinlich eine andere Geschichte als die vorausgegangenen Prognosen. Der Mangel an IT Hardware Komponenten hält an. Hersteller wie z. B. Intel gehen davon aus, dass Verknappungen den Markt bis ins Jahr 2024 signifikant dominieren werden.

Daraus resultierende Empfehlungen, sich bei Verfügbarkeit der betreffenden Hardware so schnell wie möglich „einzudecken“, d. h. die Beschaffung von IT-Hardware unverzüglich zu veranlassen, löst die Thematik nicht grundlegend, sondern allenfalls punktuell. Und die Gretchenfrage ist auch, wie will man auf Vorrat beschaffen, wenn nichts verfügbar ist?

Weiterlesen auf Seite 2

Die Lage wird zusätzlich noch durch weitere Trends forciert und erschwert:

Die Tendenz zum sog. „Mining“ hält an und Grafikkarten werden immer noch in grosser Menge gekauft, um sogenannte Mining Rigs zu betreiben. Hinter dem Terminus des Minings steht einfach formuliert, ein Verfahren zur “Entdeckung” von Sachverhalten für verschiedene Anwendungszwecke. Dazu zählen etwa das Data Mining, das Process Mining sowie das Bitcoin Mining. Ohne auf die Einsatzgebiete hier im Detail einzugehen, ist allerdings evident, dass solche Verfahren ein essentielles Mehr an Rechenleistung erfordern. Dies und der damit verbundene, erhöhte Energieverbrauch, stellen auch wichtige Kritikpunkte des Minings dar.

Eine neuere Entwicklung stellt das sog. „Farming“ dar. Farming verfolgt einen ähnlich gearteten Zweck wie Mining. Allerdings kommen hier andere Hardware-Komponenten zum Tragen. Farming Systeme benötigen primär Speicherplatz, weshalb sich nun additional auch noch Speichermedien wie SSDs oder Festplatten einer erhöhten Nachfrage erfreuen. Und, wie schon bei den Grafikkarten führt die Verknappung zu partiell massiven Preissteigerungen.

Leider betreffen diese „Trends“ bzw. Entwicklungen nicht nur Grafikkarten, sondern tragen auch ihren Teil zur globalen Chip-Knappheit bei. Denn aufgrund der Knappheit von Grafikkarten, werden jene in größerem Maß produziert. Dabei werden entsprechende Komponenten wie eben Speicherchips, Industriemetalle, veredelte und beschichtete Materialien, mikroelektronische Elemente und andere Bestandteile in diesen verbaut. Da man sie originär für die Herstellung von anderen Geräten benötigt, steigen unweigerlich auch hier die Preise.

Nachdem zunächst vor allem Grafikkarten für Miner und Farmer interessant waren und sie deshalb riesige Kontingente an Grafikkarten kauften, folgen nun – wie schon erwähnt – HDD und SSD – also Festplatten, denn bestimmte Kryptowährungen erfordern Speicherplatz statt Rechenleistung.

Ergänzt wird dieser Reigen Hardware-hungriger Protagonisten durch die sog. Hyperscaler. Die großen IT-Player weiten ihre Rechenzentren kontinuierlich aus. Diese sind ein essentieller, ja integraler Bestandteil der von diesen Unternehmen forcierten Cloud-Strategie. Mit Beginn der Pandemie und der Verlagerung des täglichen Arbeitens ins Home Office erfreuten sich Cloud-Services wachsender Beliebheit. Um dieser exponentiell gestiegenen Nachfrage gerecht zu werden, bedürfen diese IT-Konzerne aber immer größerer Rechenzentren und damit einhergehend einem Mehr an Hardware in jedweder Form und Ausfertigung.

In einem in der Relation überschaubareren Rahmen benötigen natürlich auch andere Unternehmen in der Industrie und Privatwirtschaft zunehmend größere und professionellere IT-Infrastrukturen. Auch diese sind auf Skalierung angewiesen, basierend auf einer zeitgemäßen IT.

Zusammenfassend lässt sich also festellen: Die IT Landschaft, d. h. Hersteller wie auch Distribution, Partner und Endkunden sehen sich mit gewissen Herausforderungen konfrontiert, die sich – wie schon dargelegt –  kurz- bis mittelfristig auch nicht in Luft auflösen werden.

Mit der Verknappung, begleitet von gestörten Lieferketten, gehen rasant steigende Preise einher. Die Sachlage mutet wie ein Teufelskreis an, aus dem es scheinbar kein Entrinnen gibt.

Wie kann ein Plan B aussehen?

Eine helfende Hand in der Not wird von der Software dargeboten. Hier liegt die wahre Chance mit sich stetig verknappender Hardware, steigenden Preisen und dem Drang nach steter Modernisierung der IT-Infrastruktur Schritt zu halten.

Konkret ist von Speichervirtualisierung via Software die Rede.

Mithilfe der Virtualisierung ist es möglich, flexible Umgebungen zu erstellen, die bei Bedarf faktisch verzögerungsfrei skalieren. Überdies hebt die Technologie die Grenzen der Ressourcennutzung von physikalischen Systemen auf.

Die sog. Speichervirtualisierung oder auch Storage-Virtualisierung steht für das Zusammenfassen von physischem Speicher aus mehreren Speichergeräten zu einem scheinbar einzigen Speichergerät – oder einem Pool verfügbarer Speicherkapazität -, das von einer zentralen Konsole aus verwaltet wird.

Eine Form der Speichervirtualisierung besteht in der Implementierung einer Software-Virtualisierungsschicht zwischen der Hardware – einer Speicherressource – und einem Host – einem PC, einem Server oder einem beliebigen Gerät -, das auf den Speicher zugreift. Diese ermöglicht es den Betriebssystemen und Anwendungen, auf den Speicher zuzugreifen und ihn zu nutzen. Sie ist gewissermaßen der Käse im Sandwich, der dem Ganzen erst die richtige Würze verleiht.

Eine Software-basierte Virtualisierung bedingt primär eine Reduktion der einzusetzenden Hardware. In der Folge wird zugleich weniger Energie verbraucht und weniger Raum, d. h. Stellfläche benötigt. Auch dies dient der Kostenreduktion bei gleichzeitig verknappter Hardware.

On top profitieren Unternehmen natürlich auch von der Flexibilität der Software-getriebenen Virtualisierung. Eventuell auftauchende Probleme lassen sich im laufenden Betrieb beseitigen.

Da virtuelle „Maschinen“ einfach und schnell installiert werden können, kann die Agilität der Infrastruktur zeitgleich über Fernwartung erhöht werden. Auch dies inkludiert Kosteneinsparungen. (Siehe hierzu auch: Was ist Storage Virtualisierung und welche Vorteile bietet ein virtualisierter (serverhero.de))

Mit dem Terminus „Software Defined Storage“ (SDS) ist eine weitere Alternative zur Minimierung des leidigen Hardware-Problems ins Felde zu führen.

Strenggenommen gehört SDS nicht zur Storage Virtualisierung. Ist aber in dem Dilemma mindestens genaus hilfreich, wenn nicht sogar noch problemlösender im praktischen Einsatz.

Im Falle der SDS-Technologie wird gewissermaßen ein Software-Layer zwischen dem physischen Speicher und der Datenanfrage eingezogen. Der Datenspeicher wird zentral über SDS verwaltet, wodurch die Trennung zwischen Software und zugrunde liegender Hardware erlangt wird. Es liegt also keine physische Trennung vor. Vielmehr wird hier die Storage-Software durch Abstrahierung vom Gerät selbst getrennt.

Dagegen werden bei der Speicher-Virtualisierung die Kapazitäten mehrerer Storage-Geräte zusammengeführt. Hier handelt es sich also nur scheinbar, d. h. virtuell um ein einziges Storage-„Gerät“.

Software Defined Storage Lösungen bestechen durch Automatisierung, die Verwendung von Standardschnittstellen, virtualisierten Datenpfaden mit Datei-, Block- und Objektschnittstellen, Skalierbarkeit und Transparenz.

Die Vorteile liegen auf der Hand:

  • SDS garantiert 100prozentige Hardwareunabhängigkeit, d. h. innerhalb der Infrastruktur lassen sich Produkte unterschiedliche Anbieter für Hardware und SDS problemlos zeitgleich einsetzen.
  • SDS steht für ultimative Kosteneffizienz. Scale-Out (horizontale Skalierung: Hinzufügen weiterer Gesamtsysteme, wie Server/Speicher) bietet Unabhängigkeit im Rahmen von Kapazitäts- und Leistungsanpassung.
  • Dank der enormen Flexibilität, die die SDS-Technologie bietet, kann das Storage mit verschiedenen Elementen zusammengestellt werden, z. B. externe Festplatten, Disk- oder Flash-Speicher, Cloud, etc.. Darüber hinaus kann SDS für verschiedene Anwendungen wie Objekt-Storage, Rich Media Storage, Container, Cloud, Big Data-Analysen, Hyperkonvergente Infrastrukture (Hyper Converged Infrastructure, HCI) eingesetzt werden.
  • Es werden stets alle angebundenen Speicherelemente einbezogen, um ohne Administratoreingriffe oder Hinzufügen von Hardware automatisch alle erforderlichen Kapazitäts- und Leistungsanpassungen durchzuführen.
  • Unternehmen sichern sich und Ihrer IT-Umgebung Freiheit, denn SDS ist aufgrund seiner Hardwareunabhängigkeit uneingeschränkt skalierbar.
    (Quelle: Was ist Storage Virtualisierung und welche Vorteile bietet ein virtualisierter (serverhero.de))

An dieser Stelle ist auf den Pionier im Bereich Software-defined-Storage Lösungen zu verweisen: DataCore! Das Flagschiff DataCore SANsymphony ist eine vielfach prämierte und bewährte blockbasierte Software-definierte Storage-Lösung, die für Storage Area Networks (SAN) und hyperkonvergente Infrastrukturen (HCI) einsetzbar ist. Die Software virtualisiert lokalen oder verteilten Speicher und verwaltet die Speicherkapazität in einem gemeinsamen Pool. Damit werden die Speicherressourcen effizient und wirtschaftlich verwaltet.

Der unschlagbare Vorteil des Produktes besteht eben darin, dass in Zeiten, wo die Verfügbarkeit von Hardware stark limitiert ist und Aktualisierungen in diesem Bereich eben nicht möglich sind, die Ressourcen der vorhandenen Speicherumgebung gebündelt und für eine bessere Kapazitätsauslastung und Lastverteilung Sorge getragen wird.

Dabei ermöglicht DataCore mit seinem umfassenden Portfolio die Optimierung der vorhandenen Kapazitäten ohne Invest in weitere und / oder neue Hardware, die – wie festgestellt – ohnehin nicht verfügbar ist; unabhängig davon, ob es um Block-, Datei- oder Objektspeicher (sowohl lokal als auch in der Cloud) geht. Dabei kommen die oben genannten Vorteile der SDS Technologie vollumfänglich zum Tragen.

Womit sich resumierend festhalten lässt: Es gibt einen Plan B!

Annette Weil | Website

Annette Weil ist als Business Managerin seit mehr als 20 Jahren für Tech Data tätig und verantwortet im Marketing die Software Hersteller Acronis, DataCore, Docker, FalconStor, Quest und Veritas.

  • Drei Fragen an die Autorin

    Was ist deine Funktion bei Tech Data?

    Ich bin Senior Business Manager Value and Volume Software

    Wie lange bist du schon beim Unternehmen?

    Ich bin seit über 20 Jahren für Tech Data tätig.

    Was für einen Unterschied macht deine Arbeit?

    Der Unterschied liegt in der Vielfältigkeit und Spannbreite der Tätigkeit sowie die Möglichkeit jeden Tag Neues erlernen und anwenden zu können.