18 Jahre IBM SVC

Die Virtualisierungs-Appliance ist immer noch Spitze - Experten-Talk

Warum war die SVC-Einführung vor 18 Jahren ein Paukenschlag und weshalb spielt das Virtualisierungs-Tool weiterhin eine maßgebliche Rolle in vielen IT-Umgebungen? Axel Koester (Chief Technologist & Member of the Board @ IBM TEC think tank), Ralf Colbus (Chief Strategy Storage @ IBM Technology DACH) und Martin Haußmann (System Engineer, TD SYNNEX) lassen die spannende Entwicklung der weltweit gefragten IBM Lösung Revue passieren und geben einen exklusiven Ausblick auf die Zukunft.

Axel Koester
Ralf Colbus
Martin Haußmann

Axel Koester, Ralf Colbus und Martin Haußmann (von links nach rechts)

Interview

Welche Erinnerung haben Sie an die Premiere des SAN Volume Controllers vor 18 Jahren, und was war Ihr erster Eindruck von der innovativen Virtualisierungs-Appliance?

Colbus: Ich war 1999 bei der IBM-internen Vorstellung dabei. Ich wusste, dass der SVC den Markt verändern wird – oder als Produkt mit der kürzesten Lebensdauer im IBM Portfolio in die Geschichte eingehen. Zum Glück trat das Erstere ein: Der SVC kam 2003 auf den Markt und ist immer noch eine Erfolgsstory. Das Ur-Prinzip des SVC v1.0 bestand darin, verschiedene Speichersysteme zu „homogenisieren“, sie einheitlich zu managen, den Nutzungsgrad zu erhöhen und für die Kunden eine Wahlmöglichkeit mit Investitionsschutz zu gewährleisten. Diese Prinzipien gelten noch heute.

Koester: 2001 hörte ich zum ersten Mal das interne Kürzel COMPASS (Common Parts Storage System). Die Vision von IBM war, Speicher aus generischen x86-Hardwarekomponenten und Software zu bauen. Diese Idee war revolutionär! Zeitgenössische Speichersysteme wurden damals aus maßgeschneiderter Elektronik gefertigt. Auf der folgenden CeBIT haben wir die Prototypen von IBM Research erstmals der Öffentlichkeit gezeigt, und alle waren der Meinung: „Bitte auf den Markt bringen! Den Kosten wird es nur guttun.“ Daraufhin wurde eine gehärtete Speichersoftware auf redundanten x86-Servern implementiert, zunächst ohne eigene Drives. Heute ist diese Bauart Standard. Erst wesentlich später haben wir uns dazu entschlossen, den SVC mit eigenen Speichermedien auszustatten. Daraus gingen die Produktfamilien IBM Storwize (mit Disks) und IBM FlashSystem hervor (mit FlashCore-Modulen, Storage Class Memory und/oder SSDs).

18 Jahre sind in der IT-Branche eine lange Zeit. Welche SVC-Innovation war Ihrer Meinung nach die bahnbrechendste?

Haußmann: Als der SVC auf den Markt kam, hatten alle Hersteller nur Disaster Recovery- Lösungen im Portfolio. Der SVC als HA-Lösung rüttelte an den Storage-Grundfesten.

Koester: Das beste Einzel-Feature ist und bleibt der Stretched Cluster. Dieser bietet die Möglichkeit, schnell und günstig eine vollautomatische Speicherhochverfügbarkeit über mehrere Standorte hinweg zu realisieren – ohne Interaktion mit Servern oder Middleware und ohne Rücksicht auf Hypervisor oder Betriebssystem. Ich war an der Entstehung des Stretched Cluster nicht ganz unbeteiligt. Wir haben den Bedarf in Europa kommen sehen – beispielsweise für die Hochverfügbarkeit von VMware-Umgebungen. Das herausragendste Merkmal des SVC ist allerdings, sich immer an die Entwicklung angepasst und in jede neue Umgebung eingefügt zu haben. Laut Darwin überlebt das Anpassungsfähigste. Egal, ob wir von Fibre Channel, Flash, NVMe, Storage-as-a-Software oder aktuell von der Containerisierung sprechen: Der SVC kann immer mithalten.

Colbus: Der geniale Ansatz war, den SVC nicht nur als reine Speichervirtualisierung zu entwickeln, also ohne internen RAID-Code, sondern daraus eine eigene Flash-Familie mit integriertem Speicher zu bauen. Dieses Konzept kam allerdings erst im Laufe der Jahre zum Tragen, nachdem kein System ohne SDS (Software Defined Storage)-Eigenschaften mehr entwickelt werden sollte. So gelang es später auch, den SW-Stack (sprich „Betriebssystem“) in der Cloud zu deployen. Weitere Meilensteine waren für mich die Hochverfügbarkeit sowie das automatische Tiering über Speicherklassen und Hersteller hinweg mit einer herausragenden Interoperabilitäts-Matrix. Damit ermöglicht der SVC beim Kunden einen Speicher-Technologiewechsel ohne Betriebsunterbrechung – unabhängig vom eingesetzten Betriebssystem.

Wo liegt für Sie der größte SVC-USP?

Koester: Für mich ist der wesentlich USP der kostensenkende Einfluss. Ich erinnere mich an einen Kunden, der sich beklagte, dass seine internen Abnehmer immer nur „Goldklasse“-Speicher bei ihm bestellten, weil sie vorgaben, diesen unbedingt zu benötigen. Da der Betreiber seine Speicherkosten nicht verursachergerecht umlegen konnte, entstand den Abnehmern kein Nachteil. Mit dem SVC-Einsatz stellte der Betreiber seine Strategie um auf: „Jeder erhält grundsätzlich Speicher der Bronzeklasse“. Nur wer sich beim Roll-out beklagt, wird über Nacht transparent auf Silber- oder Gold-Performance gehoben. Dadurch lassen sich massiv Kosten in der teuersten Speicherklasse sparen, weil die Angst der Kunden vor einer Fehlentscheidung nicht mehr Teil der Rechnung ist.

Haußmann: Die Flexibilität und die Funktionalität, gepaart mit der Stabilität des Produktes, haben dazu geführt, dass der SVC auch heute noch ein Key-Player im Markt ist. Die drei Buchstaben stehen für Speichervirtualisierung auf höchstem Niveau.

Colbus: Ein sehr großer Automobilhersteller, der SVC-Systeme von IBM im PB-Bereich für eine kritische VMware- und Datenbankumgebung in der Produktion betreibt, verriet mir, dass ihm die IBM Storage-Systeme schon mehrfach das „Leben“ gerettet haben. Für mich das höchste Lob, dass ein Speicherhersteller bekommen kann!

Welchen aktuellen Herausforderungen muss sich der SVC stellen?

Koester: Wir lassen bei neuen SVCs und IBM FlashSystemen regelmäßig Penetration-Tests machen, um die Cybersicherheit zu garantieren. Sehr früh konnten wir so beispielsweise die SSL Heartbleed-Lücke ausmerzen. Im Frühjahr 2021 haben wir Safeguarded Copy eingeführt für regelmäßige, nur Security-Administratoren zugängliche Schnappschüsse der Produktionsdaten. Da Ransomware-Attacken aber als erstes im Speicher-Layer eindeutig erkennbar werden, lässt sich Safeguarded Copy auch zu deren Identifikation nutzen. So kann der Kunde auf eine junge, intakte Kopie seiner Umgebung zurückgreifen und eine Zahlung an die Erpresser vermeiden. Die neue Herausforderung ist, dies alles so stark zu automatisieren, dass der Schutz auch von einem Mittelständler ohne Spezialwissen oder geschultem Personal aktiviert werden kann.

Haußmann: Die Anforderungen an den Storage verändern sich. Es kann nie genug davon geben, und er ist immer zu langsam. Über die Jahre hinweg verschiebt sich der Flaschenhals in der IT immer wieder. Die Themen Datensicherheit und Verfügbarkeit werden immer wichtiger. Kein Unternehmen will Daten verlieren, wenn es zu einem Störfall kommt. Wer dennoch mit ungewollter Datenverschlüsselung konfrontiert wird, wünscht sich an mehreren Stellen Funktionen, die helfen, die Forderungen der Erpresser zu umgehen. Neben dem rasanten Datenwachstum sind auch neue Workloads und Verfahrenstechniken wie die Containerisierung eine Herausforderung für Storage-Systeme. Schön, wenn man Tools wie den SVC zur Verfügung hat, die da mitwachsen und neue Funktionen zur Verfügung stellen!

Colbus: Die Anwendungslandschaft der meisten Kunden verändert sich in Richtung Container und Micro-Services. Diese sind parallel zur klassischen IT zu implementieren und zu betreiben. Für Speichersysteme bedeutet dies neue APIs sowie neue Management-, Automatisierungs- und Backup-Konzepte. Wir haben den SVC und unsere FlashSysteme daraufhin weiterentwickelt: Der SVC stellt das Bindeglied zwischen der „klassischen“ und der „neuen“ Speicherwelt dar – inklusive der Möglichkeit, Daten in die Cloud zu verlagern. Des weiteren wird das Thema Security und Cyber Resiliency stärker in den Fokus rücken müssen: Zero Trust, Policy Based Access oder die Integration in die Security-Frameworks der Unternehmen werden in den nächsten Monaten im Vordergrund der Entwicklung stehen.

Sehen Sie im Bereich Storage-Virtualisierung eine Marktsättigung oder wird die SVC-Erfolgsstory weitergehen?

Colbus: Dadurch, dass wir unseren Kunden die Wahlmöglichkeit geben, den SVC „klassisch“ als Virtualisierungs-Engine oder als FlashSystem mit ähnlichen Eigenschaften anzubieten, sehe ich keine Sättigung im Markt. Die aus dem SVC entwickelte neue FlashSystem-Serie ist die erfolgreichste Speicherlösungslinie, die wir jemals in Serie gebaut haben.

Haußmann: Der SVC verbindet die Hardware mit IBM Spectrum Virtualize. Dieser Software, die heute auch auf allen FlashSystemen läuft, ist die Storage-Entwicklung zu verdanken. Mit der HyperSwap-Funktionalität lassen sich heute schon einige Anforderungen abdecken, die früher einen SVC benötigten. Gemessen an der Anzahl der Installationen ist aber sicher noch keine Marktsättigung erreicht.



Koester: Ich denke auch, dass die Weiterentwicklung des SVC wesentlich durch die in viel größeren Stückzahlen verkauften FlashSysteme beeinflusst wird, die beide auf derselben Softwareplattform stehen. Somit werden immer wieder gefragte Features hinzukommen – neuerdings beispielsweise Safeguarded Copy gegen Ransomware oder die Automation in containerisierten Umgebungen.

Können Sie uns einige Insights zur SVC-Weiterentwicklung verraten? Worauf dürfen sich die Kunden freuen?

Koester: Viele neue Features werden aus dem Bedarf bei den FlashSystemen abgeleitet – allen voran Datenreduktion und Maßnahmen gegen Ransomware. Allerdings kann man den Speicherpark häufig nicht in der Geschwindigkeit upgraden oder tauschen, die erforderlich wäre. Hier bietet der SVC die Chance, auch Bestandssysteme fremder Hersteller mit dem neuesten Stand der Sicherheitstechnik auszustatten. Dazu werden bald weitere interessante Features folgen, optional auch im Rahmen der Call Home-Lösung IBM Storage Insights. Diese scannt zwar nicht die Daten, kann aber gute Indikatoren liefern. Natürlich arbeiten wir auch an mehr Leistung auf kleinerem Raum bei geringerem Stromverbrauch. Zudem verbauen wir zwar die üblichen Intel x86-Prozessoren, aber diese werden schon bald mit IBM Technologie auf 7nm Strukturgröße verkleinert, um Strom zu sparen. Kurz nach der Intel-Ankündigung im März 2021 hat IBM Research die Nachfolgetechnologie für 2nm vorgestellt. Auch davon wird x86 profitieren. Green IT ist eine weltweite Aufgabe – und nicht mehr nur ein Wettbewerbsargument.

Colbus: Neben der permanenten Entwicklung neuer Hardware werden wir – wie bereits angedeutet – die Bereiche Cyber Resiliency und Security verbessern. Darüber hinaus rücken Themen wie Dateneffizienz und KI-basierte Funktionen in den Mittelpunkt.

Welche Rolle spielt TD SYNNEX als Distributor im Wachstumsmarkt rund um den SVC?

Haußmann: Wir unterstützen unsere Partner, und alle, die es werden wollen, bei der Konzeptionierung, Produktauswahl und Konfiguration. Unsere Experten bieten auch Produktschulungen zum Storage Portfolio oder zu einzelnen IBM Maschinen. Zusätzlich unterstützt TD SYNNEX seine Partner bei der Autorisierung, Deal-Registration und Angebotslegung mit Beratung, welcher Pricing-Weg der günstigste ist. Ergänzend organisiert die TD SYNNEX Academy Workshops, in denen sich Interessierte mit den neuesten Produkten vertraut machen können.