Für wen ist dieses Konzept interessant?

  • Kunden, die High Performance Computing Umgebungen haben
  • Kunden, die Echtzeitanalysen von großen Datenmengen durchführen

 

In der Regel sind das Unternehmen, die:

  • GPU-basierte Applikationen nutzen (in der Regel AI/ML)
  • Parallele Filesysteme evaluieren oder nutzen (z.Bsp. IBM Spectrum Scale (GPFS), Quantum StorNext, Lustre)
  • Große Rechencluster betreiben, die auf Speichersysteme von Dell ISILON oder Pure FlashBlade zugreifen

Verticals:

  • Finanzinstitute
  • Echtzeitanalysen der Märkte
  • Erkennen von abnormen Investitionsmustern
  • Risikomanagement
  • Bis zu 1TB an Daten an einem Handelstag
  • Gesundheitswesen
  • Gensequenzierung
  • Präzisionsmedizin
  • Forschung und Entwicklungen in der Pharma-Industrie
  • Eine einzige Untersuchung mit einem Cryo-EM erzeugt ca. 4-8TB
  • Industrie
  • GPU getriebene Workloads
  • Deep Learning
  • Kombination von verschiedenen Analysemechanismen (Cognitve Analytics)
  • Ein 12-Stunden Flug erzeugt ca. 844 TB

Die richtigen Ansprechpartner für diese Technologie sind in der Regel:

Infrastruktur Direktor/VP und Solution Architekten wenn es um HPC-Infrastruktur geht. Sie haben den Fokus auf die gesamte Compute- / Speicherinfrastruktur und unterstützen die Nutzer aller Applikationen.

Sie verstehen die Eigenschaften, Vorteile und Limitierung der unterschiedlichen Konzepte und Technologien.

Wenn es dagegen um hochperformante Datenanalyse geht, sind zudem noch der

  • CDO (Chief Data Officer)
  • Datenanalysten
  • Anwender der Applikationen und Entwicklungsteams

gefragt, um die Anforderungen bei Skalierung und Performance der Workflows abzuklären und die Vorteile der Architektur aufzuzeigen.