Für wen ist dieses Konzept interessant?
- Kunden, die High Performance Computing Umgebungen haben
- Kunden, die Echtzeitanalysen von großen Datenmengen durchführen
In der Regel sind das Unternehmen, die:
- GPU-basierte Applikationen nutzen (in der Regel AI/ML)
- Parallele Filesysteme evaluieren oder nutzen (z.Bsp. IBM Spectrum Scale (GPFS), Quantum StorNext, Lustre)
- Große Rechencluster betreiben, die auf Speichersysteme von Dell ISILON oder Pure FlashBlade zugreifen
Verticals:
- Finanzinstitute
- Echtzeitanalysen der Märkte
- Erkennen von abnormen Investitionsmustern
- Risikomanagement
- Bis zu 1TB an Daten an einem Handelstag
- Gesundheitswesen
- Gensequenzierung
- Präzisionsmedizin
- Forschung und Entwicklungen in der Pharma-Industrie
- Eine einzige Untersuchung mit einem Cryo-EM erzeugt ca. 4-8TB
- Industrie
- GPU getriebene Workloads
- Deep Learning
- Kombination von verschiedenen Analysemechanismen (Cognitve Analytics)
- Ein 12-Stunden Flug erzeugt ca. 844 TB
Die richtigen Ansprechpartner für diese Technologie sind in der Regel:
Infrastruktur Direktor/VP und Solution Architekten wenn es um HPC-Infrastruktur geht. Sie haben den Fokus auf die gesamte Compute- / Speicherinfrastruktur und unterstützen die Nutzer aller Applikationen.
Sie verstehen die Eigenschaften, Vorteile und Limitierung der unterschiedlichen Konzepte und Technologien.
Wenn es dagegen um hochperformante Datenanalyse geht, sind zudem noch der
- CDO (Chief Data Officer)
- Datenanalysten
- Anwender der Applikationen und Entwicklungsteams
gefragt, um die Anforderungen bei Skalierung und Performance der Workflows abzuklären und die Vorteile der Architektur aufzuzeigen.