High Performance Storage Solution – Hitachi Content Software For File (HCSF)

Herausforderungen:

Die Zahl an Datenquellen und Applikationen wird in hohem Tempo immer größer: IoT; Analytics; neue technische Entwicklungen im Gesundheitswesen und in der Forschung; Übergeordneter Zugriff auf vernetzte Datensysteme; Smartphones; hochauflösende Kameras; zunehmende Geschwindigkeit durch GPU-basierte Rechenleistung.

Unnötig zu erwähnen, dass dadurch das Datenwachstum unstrukturierter Daten exorbitant beschleunigt wird.

Die übergreifende Analyse dieser Daten ermöglicht Unternehmen, schneller und präziser auf Entwicklungen im Geschäftsumfeld zu reagieren und sich so einen Wettbewerbsvorteil zu verschaffen.

Allerdings muss auch die zu Grunde liegende Infrastruktur dieser Herausforderung angepasst werden. Mit herkömmlichen Datensilos und den Limitierungen der Strukturierung von unstrukturierten Daten ist eine effiziente Ablage mit einem schnellen, direkten und vorselektierten Zugriff fast unmöglich.

Investitionen in unternehmenskritische Systeme wie CRTs, Simulationsanlagen, GPU-Cluster…..gehen in die Millionen. Umso ärgerlicher ist es, wenn die daraus resultierenden riesigen Datenmengen nicht bestmöglich genutzt werden können und die Anlagen durch ein unzureichendes, ineffizientes Rechen- und Storagekonzept nicht ausgelastet sind.

Die Basis für eine entsprechendes Rechen- und Speicherkonzept sollte folgende Merkmale aufweisen:

  • CPU-Leistung und Storage granular und unabhängig voneinander skalierbar
  • Hoch performant für große Datenmengen
  • Unterstützung aller Datenquellen und Typen

Die Antwort darauf – Hitachi Content Software for File – ist eine hoch skalierbare, hoch performante Speicherlösung, die auf dem Konzept des „Distributed File Systems“ basiert.

  • Schnellstes Shared File-System auf dem Markt
  • Integriertes Cloud-Tiering zur HCP und HCP for Cloud Scale

Durch das Tiering der Daten über die Hitachi Content Platform in eine Cloud (Private, Public oder Hybrid) oder auf einen lokalen, kostengünstigen Speicher, können große Datenmengen bis in die Exabyte preiseffizient vorgehalten, und gezielt durch intelligente Metadatensuche für künftige Analysen schnell in den Hochleistungsspeicher des Rechenclusters zurückgeholt werden.