Composable PCIe 4.0 Fabric

GPU-, FPGA-, NVMe-Pooling mit H3 PCIe 4.0 Chassis

Mit dem Pooling von GPUs, FPGAs, Accelerators, NVMe u.m. lässt sich die Flexibilität der IT-Infrastruktur weiter steigern. Damit erhöhen sich Effizienz und Ausfallsicherheit. H3 Composable Fabric

ABC bietet dazu neu von H3 eine Palette von PCIe 4.0 Chassis an, die bis zu 16 GPUs oder andere PCIe 4.0 Boards fassen. Sie lassen sich von 1 bis 16 Hosts teilen.

Bis zu 8x NVIDIA RTX 3090 oder RTX A6000 u.a.m. können als vorteilhafte Chassis-Bundle bezogen werden. Die aktuellen Datacenter GPUs wie NVIDIA A100, A30, A40, A10, T4, A16, RTX 6000, RTX 8000  oder A16 sowie deren Vorgänger V100, P100 oder auch AMD MI50, MI60 etc. lassen sich mit den ensprechenden Stromkabeln in den Chassis nutzen.

Ebenso können Desktop GPUs der Quadro- und RTX-Linie für deren Sharing eingesetzt werden.

Double Width GPU wie RTX 3090 lassen sich mit bis zu 450W betreiben. Die Gehäuse sind für den problemlosen Betrieb thermisch optimiert. Sie bewähren sich in den Datacenter der bekannten Super-Scaler.

Individuellen Vorschlag anfragen

GPU Hochverfügbarkeit

Bspw. werden Host 1 und 2 jeweils mit einem Chassis via PCIe 4.0 x16 verbunden. Wenn Host 1 abwesend ist, werden die GPUs dem Host 2 zugeordnet. Kostbare Ressourcen bleiben so unabhängig vom Host jederzeit nutzbar. Die GPU-Auslastung erhöht sich zudem.

H3 HA Architecture

Individuellen Vorschlag anfragen

GPUdirect RDMA und DPU

Unabhängig vom Host kann Peer-to-Peer Kommunikation zum PCIe 4.0 x16 (<31.5GB/s) Durchsatz erfolgen. Selbst zwischen verschiedenen Chassis. Dies gilt auch für NVMe via DPU. H3 GPU direct RDMA

 Individuellen Vorschlag anfordern

Gen 4 Leistung auch für PCIe 3.0 Umgebungen

Der Host muss nur die ausgeführten Jobs des/der Chassis weiter verarbeiten.

H3 Always Gen4 Performance

Individuellen Vorschlag anfragen

PCIe-Cluster nach Bedarf

Die PCIe-Ressourcen lassen sich Projekt-bezogen ganz nach Bedarf nutzen und erzielen so höchste Auslastung - just-in-time.

H3 PCIe Cluster nach Bedarf

Je nach Bedarf und Anwendung kann aus einer Vielzahl von GPUs - auch in gemischtem Einsatz - gewählt werden:

  • NVIDIA A100 für höchste Rechenleistung
    • Deep Learning (DL) Training und Data analytics ≤ 8 GPUs
    • DL Inference, batch und real-time ≤ 2 GPUs
    • HPC High-Performance Computing und AI ≤ 4 GPUs
    • Enterprise Acceleration für gemischte Workloads wie Grafik, ML, DL, Analytics, Training und Inference ≤ 2 GPUs
    • Edge Acceleration für unterschiedlichste Anwendungen und Einsatzorte ≤ 2 GPUs
  • NVIDIA A30 für Mainstream Computing
    • DL Inference, batch und real-time ≤ 4 GPUs
    • HPC High-Performance Computing und AI ≤ 4 GPUs
    • Enterprise Acceleration für gemischte Workloads wie Grafik, ML, DL, Analytics, Training und Inference ≤ 2 GPUs
    • Edge Acceleration für unterschiedlichste Anwendungen und Einsatzorte ≤ 2 GPUs
  •  NVIDIA A40 für höchste Grafikperformance
    • Render Farms für batch und real-time Rendering ≤ 8 GPUs
    • Beste Grafikleistung auf professionellen VDI ≤ 4 GPUs
    • Cloud Gaming mit 4K Auflösung ≤ 8 GPUs
    • Enterprise Acceleration für Grafik-intensive Workloads ≤ 2 GPUs
    • Edge Acceleration für Grafik-intensive Workloads, AR / VR ≤ 4 GPUs
  •  NVIDIA A10 für Mainstream Grafik
    • DL Inference, batch und real-time ≤ 8 GPUs
    • Render Farms für batch und real-time Rendering ≤ 8 GPUs
    • Beste Grafikleistung auf professionellen VDI ≤ 8 GPUs
    • Cloud Gaming mit 4K Auflösung ≤ 8 GPUs
    • Enterprise Acceleration für Grafik-intensive Rechen-Workloads ≤ 2 GPUs
    • Edge Acceleration für Inference- und Video-Workloads ≤ 8 GPUs
  •  NVIDIA T4 – geringe Abmessungen, tiefer Energieverbrauch
    • DL Inference, batch und real-time ≤ 8 GPUs
    • Beste Grafikleistung auf professionellen VDI ≤ 8 GPUs
    • Cloud Gaming mit 4K Auflösung ≤ 2 GPUs
    • Enterprise Acceleration für ausbalancierte Workloads wie Grafik, ML, DL, Analytics, Training und Inference ≤ 4 GPUs
    • Edge Acceleration für Inference- und Video-Workloads ≤ 8 GPUs
  •  NVIDIA A16 optimiert für VDI
    • Beste Grafikleistung auf professionellen VDI mit höchstmöglicher Benutzerdichte ≤ 4 GPUs
  • AMD Radeon Instinct™ MI50, MI60 (in Vorbereitung)
  • NVIDIA Desktop GPUs
    • Quadro GV 100, RTX 8000/6000/5000/4000, P2200/1100/620/400
    • NVIDIA RTX A6000/5000/4000, T1000/T600/T400
    • RTX 3090 u.a.m
  • NVMe
    • Intel® P4500, P4600, P4800X series
    • Samsung PM1725a, PM1725b, PM1733 series
  • Mellanox ConnectX®-4, ConnectX®-5, ConnectX®-6

Individuellen Vorschlag anfordern

H3 PCIe-Fabric - virtuelle & physische Ebene

Der Cluster mit der H3 PCIe-Fabric umfasst eine virtuelle und physische Ebene:

H3 Virtual & Physical View Individuellen Vorschlag anfragen

Multi-User und Chassis Szenario

Die Anwender können ganz nach jeweils aktuellen Bedarf und ihrer Präsenz beliebige PCIe 4.0 Ressorucen-Pools in den Chassis nutzen.  

H3 User & Chassis Szenario

Individuellen Vorschlag anfragen

User Management

Das User-Management kennt 3 Rollen

  • Superadmin: verwaltet alle Chassis und Konfigurationen
  • User admin: verwaltet die Berechtigungen der Cluster-Gruppen
  • User: verwaltet die zugewiesenen Maschinen

 H3 User-Manangement

Individuellen Vorschlag anfragen

Zentrales Management

Das Management der User und PCIe-Fabric erfolgt über eine seaparte Konsole. Diese schliesst auch ein Dashboard mit ein. Es stellt die Übersicht über alle Ressourcen, deren Nutzung mit umfassenden Analysen sowie alle Leistungsdaten wie den detaillierten IO-Durchsatz bereit.

H3 Central-Management

Individuellen Vorschlag anfragen