Beschreibung: Los 2 Mindestanforderungen: =========================== - 2x NVIDIA DGX-H100 (640
GB) für KI Entwicklung, inkl. DGX OS, DGX-Software-Stack und Support für F+L mit umfassender
Hardware- und Software-Wartung und Zugriff auf die optimierten KI-Software-Stacks
von NVIDIA (mind. 3 Jahre) per unit: GPUs: 8x NVIDIA Tesla H100 GPUs, PCIe 5.0 GPU
Memory: 640 GB total (80 GB pro GPU) CUDA Cores (FP32) 135.168 CUDA Cores (FP64) 67.584
Tensor Cores (TF32) 4.224 Performance: 32 petaFLOPS FP8 Multi Instance GPU support
Interconnect GPUs: NVLink Switch 900GB/s CPU: Dual Intel Xeon Platinum 8480C Processors,
112 Cores total, 2.00 GHz (Base), 3.80 GHz (Max Boost) System Memory: 2TB DDR5 Networking:
4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 400Gb/s InfiniBand/Ethernet
2x dual-port QSFP112 NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet Storage
OS: 2x 1.92TB M.2 NVME drives Internal Storage: 30TB (8x 3.84TB) U.2 NVME drives Software:
Ubuntu Linux OS Operat. Temp. Range: 5 - 30 °C System Power Usage: max 11,2 kW, 6
power supplies (4+2 red.) Weight / Requirements: 130 kg, 8U in 19"-rack, depth 897
mm - InfiniBand Switch für die 2x DGX-H100 (MQM9790-NS2F, NVIDIA Quantum 2 based NDR
InfiniBand Switch, 64 NDR ports, 32 OSFP ports, 2 Power Supplies (AC), Standard depth,
Unmanaged, P2C airflow, Rail Kit, oder höherwertig), inkl. mind. 3 Jahre Support -
File Server für Computing mit folgender Konfiguration oder höherwertig: 2HE Rack-Chassis
mit redundanten 2000W Netzteilen (80Plus Platinum / 94%) und: 12x 2.5" HotSwap Einschub
für NVMe 12x 2.5" HotSwap Einschub für SATA/SAS/NVMe 4x 2.5" HotSwap Einschub für
SATA/SAS 3x M.2 NGFF Connector (PCI-E 3.0 x4 Slot: 22110) Motherboard System on Chip
24 DIMM Slots (max. 3072GB DDR5) 2x 10/100/1000Base TX GbE Ports (Intel i350 Dual-Port
Gigabit Ethernet Controller) 12x SATA3 (6Gb/s) Ports PCI-E Slots: 2x PCI-E 5.0 x16
Slots (FHHL) Integrated IPMI 2.0 with Dedicated LAN Integrated Aspeed AST2600 BMC
4x USB 3.2 CPU 2x AMD EPYC 9124 16-Core CPU, 200W, 3.00GHz, 64MB L3 Cache, DDR5-4800,
Turbo Core max. 3.70GHz, - RAM 768GB (24x 32GB) DDR5-4800 DIMM, REG, ECC, 2R Storage
24x SSD 30.6TB U.3 NVMe, 24x7, 1 DWPD, Micron 9400 PRO 2x SSD 960GB M.2 NVMe, 24x7,
1 DWPD, Micron 7450 PRO Network 1x Broadcom P2100G 100GbE HCA, 2-port, QSFP56 (Broadcom
57508 Dual-Port 100 Gigabit Ethernet Controller) 1x NVIDIA MCX75310AAS-NEAT NDR /
400GbE HCA, 1-port, OSFP (ConnectX-7 VPI Single-Port NDR / 400 Gigabit Ethernet Controller)
Sonstiges Einbaukit für 19" Rack 48h Burn-In/Stresstest Gewährleistung: 3 Jahre Vorabaustausch
von Teilen, in kritischen Fällen Vor-Ort-Einsatz am nächsten Arbeitstag - Adapter
und Verkabelung für Verbindung von IB Switch und File Server (NVIDIA passive copper
splitter cable, IB twin port NDR 800Gb/s to 2x400Gb/s, OSFP to 2xOSFP,1.5m, oder höherwertig)
- Sinnvolle Adapter und Verkabelung für 2x DGX-H100, Switch und Speicherkonfiguration
2x NVIDIA passive copper splitter cable, IB twin port NDR 800Gb/s to 2x400Gb/s, OSFP
to 2xQSFP112,1.5m oder höherwertig und 8x NVIDIA Active copper cable, IB twin port
NDR, up to 800Gb/s, OSFP, 3m, flat to finned oder höherwertig - 19" Rack mit Stromverteilung
passend für 2x DGX-H100 Knoten und Switch und Speicher. - Lieferung an die TU München,
Standort 81675 München, inkl. Installation/Einrichtung vor Ort (kein Server Lift vorhanden)
und Softwareübergabe - Max. Budget 858T EUR inkl. MwSt.