De NVIDIA H100 is een high-end GPU die speciaal is ontworpen voor AI-, deep learning- en HPC-toepassingen. De H100 GPU is gebaseerd op de innovatieve Hopper-architectuur en maakt gebruik van krachtige Tensor Cores van de vierde generatie voor uitzonderlijke prestaties. Dankzij zijn enorme rekencapaciteit is de NVIDIA H100 ideaal voor het trainen van complexe neurale netwerken, data-intensieve cloudworkloads en ingewikkelde HPC-simulaties.

Wat zijn de kenmerken van de NVIDIA H100?

De NVIDIA H100 biedt uitzonderlijke prestaties op basis van de nieuwe Hopper-architectuur. Deze combineert Tensor Core-technologie met een transformator-engine voor meer rekenkracht en een aanzienlijke versnelling van de training van AI-modellen. NVIDIA biedt de H100 GPU aan in twee varianten: H100 SXM en H100 NVL.

De twee versies verschillen qua vormfactor, prestaties, geheugenbandbreedte en connectiviteit. De H100 SXM is voornamelijk ontworpen voor gebruik in servers met hoge dichtheid en hyperscale-omgevingen. De H100 NVL daarentegen is ontworpen voor PCIe-slots, waardoor de GPU gemakkelijker in bestaande serverstructuren kan worden geïntegreerd. De volgende tabel geeft een gedetailleerd overzicht van de prestatiekenmerken van de twee NVIDIA H100-varianten:

Prestatiekenmerk NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64 Tensor Core 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Core 989 TFLOPS 835 TFLOPS
BFLOAT16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP8 Tensor Core 3.958 TFLOPS 3.341 TFLOPS
INT8 Tensor Core 3.958 TOPS 3.341 TOPS
GPU-geheugen 80 GB 94 GB
GPU-geheugenbandbreedte 3,35 TB/s 3,9 TB/s
Decoder 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Maximaal thermisch ontwerpvermogen (TDP) 700 W (configureerbaar) 350-400 W (configureerbaar)
Multi-instance GPU (MIG) Maximaal 7 MIG’s met elk 10 GB Maximaal 7 MIG’s met elk 12 GB
Form factor SXM PCIe met twee slots en luchtkoeling
Interface NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Serveropties NVIDIA HGX H100-partners en NVIDIA-gecertificeerde systemen met 4 of 8 GPU’s, NVIDIA DGX H100 met 8 GPU’s Partners en NVIDIA-gecertificeerde systemen met maximaal 8 GPU’s
NVIDIA AI voor bedrijven Add-on Inclusief
Opmerking

TFLOPS (TeraFloatingPoint OperationsPerSecond) is een eenheid om de verwerkingssnelheid van computers (floating point) te beschrijven. Eén TFLOPS komt overeen met één biljoen berekeningen per seconde. Hetzelfde geldt voor de eenheid TOPS (TeraOperationsPerSecond), met dit verschil dat hier gehele getallen worden weergegeven.

Wat zijn de voor- en nadelen van de NVIDIA H100?

De NVIDIA H100 is een van de krachtigste GPU’s op de markt en is uitgerust met tal van geavanceerde technologieën en functies. De belangrijkste voordelen van de H100 GPU zijn:

  • Zeer hoge rekenkracht: De H100 biedt geweldige FP8- en FP16-Tensor Core-prestaties, waardoor hij ideaal is voor complexe, data-intensieve taken zoals grote taalmodellen (LLM’s). De combinatie van vierde generatie Tensor Cores en transformator-engine kan de efficiëntie van AI-bewerkingen aanzienlijk verhogen.
  • NVLink en NVSwitch: De NVIDIA H100 ondersteunt de vierde generatie NVLink, waarmee meerdere server-GPU’s met elkaar kunnen worden verbonden met een bidirectionele bandbreedte van 900 GB/s. Dankzij NVSwitch is het ook mogelijk om overeenkomstige clusters flexibel te schalen.
  • Multi-instance GPU (MIG): De GPU kan worden opgedeeld in maximaal zeven onafhankelijke GPU-instanties, waardoor meerdere workloads tegelijkertijd kunnen worden uitgevoerd met speciale resources. Dit verbetert de flexibiliteit en efficiëntie in gedeelde computeromgevingen.
  • Vertrouwelijk computergebruik: dankzij de geïntegreerde beveiligingsfunctie worden de vertrouwelijkheid en integriteit van gegevens gedurende de gehele workload beschermd.
  • HBM3-geheugen en PCIe Gen5-ondersteuning: met maximaal 94 GB HBM3-geheugen en een bandbreedte van maximaal 3,9 TB/s biedt de NVIDIA H100 een van de krachtigste geheugenoplossingen voor data-intensieve workloads. In combinatie met PCIe Gen5 maakt dit zeer snelle gegevensoverdracht mogelijk.

Dit blijkt echter een nadeel te zijn, aangezien de hoge prestaties van de NVIDIA H100 ook tot uiting komen in de prijs. Afhankelijk van de versie kosten de GPU’s tussen de 25.000 en 35.000 pond. H100-instanties zijn daarom ook relatief duur in cloudomgevingen. Een ander nadeel is de beperkte beschikbaarheid. Door de grote vraag zijn er altijd leveringsproblemen en lange wachttijden.

Voor welke toepassingen is de H100 GPU van NVIDIA het meest geschikt?

De NVIDIA GPU H100 is speciaal ontwikkeld voor rekenintensieve workloads en is bijzonder geschikt voor veeleisende AI- en HPC-toepassingen. Het volgende overzicht toont de belangrijkste toepassingsgebieden voor de H100 GPU:

  • Training van grote AI-modellen: dankzij zijn hoge rekenkracht versnelt de GPU aanzienlijk de modeltraining van complexe neurale netwerken en grote taalmodellen zoals GPT of LLaMA.
  • Real-time AI-inferentie: De H100 kan vooraf getrainde AI-modellen op topsnelheid uitvoeren, wat een voordeel is op gebieden zoals spraakverwerking en beeldherkenning.
  • Cloud en datacenters: GPU’s vormen de basis van veel GPU-servers door de rekenkracht te leveren die nodig is voor complexe workloads.
  • High-performance computing (HPC): Wetenschappelijke berekeningen en simulaties profiteren van de hoge FP64-prestaties van de H100 grafische processors.
  • Generatieve AI: De H100 van NVIDIA is ideaal voor het genereren van tekst, afbeeldingen en video’s met AI-modellen. De GPU maakt een snelle en efficiënte verwerking mogelijk van grote datasets die nodig zijn voor generatieve AI.
  • Data-analyse: De Hopper GPU’s ondersteunen bedrijven in verschillende sectoren, zoals logistiek en financiën, bij het afleiden van nauwkeurige prognoses en voorspellingen uit grote hoeveelheden data.

Wat zijn de mogelijke alternatieven voor de H100 GPU?

Hoewel de NVIDIA H100 een van de krachtigste GPU’s voor AI en HPC is, kunnen er afhankelijk van het gebruik en het budget alternatieve oplossingen beschikbaar zijn. Bijvoorbeeld vanwege een hogere kostenefficiëntie. Mogelijke alternatieven zijn onder andere:

  • NVIDIA A100: Het voorgaande model biedt ook solide prestaties voor AI-training, inferentie en HPC, maar is minder duur.
  • NVIDIA A30: De A30 combineert hoge prestaties met een betaalbare prijs.
  • NVIDIA H200: De H200 is een licht verbeterde versie van de NVIDIA H100, met een nog hogere geheugenbandbreedte.
  • Intel Gaudi 3: De AI-versneller levert hoge prestaties voor AI-inferentie.
Opmerking

In ons artikel waarin we server-GPU’s vergelijken, gaan we dieper in op de grafische processors die momenteel het meest worden gebruikt.

Ga naar hoofdmenu