NVIDIA A30 : Acceleration polyvalente du calcul informatique
Le NVIDIA A30 Tensor Core est le GPU de calcul grand public le plus polyvalent pour l’inference de l’IA et les charges de travail des entreprises grand public. Alimente par la technologie Tensor Core de l’architecture NVIDIA Ampere, il prend en charge un large eventail de precisions mathematiques, fournissant un accelerateur unique pour accelerer chaque charge de travail.
Le GPU A30 comporte des fonctionnalites revolutionnaires qui optimisent les charges de travail dâinference. Il delivre par ailleurs une polyvalence sans precedent qui permet dâameliorer les performances de calcul a tous les niveaux de precision (de FP64 a TF32 en passant par INT4). NVIDIA A30, qui peut prendre en charge jusquâa quatre instances MIG, permet a plusieurs reseaux de fonctionner en simultane via des partitions materielles securisees avec une qualite de service garantie. La technologie de dispersion structurelle fournit quant a elle près de 2 fois plus de performances de calcul ainsi que de nombreux gains de performance pour l’inference.
Inference Deep Learning
- Memoire : 24 Go HBM2 ECC 3072 bits (Bande passante : 933 Go/s)
- CÅurs CUDA : 3804
- FP64 : 5.2 TFlops
- FP64 Tensor Core : 5.2 TFlops
- FP32 : 10.3 TFlops
- TF32 Tensor Core : 82 TFlops
- BFLOAT16 Tensor Core : 165 TFlops
- FP16 Tensor Core : 165 TFlops
- INT8 Tensor Core : 330 TOPs
- INT4 Tensor Core : 661 TOPs
- Jusquâa 4 instances MIG a 6 Go
- Refroidissement passif
Reviews
There are no reviews yet.