Implante servidores bare metal de nível empresarial da HPE, equipados com aceleradores AMD Instinct, para cargas de trabalho de aprendizado de máquina, inferência LLM e computação de alto desempenho.
Projetados para inteligência artificial, aprendizado de máquina e implantação de grandes modelos de linguagem, os servidores com GPU AMD Instinct combinam a arquitetura de computação CDNA3 com núcleos de CPU Zen 4 e 192 GB de memória unificada HBM3 para treinamento intensivo de IA, inferência e aplicações de HPC.
Aceleradores de nível empresarial construídos com base na arquitetura CDNA 2 para computação em exaescala e cargas de trabalho de IA.



| MI210 | L40S | A100 | H100 | |
|---|---|---|---|---|
| Arquitetura de GPU | CDNA 2.0 | Ada Lovelace | NVIDIA Ampere | Funil |
| Memória da GPU | 64 GB HBM2e | 48 GB GDDR6 | 80 GB HBM2e | 80 GB HBM3 |
| Largura de banda da memória da GPU | 1638 GB/s | 864 GB/s | 1935 GB/s | 3352 GB/s |
| FP32 | 22,63 TFLOPS | 91,6 TFLOPS | 19,5 TFLOPS | 51 TFLOPS |
| Núcleo Tensor TF32 | 312 TFLOPS | 366 TFLOPS | 312 TFLOPS | 756 TFLOPS |
| Núcleo Tensor FP16/BF16 | 181 TFLOPS | 733 TFLOPS | 624 TFLOPS | 1513 TFLOPS |
| Poder | Até 300W | Até 350W | Até 400W | Até 350W |
| Carregando... | Carregando... | Carregando... | Carregando... |
Obtenha respostas para perguntas frequentes sobre a implementação e operação de servidores bare metal com aceleração por GPU AMD Instinct para treinamento de IA, inferência e aplicações de computação de alto desempenho.