Servers in stock
 Checking availability...
50% off 1st month on Instant Servers - code 50OFF +1-646-490-9655
Build your server
Servidores com GPU AMD Instinct

Implante aceleradores AMD Instinct em infraestrutura de metal puro.

Implante servidores bare metal de nível empresarial da HPE, equipados com aceleradores AMD Instinct, para cargas de trabalho de aprendizado de máquina, inferência LLM e computação de alto desempenho.

APU MI300A com 192 GB de memória unificada HBM3. Arquitetura CDNA3 integrada com núcleos Zen 4. Infraestrutura empresarial HPE ProLiant.

Servidores bare metal com APU AMD Instinct MI300A

Projetados para inteligência artificial, aprendizado de máquina e implantação de grandes modelos de linguagem, os servidores com GPU AMD Instinct combinam a arquitetura de computação CDNA3 com núcleos de CPU Zen 4 e 192 GB de memória unificada HBM3 para treinamento intensivo de IA, inferência e aplicações de HPC.

taxa de transferência computacional máxima

A arquitetura CDNA3 oferece desempenho computacional inovador para treinamento de aprendizado profundo, ajuste fino de modelos de aprendizado de máquina (LLM) e cargas de trabalho de computação científica que exigem taxa de transferência máxima.

Arquitetura de memória unificada

O design integrado que combina a GPU AMD Instinct com a CPU EPYC™ Zen 4 de 24 núcleos elimina os gargalos tradicionais de transferência de dados entre CPU e GPU, proporcionando eficiência e programabilidade superiores.

Capacidade de memória massiva

A memória unificada HBM3 de 192 GB permite o treinamento e a inferência de modelos de IA em larga escala sem restrições de memória, suportando cargas de trabalho complexas com extensos conjuntos de dados.

Série AMD Instinct™ MI200

Aceleradores de nível empresarial construídos com base na arquitetura CDNA 2 para computação em exaescala e cargas de trabalho de IA.

AMD Instinct MI250X

Acelerador AMD Instinct MI250X

O acelerador de última geração da série MI200 oferece desempenho de classe exascale para simulações HPC avançadas, dinâmica molecular e aplicações de pesquisa em IA.

AMD Instinct MI250

Acelerador AMD Instinct MI250

Acelerador pronto para produção, otimizado para treinamento de IA, cargas de trabalho de inferência e pesquisa computacional em instituições empresariais, acadêmicas e científicas.

AMD Instinct MI210

Acelerador AMD Instinct MI210

Acelerador com excelente custo-benefício, ideal para desenvolvimento de aprendizado profundo, análise de dados e implantações de HPC (computação de alto desempenho) em estações de trabalho, tanto em ambientes de pesquisa quanto corporativos.

Arquitetura multi-chip

A arquitetura CDNA™ de 2ª geração aproveita o design avançado de chiplets, oferecendo densidade de computação e eficiência energética excepcionais para cargas de trabalho de processamento paralelo em grande escala.

aceleração de IA

Os aceleradores MI200 oferecem operações matriciais otimizadas e computação de precisão mista para treinamento acelerado de aprendizado profundo, ajuste fino de modelos e implantação de inferência.

Arquitetura de coerência de memória

A arquitetura AMD Infinity de 3ª geração permite comunicação de alta largura de banda e baixa latência entre as unidades de computação da GPU e a memória do sistema, para maximizar a taxa de transferência de dados.

interconexão da GPU

Até 8 links AMD Infinity Fabric™ por acelerador permitem comunicação GPU ponto a ponto de alta velocidade para treinamento com múltiplas GPUs e cargas de trabalho de computação distribuída.

Infraestrutura empresarial HPE para cargas de trabalho AMD Instinct™

Plataforma HPE ProLiant

Os aceleradores AMD Instinct implementados em servidores empresariais HPE ProLiant oferecem confiabilidade de nível de operadora e desempenho consistente para cargas de trabalho de IA e HPC em produção.

Expansão flexível

Expanda sua infraestrutura de GPUs sob demanda com provisionamento rápido de hardware. Atualizações padrão e capacidade adicional são normalmente implementadas em até 24 horas.

Suporte especializado

Especialistas em infraestrutura de GPU disponíveis 24 horas por dia, 7 dias por semana, via chat ao vivo e e-mail, para auxiliar na implementação, otimização e resolução de problemas.

MI210 L40S A100 H100
Arquitetura de GPU CDNA 2.0 Ada Lovelace NVIDIA Ampere Funil
Memória da GPU 64 GB HBM2e 48 GB GDDR6 80 GB HBM2e 80 GB HBM3
Largura de banda da memória da GPU 1638 GB/s 864 GB/s 1935 GB/s 3352 GB/s
FP32 22,63 TFLOPS 91,6 TFLOPS 19,5 TFLOPS 51 TFLOPS
Núcleo Tensor TF32 312 TFLOPS 366 TFLOPS 312 TFLOPS 756 TFLOPS
Núcleo Tensor FP16/BF16 181 TFLOPS 733 TFLOPS 624 TFLOPS 1513 TFLOPS
Poder Até 300W Até 350W Até 400W Até 350W
Carregando... Carregando... Carregando... Carregando...

Perguntas frequentes sobre servidores com GPU AMD Instinct

Obtenha respostas para perguntas frequentes sobre a implementação e operação de servidores bare metal com aceleração por GPU AMD Instinct para treinamento de IA, inferência e aplicações de computação de alto desempenho.

O que são os aceleradores AMD Instinct e quais cargas de trabalho se beneficiam mais deles?

Os aceleradores AMD Instinct são GPUs de computação de nível empresarial projetadas para inteligência artificial, aprendizado de máquina, grandes modelos de linguagem e aplicações de computação de alto desempenho. Construídos com a arquitetura CDNA otimizada para computação em vez de gráficos, eles se destacam no treinamento e inferência de aprendizado profundo, simulações científicas, dinâmica de fluidos computacional, modelagem molecular e análise de dados que exigem recursos de processamento paralelo massivo.

Quais as diferenças entre o MI300A e a série de aceleradores MI200?

O MI300A representa a mais recente arquitetura de APU da AMD, integrando a GPU AMD Instinct com a CPU AMD EPYC™ Zen 4 de 24 núcleos em um substrato de memória HBM3 unificado de 192 GB, alimentado pela arquitetura Infinity de 3ª geração. Isso elimina os gargalos tradicionais de transferência de dados entre CPU e GPU. A série MI200 (MI250X, MI250, MI210) consiste em aceleradores de GPU discretos com arquitetura CDNA de 2ª geração e design multichip, oferecendo até 8 links Infinity Fabric™ por GPU para uma escalabilidade excepcional com múltiplos aceleradores.

Qual é o tempo típico de implantação dos servidores AMD Instinct?

Os servidores de entrega instantânea são geralmente provisionados em 3 a 10 minutos após a verificação do pagamento. Configurações personalizadas são implementadas com base na disponibilidade dos componentes. Todos os servidores AMD Instinct suportam recarregamento instantâneo do sistema operacional sem a necessidade de chamados de suporte, permitindo iterações rápidas. A infraestrutura de rede é otimizada para cargas de trabalho sustentadas de alto desempenho e conectividade de baixa latência.

Quais frameworks e ferramentas de software são compatíveis com as GPUs AMD Instinct?

Os aceleradores AMD Instinct são executados no ROCm (Radeon Open Compute), uma plataforma de computação em GPU de código aberto que oferece suporte a PyTorch, TensorFlow, JAX, ONNX Runtime e outras estruturas de aprendizado de máquina líderes de mercado. O ROCm inclui o HIP (Heterogeneous-Compute Interface for Portability), que permite a portabilidade direta de código CUDA, além de bibliotecas otimizadas para álgebra linear, FFT, geração de números aleatórios e redes neurais profundas. O suporte completo a contêineres via Docker e Kubernetes possibilita a implantação de IA/ML em escala de produção.

Quais configurações de memória estão disponíveis nos servidores AMD Instinct?

A APU MI300A oferece 192 GB de memória HBM3 unificada (memória de alta largura de banda) acessível tanto aos núcleos da GPU quanto da CPU, eliminando a sobrecarga de transferência de memória para aplicações com uso intensivo de dados. Os aceleradores da série MI200 apresentam memória HBM2e de alta largura de banda otimizada para treinamento e inferência de redes neurais em larga escala. Essa capacidade de memória substancial suporta o treinamento de modelos básicos, o processamento de extensos conjuntos de dados e a execução de simulações complexas sem a necessidade de reorganização de memória entre o host e o acelerador.