Servers in stock
 Checking availability...
50% off 1st month on Instant Servers - code 50OFF +1-646-490-9655
Build your server
Server GPU AMD Instinct

Implementa gli acceleratori AMD Instinct su infrastrutture bare metal

Implementa server bare metal di livello enterprise HPE con acceleratori AMD Instinct per machine learning, inferenza LLM e carichi di lavoro di calcolo ad alte prestazioni.

APU MI300A con 192 GB di memoria unificata HBM3. Architettura CDNA3 integrata con core Zen 4. Infrastruttura aziendale HPE ProLiant.

Server bare metal con APU AMD Instinct MI300A

Progettati per l'intelligenza artificiale, l'apprendimento automatico e l'implementazione di modelli linguistici su larga scala, i server GPU AMD Instinct combinano l'architettura di calcolo CDNA3 con i core CPU Zen 4 e 192 GB di memoria unificata HBM3 per l'addestramento intensivo dell'IA, l'inferenza e le applicazioni HPC.

Massima capacità di elaborazione

L'architettura CDNA3 offre prestazioni di calcolo rivoluzionarie per l'addestramento del deep learning, la messa a punto di LLM e i carichi di lavoro di calcolo scientifico che richiedono la massima velocità di elaborazione.

Architettura di memoria unificata

Il design integrato, che combina la GPU AMD Instinct con la CPU EPYC™ Zen 4 a 24 core, elimina i tradizionali colli di bottiglia nel trasferimento dati tra CPU e GPU, garantendo efficienza e programmabilità superiori.

Enorme capacità di memoria

La memoria unificata HBM3 da 192 GB consente l'addestramento e l'inferenza di modelli di intelligenza artificiale su larga scala senza limitazioni di memoria, supportando carichi di lavoro complessi con set di dati estesi.

Serie AMD Instinct™ MI200

Acceleratori di livello enterprise basati sull'architettura CDNA 2 per il calcolo exascale e i carichi di lavoro di intelligenza artificiale.

AMD Instinct MI250X

Acceleratore AMD Instinct MI250X

L'acceleratore di punta della serie MI200 offre prestazioni di classe exascale per simulazioni HPC avanzate, dinamica molecolare e applicazioni di ricerca sull'intelligenza artificiale.

AMD Instinct MI250

Acceleratore AMD Instinct MI250

Acceleratore pronto per la produzione, ottimizzato per l'addestramento dell'IA, i carichi di lavoro di inferenza e la ricerca computazionale in ambito aziendale, accademico e scientifico.

AMD Instinct MI210

Acceleratore AMD Instinct MI210

Acceleratore economicamente vantaggioso, ideale per lo sviluppo di deep learning, l'analisi dei dati e le implementazioni HPC di livello workstation in ambienti di ricerca e aziendali.

Architettura multi-chip

L'architettura CDNA™ di seconda generazione sfrutta un design avanzato a chiplet, offrendo un'eccezionale densità di calcolo ed efficienza energetica per carichi di lavoro di elaborazione parallela su larga scala.

accelerazione dell'IA

Gli acceleratori MI200 offrono operazioni matriciali ottimizzate e calcolo a precisione mista per l'addestramento accelerato del deep learning, la messa a punto dei modelli e l'implementazione dell'inferenza.

Architettura di coerenza della memoria

L'architettura AMD Infinity di terza generazione consente una comunicazione ad alta larghezza di banda e bassa latenza tra le unità di calcolo GPU e la memoria di sistema, massimizzando il throughput dei dati.

Interconnessione GPU

Fino a 8 collegamenti AMD Infinity Fabric™ per acceleratore consentono una comunicazione GPU peer-to-peer ad alta velocità per l'addestramento multi-GPU e i carichi di lavoro di calcolo distribuito.

Infrastruttura aziendale HPE per carichi di lavoro AMD Instinct™

Piattaforma HPE ProLiant

Gli acceleratori AMD Instinct installati sui server enterprise HPE ProLiant offrono affidabilità di livello carrier e prestazioni costanti per carichi di lavoro di intelligenza artificiale e calcolo ad alte prestazioni (HPC) in ambiente di produzione.

Espansione flessibile

Scala la tua infrastruttura GPU on-demand con un provisioning hardware rapido. Gli aggiornamenti standard e la capacità aggiuntiva vengono generalmente implementati entro 24 ore.

Supporto di esperti

Specialisti in infrastrutture GPU disponibili 24 ore su 24 tramite chat e email per fornire assistenza con l'implementazione, l'ottimizzazione e la risoluzione dei problemi.

MI210 L40S A100 H100
Architettura GPU CDNA 2.0 Ada Lovelace NVIDIA Ampere Tramoggia
Memoria GPU 64 GB HBM2e 48 GB GDDR6 80 GB HBM2e 80 GB HBM3
Larghezza di banda della memoria GPU 1638 GB/s 864 GB/s 1935 GB/s 3352 GB/s
FP32 22,63 TFLOPS 91,6 TFLOPS 19,5 TFLOPS 51 TFLOPS
TF32 Tensor Core 312 TFLOPS 366 TFLOPS 312 TFLOPS 756 TFLOPS
Core tensoriale FP16/BF16 181 TFLOPS 733 TFLOPS 624 TFLOPS 1513 TFLOPS
Energia Fino a 300 W Fino a 350 W Fino a 400 W Fino a 350 W
Caricamento... Caricamento... Caricamento... Caricamento...

Domande frequenti sui server GPU AMD Instinct

Trova risposte alle domande più frequenti sulla distribuzione e la gestione di server bare metal con accelerazione GPU AMD Instinct per applicazioni di addestramento, inferenza e calcolo ad alte prestazioni basate sull'intelligenza artificiale.

Cosa sono gli acceleratori AMD Instinct e quali carichi di lavoro ne traggono maggior vantaggio?

Gli acceleratori AMD Instinct sono GPU di livello enterprise progettate per l'intelligenza artificiale, l'apprendimento automatico, i modelli linguistici di grandi dimensioni e le applicazioni di calcolo ad alte prestazioni. Basati sull'architettura CDNA, ottimizzata per il calcolo anziché per la grafica, eccellono nell'addestramento e nell'inferenza del deep learning, nelle simulazioni scientifiche, nella fluidodinamica computazionale, nella modellazione molecolare e nell'analisi dei dati che richiedono enormi capacità di elaborazione parallela.

In cosa si differenzia l'acceleratore MI300A dalla serie MI200?

La MI300A rappresenta l'architettura APU più recente di AMD, che integra la GPU AMD Instinct con la CPU AMD EPYC™ Zen 4 a 24 core su un substrato di memoria HBM3 unificato da 192 GB basato sull'architettura Infinity di terza generazione. Ciò elimina i tradizionali colli di bottiglia nel trasferimento dati tra CPU e GPU. La serie MI200 (MI250X, MI250, MI210) è composta da acceleratori GPU discreti con architettura CDNA di seconda generazione e design multi-chip, che offrono fino a 8 collegamenti Infinity Fabric™ per GPU per una scalabilità multi-acceleratore eccezionale.

Quali sono i tempi di implementazione tipici per i server AMD Instinct?

I server per la distribuzione immediata vengono generalmente attivati ​​entro 3-10 minuti dalla verifica del pagamento. Le configurazioni personalizzate vengono implementate in base alla disponibilità dei componenti. Tutti i server AMD Instinct supportano il riavvio istantaneo del sistema operativo senza necessità di aprire ticket di supporto, consentendo iterazioni rapide. L'infrastruttura di rete è ottimizzata per carichi di lavoro ad alto throughput sostenuti e connettività a bassa latenza.

Quali framework e strumenti software supportano le GPU AMD Instinct?

Gli acceleratori AMD Instinct si basano su ROCm (Radeon Open Compute), una piattaforma di calcolo GPU open source che supporta PyTorch, TensorFlow, JAX, ONNX Runtime e altri framework di machine learning leader del settore. ROCm include HIP (Heterogeneous-Compute Interface for Portability), che consente un porting semplice del codice CUDA, oltre a librerie ottimizzate per algebra lineare, FFT, generazione di numeri casuali e reti neurali profonde. Il supporto completo per i container tramite Docker e Kubernetes permette la distribuzione di soluzioni di IA/ML su scala produttiva.

Quali configurazioni di memoria sono disponibili per i server AMD Instinct?

L'APU MI300A offre 192 GB di memoria HBM3 (High Bandwidth Memory) unificata, accessibile sia ai core GPU che CPU, eliminando l'overhead di trasferimento della memoria per le applicazioni ad alta intensità di dati. Gli acceleratori della serie MI200 sono dotati di memoria HBM2e ad alta larghezza di banda ottimizzata per l'addestramento e l'inferenza di reti neurali su larga scala. Questa notevole capacità di memoria supporta l'addestramento di modelli di base, l'elaborazione di set di dati estesi e l'esecuzione di simulazioni complesse senza necessità di riorganizzazione della memoria tra host e acceleratore.