Servers in stock
 Checking availability...
50% off 1st month on Instant Servers - code 50OFF +1-646-490-9655
Build your server
Serveurs GPU AMD Instinct

Déployer des accélérateurs AMD Instinct sur une infrastructure physique.

Déployez des serveurs bare metal HPE de qualité professionnelle, équipés d'accélérateurs AMD Instinct, pour les charges de travail d'apprentissage automatique, d'inférence LLM et de calcul haute performance.

Processeur auxiliaire MI300A avec 192 Go de mémoire HBM3 unifiée. Architecture CDNA3 intégrant des cœurs Zen 4. Infrastructure d'entreprise HPE ProLiant.

Serveurs bare metal AMD Instinct MI300A APU

Conçus pour l'intelligence artificielle, l'apprentissage automatique et le déploiement de modèles de langage complexes, les serveurs GPU AMD Instinct combinent une architecture de calcul CDNA3 avec des cœurs de processeur Zen 4 et 192 Go de mémoire unifiée HBM3 pour les applications intensives d'entraînement, d'inférence et de calcul haute performance en IA.

débit de calcul maximal

L'architecture CDNA3 offre des performances de calcul révolutionnaires pour l'entraînement de l'apprentissage profond, le réglage fin des LLM et les charges de travail de calcul scientifique nécessitant un débit maximal.

Architecture de mémoire unifiée

La conception intégrée combinant un GPU AMD Instinct avec un processeur EPYC™ Zen 4 à 24 cœurs élimine les goulots d'étranglement traditionnels du transfert de données CPU-GPU pour une efficacité et une programmabilité supérieures.

Capacité de mémoire massive

La mémoire unifiée HBM3 de 192 Go permet l'entraînement et l'inférence de modèles d'IA à grande échelle sans contraintes de mémoire, prenant en charge des charges de travail complexes avec des ensembles de données volumineux.

Série AMD Instinct™ MI200

Accélérateurs de niveau entreprise basés sur l'architecture CDNA 2 pour le calcul exascale et les charges de travail d'IA

AMD Instinct MI250X

Accélérateur AMD Instinct MI250X

Accélérateur phare de la série MI200 offrant des performances de classe exascale pour les simulations HPC avancées, la dynamique moléculaire et les applications de recherche en IA.

AMD Instinct MI250

Accélérateur AMD Instinct MI250

Accélérateur prêt pour la production, optimisé pour la formation en IA, les charges de travail d'inférence et la recherche informatique dans les entreprises, les établissements universitaires et les institutions scientifiques.

AMD Instinct MI210

Accélérateur AMD Instinct MI210

Accélérateur économique idéal pour le développement de l'apprentissage profond, l'analyse de données et les déploiements HPC de niveau station de travail dans les environnements de recherche et d'entreprise.

Architecture multi-puces

L'architecture CDNA™ de 2e génération tire parti d'une conception de chiplet avancée offrant une densité de calcul et une efficacité énergétique exceptionnelles pour les charges de travail de traitement parallèle à grande échelle.

Accélération de l'IA

Les accélérateurs MI200 offrent des opérations matricielles optimisées et un calcul en précision mixte pour un entraînement d'apprentissage profond accéléré, un réglage fin du modèle et un déploiement d'inférence.

Architecture de cohérence de la mémoire

L'architecture AMD Infinity de 3e génération permet une communication à large bande passante et à faible latence entre les unités de calcul du GPU et la mémoire système pour un débit de données maximal.

Interconnexion GPU

Jusqu'à 8 liaisons AMD Infinity Fabric™ par accélérateur permettent une communication GPU pair à pair à haute vitesse pour l'entraînement multi-GPU et les charges de travail de calcul distribué.

Infrastructure d'entreprise HPE pour les charges de travail AMD Instinct™

Plateforme HPE ProLiant

Les accélérateurs AMD Instinct déployés sur les serveurs d'entreprise HPE ProLiant offrent une fiabilité de niveau opérateur et des performances constantes pour les charges de travail de production en IA et HPC.

Extension flexible

Faites évoluer votre infrastructure GPU à la demande grâce à un provisionnement matériel rapide. Les mises à niveau standard et les capacités supplémentaires sont généralement déployées en 24 heures.

Assistance d'experts

Des spécialistes de l'infrastructure GPU sont disponibles 24h/24 et 7j/7 par chat en direct et par e-mail pour vous aider dans le déploiement, l'optimisation et le dépannage.

MI210 L40S A100 H100
Architecture GPU CDNA 2.0 Ada Lovelace NVIDIA Ampere Trémie
Mémoire GPU 64 Go HBM2e 48 Go GDDR6 80 Go HBM2e 80 Go HBM3
Bande passante de la mémoire GPU 1638 Go/s 864 Go/s 1935 GB/s 3352 Go/s
FP32 22,63 TFLOPS 91,6 TFLOPS 19,5 TFLOPS 51 TFLOPS
Noyau Tensor TF32 312 TFLOPS 366 TFLOPS 312 TFLOPS 756 TFLOPS
Noyau Tensor FP16/BF16 181 TFLOPS 733 TFLOPS 624 TFLOPS 1513 TFLOPS
Pouvoir Jusqu'à 300 W Jusqu'à 350 W Jusqu'à 400 W Jusqu'à 350 W
Chargement... Chargement... Chargement... Chargement...

Questions fréquentes concernant les serveurs GPU AMD Instinct

Trouvez les réponses aux questions fréquentes concernant le déploiement et l'exploitation des serveurs bare metal accélérés par GPU AMD Instinct pour l'entraînement de l'IA, l'inférence et les applications de calcul haute performance.

Que sont les accélérateurs AMD Instinct et quelles charges de travail en bénéficient le plus ?

Les accélérateurs AMD Instinct sont des GPU de calcul de niveau entreprise conçus pour l'intelligence artificielle, l'apprentissage automatique, les grands modèles de langage et les applications de calcul haute performance. Basés sur l'architecture CDNA optimisée pour le calcul plutôt que pour le graphisme, ils excellent dans l'entraînement et l'inférence en apprentissage profond, les simulations scientifiques, la dynamique des fluides numérique, la modélisation moléculaire et l'analyse de données nécessitant des capacités de traitement massivement parallèles.

En quoi le MI300A diffère-t-il de la série d'accélérateurs MI200 ?

Le MI300A représente la toute dernière architecture d'APU d'AMD, intégrant un GPU AMD Instinct et un processeur AMD EPYC™ Zen 4 à 24 cœurs sur une mémoire HBM3 unifiée de 192 Go, le tout alimenté par l'architecture Infinity de 3e génération. Cette architecture élimine les goulots d'étranglement traditionnels liés aux transferts de données entre le CPU et le GPU. La série MI200 (MI250X, MI250, MI210) est composée d'accélérateurs GPU dédiés, dotés d'une architecture CDNA de 2e génération et d'une conception multi-puces, offrant jusqu'à 8 liaisons Infinity Fabric™ par GPU pour une évolutivité multi-accélérateurs exceptionnelle.

Quel est le délai de déploiement typique des serveurs AMD Instinct ?

Les serveurs à livraison instantanée sont généralement mis en service sous 3 à 10 minutes après vérification du paiement. Les configurations personnalisées sont déployées en fonction de la disponibilité des composants. Tous les serveurs AMD Instinct prennent en charge le rechargement instantané du système d'exploitation sans nécessiter de tickets d'assistance, permettant ainsi une itération rapide. L'infrastructure réseau est optimisée pour des charges de travail à haut débit soutenues et une connectivité à faible latence.

Quels sont les frameworks et outils logiciels compatibles avec les GPU AMD Instinct ?

Les accélérateurs AMD Instinct fonctionnent sur ROCm (Radeon Open Compute), une plateforme de calcul GPU open source compatible avec PyTorch, TensorFlow, JAX, ONNX Runtime et d'autres frameworks de ML de pointe. ROCm inclut HIP (Heterogeneous-Compute Interface for Portability) qui simplifie le portage de code CUDA, ainsi que des bibliothèques optimisées pour l'algèbre linéaire, la FFT, la génération de nombres aléatoires et les réseaux neuronaux profonds. La prise en charge complète des conteneurs via Docker et Kubernetes permet le déploiement d'IA/ML à l'échelle de la production.

Quelles sont les configurations de mémoire disponibles avec les serveurs AMD Instinct ?

L'APU MI300A offre 192 Go de mémoire HBM3 (High Bandwidth Memory) unifiée, accessible aux cœurs GPU et CPU, éliminant ainsi les surcharges liées aux transferts de mémoire pour les applications gourmandes en données. Les accélérateurs de la série MI200 intègrent une mémoire HBM2e à large bande passante, optimisée pour l'entraînement et l'inférence de réseaux neuronaux à grande échelle. Cette capacité mémoire importante permet d'entraîner des modèles de base, de traiter des ensembles de données volumineux et d'exécuter des simulations complexes sans réorganisation de la mémoire entre l'hôte et l'accélérateur.