Servers in stock
 Checking availability...
50% off 1st month on Instant Servers - code 50OFF +1-646-490-9655
Build your server
Servidores con GPU AMD Instinct

Implementar aceleradores AMD Instinct en infraestructura de hardware físico.

Implemente servidores bare metal de nivel empresarial de HPE con aceleradores AMD Instinct para cargas de trabajo de aprendizaje automático, inferencia LLM y computación de alto rendimiento.

APU MI300A con 192 GB de memoria unificada HBM3. Arquitectura CDNA3 integrada con núcleos Zen 4. Infraestructura empresarial HPE ProLiant.

Servidores bare metal con APU AMD Instinct MI300A

Diseñados para inteligencia artificial, aprendizaje automático e implementación de modelos de lenguaje a gran escala. Los servidores GPU AMD Instinct combinan la arquitectura de computación CDNA3 con núcleos de CPU Zen 4 y 192 GB de memoria unificada HBM3 para entrenamiento intensivo de IA, inferencia y aplicaciones de computación de alto rendimiento (HPC).

Rendimiento máximo de cálculo

La arquitectura CDNA3 ofrece un rendimiento informático revolucionario para el entrenamiento de aprendizaje profundo, el ajuste fino de LLM y las cargas de trabajo de computación científica que requieren el máximo rendimiento.

Arquitectura de memoria unificada

El diseño integrado que combina la GPU AMD Instinct con la CPU EPYC™ Zen 4 de 24 núcleos elimina los cuellos de botella tradicionales en la transferencia de datos entre la CPU y la GPU, lo que se traduce en una eficiencia y programabilidad superiores.

Capacidad de memoria masiva

La memoria unificada HBM3 de 192 GB permite el entrenamiento y la inferencia de modelos de IA a gran escala sin limitaciones de memoria, lo que admite cargas de trabajo complejas con conjuntos de datos extensos.

Serie AMD Instinct™ MI200

Aceleradores de nivel empresarial basados ​​en la arquitectura CDNA 2 para computación a exaescala y cargas de trabajo de IA.

AMD Instinct MI250X

Acelerador AMD Instinct MI250X

El acelerador insignia de la serie MI200 ofrece un rendimiento de clase exaescala para simulaciones HPC avanzadas, dinámica molecular y aplicaciones de investigación en IA.

AMD Instinct MI250

Acelerador AMD Instinct MI250

Acelerador listo para producción, optimizado para el entrenamiento de IA, cargas de trabajo de inferencia e investigación computacional en instituciones empresariales, académicas y científicas.

AMD Instinct MI210

Acelerador AMD Instinct MI210

Acelerador rentable, ideal para el desarrollo de aprendizaje profundo, análisis de datos e implementaciones de computación de alto rendimiento (HPC) de clase estación de trabajo en entornos de investigación y empresariales.

Arquitectura multichip

La arquitectura CDNA™ de segunda generación aprovecha un diseño de chiplets avanzado que ofrece una densidad de cómputo y una eficiencia energética excepcionales para cargas de trabajo de procesamiento paralelo a gran escala.

aceleración de la IA

Los aceleradores MI200 proporcionan operaciones matriciales optimizadas y computación de precisión mixta para acelerar el entrenamiento de aprendizaje profundo, el ajuste fino de modelos y la implementación de inferencias.

arquitectura de coherencia de memoria

La arquitectura AMD Infinity de tercera generación permite una comunicación de alto ancho de banda y baja latencia entre las unidades de cómputo de la GPU y la memoria del sistema para maximizar el rendimiento de los datos.

interconexión de GPU

Hasta 8 enlaces AMD Infinity Fabric™ por acelerador permiten una comunicación GPU punto a punto de alta velocidad para el entrenamiento con múltiples GPU y cargas de trabajo de computación distribuida.

Infraestructura empresarial de HPE para cargas de trabajo AMD Instinct™

Plataforma HPE ProLiant

Los aceleradores AMD Instinct implementados en los servidores empresariales HPE ProLiant ofrecen fiabilidad de nivel operador y un rendimiento constante para cargas de trabajo de IA y HPC en producción.

Expansión flexible

Amplíe su infraestructura de GPU bajo demanda con un aprovisionamiento de hardware rápido. Las actualizaciones estándar y la capacidad adicional se implementan normalmente en 24 horas.

Soporte de expertos

Contamos con especialistas en infraestructura de GPU disponibles las 24 horas del día a través de chat en vivo y correo electrónico para ayudarle con la implementación, la optimización y la resolución de problemas.

MI210 L40S A100 H100
Arquitectura de GPU ADNc 2.0 Ada Lovelace NVIDIA Ampere Tolva
Memoria de GPU 64 GB HBM2e 48 GB GDDR6 80 GB HBM2e 80 GB HBM3
Ancho de banda de la memoria de la GPU 1638 GB/s 864 GB/s 1935 GB/s 3352 GB/s
FP32 22,63 TFLOPS 91,6 TFLOPS 19,5 TFLOPS 51 TFLOPS
Núcleo tensorial TF32 312 TFLOPS 366 TFLOPS 312 TFLOPS 756 TFLOPS
Núcleo Tensor FP16/BF16 181 TFLOPS 733 TFLOPS 624 TFLOPS 1513 TFLOPS
Fuerza Hasta 300 W Hasta 350 W Hasta 400 W Hasta 350 W
Cargando... Cargando... Cargando... Cargando...

Preguntas frecuentes sobre los servidores con GPU AMD Instinct

Obtenga respuestas a las preguntas más frecuentes sobre la implementación y el funcionamiento de servidores bare metal acelerados por GPU AMD Instinct para aplicaciones de entrenamiento, inferencia y computación de alto rendimiento en IA.

¿Qué son los aceleradores AMD Instinct y qué cargas de trabajo se benefician más de ellos?

Los aceleradores AMD Instinct son GPU de computación de nivel empresarial diseñadas para inteligencia artificial, aprendizaje automático, modelos de lenguaje complejos y aplicaciones de computación de alto rendimiento. Basadas en la arquitectura CDNA, optimizada para la computación en lugar de los gráficos, destacan en el entrenamiento e inferencia de aprendizaje profundo, simulaciones científicas, dinámica de fluidos computacional, modelado molecular y análisis de datos que requieren capacidades de procesamiento paralelo masivo.

¿En qué se diferencia el MI300A de la serie de aceleradores MI200?

El MI300A representa la arquitectura APU más reciente de AMD, que integra la GPU AMD Instinct con una CPU AMD EPYC™ Zen 4 de 24 núcleos en un sustrato de memoria HBM3 unificado de 192 GB, impulsado por la arquitectura Infinity de tercera generación. Esto elimina los cuellos de botella tradicionales en la transferencia de datos entre la CPU y la GPU. La serie MI200 (MI250X, MI250, MI210) son aceleradores de GPU discretos con arquitectura CDNA de segunda generación y diseño multichip, que ofrecen hasta 8 enlaces Infinity Fabric™ por GPU para una escalabilidad excepcional en configuraciones multiacelerador.

¿Cuál es el tiempo de despliegue típico para los servidores AMD Instinct?

Los servidores de entrega instantánea se aprovisionan normalmente entre 3 y 10 minutos después de la verificación del pago. Las configuraciones personalizadas se implementan según la disponibilidad de los componentes. Todos los servidores AMD Instinct admiten la recarga instantánea del sistema operativo sin necesidad de tickets de soporte, lo que permite una iteración rápida. La infraestructura de red está optimizada para cargas de trabajo de alto rendimiento sostenidas y conectividad de baja latencia.

¿Qué marcos de software y herramientas son compatibles con las GPU AMD Instinct?

Los aceleradores AMD Instinct se ejecutan en ROCm (Radeon Open Compute), una plataforma de computación GPU de código abierto compatible con PyTorch, TensorFlow, JAX, ONNX Runtime y otros marcos de aprendizaje automático líderes. ROCm incluye HIP (Heterogeneous-Compute Interface for Portability), que permite una fácil portabilidad del código CUDA, además de bibliotecas optimizadas para álgebra lineal, FFT, generación de números aleatorios y redes neuronales profundas. La compatibilidad total con contenedores mediante Docker y Kubernetes permite la implementación de IA/ML a escala de producción.

¿Qué configuraciones de memoria están disponibles para los servidores AMD Instinct?

La APU MI300A proporciona 192 GB de memoria HBM3 unificada (memoria de alto ancho de banda) accesible tanto para la GPU como para la CPU, eliminando la sobrecarga de transferencia de memoria para aplicaciones con uso intensivo de datos. Los aceleradores de la serie MI200 cuentan con memoria HBM2e de alto ancho de banda optimizada para el entrenamiento e inferencia de redes neuronales a gran escala. Esta considerable capacidad de memoria permite entrenar modelos básicos, procesar conjuntos de datos extensos y ejecutar simulaciones complejas sin necesidad de redistribuir la memoria entre el host y el acelerador.