Servers in stock
 Checking availability...
50% off 1st month on Instant Servers - code 50OFF +1-646-490-9655
Build your server
Serwery GPU AMD Instinct

Wdrażanie akceleratorów AMD Instinct na infrastrukturze bare metal

Wdrażaj serwery fizyczne HPE klasy korporacyjnej z akceleratorami AMD Instinct do zadań związanych z uczeniem maszynowym, wnioskowaniem LLM i obliczeniami o wysokiej wydajności.

Procesor APU MI300A z pamięcią HBM3 o pojemności 192 GB. Architektura CDNA3 zintegrowana z rdzeniami Zen 4. Infrastruktura korporacyjna HPE ProLiant.

Serwery z procesorem AMD Instinct MI300A APU bare metal

Zaprojektowane z myślą o sztucznej inteligencji, uczeniu maszynowym i wdrażaniu dużych modeli językowych. Serwery GPU AMD Instinct łączą architekturę obliczeniową CDNA3 z rdzeniami procesora Zen 4 i 192 GB zunifikowanej pamięci HBM3, co umożliwia intensywne szkolenie AI, wnioskowanie i aplikacje HPC.

Maksymalna przepustowość obliczeniowa

Architektura CDNA3 zapewnia przełomową wydajność obliczeniową w przypadku szkoleń głębokiego uczenia, dostrajania LLM i obciążeń obliczeniowych o charakterze naukowym wymagających maksymalnej przepustowości.

Zunifikowana architektura pamięci

Zintegrowana konstrukcja łącząca procesor graficzny AMD Instinct z 24-rdzeniowym procesorem EPYC™ Zen 4 eliminuje tradycyjne wąskie gardła w transferze danych między procesorem CPU i procesorem graficznym, zapewniając doskonałą wydajność i programowalność.

Ogromna pojemność pamięci

Zunifikowana pamięć HBM3 o pojemności 192 GB umożliwia szkolenie i wnioskowanie modeli sztucznej inteligencji na dużą skalę bez ograniczeń pamięci, obsługując złożone obciążenia z rozległymi zbiorami danych.

Seria AMD Instinct™ MI200

Akceleratory klasy korporacyjnej zbudowane w oparciu o architekturę CDNA 2 do obliczeń eksaskalowych i obciążeń AI

AMD Instinct MI250X

Akcelerator AMD Instinct MI250X

Flagowy akcelerator serii MI200 zapewniający wydajność klasy eksaskalowej na potrzeby zaawansowanych symulacji HPC, dynamiki molekularnej i zastosowań badawczych w dziedzinie sztucznej inteligencji.

AMD Instinct MI250

Akcelerator AMD Instinct MI250

Akcelerator gotowy do produkcji, zoptymalizowany pod kątem szkolenia sztucznej inteligencji, obciążeń wnioskowania i badań obliczeniowych w przedsiębiorstwach, placówkach akademickich i naukowych.

AMD Instinct MI210

Akcelerator AMD Instinct MI210

Ekonomiczny akcelerator idealny do zastosowań w rozwoju głębokiego uczenia, analizie danych i wdrażaniu rozwiązań HPC klasy stacji roboczej w środowiskach badawczych i korporacyjnych.

Architektura wieloprocesorowa

Architektura CDNA™ drugiej generacji wykorzystuje zaawansowaną konstrukcję chipletów, zapewniając wyjątkową gęstość obliczeniową i efektywność energetyczną dla obciążeń przetwarzania równoległego na dużą skalę.

Przyspieszenie AI

Akceleratory MI200 zapewniają zoptymalizowane operacje macierzowe i obliczenia o mieszanej precyzji do przyspieszonego szkolenia głębokiego uczenia, dostrajania modeli i wdrażania wnioskowania.

Architektura spójności pamięci

Architektura AMD Infinity 3. generacji umożliwia komunikację o dużej przepustowości i niskim opóźnieniu między jednostkami obliczeniowymi GPU i pamięcią systemową, co maksymalizuje przepustowość danych.

Połączenie GPU

Nawet 8 łączy AMD Infinity Fabric™ na akcelerator umożliwia szybką komunikację typu peer-to-peer między procesorami GPU w celu szkolenia wielu procesorów GPU i realizacji rozproszonych obciążeń obliczeniowych.

Infrastruktura korporacyjna HPE dla obciążeń AMD Instinct™

Platforma HPE ProLiant

Akceleratory AMD Instinct wdrożone na serwerach korporacyjnych HPE ProLiant zapewniają niezawodność klasy operatorskiej i spójną wydajność w przypadku obciążeń produkcyjnych z zakresu sztucznej inteligencji i HPC.

Elastyczna rozbudowa

Skaluj infrastrukturę GPU na żądanie dzięki szybkiemu udostępnianiu sprzętu. Standardowe aktualizacje i dodatkowa pojemność są zazwyczaj wdrażane w ciągu 24 godzin.

Wsparcie ekspertów

Specjaliści od infrastruktury GPU są dostępni całą dobę za pośrednictwem czatu na żywo i poczty e-mail, aby pomóc we wdrożeniu, optymalizacji i rozwiązywaniu problemów.

MI210 L40S A100 H100
Architektura GPU CDNA 2.0 Ada Lovelace NVIDIA Ampere Zbiornik
Pamięć GPU 64 GB HBM2e 48 GB pamięci GDDR6 80 GB HBM2e 80 GB HBM3
Przepustowość pamięci GPU 1638 GB/s 864 GB/s 1935 GB/s 3352 GB/s
FP32 22,63 teraflopów 91,6 teraflopów 19,5 teraflopów 51 teraflopów
Rdzeń tensorowy TF32 312 teraflopów 366 teraflopów 312 teraflopów 756 teraflopów
Rdzeń tensorowy FP16/BF16 181 teraflopów 733 teraflopów 624 teraflopów 1513 teraflopów
Moc Do 300 W Do 350 W Do 400 W Do 350 W
Załadunek... Załadunek... Załadunek... Załadunek...

Często zadawane pytania dotyczące serwerów GPU AMD Instinct

Uzyskaj odpowiedzi na często zadawane pytania dotyczące wdrażania i obsługi serwerów bare metal z akceleracją GPU AMD Instinct do celów szkolenia sztucznej inteligencji, wnioskowania i zastosowań wymagających wysokiej wydajności obliczeniowej.

Czym są akceleratory AMD Instinct i które obciążenia korzystają z nich najbardziej?

Akceleratory AMD Instinct to procesory graficzne klasy korporacyjnej, zaprojektowane z myślą o sztucznej inteligencji, uczeniu maszynowym, dużych modelach językowych i aplikacjach o wysokiej wydajności. Zbudowane w oparciu o architekturę CDNA zoptymalizowaną pod kątem obliczeń, a nie grafiki, doskonale sprawdzają się w szkoleniu i wnioskowaniu w uczeniu głębokim, symulacjach naukowych, obliczeniowej mechanice płynów, modelowaniu molekularnym oraz analizie danych wymagającej ogromnych możliwości przetwarzania równoległego.

Czym różni się seria akceleratorów MI300A od serii akceleratorów MI200?

MI300A reprezentuje najnowszą architekturę APU AMD, integrując GPU AMD Instinct z 24-rdzeniowym procesorem AMD EPYC™ Zen 4 na zunifikowanej pamięci HBM3 o pojemności 192 GB, opartej na architekturze Infinity 3. generacji. Eliminuje to tradycyjne wąskie gardła w transferze danych między procesorem a procesorem graficznym. Seria MI200 (MI250X, MI250, MI210) to dyskretne akceleratory GPU z architekturą CDNA 2. generacji i konstrukcją wieloprocesorową, oferujące do 8 łączy Infinity Fabric™ na GPU, co zapewnia wyjątkową skalowalność w trybie multiakceleratora.

Jaki jest typowy czas wdrożenia serwerów AMD Instinct?

Serwery z natychmiastową dostawą są zazwyczaj udostępniane w ciągu 3-10 minut od weryfikacji płatności. Konfiguracje niestandardowe wdrażane są w zależności od dostępności komponentów. Wszystkie serwery AMD Instinct obsługują natychmiastowe przeładowywanie systemu operacyjnego bez konieczności zgłaszania się do pomocy technicznej, co umożliwia szybką iterację. Infrastruktura sieciowa jest zoptymalizowana pod kątem stałych obciążeń o wysokiej przepustowości i łączności o niskich opóźnieniach.

Które frameworki i narzędzia programowe obsługują procesory graficzne AMD Instinct?

Akceleratory AMD Instinct działają na platformie ROCm (Radeon Open Compute), platformie obliczeniowej GPU typu open source obsługującej PyTorch, TensorFlow, JAX, ONNX Runtime i inne wiodące frameworki uczenia maszynowego. ROCm zawiera interfejs HIP (Heterogeneous-Compute Interface for Portability), umożliwiający proste przenoszenie kodu CUDA, a także zoptymalizowane biblioteki dla algebry liniowej, FFT, generowania liczb losowych i głębokich sieci neuronowych. Pełna obsługa kontenerów za pośrednictwem Dockera i Kubernetesa umożliwia wdrażanie AI/ML w skali produkcyjnej.

Jakie konfiguracje pamięci są dostępne w serwerach AMD Instinct?

Układ APU MI300A oferuje 192 GB zunifikowanej pamięci HBM3 (High Bandwidth Memory), dostępnej zarówno dla rdzeni GPU, jak i CPU, eliminując obciążenie transferu pamięci w aplikacjach intensywnie przetwarzających dane. Akceleratory serii MI200 wyposażone są w pamięć HBM2e o wysokiej przepustowości, zoptymalizowaną pod kątem trenowania i wnioskowania sieci neuronowych na dużą skalę. Ta pokaźna pojemność pamięci umożliwia trenowanie modeli bazowych, przetwarzanie rozległych zbiorów danych i wykonywanie złożonych symulacji bez konieczności tasowania pamięci akceleratora hosta.