Usługi obliczeniowe AI
Nasza oferta obejmuje maszyny wirtualne zoptymalizowane pod kątem sztucznej inteligencji i uczenia maszynowego. Zapewniamy elastyczne i natychmiast dostępne zasoby obliczeniowe do rozwoju i wdrażania rozwiązań AI.
Maszyny wirtualne (VM)
Konfiguracje VM zapewniają elastyczność i natychmiastowe wdrożenie, co czyni je idealnymi do rozwoju AI, testów i środowisk produkcyjnych. Oferujemy:
- Preinstalowane frameworki i narzędzia AI
- Szybki dostęp do przestrzeni dyskowej
- Przepustowość sieci do 25 Gbit/s
- Natychmiastowe uruchamianie
- Dostęp do wszystkich funkcji chmury przez standardowe protokoły
Maszyny wirtualne AI
Maszyny wirtualne z akceleracją GPU
Wszystkie instancje z GPU zawierają NVIDIA CUDA Toolkit i popularne frameworki AI.
VM z GPU NVIDIA H100
VM z GPU NVIDIA L40S
VM ze współdzielonym GPU NVIDIA L40S
Spot VM z GPU NVIDIA L40S
Maszyny wirtualne z GPU NVIDIA H100
Maszyny wirtualne z H100 to najmocniejsze rozwiązanie dla zadań AI. Wyposażone w 80GB pamięci, znacznie przyspieszają trening modeli, zwłaszcza tych opartych na architekturze transformer. Szczególnie sprawdzają się przy trenowaniu dużych modeli językowych i innych zaawansowanych zadaniach obliczeniowych.
Dostępne VM | Rdzenie | RAM (GB) | Dysk SSD (GB) | Specyfikacja GPU |
---|---|---|---|---|
gpu.h100.1 | 30 | 220 | 100 | 80GB GPU RAM |
gpu.h100.2 | 60 | 440 | 200 | 2x80GB GPU RAM |
gpu.h100.4 | 120 | 880 | 400 | 4x80GB GPU RAM |
Maszyny wirtualne z GPU NVIDIA L40S
Serwery z kartami L40S oferują wyjątkową wszechstronność w atrakcyjnej cenie. Dostępne zarówno w trybie zwirtualizowanym, jak i z bezpośrednim dostępem, sprawdzają się w trenowaniu algorytmów sztucznej inteligencji, inferencji i zadaniach graficznych.
Dostępne VM | Rdzenie | RAM (GB) | Dysk SSD (GB) | Specyfikacja GPU |
---|---|---|---|---|
gpu.l40s.2 | 64 | 256 | 512 | 2x48GB GPU RAM |
gpu.l40s.4 | 128 | 512 | 1000 | 4x48GB GPU RAM |
gpu.l40s.8 | 256 | 1000 | 1000 | 8x48GB GPU RAM |
Maszyny wirtualne ze współdzielonym GPU NVIDIA L40S
Wirtualne maszyny z L40s oferujemy w różnych wariantach - od 1/8 do całego GPU. Takie elastyczne podejście pozwala dopasować moc obliczeniową do konkretnych potrzeb. To idealne rozwiązanie do mniejszych modeli AI i zadań inferencyjnych, gdzie pełna karta nie jest potrzebna. Dzielenie GPU nie wpływa na wydajność, a pozwala znacząco zredukować koszty.
Dostępne VM | Rdzenie | RAM (GB) | Dysk SSD (GB) | Specyfikacja GPU |
---|---|---|---|---|
vm.l40s.1 | 4 | 16 | 40 | 4GB vGPU RAM |
vm.l40s.2 | 8 | 32 | 80 | 12GB vGPU RAM |
vm.l40s.4 | 16 | 64 | 160 | 24GB vGPU RAM |
vm.l40s.8 | 32 | 128 | 320 | 48GB vGPU RAM |
Maszyny spot z GPU NVIDIA L40S
Instancje spotowe z L40s to tańsza alternatywa oferująca pełną moc GPU. Świetnie sprawdzają się w zadaniach, które mogą być czasem przerwane - jak preprocessing danych, testowanie modeli czy strojenie parametrów. To szczególnie dobre rozwiązanie dla środowisk developerskich i zespołów badawczych, które chcą oszczędnie zarządzać budżetem na infrastrukturę AI, nie rezygnując z wydajności.
Dostępne VM | Rdzenie | RAM (GB) | Dysk SSD (GB) | Specyfikacja GPU |
---|---|---|---|---|
spot.vm.l40s.1 | 4 | 16 | 40 | 4GB vGPU RAM |
spot.vm.l40s.2 | 8 | 32 | 80 | 12GB vGPU RAM |
spot.vm.l40s.4 | 16 | 64 | 160 | 24GB vGPU RAM |
spot.vm.l40s.8 | 32 | 128 | 320 | 48GB vGPU RAM |
Funkcje dla AI
Uwagi dotyczące konfiguracji
- Natychmiastowe uruchamianie wszystkich VM
- Możliwość automatycznego skalowania
- Wsparcie dla własnych kontenerów
- Integracja z popularnymi narzędziami MLOps
- Regularne aktualizacje frameworków i narzędzi AI
- Wbudowane funkcje kopii zapasowych
Po więcej informacji o naszych usługach AI lub aby omówić szczegóły techniczne, prosimy o kontakt z działem sprzedaży.