Dzięki ponad dwudziestoletniemu doświadczeniu w zakresie infrastruktury oraz zastosowaniu jedynego w swoim rodzaju pionowo zintegrowanego modelu biznesowego, OVHcloud projektuje infrastrukturę przeznaczoną do obsługi sztucznej inteligencji obejmującą najlepsze w swojej klasie procesory graficzne NVIDIA H100 i A100 Tensor Core. Klienci firmy zyskają wiele opcji pozwalających na realizację najambitniejszych zadań związanych z uczeniem maszynowym, takich jak praca z dużymi modelami językowymi (LLM).
Oprócz cenionych przez rynek opcji, dostępnych już w konkurencyjnych cenach, czyli układów GPU starszej generacji NVIDIA V100 i NVIDIA V100S, firma OVHcloud ogłosiła wprowadzenie nowych produktów opartych na następujących procesorach graficznych – NVIDIA H100, NVIDIA A100, NVIDIA L40S i NVIDIA L4, które zostaną udostępnione w ciągu kilku następnych tygodni.
Nowe instancje procesorów graficznych NVIDIA A100 do trenowania i wnioskowania modeli uczenia głębokiego
Nowe instancje GPU, oparte na procesorze graficznym NVIDIA A100 80 GB, są dostępne od ręki i pozwalają specjalistom od AI na prowadzenie złożonych projektów z wykorzystaniem wysoce wyspecjalizowanej technologii NVIDIA Tensor Core. Oferując wyjątkowe możliwości w zakresie uczenia głębokiego, układ A100 jest idealnie dostosowany do obsługi wnioskowania za sprawą rozmaitych zoptymalizowanych metod wykonywania tego typu zadań, w tym projektów związanych z dużymi modelami językowymi. Obliczenia o wysokiej wydajności to kolejna dziedzina, w której instancje procesora graficznego A100 umożliwiają realizacje nowej generacji, poprzez zaawansowane symulacje, dzięki podwójnej precyzji obliczeń i pamięci o wysokiej przepustowości.
Oparte na procesorze graficznym A100 instancje w chmurze publicznej dostępne są w następujących konfiguracjach: A100-180 z 1 x A100, 15 vCore i 180 GB RAM, A100-360 z 2 x A100, 30 vCore i 360 GB RAM oraz A100-720 z 4 x A100, 60 vCore i 720 GB RAM.
Nowe instancje GPU z procesorem graficznym NVIDIA H100 do trenowania modeli uczenia głębokiego
OVHcloud zapowiada również wprowadzenie instancji GPU opartych na procesorze graficznym H100, czyli najnowszym akceleratorze NVIDIA o minimalnej mocy obliczeniowej 26 petaflopów (FP64) na jeden układ GPU ze złączem PCIe. Zaprojektowany pod kątem najbardziej wymagających modeli sztucznej inteligencji procesor graficzny NVIDIA H100 to sztandarowy produkt, pozwalający na osiągnięcie innowacyjności na polu AI dla akceleracji dużych modeli językowych z użyciem biblioteki programowej Transformer Engine, jak też tworzenie aplikacji opartych na generatywnej sztucznej inteligencji.
W przypadku najbardziej wymagających zastosowań, takich jak precyzyjne trenowanie i dostrajanie, OVHcloud zaoferuje rozwiązania oparte na procesorze graficznym NVIDIA H100 SXM. Dzięki 67 teraflopom mocy obliczeniowej FP64 i wyższej przepustowości GPU ten wyjątkowy produkt zademonstruje pełnię możliwości architektury procesorów graficznych NVIDIA Hopper.
Nowe instancje GPU i serwery bare-metal z procesorami graficznymi NVIDIA L4 i L40S
Firma OVHcloud zaprezentowała również instancje procesorów graficznych NVIDIA L4 z 24 GB pamięci. Układ L4, oparty na architekturze NVIDIA Ada Lovelace, to uniwersalny procesor graficzny przeznaczony do dowolnych zadań z udoskonalonymi funkcjami obsługi sztucznej inteligencji i obróbki filmów, zapewniający wysoce wydajne zasoby obliczeniowe na potrzeby grafiki, symulacji i analizy danych.
Kolejnym układem GPU, który dołączył do oferowanych przez Grupę instancji, jest NVIDIA L40S z 48 GB pamięci. NVIDIA L40S korzysta z rdzeni Tensor Core czwartej generacji i biblioteki programowej Transformer Engine z precyzją FP8, aby zapewnić wysoką wydajność do zadań związanych z AI, zarówno w zakresie trenowania, jak i wnioskowania.
Wspomniane procesory graficzne będą dostępne poprzez instancje w chmurze publicznej, a także na dedykowanych serwerach bare-metal z procesorem L4 na serwerze SCALE-GPU i L40S na HGR-AI.
Przyspieszona podróż po uniwersum AI
Dzięki bezprecedensowej decyzji, jaką jest wybór architektury procesorów graficznych NVIDIA, firma OVHcloud może teraz zapewnić inżynierom AI, badaczom i ekspertom od analizy danych specjalnie zaprojektowaną pod kątem sztucznej inteligencji infrastrukturę, która wykorzystuje elastyczność chmury, aby spełnić ich potrzeby – od trenowania aż po wnioskowanie.
Ponadto OVHcloud będzie stopniowo dodawać procesory graficzne NVIDIA H100 i A100 do swojej szerokiej oferty związanych ze sztuczną inteligencją rozwiązań typu platforma jako usługa (PaaS) towarzyszących całemu cyklowi życia danych, czyli AI Notebooks, AI Training i AI Deploy. Rozwiązania w zakresie sztucznej inteligencji OVHcloud to kompletny zestaw łatwych w eksploatacji narzędzi specjalnie zaprojektowanych do badania danych, trenowania modeli i wdrażania gotowych produktów.
– Sztuczna inteligencja zmieni działalność naszych klientów, my zaś mamy tę wyjątkową rolę, że możemy pomóc im z łatwością wejść w nową erę. Dzięki jedynej w swoim rodzaju architekturze sztucznej inteligencji, która wykorzystuje pełnię naszej specjalistycznej wiedzy i cieszące się największym zainteresowaniem procesory graficzne, zapewniamy światowej klasy wydajność wraz ze wszystkimi korzyściami, jakie niesie chmura. Nasi klienci korzystający z rozwiązań opartych na sztucznej inteligencji skorzystają także z tych nowości dzięki naszej ofercie łatwych w eksploatacji usług AI Notebooks, AI Training i AI Deploy – powiedział Michel Paulin, dyrektor generalny OVHcloud.
– Przedsiębiorstwa poszukują elastycznych usług chmurowych, aby podnieść poziom swojej innowacyjności i pomóc swoim klientom rozpocząć korzystanie z nowych narzędzi opartych na generatywnej sztucznej inteligencji – powiedział Matthew McGrigg, dyrektor ds. globalnego rozwoju partnerów chmurowych w firmie NVIDIA. – Dzięki pełnej ofercie rozwiązań NVIDIA w zakresie akceleracji obliczeń OVHcloud może obsługiwać całą gamę zadań związanych z trenowaniem i wnioskowaniem.
W ramach realizacji przyjętego planu intensywnego rozwoju rozwiązań dedykowanych sztucznej inteligencji firma OVHcloud ma w nadchodzących tygodniach zapowiedzieć szereg innowacji w dziedzinie AI, które jeszcze lepiej pomogą jej klientom odnaleźć się w świecie tej nowej technologii.
Cena i dostępność
Instancje GPU oparte na procesorze graficznym NVIDIA A100 są teraz dostępne w chmurze publicznej od 2,75 EUR za godzinę w przypadku układu A100-180, 5,50 EUR za godzinę w przypadku A100-360 oraz 11 EUR za godzinę w przypadku A100-720. Zarządzane rozwiązania w zakresie sztucznej inteligencji, oparte na procesorze graficznym A100, będą dostępne w późniejszym terminie w cenie 3 EUR za godzinę. Instancje procesora graficznego NVIDIA H100 ze złączem PCIe w uniwersum chmury publicznej pojawią się jesienią tego roku, a ich wstępnej rezerwacji można dokonać już teraz. Klienci zainteresowani nadchodzącą ofertą procesora graficznego NVIDIA H100 SXM mogą zwrócić się o wycenę indywidualną.
Instancje procesorów NVIDIA L4 i L40S będą dostępne od października. Nowe dedykowane serwery bare-metal z procesorami NVIDIA L4 i L40S mają dołączyć do oferty OVHcloud jesienią tego roku.