Wśród kluczowych komponentów znajduje się HPE Private Cloud AI, które zapewni integrację rozwiązań AI, sieciowych i software’owych Nvidia z pamięcią masową, rozwiązaniami obliczeniowymi i chmurowymi HPE GreenLake.
Wszystkie produkty i usługi wchodzące w skład Nvidia AI Computing by HPE zostaną wprowadzone na rynek w ramach wspólnej strategii, która obejmuje zespoły sprzedażowe i partnerów handlowych, szkolenia oraz globalną sieć integratorów systemów. Nowe rozwiązanie zostało ogłoszone podczas konferencji HPE Discover przez CEO HPE Antonio Neriego oraz założyciela i CEO firmy Nvidia, Jensena Huanga.
HPE Private Cloud AI
HPE Private Cloud AI to oparte na chmurze rozwiązanie przyspieszające wprowadzanie innowacji i pozwalające szybciej uzyskać zwrot z inwestycji przy jednoczesnym zarządzaniu ryzykiem przedsiębiorstwa wynikającym ze stosowania sztucznej inteligencji.
HPE Private Cloud AI wykorzystuje kopilota AI OpsRamp pomagającego zwiększyć efektywność działań operacyjnych IT. Zawiera samoobsługowe rozwiązanie chmurowe z zarządzaniem pełnym cyklem życia i jest dostępne w czterech konfiguracjach o różnej skali.
HPE Private Cloud AI, które ma być dostępne jesienią 2024 r., obejmuje następujące elementy:
- obsługa wnioskowania, dostrajania i obciążeń RAG AI, które wykorzystują poufne dane;
- kontrola w zakresie prywatności danych, bezpieczeństwa, przejrzystości i governance;
- chmura z funkcjami ITOps i AIOps w celu zwiększenia produktywności;
- szybka ścieżka do elastycznego użytkowania.
Platforma software’owa Nvidia AI Enterprise
Podstawą proponowanego stosu oprogramowania do AI i danych jest platforma software’owa Nvidia AI Enterprise, która zawiera również mikrousługi wnioskowania Nvidia NIM. Platforma Nvidia AI Enterprise przyspiesza analizę danych i usprawnia opracowywanie i wdrażanie do produkcji co-pilotów oraz innych zastosowań GenAI. Nvidia NIM dostarcza mikrousługi optymalizujące wydajność wnioskowania i zapewniające płynne przejście od prototypu do wdrożenia produkcyjnego modeli AI do różnych zastosowań.
Oprogramowanie HPE AI Essential stanowi uzupełnienie dla Nvidia AI Enterprise i Nvidia NIM. Jest to gotowy do użycia zestaw wyselekcjonowanych narzędzi do AI i danych, które zapewniają elastyczne rozwiązania, ciągłe wsparcie i usługi, takie jak np. compliance dla danych i modeli czy funkcje zapewniające zgodność, przejrzystość i powtarzalność w całym cyklu życia AI.
Aby zapewnić optymalną wydajność oprogramowania do AI i danych, HPE Private Cloud AI udostępnia zintegrowany stos infrastruktury dla AI, w tym: platformę sieciową Nvidia Spectrum-X Ethernet, HPE GreenLake for File Storage i serwery HPE ProLiant ze wsparciem dla platform Nvidia L40S, Nvidia H100 NVL Tensor Core i GH200 NVL2.
HPE Private Cloud AI to samoobsługowe doświadczenie chmurowe oparte na platformie HPE GreenLake. Usługi w chmurze HPE Greenlake zapewniają zarządzalność i obserwowalność pozwalające na automatyzację, orkiestrację i zarządzanie punktami końcowymi, obciążeniami roboczymi i danymi w środowiskach hybrydowych. Obejmują one m.in. wskaźniki zrównoważonego rozwoju dla obciążeń roboczych i punktów końcowych.
Asystent co-pilota zapewni wgląd w chmurę HPE GreenLake i OpsRamp AI
Działanie OpsRamp AI jest zintegrowane z chmurą HPE GreenLake, aby zapewnić obserwowalność i AIOps dla wszystkich produktów i usług HPE. OpsRamp zapewnia teraz obserwowalność dla całego stosu obliczeniowego Nvidia, w tym dla oprogramowania Nvidia NIM i AI, procesorów graficznych Nvidia Tensor Core i klastrów AI, a także dla przełączników Nvidia Quantum InfiniBand i Nvidia Spectrum Ethernet. Administratorzy IT uzyskują wyniki analiz pozwalające na identyfikację anomalii i monitorowanie infrastruktury i obciążeń opartych na AI w hybrydowych środowiskach wielochmurowych.
Nowy co-pilot OpsRamp wykorzystuje platformę obliczeniową Nvidia do interpretacji dużych zestawów danych, której wyniki są prezentowane przez asystenta konwersacyjnego pozwalającego na zwiększenie efektywności zarządzania operacyjnego. OpsRamp będzie również zintegrowany z interfejsami API CrowdStrike, udostępniając jednolity widok mapy usług bezpieczeństwa punktów końcowych w całej swojej infrastrukturze i aplikacjach.
HPE dodaje obsługę najnowszych GPU, CPU i superchipów Nvidia
- HPE Cray XD670 obsługuje osiem procesorów graficznych Nvidia H200 NVL Tensor Core i został zaprojektowany z myślą o twórcach modelu LLM. Ma być dostępny latem 2024 r.
- Serwer HPE ProLiant DL384 Gen12 z z podwójnym Nvidia GH200 NVL2 jest przeznaczony dla użytkowników LLM korzystających z dużych modeli i RAG. Serwer ten będzie dostępny na rynku jesienią 2024 r.
- Serwer HPE ProLiant DL380a Gen12 obsługuje do ośmiu procesorów graficznych Nvidia H200 NVL Tensor Core i jest optymalnym rozwiązaniem dla użytkowników LLM potrzebujących elastycznej skalowalności swoich obciążeń roboczych GenAI. Serwer HPE ProLiant DL380a Gen12 ma być dostępny jesienią 2024 r.
- HPE będzie wspierać Nvidia GB200 NVL72 / NVL2, a także nowe architektury Nvidia Blackwell, Nvidia Rubin i Nvidia Vera.
HPE GreenLake for File Storage uzyskał certyfikację Nvidia DGX BasePOD i walidację pamięci masowej Nvidia OVX. HPE wprowadza to rozwiązanie równocześnie z zapowiedzianymi programami certyfikacji pamięci masowej dla architektury referencyjnej.
Rozszerzona współpraca z globalnymi integratorami systemów
Aby skrócić czas zwrotu z inwestycji w firmach opracowujących rozwiązania i zastosowania AI dla poszczególnych branż, firmy Deloitte, HCLTech, Infosys, TCS i WIPRO ogłosiły wsparcie dla Nvidia AI Computing by HPE i HPE Private Cloud AI w ramach swoich strategicznych rozwiązań i usług dla AI.
Hewlett Packard Enterprise i Nvidia podczas konferencji HPE Discover 2024 zaprezentowały Nvidia AI Computing by HPE — portfolio wspólnie opracowanych rozwiązań AI, które mają pozwolić na szybsze wdrażanie generatywnej sztucznej inteligencji (Gen AI) w przedsiębiorstwach.
Wśród kluczowych komponentów znajduje się HPE Private Cloud AI, które zapewni integrację rozwiązań AI, sieciowych i software’owych Nvidia z pamięcią masową, rozwiązaniami obliczeniowymi i chmurowymi HPE GreenLake.
Wszystkie produkty i usługi wchodzące w skład Nvidia AI Computing by HPE zostaną wprowadzone na rynek w ramach wspólnej strategii, która obejmuje zespoły sprzedażowe i partnerów handlowych, szkolenia oraz globalną sieć integratorów systemów. Nowe rozwiązanie zostało ogłoszone podczas konferencji HPE Discover przez CEO HPE Antonio Neriego oraz założyciela i CEO firmy Nvidia, Jensena Huanga.