Ulepszenia dla HPE Private Cloud AI

HPE rozszerza rozwiązanie HPE Private Cloud AI o obsługę nowej platformy danych Nvidia AI Data Platform. HPE Private Cloud AI oferuje samoobsługowe środowisko chmurowe dostępne dzięki chmurze HPE GreenLake. Bazując na platformie danych Nvidia AI Data Platform, przekształca dane w rzeczywistą analitykę dzięki ciągłemu przetwarzaniu danych, które wykorzystuje akcelerację obliczeniową Nvidia, sieci, oprogramowanie AI i pamięć masową klasy korporacyjnej, z których wszystkie są obecnie dostępne w HPE Private Cloud AI.

HPE Private Cloud AI została zaprojektowana tak, aby zapewnić najszybsze wdrażanie planów i modeli, które stanowią podstawę Nvidia AI Data Platform, takich jak Nvidia AI-Q Blueprints i mikrousługi Nvidia NIM dla modeli Nvidia Llama Nemotron z możliwościami wnioskowania.

HPE rozszerza HPE Private Cloud AI, integrując Nvidia AI Data Platform. Ulepszenia obejmują:

  • Nowy system HPE Private Cloud AI – zintegrowany węzeł kontrolny, kompleksowe oprogramowanie AI, 32 TB pamięci masowej i akceleracja Nvidii.
  • HPE Data Fabric – repozytorium danych optymalizujące dostęp do strukturalnych i niestrukturalnych informacji. Dzięki HPE Data Fabric modele AI otrzymują zoptymalizowane, wysokiej jakości ustrukturyzowane, nieustrukturyzowane i strumieniowe dane w środowiskach chmury hybrydowej.
  • Wstępnie zweryfikowane Nvidia Blueprints, przyspieszające wdrażanie aplikacji AI. Umożliwiają poprawę produktywności z pomocą szerokiej gamy agentowych i fizycznych aplikacji AI od Nvidia. Pozwalają upraszczać złożone obciążenia AI, zapewniając zwiększoną wydajność i krótszy czas uzyskania wartości biznesowej.
HPE private cloud AI nvidia
HPE Data Fabric
HPE Data Fabric

Optymalizacja GPU z HPE OpsRamp

HPE wprowadza narzędzia do zarządzania obciążeniami AI, umożliwiające monitorowanie i optymalizację klastrów GPU. Nowa funkcja optymalizacji GPU jest dostępna za pośrednictwem HPE Private Cloud AI i samodzielnie do rozszerzenia na duże klastry.
Dodatkowo, nowa usługa operacyjna Day 2 łączy HPE Complete Care z technologiami Nvidia, aby umożliwić działom IT przekształcenie sposobu zarządzania, optymalizacji i proaktywnego rozwiązywania problemów z obciążeniami AI w ramach wdrożeń hybrydowych.

Agentowa AI i nowe usługi

  • Zora AI by Deloitte: Zora AI for Finance firmy Deloitte zostanie wdrożone w rozwiązaniu HPE Private Cloud AI. Dzięki wykorzystaniu agentowej AI, platforma ta umożliwia raportowanie dynamiczne, interaktywne i dostępne w czasie rzeczywistym. Mowa tu o takich zastosowaniach, jak analiza sprawozdań finansowych, modelowanie scenariuszy, analiza konkurencji czy analizy rynkowe.
  • CrewAI: narzędzie do automatyzacji zadań za pomocą agentów AI, dołącza do programu Unleash AI, umożliwiając automatyzację z wykorzystaniem wielu agentów. CrewAI umożliwia szybkie tworzenie opartych na agentach rozwiązań AI w celu zwiększenia wydajności i elastyczności oraz usprawnienia procesu podejmowania decyzji.
  • Profesjonalne usługi AI: umożliwiają definiowanie, tworzenie i wdrażanie modeli agentowej AI w różnych procesach biznesowych, co pozwala na szybsze uzyskanie wartości biznesowej dzięki wykorzystaniu mikrousług Nvidia NIM i Nvidia NeMo, stanowiących część platformy oprogramowania Nvidia AI Enterprise, w połączeniu z HPE Private Cloud AI.

Nowe serwery AI HPE z Nvidia Blackwell Ultra i Blackwell

HPE wprowadza serwery AI obsługujące platformy Nvidia Blackwell Ultra i Blackwell. Najnowsze serwery AI służą do kompleksowej obsługi trenowania, dostrajania i wnioskowania modeli AI. Każdy z tych serwerów AI można wdrożyć z akceleracją obliczeń Nvidia, siecią i oprogramowaniem Nvidia AI Enterprise.

  • Nvidia GB300 NVL72 będzie wspierać wdrażanie dużych, złożonych klastrów AI zdolnych do trenowania modeli o bilionach parametrów, wykorzystując przy tym m.in. doświadczenie HPE w zakresie chłodzenia cieczą. Nvidia GB300 NVL72 oferuje przełomową wydajność dzięki zoptymalizowanym obliczeniom, zwiększonej pamięci i wysokowydajnej sieci dla aplikacji do wnioskowania, agentów AI i aplikacji do wnioskowania na podstawie wideo.
  • Serwery HPE ProLiant Compute XD będą obsługiwać nową platformę Nvidia HGX B300 dla użytkowników planujących trenować, dostrajać i uruchamiać duże modele AI dla najbardziej złożonych obciążeń, w tym agentowej AI i wnioskowania w czasie testu.
  • HPE ProLiant Compute DL384b Gen12 z Nvidia GB200 Grace Blackwell NVL4 Superchipzapewni rewolucyjną wydajność dla konwergentnych obciążeń HPC i AI, w tym obliczeń naukowych, trenowania grafowych sieci neuronowych (GNN) i aplikacji do wnioskowania AI.
  • HPE ProLiant Compute DL380a Gen12 z Nvidia RTX PRO 6000 Blackwell Server Edition to oparte na PCIe rozwiązanie dla centrów danych, które zapewnia przełomową wydajność dla szerokiej gamy korporacyjnych obciążeń związanych z wnioskowaniem AI i obliczeniami wizualnymi.
HPE ProLiant Compute DL380a Gen 12
HPE ProLiant Compute DL380a Gen12

Bezpieczeństwo w serwerach HPE ProLiant Gen12i modułowe centra danych AI

HPE ProLiant Gen12 wprowadza SRoT (Silicon Root of Trust) i iLO 7, pierwszy serwer spełniający normy kryptograficzne FIPS 140-3 Level 3.
Najnowsze portfolio HPE ProLiant Compute Gen12 wyznacza nowe standardy bezpieczeństwa w segmencie enterprise dzięki ulepszonemu, dedykowanemu procesorowi bezpieczeństwa o nazwie secure enclave, który ustanawia nieprzerwany łańcuch zaufania chroniący przed atakami na firmware i zapewnia pełną widoczność w całym łańcuchu dostaw HPE, począwszy już od momentu produkcji.

HPE iLO 7 to pierwszy serwer z post-kwantowymi rozwiązaniami kryptograficznymi, który spełnia wymagania certyfikatu FIPS 140-3 Level 3 – standardu bezpieczeństwa kryptograficznego wysokiego poziomu.

Do zastosowań profesjonalnych HPE oferuje AI Mod POD – modułowe, zoptymalizowane pod kątem wydajności centrum danych do obsługi zadań AI i HPC. Obsługuje ono do 1,5 MW na moduł i może być wdrożone w krótkim czasie. HPE AI Mod POD wspiera serwery HPE AI i HPC oraz HPE Private Cloud AI. Zawiera opatentowaną przez firmę HPE technologię Adaptive Cascade Cooling, pojedynczy system hybrydowy obsługujący chłodzenie powietrzem i cieczą, co pozwala zapewnić zasilanie niezbędne w zastosowaniach wiążących się z intensywnym przetwarzaniem danych.

Dostępność

  • HPE Private Cloud AI (developer system) – planowana ogólna dostępność w II kw. 2025.
  • HPE Data Fabric w ramach HPE Private Cloud AI – planowana ogólna dostępność w III kw. 2025.
  • Nvidia GB300 NVL72 firmy HPE and HPE ProLiant Compute XD z Nvidia HGX B300 – planowana dostępność w 2. połowie 2025 r.
  • HPE ProLiant Compute DL384b Gen12 z Nvidia GB200 NVL4 – planowana ogólna dostępność w IV kw. 2025.
  • HPE ProLiant Compute DL380a Gen12 z Nvidia RTX PRO 6000 Blackwell Server Edition – planowana ogólna dostępność w III kw. 2025.
  • Obsługa Nvidia Blueprints (dodatkowych, wstępnie zatwierdzonych), w tym Multimodal PDF Data Extraction Blueprint i Digital Twins Blueprint – planowana ogólna dostępność w II kw. 2025.
  • HPE OpsRamp GPU (zarządzanie i AI Mod POD) – dostępne.

HPE prezentuje ujednoliconą warstwę danych dla AI

HPE wprowadza nową, ujednoliconą warstwę danych dla AI, obsługującą Nvidia AI Data Platform, wspierającą analitykę biznesową i wnioskowanie AI. Nvidia AI Data Platform integruje obliczenia, sieci i oprogramowanie AI z pamięcią masową, wspierając wnioskowanie AI oraz modele Nvidia Llama Nemotron.

Nowe systemy pamięci masowej HPE Alletra Storage MP X10000 i B10000 zapewnią lepsze zarządzanie danymi i ochronę przed ransomware.
Nowa warstwa danych HPE łączy ustrukturyzowane i nieustrukturyzowane dane, przyspieszając cykl życia danych dla AI. HPE będzie wspierać platformę Nvidia AI Data Platform za pośrednictwem HPE Private Cloud AI, a także HPE Alletra Storage MP B10000, HPE Alletra Storage MP X10000 i HPE GreenLake for File Storage. Platforma przyspieszy obciążenia związane z wnioskowaniem AI dzięki wyspecjalizowanym agentom AI, wykorzystując oprogramowanie Nvidia AI Enterprise, w tym Nvidia AI-Q Blueprints, mikrousługi Nvidia NIM i nowe modele wnioskowania Nvidia Llama Nemotron. Aby zapewnić szybki dostęp do danych AI, HPE Alletra Storage MP rozszerzy również obsługę Nvidia Networking.
Ponadto, HPE GreenLake for File Storage, usługa przechowywania plików dla HPE Private Cloud AI, została już zweryfikowana dla korporacyjnych fabryk AI w ramach nowego programu Nvidia-Certified Storage Program, który jest przeznaczony dla wdrożeń korporacyjnych i stanowi znaczący krok naprzód w zapewnieniu, że są one zbudowane na fundamencie wysokowydajnych, niezawodnych rozwiązań danych.

HPE Alletra Storage

HPE Alletra Storage MP X10000 optymalizuje przepływ danych dzięki inteligentnemu tagowaniu metadanych, a HPE Data Fabric obsługuje HPE Alletra Storage MP X10000 i Apache Iceberg, optymalizując zarządzanie danymi dla AI.

HPE Alletra Storage MP B10000 zapewnia ujednoliconą pamięć masową, obsługę chmury Microsoft Azure i ochronę przed ransomware. Umożliwia obsługę plików i przenoszenie danych między chmurami. HPE Alletra Block Storage for Azure wspiera zarządzanie pamięcią masową w chmurze hybrydowej.

Dostępność

  • HPE Alletra Storage MP X10000 – lato 2025 r.
  • HPE Alletra Storage MP B10000 – maj 2025 r.
  • HPE GreenLake for File Storage – już dostępne.
HPE ALletra storage MP X10000
HPE Alletra Storage MP X10000