Biznes

Google Cloud i NVIDIA rozszerzają partnerstwo w celu skalowania rozwoju sztucznej inteligencji

  • 18 marca, 2024
  • 7 min read
Google Cloud i NVIDIA rozszerzają partnerstwo w celu skalowania rozwoju sztucznej inteligencji


Nowe oferty i integracje infrastruktury AI umożliwiają bardziej otwartą i dostępną sztuczną inteligencję

OWUGoogle Cloud i NVIDIA ogłosiły dziś pogłębione partnerstwo, aby zapewnić społeczności zajmującej się uczeniem maszynowym (ML) technologię, która przyspiesza ich wysiłki w zakresie łatwego tworzenia, skalowania i zarządzania generatywnymi aplikacjami AI.

Aby w dalszym ciągu zapewniać przełomowe rozwiązania w zakresie sztucznej inteligencji swoim produktom i programistom, Google ogłosił przyjęcie nowej platformy obliczeniowej NVIDIA Grace Blackwell AI, a także usługi NVIDIA DGX Cloud w Google Cloud. Ponadto platforma DGX™ Cloud oparta na technologii NVIDIA H100 jest teraz ogólnie dostępna w Google Cloud.

Opierając się na ich niedawnej współpracy w celu optymalizacji Pączek rodzinę otwartych modeli, Google również przyjmie NVIDIANIM mikrousługi wnioskowania, aby zapewnić programistom otwartą, elastyczną platformę do szkolenia i wdrażania przy użyciu preferowanych narzędzi i struktur. Firmy ogłosiły także obsługę JAX na procesorach graficznych NVIDIA i instancjach Vertex AI obsługiwanych przez procesory graficzne NVIDIA H100 i L4 Tensor Core.

„Siła naszej długotrwałej współpracy z firmą NVIDIA zaczyna się na poziomie sprzętu i rozciąga się na całe nasze portfolio – od najnowocześniejszych akceleratorów GPU, przez ekosystem oprogramowania, po naszą zarządzaną platformę Vertex AI” – powiedział dyrektor generalny Google Cloud Tomasz Kurian. „Wraz z firmą NVIDIA nasz zespół dokłada wszelkich starań, aby zapewnić programistom ML wysoce dostępną, otwartą i wszechstronną platformę AI”.

„Przedsiębiorstwa szukają rozwiązań, które umożliwią im pełne wykorzystanie generatywnej sztucznej inteligencji w ciągu tygodni i miesięcy, a nie lat” – powiedział Jensen Huang, założyciel i dyrektor generalny NVIDIA. „Dzięki rozszerzonej ofercie infrastruktury i nowym integracjom z pełną sztuczną inteligencją firmy NVIDIA, Google Cloud w dalszym ciągu zapewnia klientom otwartą, elastyczną platformę do łatwego skalowania generatywnych aplikacji AI”.

Nowe integracje pomiędzy NVIDIA i Google Cloud opierają się na wieloletnim zaangażowaniu firm w zapewnianie społeczności AI wiodących możliwości na każdym poziomie stosu AI. Kluczowe elementy rozwoju partnerstwa obejmują:

  • Przyjęcie NVIDIA Grace Blackwell: The nowa platforma Grace Blackwell umożliwia organizacjom budowanie i uruchamianie wnioskowania w czasie rzeczywistym na dużych modelach językowych o bilionach parametrów. Google adaptuje platformę do różnych wdrożeń wewnętrznych i będzie jednym z pierwszych dostawców usług w chmurze oferującym instancje oparte na technologii Blackwell.

  • Chmura DGX oparta na Grace Blackwell pojawi się w Google Cloud: Google wprowadzi systemy NVIDIA GB200 NVL72, składające się z 72 procesorów graficznych Blackwell i 36 procesorów Grace połączonych ze sobą za pomocą NVLink® piątej generacji, do swojej wysoce skalowalnej i wydajnej infrastruktury chmurowej. Zaprojektowane z myślą o energooszczędnym szkoleniu i wnioskowaniu w dobie bilionów parametrów LLM, systemy NVIDIA GB200 NVL72 będą dostępne za pośrednictwem DGX Cloud, platformy AI oferującej bezserwerowe doświadczenie dla programistów korporacyjnych budujących i obsługujących LLM. Chmura DGX jest teraz ogólnie dostępna w instancjach maszyn wirtualnych Google Cloud A3 wyposażonych w procesory graficzne NVIDIA H100 Tensor Core.

  • Obsługa JAX na procesorach graficznych: Google Cloud i NVIDIA współpracowały, aby wprowadzić zalety JAX do procesorów graficznych NVIDIA, poszerzając dostęp do szkoleń LLM na dużą skalę wśród szerszej społeczności ML. JAX to platforma do wysokowydajnego uczenia maszynowego, zorientowana na kompilator i natywna dla języka Python, co czyni ją jedną z najłatwiejszych w użyciu i najbardziej wydajnych platform do szkoleń LLM. Praktycy sztucznej inteligencji mogą teraz używać JAX z procesorami graficznymi NVIDIA H100 w Google Cloud MaxTekst I Zestaw do przyspieszonego przetwarzania (XPK).

  • NVIDIA NIM w Google Kubernetes Engine (GKE): Mikrousługi wnioskowania NVIDIA NIM, będące częścią platformy oprogramowania NVIDIA AI Enterprise, zostaną zintegrowane z GKE. Zbudowany w oparciu o silniki wnioskowania, w tym TensorRT-LLM™, NIM pomaga przyspieszyć wdrażanie generatywnej sztucznej inteligencji w przedsiębiorstwach, obsługuje szeroką gamę wiodących modeli sztucznej inteligencji i zapewnia płynne, skalowalne wnioskowanie AI.

  • Wsparcie dla NVIDIA NeMo: Google Cloud ułatwiło wdrażanie platformy NVIDIA NeMo™ na swojej platformie za pośrednictwem Silnik Google Kubernetes (GKE) i Zestaw narzędzi Google Cloud HPC. Umożliwia to programistom automatyzację i skalowanie uczenia i udostępniania generatywnych modeli sztucznej inteligencji, a także pozwala im szybko wdrażać środowiska „pod klucz” za pomocą dostosowywalnych planów, które przyspieszają proces programowania. NVIDIA NeMoczęść NVIDIA AI Enterprise, jest również dostępna w Google Marketplace, zapewniając klientom inny sposób łatwego dostępu do NeMo i innych platform przyspieszających rozwój sztucznej inteligencji.

  • Vertex AI i Dataflow rozszerzają obsługę procesorów graficznych NVIDIA: Aby przyspieszyć naukę i analitykę danych, Vertex AI obsługuje teraz maszyny wirtualne Google Cloud A3 obsługiwane przez procesory graficzne NVIDIA H100 i maszyny wirtualne G2 wyposażone w procesory graficzne NVIDIA L4 Tensor Core. Zapewnia to zespołom MLOps skalowalną infrastrukturę i narzędzia do bezpiecznego zarządzania aplikacjami AI i ich wdrażania. Dataflow rozszerzył także obsługę przyspieszonego przetwarzania danych na procesorach graficznych NVIDIA.

Google Cloud od dawna oferuje instancje maszyn wirtualnych GPU oparte na najnowocześniejszym sprzęcie NVIDIA w połączeniu z wiodącymi innowacjami Google. Procesory graficzne NVIDIA są głównym składnikiem chmury Google Hiperkomputer AI – architektura superkomputerowa, która łączy w sobie sprzęt zoptymalizowany pod kątem wydajności, otwarte oprogramowanie i elastyczne modele zużycia. Holistyczne partnerstwo umożliwia badaczom, naukowcom i programistom zajmującym się sztuczną inteligencją szkolenie, dostrajanie i obsługę największych i najbardziej wyrafinowanych modeli sztucznej inteligencji – teraz z jeszcze większą liczbą ich ulubionych narzędzi i struktur wspólnie zoptymalizowanych i dostępnych w Google Cloud.

„Platforma zamiany tekstu na wideo firmy Runway jest obsługiwana przez hiperkomputer AI. U podstaw maszyny wirtualne A3, obsługiwane przez procesory graficzne NVIDIA H100, zapewniono naszemu szkoleniu znaczny wzrost wydajności w porównaniu z maszynami wirtualnymi A2, umożliwiając szkolenie i wnioskowanie na dużą skalę dla naszego modelu Gen-2. Używanie GKE do koordynowania naszych zadań szkoleniowych umożliwia nam skalowanie do tysięcy procesorów graficznych H100 w jednej strukturze, aby sprostać rosnącym wymaganiom naszych klientów.

„Przechodząc do Google Cloud i wykorzystując architekturę hiperkomputera AI z procesorami graficznymi NVIDIA T4, maszynami wirtualnymi G2 wyposażonymi w procesory graficzne NVIDIA L4 i serwerem Triton Inference Server, zaobserwowaliśmy znaczny wzrost wydajności wnioskowania o modelach, jednocześnie obniżając koszty hostingu o 15% dzięki nowatorskim technikom udostępnianym przez elastyczność, jaką oferuje Google Cloud.”

„Platforma pisarska łączy się w całość dzięki niezwykle produktywnej współpracy z Google i NVIDIA. Jesteśmy w stanie optymalnie wykorzystać procesory graficzne NVIDIA do szkolenia i wnioskowania. Wykorzystujemy technologię NVIDIA NeMo do tworzenia naszych modeli o wytrzymałości przemysłowej, które generują 990 000 słów na sekundę i ponad bilion wywołań API miesięcznie. Dostarczamy modele najwyższej jakości, przewyższające te oferowane przez firmy z większymi zespołami i większymi budżetami – a wszystko to jest możliwe dzięki partnerstwu Google i NVIDIA. Korzyści płynące z ich wiedzy specjalistycznej w zakresie sztucznej inteligencji są przekazywane naszym klientom korporacyjnym, którzy mogą tworzyć znaczące przepływy pracy oparte na sztucznej inteligencji w ciągu dni, a nie miesięcy lub lat.

Dowiedz się więcej o współpracy Google Cloud z firmą NVIDIA podczas GTC, globalnej konferencji AI, która odbędzie się w dniach 18–21 marca (stoisko nr 808).


Źródło

Warto przeczytać!  Plan zmiany Unilever: gigant dóbr konsumpcyjnych wydzieli wytwórnię lodów o wartości 8,6 miliarda dolarów; 7500 miejsc pracy do likwidacji