Biznes

AWS i NVIDIA rozszerzają współpracę w celu udoskonalenia innowacji generatywnej sztucznej inteligencji

  • 18 marca, 2024
  • 9 min read
AWS i NVIDIA rozszerzają współpracę w celu udoskonalenia innowacji generatywnej sztucznej inteligencji


  • AWS zaoferuje instancje Amazon EC2 oparte na procesorach graficznych NVIDIA Grace Blackwell i chmurę NVIDIA DGX Cloud w celu zwiększenia wydajności budowania i uruchamiania wnioskowania w wielobiliardowych parametrach LLM
  • Integracja systemu AWS Nitro, szyfrowania Elastic Fabric Adapter i usługi zarządzania kluczami AWS z szyfrowaniem Blackwell zapewnia klientom kompleksową kontrolę nad danymi szkoleniowymi i wagami modeli, aby zapewnić jeszcze większe bezpieczeństwo aplikacji AI klientów w AWS
  • Project Ceiba — superkomputer AI zbudowany wyłącznie na platformie AWS z chmurą DGX — wyposażony w 20 736 superchipów GB200 o wydajności 414 exaflopów na potrzeby własnych badań i rozwoju sztucznej inteligencji firmy NVIDIA
  • Integracja Amazon SageMaker z mikrousługami wnioskowania NVIDIA NIM pomaga klientom w dalszej optymalizacji stosunku cenowego do podstawowych modeli działających na procesorach graficznych
  • Współpraca pomiędzy AWS i NVIDIA przyspiesza innowacje w zakresie sztucznej inteligencji w służbie zdrowia i naukach przyrodniczych

OWUAmazon Web Services (AWS), spółka należąca do Amazon.com (NASDAQ: AMZN) i NVIDIA (NASDAQ: NVDA) ogłosiły dzisiaj, że nowy procesor graficzny NVIDIA Blackwell platforma – odsłonięty przez firmę NVIDIA na GTC 2024 — nadchodzi na AWS. AWS będzie oferować procesory graficzne NVIDIA GB200 Grace Blackwell Superchip i B100 Tensor Core, poszerzając długoletnią strategiczną współpracę firm w celu zapewnienia najbezpieczniejszej i zaawansowanej infrastruktury, oprogramowania i usług, które pomogą klientom odblokować nowe możliwości generatywnej sztucznej inteligencji (AI).

NVIDIA i AWS w dalszym ciągu łączą najlepsze ze swoich technologii, w tym najnowsze wielowęzłowe systemy NVIDIA wyposażone w platformę NVIDIA Blackwell i oprogramowanie AI nowej generacji, zaawansowane zabezpieczenia AWS Nitro System i AWS Key Management Service (AWS KMS), adapter Elastic Fabric Adapter (EFA) w skali petabitowej i hiperskalowe klastry Amazon Elastic Compute Cloud (Amazon EC2) UltraCluster. Razem dostarczają infrastrukturę i narzędzia, które umożliwiają klientom budowanie i uruchamianie wnioskowania w czasie rzeczywistym na wielobiliardowych parametrach dużych modeli językowych (LLM), szybciej, na ogromną skalę i po niższych kosztach niż procesory graficzne NVIDIA poprzedniej generacji na platformie Amazon EC2 .

„Głęboka współpraca między naszymi obiema organizacjami sięga ponad 13 lat, kiedy wspólnie uruchomiliśmy pierwszą na świecie instancję GPU w chmurze w AWS, a dziś oferujemy klientom najszerszą gamę rozwiązań GPU NVIDIA” – powiedział Adam Selipsky, dyrektor generalny AWS . „Procesor Grace Blackwell firmy NVIDIA nowej generacji stanowi znaczący krok naprzód w dziedzinie generatywnej sztucznej inteligencji i obliczeń GPU. W połączeniu z potężną siecią adapterów Elastic Fabric AWS, hiperskalowym klastrowaniem Amazon EC2 UltraClusters oraz zaawansowanymi możliwościami wirtualizacji i bezpieczeństwa naszego unikalnego systemu Nitro, umożliwiamy klientom szybsze budowanie i uruchamianie wielobiliardowych parametrów dużych modeli językowych, przy na masową skalę i bezpieczniej niż gdziekolwiek indziej. Razem nieustannie wprowadzamy innowacje, aby uczynić AWS najlepszym miejscem do uruchamiania procesorów graficznych NVIDIA w chmurze.”

„Sztuczna inteligencja powoduje przełomy w niespotykanym dotąd tempie, prowadząc do nowych aplikacji, modeli biznesowych i innowacji w różnych branżach” – powiedział Jensen Huang, założyciel i dyrektor generalny NVIDIA. „Nasza współpraca z AWS przyspiesza nowe możliwości generatywnej sztucznej inteligencji i zapewnia klientom niespotykaną dotąd moc obliczeniową, która pozwala przesuwać granice tego, co jest możliwe”.

Najnowsze innowacje AWS i NVIDIA przyspieszają szkolenie najnowocześniejszych LLM, które mogą osiągnąć ponad 1 bilion parametrów
AWS będzie oferować platformę NVIDIA Blackwell z GB200 NVL72, 72 procesorami graficznymi Blackwell i 36 procesorami Grace połączonymi za pomocą NVIDIA NVLink™ piątej generacji. Po połączeniu z potężną siecią Amazon (
NNKT) i wspierane przez zaawansowaną wirtualizację (System nitro AWS) i grupowanie hiperskalowe (Klastry Amazon EC2 Ultra), klienci mogą skalować do tysięcy Superchipów GB200. NVIDIA Blackwell na platformie AWS zapewnia ogromny krok naprzód w przyspieszaniu obciążeń wnioskowania w przypadku modeli językowych wymagających dużych zasobów i obejmujących wiele bilionów parametrów.

Bazując na sukcesie instancji EC2 P5 wyposażonych w technologię NVIDIA H100, które są dostępne dla klientów przez krótki czas w ramach Bloki pojemnościowe Amazon EC2 dla ML, AWS planuje zaoferować instancje EC2 z nowymi procesorami graficznymi B100 wdrożonymi w EC2 UltraClusters w celu przyspieszenia generatywnego uczenia i wnioskowania AI na masową skalę. GB200 będą również dostępne na Chmura NVIDIA DGX™, platformę sztucznej inteligencji opracowaną wspólnie z platformą AWS, która zapewnia programistom korporacyjnym dedykowany dostęp do infrastruktury i oprogramowania potrzebnego do tworzenia i wdrażania zaawansowanych generatywnych modeli sztucznej inteligencji. Instancje DGX Cloud oparte na platformie Blackwell na platformie AWS przyspieszą rozwój najnowocześniejszej generatywnej sztucznej inteligencji i LLM, która może osiągnąć ponad 1 bilion parametrów.

Zwiększ bezpieczeństwo sztucznej inteligencji dzięki systemom AWS Nitro, AWS KMS, szyfrowanym EFA i szyfrowaniu Blackwell
Ponieważ klienci szybko wdrażają sztuczną inteligencję w swoich organizacjach, muszą mieć pewność, że ich dane są obsługiwane bezpiecznie podczas całego procesu szkoleniowego. Bezpieczeństwo wag modeli — parametrów, których model uczy się podczas szkolenia i które są krytyczne dla jego zdolności do przewidywania — ma ogromne znaczenie dla ochrony własności intelektualnej klientów, zapobiegania manipulacji modelami i utrzymywania integralności modelu.

Infrastruktura i usługi AWS AI posiadają już funkcje bezpieczeństwa, które zapewniają klientom kontrolę nad ich danymi i zapewniają, że nie zostaną one udostępnione zewnętrznym dostawcom modeli. Połączenie systemu AWS Nitro i NVIDIA GB200 jeszcze bardziej podnosi bezpieczeństwo sztucznej inteligencji, uniemożliwiając nieupoważnionym osobom dostęp do ciężarów modeli. GB200 umożliwia wbudowane szyfrowanie połączeń NVLink między procesorami graficznymi i szyfruje transfery danych, podczas gdy EFA szyfruje dane na serwerach w celu rozproszonego uczenia i wnioskowania. GB200 skorzysta również z systemu AWS Nitro, który odciąża operacje we/wy dla funkcji z procesora/GPU hosta na wyspecjalizowany sprzęt AWS, aby zapewnić bardziej spójną wydajność, a jego ulepszone zabezpieczenia chronią kod klienta i dane podczas przetwarzania – zarówno po stronie klienta stronie i stronie AWS. Ta funkcja – dostępna tylko w AWS – już istnieje niezależnie zweryfikowane przez Grupę NCCwiodąca firma zajmująca się cyberbezpieczeństwem.

Dzięki GB200 na Amazon EC2, AWS umożliwi klientom utworzenie zaufanego środowiska wykonawczego wraz z instancją EC2, korzystając Enklawy nitro AWS I AWSKMS. Enklawy Nitro pozwalają klientom szyfrować dane treningowe i ciężary za pomocą KMS, używając kluczowego materiału pod ich kontrolą. Enklawę można załadować z poziomu instancji GB200 i może ona komunikować się bezpośrednio z superchipem GB200. Umożliwia to KMS bezpośrednią komunikację z enklawą i przekazywanie jej kluczowych materiałów w kryptograficznie bezpieczny sposób. Enklawa może następnie przekazać ten materiał do GB200, chroniona przed instancją klienta i uniemożliwiająca operatorom AWS kiedykolwiek dostęp do klucza lub odszyfrowanie danych szkoleniowych lub wag modeli, zapewniając klientom niezrównaną kontrolę nad swoimi danymi.

Project Ceiba wykorzystuje Blackwell do napędzania przyszłej innowacji generatywnej sztucznej inteligencji firmy NVIDIA w AWS
Zapowiedziany na AWS re:Invent 2023 projekt Ceiba to wynik współpracy firm NVIDIA i AWS mający na celu zbudowanie jednego z najszybszych na świecie superkomputerów AI. Superkomputer, hostowany wyłącznie na platformie AWS, jest dostępny na potrzeby własnych badań i rozwoju firmy NVIDIA. Ten pierwszy w swoim rodzaju superkomputer z 20 736 procesorami graficznymi B200 jest tworzony przy użyciu nowego systemu NVIDIA GB200 NVL72 wyposażonego w NVLink piątej generacji, który można skalować do 20 736 procesorów graficznych B200 podłączonych do 10 368 procesorów NVIDIA Grace. System skaluje się przy użyciu sieci EFA czwartej generacji, zapewniając do 800 Gb/s na Superchip przy małych opóźnieniach i dużej przepustowości sieci – zdolnej do przetwarzania ogromnych 414 eksaflopów AI – co stanowi 6-krotny wzrost wydajności w porównaniu z wcześniejszymi planami zbudowania Ceiby na architekturę Hoppera. Zespoły badawczo-rozwojowe firmy NVIDIA wykorzystają technologię Ceiba do udoskonalania sztucznej inteligencji na potrzeby LLM, grafiki (generowanie obrazów/wideo/3D) i symulacji, biologii cyfrowej, robotyki, samochodów autonomicznych, przewidywania klimatu NVIDIA Earth-2 i nie tylko, aby pomóc firmie NVIDIA napędzać przyszłość generatywne innowacje w zakresie sztucznej inteligencji.

Współpraca AWS i NVIDIA przyspiesza rozwój generatywnych aplikacji AI i zaawansowanych zastosowań w opiece zdrowotnej i naukach przyrodniczych
AWS i NVIDIA połączyły siły, aby zaoferować wysokowydajne i niedrogie wnioskowanie dla generatywnej sztucznej inteligencji dzięki integracji Amazon SageMaker z mikrousługami wnioskowania NVIDIA NIM™, dostępnymi w NVIDIA AI Enterprise. Klienci mogą wykorzystać tę kombinację do szybkiego wdrażania FM, które są wstępnie skompilowane i zoptymalizowane do działania na procesorach graficznych NVIDIA w SageMaker, skracając czas wprowadzania na rynek generatywnych aplikacji AI.

AWS i NVIDIA połączyły siły, aby rozszerzyć wspomagane komputerowo odkrywanie leków o nowe FM NVIDIA BioNeMo™ dla chemii generatywnej, przewidywania struktury białek i zrozumienia, w jaki sposób cząsteczki leku oddziałują z celami. Te nowe modele będą wkrótce dostępne w AWS HealthOmics, specjalnie zaprojektowanej usłudze, która pomaga organizacjom z zakresu opieki zdrowotnej i nauk przyrodniczych przechowywać, przeszukiwać i analizować dane genomiczne, transkryptomiczne i inne dane omiczne.

Zespoły AWS HealthOmics i NVIDIA Healthcare współpracują również nad uruchomieniem generatywnych mikrousług AI w celu przyspieszenia odkrywania leków, technologii medycznych i zdrowia cyfrowego — dostarczając nowy katalog akcelerowanych przez GPU punktów końcowych w chmurze dla danych z biologii, chemii, obrazowania i opieki zdrowotnej, aby przedsiębiorstwa z branży opieki zdrowotnej mogły wykorzystać Skorzystaj z najnowszych osiągnięć w dziedzinie generatywnej sztucznej inteligencji w AWS.


Źródło

Warto przeczytać!  Wiadomości z rynku akcji i akcji, Wiadomości z gospodarki i finansów, Sensex, Nifty, Rynek globalny, NSE, BSE Wiadomości z IPO na żywo