Technologia

Najważniejsze wydarzenia Google Cloud Next w 2024 r

  • 12 kwietnia, 2024
  • 7 min read
Najważniejsze wydarzenia Google Cloud Next w 2024 r


  • W czwartek w tym tygodniu Google Cloud zakończył coroczne wydarzenie Google Cloud Next 2024.
  • Ponad 30 000 uczestników i 2500 partnerów odnotowało 100% wzrost w Google Cloud Next 2024.
  • Podczas Google Cloud Next 2024 firma ponownie zdecydowała się na rozwój generatywnej sztucznej inteligencji i sztucznej inteligencji w ogóle.

Google zrezygnował ze swojej zwykłej lokalizacji w San Francisco dla Google Cloud Next i przeprowadził w tym roku doroczną konferencję dotyczącą chmury w Las Vegas. Oprócz nowej lokalizacji podczas Google Cloud Next 2024 firma odnowiła także swoje postanowienie w zakresie generatywnej sztucznej inteligencji i ogólnie sztucznej inteligencji (AI).

Zdolność giganta wyszukiwania i reklamy do obsługi ekscytującej i pojawiającej się nowej technologii wynika z jego wczesnych inwestycji i badań nad sztuczną inteligencją oraz obecności w infrastrukturze obliczeniowej za pośrednictwem Google Cloud, która ma już za sobą dni strat.

„Jednym z powodów, dla których Cloud wykazuje tak duży postęp, są nasze głębokie inwestycje w sztuczną inteligencję. O tym, że sztuczna inteligencja będzie kolejną technologią, która zmieni firmy, wiemy już od dawna. Nasze inwestycje w infrastrukturę i modele sztucznej inteligencji pomagają nam znaleźć się na czele zmian w zakresie platform sztucznej inteligencji. Jesteśmy dumni, że dziś ponad 60% finansowanych startupów zajmujących się generatywną sztuczną inteligencją i prawie 90% jednorożców generacji AI to klienci Google Cloud” – zauważył Sundar Pichai, dyrektor generalny Google.

Ram Boreda, wiceprezes ds. produktów w Egnyte, wziął udział w Google Cloud Next 2024 w Las Vegas i potwierdza sukces Google Cloud we współpracy ze start-upami. „Ekosystem startupów korzystający z GCP ogromnie się rozrósł” – powiedział Spiceworks News & Insights. „Na terenie demonstracyjnym było więcej dostawców i poważnych produktów. To pokazuje, że GCP ugruntowało swoją pozycję lidera nowej fali sztucznej inteligencji”.

W rezultacie dział Google zajmujący się chmurą i postępy w zakresie sztucznej inteligencji znajdują się w pierwszej trójce na świecie i można je skalować. Jednak spośród wielu produktów i usług zaprezentowanych podczas Google Cloud Next 2024 wydaje się, że w tym roku skupimy się na wydajności.

Warto przeczytać!  Flipkart Big Saving Days - Uzyskaj ekscytujące oferty bez żadnych kosztów Oferty EMI na karcie sieciowej Bajaj Finserv EMI

Boreda odnotował również „ogromny wzrost liczby uczestników, zarówno klientów, jak i partnerów w ramach ekosystemu Google”. Ponad 30 000 uczestników i 2500 partnerów odnotowało 100% wzrost w Google Cloud Next 2024.

Jeśli należałeś do pozostałych, którzy nie mogli uczestniczyć, oto podsumowanie najważniejszych wydarzeń z flagowego wydarzenia firmy w chmurze.

Najważniejsze wydarzenia Google Cloud Next w 2024 r

„Każdy produkt w katalogu Google miał ulepszoną sztuczną inteligencję” – zauważył Boreda. „Wydano ogłoszenia dla każdego portfolio produktów – nowoczesnej Infra Cloud, Developer Cloud, Data Cloud, Security Cloud, Collaboration Cloud.”

1. Infrastruktura sztucznej inteligencji

Chip oparty na ramieniu

Wysiłki Google w zakresie optymalizacji infrastruktury dla sztucznej inteligencji obejmują obecnie jednostki centralne Axion, odpowiedź na Graviton AWS, serwer Yitian 710 Alibaba i Microsoft Chipsy Azure Maia 100 i Cobalt 100.

Dane porównawcze, szczegóły architektury i inna dokumentacja techniczna niestandardowego krzemu opartego na ARM firmy Google do infrastruktury chmurowej pozostają na razie nierozpakowane, chociaż wiemy, że Axiom wykorzystuje Neoverse 2 firmy Arm.

Chipy Axiom są przeznaczone do obliczeń ogólnego przeznaczenia, a Google twierdzi, że są o 60% bardziej energooszczędne niż podobne chipy X86, oferując jednocześnie o 60% lepszą wydajność. Firma stwierdziła również, że Axiom oferuje o 30% wyższą wydajność niż chipy oparte na architekturze ARM firm AWS i Microsoft.

Boreda wyraził swoją opinię: „Google dogania AWS i Microsoft, które mają już chip oparty na Arm. Wszystko to prowadzi do ewoluującego trendu optymalizacji kosztów i zaniżania marży.”

Hiperkomputer AI

Google ogłosiło także ogólną dostępność TPU v5p, najpotężniejszej jednostki przetwarzającej tensor, którą można skalować do dziesiątek tysięcy chipów. Pojedynczy pod v5p zawiera 8960 chipów, czyli prawie dwa razy więcej niż TPU v4. TPY v5p zapewnia także 2 razy więcej operacji zmiennoprzecinkowych na sekundę, 3 razy więcej pamięci o dużej przepustowości i jest 4 razy bardziej skalowalny.

Warto przeczytać!  Apple pracuje nad dodaniem ekranów dotykowych do komputerów Mac w dużym ruchu

„Infrastruktura AI zyskuje duży rozwój dzięki procesorom Google TPU, procesorom graficznym NVIDIA (H100), obsłudze NVIDIA GB200 od 2025 r., pamięci masowej zoptymalizowanej pod kątem sztucznej inteligencji (Hyperdisk ML), dynamicznemu zarządzaniu obciążeniem [Dynamic Workload Scheduler]itp., w tym układ Google Axion ARM dla centrum danych” – powiedział Boreda.

Zobacz więcej: Zaznacz w kalendarzu: konferencje dotyczące najlepszych technologii w kwietniu 2024 r

2. Aktualizacje Vertex AI

Pierwszą z nich jest Vertex AI Agent Builder, usługa niewymagająca kodu, która umożliwia klientom tworzenie i wdrażanie agentów AI. Łączy w sobie wiele dużych modeli językowych, narzędzia programistyczne i wyszukiwarkę Google.

Firma wdrożyła wyszukiwanie rozszerzone (RAG) i wyszukiwanie wektorowe w celu uzyskania ugruntowanych wyników (tj. wyświetlania wyników pochodzących z wiarygodnych źródeł) i ograniczenia halucynacji. Vertex AI Agent Builder wykorzystuje duże modele językowe Gemini. Google zademonstrowało wiele przypadków użycia, w tym zarządzanie sprzedażą detaliczną i umowami.

Ponadto Vertex AI oferuje teraz więcej modeli sztucznej inteligencji, w tym nową rodzinę modeli sztucznej inteligencji Claude 3 firmy Anthropic, Gemini 1.5 Pro, CodeGemma (model wspomagania kodowania Google), Imagen 2.0 (technologia zamiany tekstu na obraz) i nie tylko.

Warto zauważyć, że Gemini 1.5 Pro jest teraz dostępny w publicznej wersji zapoznawczej. „Jego okno kontekstowe rozszerza się o prawie 1 milion tokenów, jest multimodalne i wielojęzyczne. Możesz przetworzyć 1 godzinę filmu i wygenerować napisy w wielu językach. To coś ogromnego i mocno konkurującego z OpenAI Sora” – powiedział Boreda.

Google rozszerzyło także możliwości MLops w Vertex AI, oferując teraz zarządzanie podpowiedziami do natychmiastowych operacji, szybką ocenę do oceny wydajności i nie tylko.

Co więcej, Vertex AI jest zintegrowany z BigQuery i Alloy DB, aby sprostać Databricks i Snowflake.

3. Sztuczna inteligencja w Workspace

Google Workspace, pakiet produktywny, z którego korzystają miliardy ludzi podczas codziennych zadań, otrzymuje więcej funkcji sztucznej inteligencji. Niektóre z nich obejmują:

  • Monity głosowe dotyczące pisania wiadomości e-mail w Gmailu, poprawiające wersje robocze wiadomości e-mail
  • Szablony dla arkuszy kalkulacyjnych, powiadomienia o zmianach
  • Ulepszone możliwości organizacji w Dokumentach
Warto przeczytać!  Na targach CES® 2023 Samsung dzieli się wizją uspokojenia korzystania z podłączonych urządzeń – Samsung Newsroom Polska

Co ważniejsze, Workspace otrzymuje nową usługę tworzenia wideo opartą na sztucznej inteligencji: Google Vids. Usługa Vids, obecnie dostępna do ograniczonych testów, została zaprojektowana do pracy w Dokumentach i Arkuszach w celu umożliwienia współpracy w celu zaspokojenia potrzeb organizacyjnych, takich jak tworzenie filmów wyjaśniających, prezentacji produktów itp.

Strategia Google polega na przejęciu inicjatywy Microsoftu w ramach rozwiązania Copilot dzięki zintegrowanym ofertom z Gemini w ramach pakietu aplikacji.

4. Pule pamięci hiperdyskowej

Jedną z mniej omawianych aktualizacji jest Hyperdisk Storage Pool firmy Google, usługa blokowego przechowywania danych, która pozwala osiągnąć efektywność kosztową i obliczeniową. Umożliwia programistom korzystanie z łączenia pamięci masowej przy wielu obciążeniach, zwłaszcza w przypadku wnioskowania AI.

„Hyperdisk ML przyspiesza ładowanie modeli nawet 12 razy w porównaniu z typowymi alternatywami i oferuje oszczędność kosztową dzięki trybowi tylko do odczytu, wielu dołączaniom i elastycznemu przydzielaniu zasobów” – stwierdził Google. „Umożliwia nawet 2500 instancjom dostęp do tego samego woluminu i zapewnia łączną przepustowość do 1,2 TiB/s na wolumin — ponad 100 razy większą wydajność niż Microsoft Azure Ultra SSD i Amazon EBS io2 BlockExpress”.

Pule pamięci masowej Hyperdisk umożliwiają klientom zmniejszenie całkowitego kosztu posiadania i kosztów zarządzania oraz dobre wykorzystanie zasobów.

„Jeśli spojrzymy na strategię Google dotyczącą sztucznej inteligencji, jej wizja i zdolność do realizacji na wszystkich warstwach, od infrastruktury, przez platformę, model, aplikację i agenta, jest niesamowita, a firma Google z pewnością jest wiodącą firmą zajmującą się kompleksową platformą sztucznej inteligencji” – – zakończył Boreda.

Co było dla Ciebie najważniejsze podczas Google Cloud Next 2024? Podziel się z nami na LinkedInOtwiera nowe okno