Technologia

Ponowna wizyta w fosie sztucznej inteligencji Google po I/O 2023

  • 15 maja, 2023
  • 6 min read
Ponowna wizyta w fosie sztucznej inteligencji Google po I/O 2023


Dyrektor generalny Google, Sundar Pichai, przemawia na I/O 2023

Ten artykuł jest częścią naszej serii poświęconej sztucznej inteligencji

Google odnotowało kilka niepowodzeń w ciągu ostatnich kilku miesięcy, ponieważ postępy w sztucznej inteligencji wydają się powodować poważne zmiany w krajobrazie technologicznym. Pierwszym z nich było udane uruchomienie ChatGPT OpenAI, które zaskoczyło Google i wywołało spekulacje na temat zakłóceń w działalności związanej z wyszukiwaniem. Potem było pospieszne i nieudane demo Barda, rywala Google ChatGPT, które zmniejszyło swoją kapitalizację rynkową o 100 miliardów dolarów i wzbudziło wątpliwości, czy może dogonić Microsoft i OpenAI.

Następnie pojawienie się wysoce wydajnych dużych modeli językowych (LLM) o otwartym kodzie źródłowym postawiło pod znakiem zapytania dominację dużych technologii na rynku generatywnej sztucznej inteligencji. Wewnętrzna notatka Google, która wyciekła – obecnie znana jako „dokument fosy” – jeszcze bardziej uwydatniła ambiwalencję wokół przyszłości firmy w zakresie stosowanej sztucznej inteligencji.

Ale wydarzenie Google I/O, które odbyło się w tym tygodniu, udowodniło, że gigant wyszukiwania dostosowuje się do zmian w tej dziedzinie. Chociaż Google – ani Microsoft, jeśli o to chodzi – prawdopodobnie zdominuje rynek LLM, wciąż upewnia się, że jego produkty są odpowiednie, gdy nadchodzi nowa fala sztucznej inteligencji.

Masowy wysiłek integracyjny

Google integruje swoją technologię generatywnej sztucznej inteligencji w dziesiątkach aplikacji

Google I/O nie wprowadziło żadnej zasadniczo nowej technologii generatywnej sztucznej inteligencji. Zamiast nowych i większych modeli, które mogą robić dziwne rzeczy, bardziej interesującym wydarzeniem było to, jak Google ulepsza swoje obecne produkty za pomocą LLM.

Bard dorównuje teraz ChatGPT w zadaniach takich jak pisanie artykułów i generowanie kodu. Jednak jego największym ulepszeniem jest integracja z produktami Google, takimi jak wyszukiwarka, Gmail, Dokumenty, Arkusze, Colab, Obiektyw i Mapy. Możesz bezproblemowo pobierać i przesyłać informacje z różnych aplikacji w ekosystemie Google za pośrednictwem interfejsu Bard. Możesz na przykład poprosić Barda o poradę dotyczącą problemu z kodowaniem, kilkakrotnie powtórzyć wynik, a następnie bezpośrednio przenieść wyniki do notatnika Colab.

AI można zintegrować na dwa sposoby. Jednym z nich jest wprowadzenie aplikacji do sztucznej inteligencji, takich jak wtyczki do Barda. Drugi wprowadza sztuczną inteligencję do aplikacji. Google również zmierza w tym kierunku, integrując funkcje generatywnej sztucznej inteligencji bezpośrednio w niektórych swoich aplikacjach. To bardzo przypomina Copilot 365 firmy Microsoft. Możesz na przykład bezpośrednio użyć asystenta LLM w Dokumentach, aby napisać artykuł, lub w Gmailu, aby przygotować szkic e-maila.

W tyle za Microsoftem?

W tej chwili podręcznik Google wygląda bardzo podobnie do Microsoft i OpenAI. Wypuszcza nawet usługę API, która jest bardzo podobna do API OpenAI i usługi Azure OpenAI firmy Microsoft. Usługa API zapewni dostęp do PaLM 2, LLM, który napędza Bard i inne generatywne modele sztucznej inteligencji wykorzystywane w jego aplikacjach. Podobnie jak interfejs API OpenAI, PaLM 2 będzie również obsługiwał dostrajanie. Na konferencji I/O firma Google zademonstrowała dwie dopracowane wersje modelu, dostosowane do zastosowań medycznych i związanych z cyberbezpieczeństwem. Niestety dokument PaLM 2 (zatytułowany „raport techniczny”, podobnie jak dokument OpenAI GPT-4) zawiera bardzo mało szczegółów na temat architektury modelu i danych treningowych (ponownie, a la GPT-4). Wiemy również, że następna generacja sztucznej inteligencji Google, zwana Gemini, będzie multimodalnymi modelami językowymi.

Warto przeczytać!  Apple iPhone 15 Świeży wyciek ujawnia przyciągającą wzrok aktualizację

Dzięki integracji sztucznej inteligencji Google chroni swoje produkty przed agresywnym atakiem AI ze strony Microsoftu. Google Search + Bard może ostatecznie być znacznie lepszy niż Bing Chat, biorąc pod uwagę lepszą wyszukiwarkę Google, pomagając Google utrzymać dominację w wyszukiwaniu online. A integracje Workspace będą co najmniej na równi z 365 Copilot, co pomoże Google zachować swój udział w narzędziach do współpracy.

Nie jest jasne, jaki będzie model monetyzacji tych usług, ale między dwoma gigantami technologicznymi będzie zaciekła konkurencja w dodawaniu wartości do ich usług. Częściowo sprowadzi się to do konkurowania modelami cenowymi.

Wydaje mi się, że w tej chwili duże firmy technologiczne walczą o istniejące rynki. Ich mechanizmy wzrostu i obrony dotyczą klasycznych czynników, takich jak wartość dodana i koszty zmiany. Dostosowują swoje fosy do zmian spowodowanych nową falą sztucznej inteligencji.

Ale rynek LLM i generatywnej sztucznej inteligencji wciąż przeżywa poważne wstrząsy i nie jest jasne, kto zdominuje nowe segmenty rynku.

Nowe fosy

W niedawnym poście wyjaśniłem, że wcześniej zakładano, że fosy wokół LLM zostały zbudowane na trzech rzeczach: danych treningowych, kosztach obliczeniowych i wagach modeli. Wielkie firmy technologiczne mogłyby tworzyć produkty i firmy, które można by obronić, wokół ogromnych LLM, które wymagały ogromnych zestawów danych i milionów dolarów na szkolenie i prowadzenie.

Warto przeczytać!  Zwiastun ujawnia, że ​​Nothing Phone 2a pojawi się 29 maja w nowych wersjach kolorystycznych | Wiadomości techniczne

Rozwój ruchu open-source LLM pokazał, że te fosy nie są tak nie do zdobycia, jak się wydaje. Modele takie jak Alpaca i Dolly 2 pokazały, że jeśli masz wstępnie wytrenowany LLM z 7-13 miliardami parametrów (np. danych i kilkaset dolarów. Wiele z nich może działać na procesorach graficznych klasy konsumenckiej.

Dzięki temu firmy mogą tworzyć zupełnie nowe aplikacje. Nie potrzebują już LLM o 175 miliardach parametrów dla każdej aplikacji. Mogą wziąć znacznie mniejszy model, dostroić go własnymi danymi i uruchomić na własnych serwerach. Oczywiście bardzo duży model będzie lepszy w uogólnianiu na szeroki zakres zadań. Ale w rzeczywistości większość aplikacji jest wyspecjalizowana. Wiele firm woli mały model, który można precyzyjnie dostroić do wykonywania kilku zadań bardzo dobrze, niż bardzo duży model, który ma przeciętną wydajność w szerokim zakresie zadań.

Zgodnie z wewnętrznym ostrzeżeniem Google przynajmniej niektóre części rynku LLM nie mają obecnie fos. Firmy, które nie są przywiązane do konkretnego dostawcy usług w chmurze i mają większą elastyczność w wyborze swojego ekosystemu aplikacji, częściej sięgają po rozwiązania typu open source.

Uważam jednak, że Google i Microsoft nadal mają przewagę w sektorze przedsiębiorstw. Duże firmy, które już korzystają z chmury Google lub Microsoft, uznają integrację AI za znacznie wygodniejszą niż wdrażanie własnych LLM w różnych magazynach danych i aplikacjach.


Źródło