Technologia

Google dzieliło się wiedzą o sztucznej inteligencji ze światem – dopóki ChatGPT nie nadrobił zaległości

  • 4 maja, 2023
  • 11 min read
Google dzieliło się wiedzą o sztucznej inteligencji ze światem – dopóki ChatGPT nie nadrobił zaległości


W lutym Jeff Dean, wieloletni szef Google ds. sztucznej inteligencji, ogłosił swoim pracownikom oszałamiającą zmianę polityki: musieli wstrzymać się z udostępnianiem swojej pracy światu zewnętrznemu.

Przez lata Dean kierował swoim wydziałem jak uniwersytetem, zachęcając badaczy do obfitego publikowania prac naukowych; zgodnie z witryną Google Research od 2019 r. wypchnęli prawie 500 badań.

Ale uruchomienie przełomowego ChatGPT OpenAI trzy miesiące wcześniej zmieniło sytuację. Start-up z San Francisco nadążał za Google, czytając artykuły naukowe zespołu, powiedział Dean na kwartalnym spotkaniu działu badawczego firmy. Rzeczywiście, transformers — fundamentalna część najnowszej technologii AI i T w ChatGPT — powstały w badaniu Google.

Wszystko musiało się zmienić. Google wykorzystałoby własne odkrycia AI, udostępniając dokumenty dopiero po przekształceniu pracy laboratoryjnej w produkty, powiedział Dean, według dwóch osób znających spotkanie, które mówiły pod warunkiem zachowania anonimowości w celu udostępnienia prywatnych informacji.

Zmiana zasad jest częścią większej zmiany wewnątrz Google. Od dawna uważany za lidera w dziedzinie sztucznej inteligencji, gigant technologiczny przeszedł w tryb defensywny — najpierw w celu odparcia floty zwinnych konkurentów w zakresie sztucznej inteligencji, a teraz w celu ochrony swojej podstawowej działalności związanej z wyszukiwaniem, cen akcji i potencjalnie swojej przyszłości, o czym powiedzieli kierownictwo przeplata się z AI.

W artykułach, podcastach i wystąpieniach telewizyjnych dyrektor generalny Google, Sundar Pichai, nawoływał do ostrożności w stosunku do sztucznej inteligencji. „W skali społecznej może to spowodować wiele szkód” – ostrzegł w „60 minutach” w kwietniu, opisując, w jaki sposób technologia może przyspieszyć tworzenie fałszywych obrazów i filmów.

Ale w ostatnich miesiącach Google dokonał przeglądu swoich operacji AI w celu szybkiego wprowadzenia produktów, zgodnie z wywiadami z 11 obecnymi i byłymi pracownikami Google, z których większość mówiła pod warunkiem zachowania anonimowości w celu udostępnienia prywatnych informacji.

Obniżyła poprzeczkę w zakresie udostępniania eksperymentalnych narzędzi sztucznej inteligencji mniejszym grupom, opracowując nowy zestaw wskaźników oceny i priorytetów w obszarach takich jak sprawiedliwość. To także połączył Google Brain, organizację prowadzoną przez Deana i ukształtowaną przez zainteresowania badaczy, z DeepMind, konkurencyjną jednostką AI z pojedynczym, odgórnym celem, aby „przyspieszyć nasze postępy w sztucznej inteligencji”, napisał Pichai w ogłoszeniu. Ten nowy dział nie będzie kierowany przez Deana, ale przez Demisa Hassabisa, dyrektora generalnego DeepMind, grupy postrzeganej przez niektórych jako posiadająca świeżą, bardziej ambitną markę.

Na konferencji na początku tego tygodnia Hassabis powiedział, że sztuczna inteligencja jest potencjalnie bliżej osiągnięcia inteligencji na poziomie człowieka, niż przewidywała większość innych ekspertów ds. sztucznej inteligencji. „Możemy być za kilka lat, może… dekadę” – powiedział.

Przyspieszenie Google pojawia się jako kakofonia głosów – w tym wybitni absolwenci firm i weterani branży – wzywają programistów AI do spowolnienia, ostrzegając, że technologia rozwija się szybciej, niż przewidywali nawet jej wynalazcy. Geoffrey Hinton, jeden z pionierów technologii sztucznej inteligencji, który dołączył do Google w 2013 roku i niedawno odszedł z firmy, od tamtej pory ostrzega w mediach o niebezpieczeństwach związanych z wymykaniem się superinteligentnej sztucznej inteligencji spod kontroli człowieka. Pichai, wraz z dyrektorami generalnymi OpenAI i Microsoftu, spotkają się w czwartek z urzędnikami Białego Domu, co jest częścią ciągłych wysiłków administracji, aby zasygnalizować postęp w obliczu publicznego niepokoju, podczas gdy organy regulacyjne na całym świecie omawiają nowe zasady dotyczące tej technologii.

Warto przeczytać!  Jak naprawić opóźnienie i spadek FPS w PUBG Mobile?

Tymczasem wyścig zbrojeń ze sztuczną inteligencją trwa bez nadzoru, a obawy firm przed wydawaniem się lekkomyślnymi mogą się osłabić w obliczu konkurencji.

„Nie chodzi o to, że byli ostrożni, nie chcieli podważać istniejących strumieni przychodów i modeli biznesowych” – powiedział współzałożyciel DeepMind, Mustafa Suleyman, który opuścił Google w 2022 r. i uruchomił w tym tygodniu Pi, spersonalizowaną sztuczną inteligencję z jego nowego start-upu Inflection AI. „Dopiero wtedy, gdy istnieje realne zagrożenie zewnętrzne, zaczynają się budzić”.

Pichai podkreślił, że wysiłki Google zmierzające do przyspieszenia nie oznaczają pójścia na łatwiznę. „Tempo postępu jest teraz szybsze niż kiedykolwiek wcześniej” – napisał w ogłoszeniu o fuzji. „Aby zapewnić śmiały i odpowiedzialny rozwój ogólnej sztucznej inteligencji, tworzymy jednostkę, która pomoże nam budować bardziej wydajne systemy w sposób bardziej bezpieczny i odpowiedzialny”.

Jeden z byłych badaczy Google AI opisał tę zmianę jako przejście Google z „czasu pokoju” na „czas wojny”. Publikowanie badań zasadniczo pomaga w rozwoju całej dziedziny, Brian Kihoon Lee, badacz Google Brain, który został zwolniony w ramach masowych zwolnień firmy w styczniu, napisał w kwietniowym poście na blogu. Ale gdy sytuacja staje się bardziej konkurencyjna, rachunek się zmienia.

„W trybie wojennym ważne jest również, jak bardzo rośnie kawałek tortu konkurencji” — powiedział Lee. Odmówił dalszego komentowania tej historii.

„W 2018 roku ustanowiliśmy wewnętrzną strukturę zarządzania i kompleksowy proces recenzji – jak dotąd setki recenzji w różnych obszarach produktów – i nadal stosujemy ten proces w technologiach opartych na sztucznej inteligencji, które wprowadzamy na zewnątrz” – powiedział rzecznik Google, Brian Gabriel. „Odpowiedzialna sztuczna inteligencja pozostaje najwyższym priorytetem w firmie”.

Pichai i inni dyrektorzy coraz częściej zaczęli mówić o perspektywie technologii AI dorównującej lub przewyższającej ludzką inteligencję, koncepcji znanej jako sztuczna inteligencja ogólna lub AGI. Niegdyś skrajny termin, kojarzony z ideą, że sztuczna inteligencja stanowi egzystencjalne zagrożenie dla ludzkości, ma kluczowe znaczenie dla misji OpenAI i został przyjęty przez DeepMind, ale został uniknięty przez najwyższe kierownictwo Google.

Dla pracowników Google to przyspieszone podejście jest mieszanym błogosławieństwem. Konieczność uzyskania dodatkowego zatwierdzenia przed opublikowaniem odpowiednich badań nad sztuczną inteligencją może oznaczać, że badacze zostaną „zgarnięci” swoimi odkryciami w błyskawicznym świecie generatywnej sztucznej inteligencji. Niektórzy obawiają się, że może zostać wykorzystany do cichego stłumienia kontrowersyjnych artykułów, takich jak badanie z 2020 r. na temat szkodliwości dużych modeli językowych, którego współautorami są szefowie zespołu etycznej sztucznej inteligencji Google, Timnit Gebru i Margaret Mitchell.

Warto przeczytać!  Google wprowadza natywną opcję importu CSV do narzędzia Menedżera haseł

Ale inni przyznają, że Google stracił wielu czołowych badaczy AI w ciągu ostatniego roku na rzecz start-upów postrzeganych jako nowatorskie. Część tego exodusu wynikała z frustracji, że Google nie wykonywał pozornie oczywistych ruchów, takich jak włączanie chatbotów do wyszukiwania, powstrzymywanych przez obawy dotyczące szkód prawnych i reputacji.

Podczas transmisji na żywo ze spotkania kwartalnego ogłoszenie Deana spotkało się z pozytywnym odzewem, a pracownicy dzielili się optymistycznymi emotikonami, w nadziei, że obrót pomoże Google odzyskać przewagę. „OpenAI pokonał nas w naszej własnej grze” — powiedział jeden z pracowników, który uczestniczył w spotkaniu.

Dla niektórych badaczy oświadczenie Deana na kwartalnym spotkaniu było pierwszym, w którym usłyszeli o ograniczeniach w publikowaniu badań. Ale dla tych, którzy pracują nad dużymi modelami językowymi, będącymi rdzeniem technologicznym chatbotów, sprawy stały się bardziej rygorystyczne, odkąd kierownictwo Google po raz pierwszy wydało „Code Red”, aby skupić się na sztucznej inteligencji w grudniu, po tym, jak ChatGPT stał się natychmiastowym fenomenem.

Uzyskanie zgody na dokumenty według jednego z byłych badaczy może wymagać wielokrotnych intensywnych przeglądów ze starszymi pracownikami. Wielu naukowców rozpoczęło pracę w Google z obietnicą dalszego uczestniczenia w szerszej dyskusji w swojej dziedzinie. Kolejna runda badaczy wyjechała z powodu ograniczeń w publikowaniu.

Zmieniające się standardy określania, kiedy produkt AI jest gotowy do wprowadzenia na rynek, wywołały niepokój. Według raportu opublikowanego w Bloomberg, decyzja Google o wypuszczeniu swojego chatbota ze sztuczną inteligencją Bard i wdrożeniu niższych standardów w niektórych wynikach testów dla eksperymentalnych produktów AI wywołała wewnętrzny sprzeciw.

Jednak inni pracownicy uważają, że firma Google wykonała przemyślaną pracę, próbując ustanowić standardy w tej rozwijającej się dziedzinie. Na początku 2023 roku Google udostępnił listę około 20 priorytetów polityki wokół Bard, opracowaną przez dwa zespoły AI: zespół Odpowiedzialnej Innowacji i Odpowiedzialny AI. Jeden z pracowników nazwał zasady „dość jasnymi i stosunkowo solidnymi”.

Inni na początku mniej wierzyli w wyniki i uznali ćwiczenie w dużej mierze za performatywne. Uznali, że społeczeństwu lepiej służy zewnętrzna przejrzystość, taka jak dokumentowanie tego, co znajduje się w danych szkoleniowych lub otwarcie modelu na zewnętrznych ekspertów.

Konsumenci dopiero zaczynają poznawać zagrożenia i ograniczenia dużych modeli językowych, takie jak skłonność sztucznej inteligencji do zmyślania faktów. Ale El Mahdi El Mhamdi, starszy naukowiec Google Research, który zrezygnował w lutym z powodu braku przejrzystości firmy w zakresie etyki AI, powiedział, że firmy technologiczne mogły być używając tej technologii do szkolenia innych systemów w sposób, który może być trudny do śledzenia nawet dla pracowników.

Kiedy korzysta z Tłumacza Google i YouTube, „Już widzę zmienność i niestabilność, które można wytłumaczyć jedynie za pomocą” tych modeli i zestawów danych, powiedział El Mhamdi.

Wiele firm pokazało już problemy z szybkim poruszaniem się i udostępnianiem niedokończonych narzędzi szerokiej publiczności.

„Myślę, że powiedzenie:„ Hej, oto ten magiczny system, który może zrobić wszystko, co chcesz ”, a następnie użytkownicy zaczynają go używać w sposób, którego się nie spodziewają, jest dość złe” – powiedział profesor Stanford Percy Liang, dodając że zastrzeżenia drobnym drukiem na ChatGPT nie wyjaśniają jego ograniczeń.

Warto przeczytać!  Dzisiejsza premiera Samsunga Galaxy A35 5G, Galaxy A55 5G w Indiach: oczekiwana cena, dane techniczne i wszystko, co musisz wiedzieć

Dodał, że ważna jest rygorystyczna ocena możliwości technologii. Liang jest ostatnio współautorem artykułu analizującego narzędzia wyszukiwania AI, takie jak nowy Bing. Okazało się, że tylko około 70 procent jego cytatów było poprawnych.

Google od lat inwestuje pieniądze w rozwój technologii sztucznej inteligencji. Na początku 2010 roku zaczął kupować start-upy AI, włączając ich technologię do stale rosnącego pakietu produktów. W 2013 r. przyciągnął Hintona, pioniera oprogramowania AI, którego prace naukowe pomogły stworzyć podstawę dla obecnie dominującej technologii. Rok później kupił DeepMind, założony przez Hassabisa, innego czołowego badacza sztucznej inteligencji, za 625 milionów dolarów.

Wkrótce po tym, jak został mianowany dyrektorem generalnym Google, Pichai zadeklarował, że Google stanie się firmą „AI first”, integrując technologię ze wszystkimi swoimi produktami. Przez lata zespoły badawcze Google zajmujące się sztuczną inteligencją opracowały przełomowe rozwiązania i narzędzia, które przyniosłyby korzyści całej branży. Wynaleźli „transformatory” — nowy typ modelu AI, który może przetwarzać większe zestawy danych. Technologia stała się podstawą „dużych modeli językowych”, które obecnie dominują w rozmowach na temat sztucznej inteligencji — w tym GPT3 i GPT4 OpenAI.

Pomimo tych stałych postępów, to właśnie ChatGPT — zbudowany przez mniejszego początkującego OpenAI — wywołał falę szerszej fascynacji i ekscytacji sztuczną inteligencją. Założona, aby zapewnić przeciwwagę dla przejęcia pola przez firmy Big Tech, OpenAI spotkała się z mniejszą kontrolą niż jej więksi rywale i była bardziej skłonna oddać swoje najpotężniejsze modele AI w ręce zwykłych ludzi.

„W każdej organizacji już teraz trudno jest wypełnić lukę między prawdziwymi naukowcami, którzy rozwijają podstawowe modele, a ludźmi, którzy próbują budować produkty” – powiedział De Kai, profesor sztucznej inteligencji na Uniwersytecie Kalifornijskim w Berkeley, który służył w krótkotrwałym zespole Google poza radą doradczą ds. sztucznej inteligencji w 2019 r. „Jak zintegrować to w sposób, który nie ogranicza możliwości tworzenia zespołów, które rozwijają najnowocześniejszą technologię, to wyzwanie”.

Tymczasem Google ostrożnie oznaczył swojego chatbota Bard i inne nowości Produkty AI jako „eksperymenty”. Ale w przypadku firmy z miliardami użytkowników nawet eksperymenty na małą skalę mają wpływ na miliony ludzi i jest to prawdopodobne znaczna część świata zetknie się z generatywną sztuczną inteligencją za pośrednictwem narzędzi Google. Sama wielkość firmy oznacza, że ​​jej przejście na szybsze wprowadzanie nowych produktów AI budzi obawy szerokiego grona organów regulacyjnych, badaczy AI i liderów biznesu.

Zaproszenie na czwartkowe spotkanie w Białym Domu przypomniało dyrektorom generalnym, że prezydent Biden już „jasno wyraził nasze oczekiwania, że ​​firmy takie jak Twoja muszą upewnić się, że ich produkty są bezpieczne, zanim zostaną udostępnione publicznie”.


Źródło