Technologia

Badacze Microsoftu twierdzą, że GPT-4 pokazuje „iskry” AGI

  • 23 marca, 2023
  • 5 min read
Badacze Microsoftu twierdzą, że GPT-4 pokazuje „iskry” AGI


Tuż po publicznym wydaniu GPT-4 zespół naukowców Microsoft AI opublikował artykuł badawczy, w którym twierdził, że model języka OpenAI – który napędza obecnie nieco lobotomiczną sztuczną inteligencję Bing firmy Microsoft – pokazuje „iskry” inteligencji na poziomie ludzkim lub sztucznej inteligencji ogólnej (AGI).

Z naciskiem na „iskry”. Naukowcy są ostrożni w artykule, aby scharakteryzować sprawność GPT-4 jako „jedynie pierwszy krok w kierunku serii coraz bardziej ogólnie inteligentnych systemów”, a nie w pełni wyklutą sztuczną inteligencję na poziomie człowieka. Wielokrotnie podkreślali również fakt, że ten artykuł jest oparty na „wczesnej wersji” GPT-4, którą badali, gdy „wciąż był aktywnie rozwijany przez OpenAI”, a niekoniecznie na wersji, która została wprowadzona w formację nadającą się do zastosowania w produkcie .

Pomijając jednak zastrzeżenia, są to poważne roszczenia. Chociaż wielu ludzi, nawet niektórzy z branży sztucznej inteligencji, uważa AGI za mrzonkę, inni uważają, że rozwój AGI zapoczątkuje kolejną erę przyszłości ludzkości; GPT-4 nowej generacji jest jak dotąd najpotężniejszą iteracją modelu dużego języka (LLM) zbudowanego przez OpenAI, a na teoretycznej liście potencjalnych pretendentów do AGI, GPT-4 znajduje się gdzieś na szczycie listy, jeśli nie numer jeden.

„Twierdzimy”, piszą naukowcy w opublikowanym wczoraj artykule, „że (ta wczesna wersja) GPT-4 jest częścią nowej kohorty LLM (wraz z na przykład ChatGPT i PaLM firmy Google), które wykazują bardziej ogólną inteligencję niż poprzednie modele AI”.

Warto przeczytać!  Samsung wkrótce wprowadzi funkcję wykrywania awarii w wybranych telefonach Galaxy

Jeśli chodzi o rozumowanie naukowców, po prostu twierdzą, że GPT-4 jest silniejszy niż inne modele OpenAI, które pojawiły się przed nim w nowy i uogólniony sposób. Jedną rzeczą jest zaprojektowanie modelu, który dobrze poradzi sobie z określonym egzaminem lub zadaniem, a drugą jest zbudowanie urządzenia, które może wykonać wiele zadań i wykonać je naprawdę dobrze, bez specjalnego szkolenia. Mówią, że w tym drugim przypadku GPT-4 naprawdę błyszczy.

„Pokazujemy, że poza opanowaniem języka, GPT-4 może rozwiązywać nowe i trudne zadania obejmujące matematykę, kodowanie, widzenie, medycynę, prawo, psychologię i wiele innych, bez potrzeby specjalnej zachęty” – czytamy w artykule. „Co więcej, we wszystkich tych zadaniach wydajność GPT-4 jest uderzająco zbliżona do wydajności na poziomie człowieka i często znacznie przewyższa wcześniejsze modele, takie jak ChatGPT”.

„Biorąc pod uwagę zakres i głębokość możliwości GPT-4”, kontynuują, „wierzymy, że można go rozsądnie postrzegać jako wczesną (ale wciąż niekompletną) wersję systemu sztucznej inteligencji ogólnej (AGI).

W tym celu badacze ci mają rację. GPT-4 z pewnością nadal ma swoje wady; podobnie jak inne LLM, maszyna nadal ma problemy z halucynacjami i może zmagać się z matematyką. Ale niezależnie od swoich błędów model ma pewne wyróżniające się — i znacznie ulepszone w stosunku do poprzedniego modelu — umiejętności. Na przykład GPT-4 jest szczególnie doskonałym zdającym, zdając notorycznie trudne egzaminy, takie jak egzamin adwokacki, LSAT, a nawet test teoretyczny Certyfikowanego Sommeliera odpowiednio na 90., 88. i 86. percentylu — bez żadnego specjalnego szkolenia na tych egzaminach.

Warto przeczytać!  Wszystkie telefony Google Pixel otrzymały aktualizację Androida 14

Dla kontrastu: GPT-3.5, który został wydany pod koniec zeszłego roku, strzelił w spód 10 procent wszystkich zdających egzamin adwokacki. To szalenie duży krok dla modelu nowej generacji, gdy jego ostatnia iteracja została wydana zaledwie kilka miesięcy temu.

W innym miejscu badacze twierdzą, że w ich badaniach bot „pokonał pewne fundamentalne przeszkody, takie jak nabycie wielu możliwości pozajęzykowych”, a jednocześnie dokonał „wielkiego postępu w zakresie zdrowego rozsądku” — ten ostatni jest jedną z największych przeszkód OG ChatGPT.

Mimo to argument AGI ma jeszcze kilka zastrzeżeń, a naukowcy przyznają w artykule, że chociaż GPT-4 jest „na poziomie człowieka lub go przewyższa w wielu zadaniach”, jego ogólne „wzorce inteligencji zdecydowanie nie są podobne do ludzkich”. ”. Tak więc, w zasadzie, nawet jeśli się wyróżnia, nadal nie myśli dokładnie tak, jak robi to człowiek. (Można również argumentować, że zdawanie testów jest ogólnie o wiele bardziej robotyczne niż ludzkie, ale dygresja).

Warto również zauważyć, że badacze Microsoftu mogą mieć żywotny interes w podkręcaniu pracy OpenAI, nieświadomie lub w inny sposób, ponieważ Microsoft nawiązał wielomiliardowe partnerstwo z OpenAI na początku tego roku.

Warto przeczytać!  Premiera tabletu OnePlus Pad 2 zapowiedź: oto, czego możemy się spodziewać

Naukowcy również zwracają uwagę, że AGI nadal nie ma solidnej, uzgodnionej definicji — podobnie jak bardziej ogólna koncepcja „inteligencji”.

„Nasze twierdzenie, że GPT-4 reprezentuje postęp w kierunku AGI, nie oznacza, że ​​jest doskonały w tym, co robi, ani że zbliża się do wszystkiego, co może zrobić człowiek (co jest jedną z typowych definicji AGI) lub że ma wewnętrzną motywację i cele (kolejny kluczowy aspekt w niektórych definicjach AGI)”, czytamy w artykule.

Ale krok, jak mówią, to krok.

„Wierzymy, że inteligencja GPT-4” — piszą naukowcy — „sygnalizuje prawdziwą zmianę paradygmatu w dziedzinie informatyki i nie tylko”.

CZYTAJ WIĘCEJ: Iskry sztucznej inteligencji ogólnej: wczesne eksperymenty z GPT-4

Więcej o podróży GPT-4 do Elle Woods: Gpt-4 OpenAI właśnie palił w zasadzie każdy test i egzamin, jaki ktokolwiek kiedykolwiek zdawał


Źródło