Technologia

To badanie AI analizuje zdolność ChatGPT do uczenia się bez strzału, oceniając ją na 20 popularnych zestawach danych NLP

  • 17 lutego, 2023
  • 3 min read
To badanie AI analizuje zdolność ChatGPT do uczenia się bez strzału, oceniając ją na 20 popularnych zestawach danych NLP


Udowodniono, że poprzez warunkowanie modelu odpowiednimi monitami, duże modele językowe (LLM) wykonują szereg zadań NLP z uczeniem zerowym. Mówiąc prościej, LLM nie polegają na danych szkoleniowych dla danego zadania niższego szczebla. Obecne LLM są nadal podatne na różne błędy w nauce zero-shot.

Społeczność NLP zwraca dużą uwagę na ChatGPT LLM, który OpenAI wydał niedawno. ChatGPT został opracowany przy użyciu uczenia się przez wzmacnianie w celu trenowania modelu serii GPT-3.5 w oparciu o dane wejściowe użytkownika (RLHF). Rdzeniem RLHF jest trzyetapowy proces nadzorowanego szkolenia modeli językowych, zbierania danych dotyczących porównywania preferencji ludzkich i szkolenia modeli nagród oraz optymalizacji modeli językowych opartych na uczeniu się przez wzmacnianie.

Chociaż ChatGPT wykazuje znaczne kompetencje jako ogólny model, który może obsłużyć kilka zadań, często osiąga gorsze wyniki niż modele skoncentrowane na jednym zadaniu. W wyzwaniach związanych z rozumowaniem arytmetycznym, wyższa zdolność rozumowania ChatGPT jest wspierana empirycznie. Jednak ChatGPT często radzi sobie gorzej niż GPT-3.5 w zadaniach wymagających symbolicznego, logicznego i zdroworozsądkowego rozumowania, na przykład poprzez udzielanie niejednoznacznych odpowiedzi.

Aby wypełnić tę lukę w literaturze, nowe badanie przeprowadzone przez Nanyang Technological University, Shanghai Jiao Tong University, Georgia Institute of Technology i Stanford University przeprowadziło kompleksowe badanie zdolności ChatGPT do uczenia się bez strzału. W tym celu naukowcy przetestowali go na szerokiej gamie zestawów danych NLP obejmujących 7 ilustracyjnych kategorii zadań, w tym rozumowanie, wnioskowanie w języku naturalnym, odpowiadanie na pytania (czytanie ze zrozumieniem), dialogi, podsumowania, rozpoznawanie nazwanych jednostek i analizę nastrojów.

Badanie koncentruje się na znalezieniu możliwości ChatGPT do rozwiązywania różnych problemów NLP. Naukowcy empirycznie porównują możliwości ChatGPT z najnowocześniejszym modelem GPT-3.5, aby udzielić odpowiedzi na te pytania.

ChatGPT pokonuje GPT-3.5 w zadaniach wymagających rozumowania, takich jak znajdowanie logicznych powiązań między parami tekstów i zadania wnioskowania w języku naturalnym, takie jak odpowiadanie na pytania (czytanie ze zrozumieniem). Odkrycia pokazują również, że ChatGPT przoduje w radzeniu sobie z materiałem zgodnym z rzeczywistością (tj. lepiej w klasyfikowaniu implikacji, a nie ich braku). ChatGPT tworzy dłuższe podsumowania i jest mniej skuteczny niż GPT-3.5, gdy jest używany do podsumowań. Niestety, jakość podsumowania jest szkodliwa z powodu wyraźnego ograniczenia długości instrukcji zero-shot, co skutkuje jeszcze niższą wydajnością.

Warto przeczytać!  Gmail Spaces: Jak uprościć długie rozmowy w Gmail Spaces: kompletny przewodnik

Zespół ma nadzieję, że ich praca zainspiruje innych badaczy do zbadania sposobów wykorzystania możliwości rozumowania i dialogu ChatGPT w aplikacjach NLP i przezwyciężenia ograniczeń ogólnych modeli w obszarach, w których historycznie walczyli.


Sprawdź Papier. Cała zasługa za te badania należy się badaczom tego projektu. Nie zapomnij też dołączyć nasz SubReddit o ponad 14 tysiącach ML, Kanał DiscordaI Biuletyn e-mailowygdzie dzielimy się najnowszymi wiadomościami z badań nad sztuczną inteligencją, fajnymi projektami AI i nie tylko.



Źródło