Technologia

Pęka kolejna bańka szumu AI

  • 3 maja, 2023
  • 7 min read
Pęka kolejna bańka szumu AI


W niedawnej ocenie produktów chatbota swojej firmy, takich jak ChatGPT, dyrektor generalny OpenAI, Sam Altman, zaskakująco wyraził opinię publiczności na MIT. „Myślę, że jesteśmy na końcu ery, w której [AI is] będą te… olbrzymy [large language] modele… Ulepszymy je na inne sposoby”.

Ten otrzeźwiający komentarz kontrastuje z proroctwem filozofa Davida Chalmersa, który ostrzega przed niebezpieczną przyszłością. Mówi, że dzisiejsza sztuczna inteligencja językowa ma 20% szans na odczuwanie w ciągu 10 lat. Zwolniony inżynier Blake Lemoine idzie dalej. Twierdzi, że LaMDA Google jest już świadoma.

Taka hiperbola AI nie jest niczym nowym.

Oto miniaturowy szkic historii sztucznej inteligencji, który rzuca światło na takie twierdzenia. Kierując się słynnym spostrzeżeniem Santayany: „Ci, którzy nie pamiętają przeszłości, są skazani na jej powtarzanie”, tę historię należy pamiętać.

Postęp w sztucznej inteligencji następuje w skokach kwantowych z przebłyskami geniuszu. Nie ewoluuje powoli, stając się stopniowo coraz lepszy. Kiedy Altman mówi: „Zrobimy [AI] lepiej pod innymi względami”, ma na myśli, że potrzebny jest kolejny przebłysk geniuszu.

Przebłyski geniuszu pojawiają się sporadycznie. Te nowo wprowadzone genialne innowacje są stopniowo udoskonalane przez naukowców opierając się na fundamencie innowacji. Przebłysk geniuszu to pojedynczy skok prawie na szczyt góry. Jest kilka przebłysków geniuszu i liczne artykuły uzupełniające. Niektóre z poniższych dokumentów pochodnych to małe kroczki, które zwiększają wysokość tylko trochę. Szczególnie ważne są artykuły wskazujące na ograniczenia nowej sztucznej inteligencji. Na górze szumu odkryte ograniczenia AI obniżają wysokość do realistycznego poziomu poniżej szczytu szumu.

Warto przeczytać!  Amazon ujawnił datę premiery, kluczowe specyfikacje i projekt Redmi 13 5G

Byliśmy tu wcześniej

Pierwsza fala sztucznej inteligencji rozpoczęła się pod koniec lat pięćdziesiątych wraz z pracą Franka Rosenblatta w Cornell i Berniego Widrowa w Stanford. Sztuczna inteligencja Widrowa była niesamowita. Potrafił rozpoznawać głos, przewidywać pogodę i grać w blackjacka na poziomie zawodowca. Zostało to uchwycone w starym czarno-białym 60-minutowym wywiadzie dostępnym na YouTube. Fajnie jest oglądać geniusza łagodnego Berniego Widrowa i oglądać jego wynalazki w akcji.

Ale we wczesnych latach sztucznej inteligencji panował również nieuzasadniony szum. Pod nagłówkiem „Nowe urządzenie marynarki wojennej uczy się przez działanie” New York Times opublikował artykuł w 1958 roku, który zaczyna się:

WASHINGTON, 7 lipca (UPI) — Marynarka wojenna ujawniła dziś embrion komputera elektronicznego, który według oczekiwań będzie mógł chodzić, mówić, widzieć, pisać, reprodukować się i być świadomym swojego istnienia.

Czy taki hype brzmi znajomo? To było ponad sześćdziesiąt lat temu!

Jak opisano w książce Perceptrony, pierwsze sieci neuronowe Widrowa i Rosenblatta miały ograniczone możliwości. Ich tak zwana liniowość zahamowała ich zastosowanie. Wiele z tych ograniczeń zostało później przezwyciężonych dzięki błyskowi geniuszu wstecznej propagacji błędów zastosowanej do sieci neuronowych, które zawierały wiele warstw neuronów, które pozwoliły sieciom neuronowym stać się nieliniowymi. Algorytm wstecznej propagacji błędów został po raz pierwszy opublikowany w rozprawie doktorskiej Paula Werbosa na Harvardzie. To był hit i jest powszechnie używany dzisiaj. Przejdź do Google Scholar i wyszukaj „propagacja wsteczna”. Otrzymujesz ponad 800 tysięcy odsłon publikacji.

Warto przeczytać!  „Jedna z najwspanialszych gier wideo…” — Elden Ring Mania przejmuje kontrolę nad fanami, którzy są zahipnotyzowani grą roku

Ale nawet nowe warstwowe sieci neuronowe były ograniczone przez coś, co nazywa się „przekleństwem wymiarowości”. Złożoność danych treningowych musi być ograniczona. Głębokie konwolucyjne sieci neuronowe przezwyciężyły to ograniczenie. To był kolejny przebłysk geniuszu. Jednym z wczesnych zastosowań tego głębokiego uczenia się była diagnostyka radiologiczna. Jak zwykle, nowej innowacji AI towarzyszył szum. Geoffrey Hinton, nadęty badacz sieci neuronowych, pół dekady temu stwierdził: „Powinniśmy teraz przestać szkolić radiologów. To po prostu całkowicie oczywiste, że w ciągu pięciu lat głębokie uczenie się będzie lepsze niż radiolodzy”. Ale, podobnie jak wszystkie nowe AI, ograniczenia głębokich splotowych sieci neuronowych nie zostały jeszcze sprawdzone. Według STAT „liczba radiologów, którzy zostali zastąpieni przez sztuczną inteligencję, wynosi w przybliżeniu zero. (W rzeczywistości na całym świecie brakuje ich.) … Radiologia okazała się trudniejsza do zautomatyzowania, niż Hinton… sobie wyobrażał.

Wszystko jest w przyszłości

Były też inne przebłyski geniuszu w sztucznej inteligencji. Jednym z nich jest GAN (generative adversarial network) opracowany przez Iana Goodfellowa i jego współpracowników w 2014 r. Wśród innych zastosowań sieci GAN służą do generowania głębokich podróbek. Uczenie się przez wzmacnianie wykorzystywane do trenowania sztucznej inteligencji, jak pokonywać mistrzów świata w szachach, a GO rozwinęło się wraz ze wzrostem mocy komputerów.

Warto przeczytać!  Google umożliwi Ci tworzenie spersonalizowanych chatbotów AI

Sztuczna inteligencja jest nakręcana za pomocą opóźnionej kontroli. Powiedziano nam, że oszałamiająca sztuczna inteligencja nie dzieje się teraz, ale pojawi się kiedyś w przyszłości. Zwróć uwagę na wzór w dotychczas rozważanych przykładach:

  • David Chalmers prorokuje, że dzisiejsza sztuczna inteligencja ma szansę na zdolność odczuwania „za 10 lat.
  • Artykuł w NY Times z 1958 roku mówi, że oczekuje, że sztuczna inteligencja „będzie w stanie „dokonać kiedyś niesamowitych rzeczy”.
  • Geoffrey Hinton powiedział, że sztuczna inteligencja zastąpi radiologóww ciągu pięciu lat”.

Wszystko jest w przyszłości.

Po sformułowaniu proroctw na temat nowej sztucznej inteligencji niezmiennie odkrywane są ograniczenia przedmiotowej sztucznej inteligencji, które ujawniają takie bzdury. Oświadczenie Geoffreya Hintona o przestarzałych radiologach było błędne. The NY Times mylił się co do przyszłości sztucznej inteligencji Marynarki Wojennej. A teraz dyrektor generalny OpenAI, Sam Altman, sugeruje, że wraz z postępem obecnej technologii filozof David Chalmers myli się co do swojej prognozy wrażliwości.

Obowiązuje tu duńskie przysłowie. „Prognozowanie jest niebezpieczne, zwłaszcza jeśli dotyczy przyszłości”.

Hype AI jest jak bańka finansowa. Ludzie są oszukiwani, że chociaż wszystkie bańki finansowe w przeszłości pękły, tym razem jest inaczej. Sztuczna inteligencja ma i nadal będzie wywierać ogromny wpływ na społeczeństwo. Ale biorąc pod uwagę te skutki, nie należy ufać prorokującym sprzedawcom oleju wężowego, którzy przedwcześnie wysuwają hiperboliczne twierdzenia, którzy szukają rozgłosu i fortuny.




Źródło