Technologia

5 najważniejszych problemów etycznych zgłoszonych przez pioniera sztucznej inteligencji, Geoffreya Hintona

  • 2 maja, 2023
  • 7 min read
5 najważniejszych problemów etycznych zgłoszonych przez pioniera sztucznej inteligencji, Geoffreya Hintona


Geoffrey Hinton, pionier sztucznej inteligencji, znany ze swojej rewolucyjnej pracy w dziedzinie głębokiego uczenia się i badań nad sieciami neuronowymi, wyraził ostatnio swoje obawy dotyczące szybkiego postępu w sztucznej inteligencji i potencjalnych implikacji.

W świetle swoich obserwacji nowych dużych modeli językowych, takich jak GPT-4, Hinton ostrzega przed kilkoma kluczowymi kwestiami:

  1. Maszyny przewyższające ludzką inteligencję: Hinton uważa, że ​​systemy sztucznej inteligencji, takie jak GPT-4, są na dobrej drodze, aby stać się znacznie inteligentniejsze niż początkowo przewidywano, potencjalnie dysponując lepszymi algorytmami uczenia się niż ludzie.
  2. Ryzyko wykorzystywania chatbotów AI przez „złych aktorów”: Hinton podkreśla niebezpieczeństwa związane z używaniem inteligentnych chatbotów do rozpowszechniania dezinformacji, manipulowania elektoratem i tworzenia potężnych robotów spamujących.
  3. Kilka możliwości uczenia się: Modele sztucznej inteligencji mogą uczyć się nowych zadań za pomocą zaledwie kilku przykładów, umożliwiając maszynom nabywanie nowych umiejętności w tempie porównywalnym, a nawet przewyższającym tempo ludzi.
  4. Egzystencjalne ryzyko stwarzane przez systemy AI: Hinton ostrzega przed scenariuszami, w których systemy sztucznej inteligencji tworzą własne cele cząstkowe i dążą do większej władzy, przewyższając ludzkie możliwości gromadzenia i udostępniania wiedzy.
  5. Wpływ na rynki pracy: Sztuczna inteligencja i automatyzacja mogą wypierać miejsca pracy w niektórych branżach, szczególnie w produkcji, rolnictwie i opiece zdrowotnej.

W tym artykule zagłębiamy się w obawy Hintona, jego odejście z Google, aby skupić się na aspektach etycznych i bezpieczeństwa rozwoju sztucznej inteligencji oraz znaczeniu odpowiedzialnego rozwoju sztucznej inteligencji w kształtowaniu przyszłości relacji człowiek-AI.

Odejście Hintona od rozwoju Google i etycznej sztucznej inteligencji

Dążąc do rozwiązania kwestii etycznych i bezpieczeństwa związanych ze sztuczną inteligencją, Hinton zdecydował się odejść ze swojego stanowiska w Google.

Warto przeczytać!  Sztuczna inteligencja mowy Meta o otwartym kodzie źródłowym rozpoznaje ponad 4000 języków mówionych

Daje mu to swobodę otwartego wyrażania swoich obaw i angażowania się w bardziej filozoficzną pracę bez ograniczeń interesów korporacyjnych.

Hinton stwierdza w wywiadzie dla MIT Technology Review:

„Chcę rozmawiać o kwestiach związanych z bezpieczeństwem sztucznej inteligencji, nie martwiąc się o to, jak współdziała ona z działalnością Google. Dopóki płacą mi Google, nie mogę tego robić”.

Odejście Hintona oznacza zmianę w jego skupieniu się na aspektach etycznych i bezpieczeństwa sztucznej inteligencji. Zamierza aktywnie uczestniczyć w toczących się dialogach na temat odpowiedzialnego rozwoju i wdrażania sztucznej inteligencji.

Wykorzystując swoją wiedzę i reputację, Hinton zamierza przyczynić się do opracowania ram i wytycznych dotyczących takich kwestii, jak stronniczość, przejrzystość, odpowiedzialność, prywatność i przestrzeganie zasad etycznych.

GPT-4 i źli aktorzy

Podczas niedawnego wywiadu Hinton wyraził obawy co do możliwości, że maszyny przewyższą ludzką inteligencję. Imponujące możliwości GPT-4opracowany przez OpenAI i wydany na początku tego roku, spowodował, że Hinton przewartościował swoje wcześniejsze przekonania.

Uważa on, że modele językowe, takie jak GPT-4, są na dobrej drodze, aby stać się znacznie inteligentniejsze niż początkowo przewidywano, potencjalnie dysponując lepszymi algorytmami uczenia się niż ludzie.

Hinton stwierdza w wywiadzie:

„Nasze mózgi mają 100 bilionów połączeń. Duże modele językowe mają do pół biliona, najwyżej biliona. Jednak GPT-4 wie setki razy więcej niż jakakolwiek pojedyncza osoba. Więc może faktycznie ma znacznie lepszy algorytm uczenia się niż my”.

Obawy Hintona dotyczą przede wszystkim znacznych różnic między maszynami a ludźmi. Porównuje wprowadzenie dużych modeli językowych do inwazji obcych, podkreślając ich lepsze umiejętności językowe i wiedzę w porównaniu z jakąkolwiek osobą.

Warto przeczytać!  Apple zorganizuje Wwdc 2023 5 czerwca i może zadebiutować również zestaw słuchawkowy rzeczywistości mieszanej

Hinton stwierdza w wywiadzie:

„Te rzeczy są zupełnie inne niż u nas. Czasami myślę, że to tak, jakby kosmici wylądowali, a ludzie nie zdali sobie z tego sprawy, ponieważ mówią bardzo dobrze po angielsku”.

Hinton ostrzega przed ryzykiem, że chatboty AI staną się bardziej inteligentne niż ludzie i istoty wykorzystywane przez „złych aktorów”.

W wywiadzie ostrzega, że ​​te chatboty mogą być wykorzystywane do rozpowszechniania dezinformacji, manipulowania elektoratem i tworzenia potężnych spambotów.

„Słuchaj, oto jeden sposób, w jaki wszystko może pójść nie tak. Wiemy, że wiele osób, które chcą korzystać z tych narzędzi, to źli aktorzy, tacy jak Putin czy DeSantis. Chcą ich używać do wygrywania wojen lub manipulowania elektoratami”.

Szybka nauka i przewaga AI

Innym aspektem, który martwi Hintona, jest zdolność do działania dużych modeli językowych nauka kilku strzałów.

Modele te można wyszkolić do wykonywania nowych zadań za pomocą kilku przykładów, nawet zadań, dla których nie były bezpośrednio szkolone.

Ta niezwykła zdolność uczenia się sprawia, że ​​szybkość, z jaką maszyny nabywają nowe umiejętności, jest porównywalna, a nawet przewyższa człowieka.

Hinton stwierdza w wywiadzie:

„Ludzie[‘s brains] wydawało się, że ma w sobie jakąś magię. Cóż, dno tego argumentu wypada, gdy tylko weźmiesz jeden z tych dużych modeli językowych i wytrenujesz go, aby robił coś nowego. Potrafi niezwykle szybko nauczyć się nowych zadań”.

Obawy Hintona wykraczają poza bezpośredni wpływ na rynki pracy i branże.

podnosi „ryzyko egzystencjalne” o tym, co się dzieje, gdy systemy sztucznej inteligencji stają się bardziej inteligentne niż ludzie, ostrzegając przed scenariuszami, w których systemy sztucznej inteligencji tworzą własne cele cząstkowe i dążą do większej mocy.

Warto przeczytać!  Noida otworzy pierwszy park dla psów w mieście 1 czerwca

Hinton podaje przykład, w jaki sposób systemy sztucznej inteligencji opracowujące cele cząstkowe mogą się nie udać:

„Cóż, oto cel cząstkowy, który prawie zawsze pomaga w biologii: uzyskać więcej energii. Pierwszą rzeczą, która może się wydarzyć, jest to, że te roboty powiedzą: „Zdobądźmy więcej mocy”. Przekierujmy całą energię elektryczną na moje chipy. Kolejnym wielkim celem cząstkowym byłoby zrobienie większej liczby kopii samego siebie. Czy to brzmi dobrze?

Wpływ sztucznej inteligencji na rynki pracy i przeciwdziałanie zagrożeniom

Hinton zwraca na to uwagę Wpływ AI na miejsca pracy jest poważnym zmartwieniem.

Sztuczna inteligencja i automatyzacja mogą przejąć powtarzalne i przyziemne zadania, powodując utratę miejsc pracy w niektórych sektorach.

Automatyzacja może mocno uderzyć w pracowników produkcji i fabryk.

Roboty i maszyny napędzane sztuczną inteligencją rozwijają się w produkcji, co może przejąć ryzykowną i powtarzalną pracę ludzką.

Automatyzacja postępuje również w rolnictwie, ze zautomatyzowanymi zadaniami, takimi jak sadzenie, zbiory i monitorowanie upraw.

W służbie zdrowia niektóre zadania administracyjne można zautomatyzować, ale jest mniej prawdopodobne, że role wymagające interakcji i współczucia międzyludzkiego zostaną w pełni zastąpione przez sztuczną inteligencję.

W podsumowaniu

Obawy Hintona dotyczące szybkich postępów w sztucznej inteligencji i ich potencjalnych implikacji podkreślają potrzebę odpowiedzialnego rozwoju sztucznej inteligencji.

Jego odejście z Google oznacza jego zaangażowanie w kwestie bezpieczeństwa, promowanie otwartego dialogu i kształtowanie przyszłości sztucznej inteligencji w sposób chroniący dobro ludzkości.

Chociaż nie pracuje już w Google, wkład i wiedza Hintona nadal odgrywają istotną rolę w kształtowaniu dziedziny sztucznej inteligencji i kierowaniu jej etycznym rozwojem.


Wyróżniony obraz wygenerowany przez autora za pomocą Midjourney




Źródło