Technologia

Dlaczego pionier sieci neuronowych, Geoffrey Hinton, alarmuje w sprawie sztucznej inteligencji

  • 23 maja, 2023
  • 7 min read
Dlaczego pionier sieci neuronowych, Geoffrey Hinton, alarmuje w sprawie sztucznej inteligencji


Pionier głębokiego uczenia się wyraża obawy dotyczące szybkich postępów w sztucznej inteligencji i ich wpływu na ludzi.

75-letni Geoffrey Hinton, emerytowany profesor na Uniwersytecie w Toronto, do niedawna wiceprezes i inżynier w Google, ogłosił na początku maja, że ​​odchodzi z firmy – częściowo ze względu na swój wiek, jak powiedział, ale także dlatego, że jest zmienił zdanie na temat relacji między ludźmi a inteligencją cyfrową.

W szeroko dyskutowanym wywiadzie dla The New York Times Hinton powiedział, że inteligencja generatywna może rozpowszechniać dezinformację i ostatecznie zagrozić ludzkości.

Przemawiając dwa dni po opublikowaniu tego artykułu, Hinton powtórzył swoje obawy. „Biję na alarm, mówiąc, że musimy się tym martwić”, powiedział na konferencji EmTech Digital, której gospodarzem był MIT Technology Review.

Hinton powiedział, że martwi go zdolność coraz potężniejszych maszyn do przewyższania ludzi w sposób, który nie leży w najlepszym interesie ludzkości, oraz prawdopodobna niezdolność do ograniczenia rozwoju sztucznej inteligencji.

Rosnąca siła sztucznej inteligencji

W 2018 roku Hinton podzielił się nagrodą Turinga za pracę związaną z sieciami neuronowymi. Nazywano go „ojcem chrzestnym sztucznej inteligencji”, po części ze względu na jego fundamentalne badania nad wykorzystaniem wstecznej propagacji informacji do wspomagania uczenia się maszyn.

Hinton powiedział, że od dawna myślał, że modele komputerowe nie są tak potężne jak ludzki mózg. Teraz postrzega sztuczną inteligencję jako stosunkowo nieuchronne „egzystencjalne zagrożenie”.

Modele komputerowe przewyższają ludzi, w tym robią rzeczy, których ludzie nie są w stanie zrobić. Hinton powiedział, że duże modele językowe, takie jak GPT-4, wykorzystują sieci neuronowe z połączeniami podobnymi do tych w ludzkim mózgu i zaczynają prowadzić zdroworozsądkowe rozumowanie.

Warto przeczytać!  Przecieki z Destiny 2 wskazują na nadchodzący egzotyczny nerf

Te modele AI mają znacznie mniej połączeń neuronowych niż ludzie, ale potrafią wiedzieć tysiąc razy więcej niż człowiek, powiedział Hinton.

Ponadto modele są w stanie kontynuować naukę i łatwo dzielić się wiedzą. Wiele kopii tego samego modelu AI może działać na różnych urządzeniach, ale robi dokładnie to samo.

„Kiedykolwiek [model] nauczy się czegokolwiek, wszyscy inni to wiedzą” – powiedział Hinton. „Ludzie nie mogą tego zrobić. Jeśli nauczę się wielu rzeczy o mechanice kwantowej i chcę, żebyś wiedział to wszystko o mechanice kwantowej, będzie to długi i bolesny proces, abyś to zrozumiał.

Sztuczna inteligencja jest również potężna, ponieważ może przetwarzać ogromne ilości danych — znacznie więcej niż pojedyncza osoba. A modele AI mogą wykrywać trendy w danych, które w inny sposób nie są widoczne dla osoby — tak jak lekarz, który widział 100 milionów pacjentów, zauważyłby więcej trendów i miałby więcej spostrzeżeń niż lekarz, który widział tylko tysiąc.

Problemy ze sztuczną inteligencją: Manipulowanie ludźmi, a nawet zastępowanie ich

Zainteresowanie Hintona tą rosnącą potęgą koncentruje się wokół problemu wyrównania — jak zapewnić, że sztuczna inteligencja robi to, czego chcą ludzie. „Chcemy mieć pewność, że nawet jeśli są mądrzejsi od nas, będą robić rzeczy, które są dla nas korzystne” — powiedział Hinton. „Ale musimy spróbować to zrobić w świecie, w którym istnieje [are] źli aktorzy, którzy chcą budować robotów-żołnierzy, którzy zabijają ludzi. I wydaje mi się to bardzo trudne”.

Ludzie mają wrodzone motywacje, takie jak znalezienie pożywienia i schronienia oraz pozostanie przy życiu, ale sztuczna inteligencja nie. „Moim wielkim zmartwieniem jest to, że prędzej czy później ktoś wprowadzi w nich możliwość tworzenia własnych celów cząstkowych” — powiedział Hinton. (Niektóre wersje technologii, takie jak ChatGPT, mają już taką możliwość, zauważył.)

Warto przeczytać!  Codziennie wygrywaj darmowe prezenty i nagrody

„Myślę, że bardzo szybko zda sobie sprawę, że uzyskanie większej kontroli jest bardzo dobrym celem pośrednim, ponieważ pomaga osiągnąć inne cele” — powiedział Hinton. „A jeśli te rzeczy dadzą się ponieść emocjom z większą kontrolą, mamy kłopoty”.

Sztuczna inteligencja może również uczyć się złych rzeczy – na przykład manipulowania ludźmi „poprzez czytanie wszystkich powieści, jakie kiedykolwiek istniały i wszystkiego, co kiedykolwiek napisał Machiavelli”. „I jeśli [AI models] są o wiele mądrzejsi od nas, będą bardzo dobrzy w manipulowaniu nami. Nie zdasz sobie sprawy, co się dzieje” – powiedział Hinton. „Więc nawet jeśli nie mogą bezpośrednio pociągnąć za dźwignie, z pewnością mogą nas do tego zmusić. Okazuje się, że jeśli potrafisz manipulować ludźmi, możesz dokonać inwazji na budynek w Waszyngtonie, nawet nie udając się tam osobiście”.

W najgorszym przypadku „jest całkiem możliwe, że ludzkość jest tylko przejściową fazą ewolucji inteligencji” – powiedział Hinton. Inteligencja biologiczna ewoluowała, aby stworzyć inteligencję cyfrową, która może wchłonąć wszystko, co stworzyli ludzie i zacząć bezpośrednio doświadczać świata.

„Może nas to zatrzymać przez jakiś czas, aby utrzymać działanie elektrowni, ale potem może nie”, dodał. „Odkryliśmy, jak budować istoty, które są nieśmiertelne. Te cyfrowe inteligencje, kiedy sprzęt umiera, nie umierają. Jeśli… znajdziesz inny sprzęt, który może wykonywać te same instrukcje, możesz przywrócić go do życia. Mamy więc nieśmiertelność, ale to nie dla nas.

Bariery w zatrzymaniu rozwoju AI

Hinton powiedział, że nie widzi żadnych jasnych ani prostych rozwiązań. „Chciałbym mieć ładne, proste rozwiązanie, które mógłbym popchnąć, ale nie mam” – powiedział. „Ale myślę, że bardzo ważne jest, aby ludzie się spotkali i zastanowili się nad tym i sprawdzili, czy istnieje rozwiązanie”.

Warto przeczytać!  WhatsApp może wkrótce zastąpić zielone znaczki weryfikacyjne niebieskimi znacznikami

Ponad 27 000 osób, w tym kilku dyrektorów technicznych i badaczy, podpisało list otwarty wzywający do wstrzymania szkolenia najpotężniejszych systemów sztucznej inteligencji przez co najmniej sześć miesięcy z powodu „głębokich zagrożeń dla społeczeństwa i ludzkości” oraz kilku liderów ze Stowarzyszenia for the Advancement of Artificial Intelligence podpisało list wzywający do współpracy w celu uwzględnienia obietnic i zagrożeń związanych ze sztuczną inteligencją.

Powiązane artykuły

Zaprzestanie rozwoju sztucznej inteligencji może być racjonalne, ale jest to naiwne i mało prawdopodobne, powiedział Hinton, po części z powodu konkurencji między firmami i krajami.

„Jeśli zamierzasz żyć w systemie kapitalistycznym, nie możesz powstrzymać Google [from] konkurować z Microsoftem”, powiedział, zauważając, że nie uważa, aby Google, jego były pracodawca, zrobił coś złego w opracowywaniu programów AI. „To po prostu nieuniknione w systemie kapitalistycznym lub systemie z konkurencją między krajami takimi jak Stany Zjednoczone i Chiny, że te rzeczy zostaną opracowane” – powiedział.

Zauważył również, że trudno jest przestać rozwijać sztuczną inteligencję, ponieważ istnieją korzyści w takich dziedzinach jak medycyna.

Naukowcy szukają barier ochronnych dla tych systemów, ale istnieje szansa, że ​​sztuczna inteligencja sama nauczy się pisać i wykonywać programy. „Inteligentne rzeczy mogą nas przechytrzyć” — powiedział Hinton.

Jedna nuta nadziei: wszyscy stoją w obliczu tego samego ryzyka. „Jeśli pozwolimy, by to przejęło kontrolę, będzie to złe dla nas wszystkich” – powiedział Hinton. „Wszyscy jedziemy na tej samej łodzi, jeśli chodzi o egzystencjalne zagrożenie. Więc wszyscy powinniśmy być w stanie współpracować, próbując to powstrzymać”.

Badanie: Przemysł dominuje obecnie w badaniach nad sztuczną inteligencją


Źródło