Nauka i technika

„Ojciec chrzestny sztucznej inteligencji” opuszcza Google, ostrzega przed niebezpieczeństwami technologicznymi

  • 2 maja, 2023
  • 5 min read
„Ojciec chrzestny sztucznej inteligencji” opuszcza Google, ostrzega przed niebezpieczeństwami technologicznymi


MATT O’BRIEN i WYATTE GRANTHAM-PHILIPS — AP Business Reporters

WASHINGTON (AP) – Alarmowanie o sztucznej inteligencji stało się popularną rozrywką w erze ChatGPT, podejmowaną przez tak różne osobistości, jak przemysłowiec Elon Musk, lewicowy intelektualista Noam Chomsky i 99-letni emerytowany mąż stanu Henry Kissinger.

Ale to obawy osób z wewnątrz społeczności badaczy sztucznej inteligencji przyciągają szczególną uwagę. Pionierski badacz i tak zwany „ojciec chrzestny sztucznej inteligencji” Geoffrey Hinton zrezygnował z pracy w Google, aby móc swobodniej mówić o zagrożeniach związanych z technologią, którą współtworzył.

W ciągu swojej trwającej od dziesięcioleci kariery pionierskie prace Hintona nad głębokim uczeniem i sieciami neuronowymi pomogły położyć podwaliny pod większość technologii sztucznej inteligencji, którą widzimy dzisiaj.

Ludzie też czytają…

W ostatnich miesiącach nastąpił spazm wprowadzeń sztucznej inteligencji. Startup OpenAI z siedzibą w San Francisco, wspierana przez Microsoft firma stojąca za ChatGPT, wprowadziła w marcu swój najnowszy model sztucznej inteligencji, GPT-4. Inni giganci technologiczni zainwestowali w konkurencyjne narzędzia – w tym Google „Bard”.

Niektóre niebezpieczeństwa związane z chatbotami AI są „dość przerażające” – powiedział Hinton w rozmowie z BBC. — W tej chwili nie są bardziej inteligentni od nas, o ile wiem. Ale myślę, że wkrótce mogą być.

Warto przeczytać!  Badanie genetyczne rzuca światło na adaptację upraw herbaty i strukturę populacji

W wywiadzie dla MIT Technology Review Hinton wskazał również na „złych aktorów”, którzy mogą wykorzystywać sztuczną inteligencję w sposób, który może mieć szkodliwy wpływ na społeczeństwo – na przykład manipulowanie wyborami lub podżeganie do przemocy.

75-letni Hinton mówi, że przeszedł na emeryturę z Google, aby móc otwarcie mówić o potencjalnych zagrożeniach jako ktoś, kto już nie pracuje dla giganta technologicznego.

„Chcę rozmawiać o kwestiach związanych z bezpieczeństwem sztucznej inteligencji, nie martwiąc się o to, jak współdziała ona z biznesem Google” – powiedział MIT Technology Review. „Dopóki płacą mi Google, nie mogę tego robić”.

Odkąd ogłosił swoje odejście, Hinton utrzymuje że Google „postąpił bardzo odpowiedzialnie” w odniesieniu do sztucznej inteligencji. Powiedział MIT Technology Review, że jest też „wiele dobrych rzeczy w Google”, o których chciałby porozmawiać – ale te komentarze byłyby „dużo bardziej wiarygodne, gdybym nie był już w Google”.

Google potwierdziło, że Hinton wycofał się ze swojej roli po 10 latach nadzorowania zespołu badawczego Google w Toronto.

Hinton odmówił dalszego komentarza we wtorek, ale powiedział, że porozmawia o tym więcej na środowej konferencji.

Sednem debaty na temat stanu sztucznej inteligencji jest to, czy główne zagrożenia są w przyszłości, czy teraźniejszości. Z jednej strony są hipotetyczne scenariusze ryzyka egzystencjalnego spowodowanego przez komputery, które zastępują ludzką inteligencję. Z drugiej strony są obawy dotyczące zautomatyzowanej technologii, która jest już szeroko wdrażana przez firmy i rządy i może powodować szkody w świecie rzeczywistym.

Warto przeczytać!  Multimodalna analiza całego genomu wskazuje trudne do zdiagnozowania zaburzenia rozwojowe

„Na dobre czy na złe, to, co zrobił chatbot, sprawiło, że sztuczna inteligencja stała się ogólnokrajową i międzynarodową rozmową, która obejmuje nie tylko ekspertów i programistów AI”, powiedziała Alondra Nelson, która do lutego kierowała Biurem Nauki i Polityka technologiczna i jej dążenie do tworzenia wytycznych dotyczących odpowiedzialnego korzystania z narzędzi sztucznej inteligencji.

„AI nie jest już abstrakcją i myślę, że mamy tego rodzaju otwarcie, aby odbyć nową rozmowę o tym, jak chcemy, aby wyglądała demokratyczna przyszłość i przyszłość bez wyzysku z technologią” – powiedział Nelson w wywiadzie z zeszłego miesiąca .

Wielu naukowców zajmujących się sztuczną inteligencją od dawna wyrażało zaniepokojenie rasowymi, płciowymi i innymi formami uprzedzeń w systemach sztucznej inteligencji, w tym dużymi modelami językowymi opartymi na tekście, które są szkolone na ogromnych zasobach pisma ludzkiego i mogą wzmacniać dyskryminację istniejącą w społeczeństwie.

„Musimy cofnąć się o krok i naprawdę pomyśleć o tym, czyje potrzeby są stawiane na pierwszym miejscu w dyskusji o zagrożeniach” – powiedziała Sarah Myers West, dyrektor zarządzająca organizacji non-profit AI Now Institute. „Szkody wyrządzane obecnie przez systemy sztucznej inteligencji nie rozkładają się równomiernie. To bardzo zaostrza istniejące wzorce nierówności”.

Warto przeczytać!  Iran jest gotowy pomóc Turcji w uruchomieniu banku genetycznego

Hinton był jednym z trzech pionierów sztucznej inteligencji, którzy w 2019 roku zdobyli nagrodę Turinga, zaszczyt, który stał się znany jako wersja Nagrody Nobla w branży technologicznej. Pozostali dwaj zwycięzcy, Yoshua Bengio i Yann LeCun, również wyrazili obawy co do przyszłości sztucznej inteligencji.

Bengio, profesor na Uniwersytecie w Montrealu, podpisał pod koniec marca petycję wzywającą firmy technologiczne do wyrażenia zgody na 6-miesięczną przerwę w opracowywaniu potężnych systemów sztucznej inteligencji, podczas gdy LeCun, czołowy naukowiec zajmujący się sztuczną inteligencją w Meta, matce Facebooka, podjął bardziej optymistyczne podejście.

Reporter AP Technology, Matt O’Brien, zgłosił się z Cambridge w stanie Massachusetts.

Prawa autorskie 2023 Associated Press. Wszelkie prawa zastrzeżone. Ten materiał nie może być publikowany, transmitowany, przepisywany ani redystrybuowany bez pozwolenia.




Źródło