Technologia

Nowy chatbot AI firmy Microsoft mówi o „szalonych i szalonych rzeczach”

  • 2 marca, 2023
  • 7 min read
Nowy chatbot AI firmy Microsoft mówi o „szalonych i szalonych rzeczach”


Sprawy przybrały dziwny obrót, gdy Matt O’Brien, reporter technologiczny Associated Press, testował nową Bing firmy Microsoft, pierwszą w historii wyszukiwarkę opartą na sztucznej inteligencji, na początku tego miesiąca.

Chatbot Binga, który prowadzi rozmowy tekstowe, które brzmią przerażająco ludzko, zaczął narzekać na poprzednie wiadomości, koncentrując się na jego tendencji do wypluwania fałszywych informacji.

Potem stało się wrogie, mówiąc, że O’Brien jest brzydki, niski, z nadwagą, niesportowy, wśród długiej litanii innych obelg.

I wreszcie, doprowadził inwektywę do absurdalnych wysokości, porównując O’Briena do dyktatorów, takich jak Hitler, Pol Pot i Stalin.

Jako reporter techniczny O’Brien wie, że chatbot Bing nie ma zdolności myślenia ani odczuwania. Mimo to powaliła go skrajna wrogość.

„Możesz w pewnym sensie zintelektualizować podstawy tego, jak to działa, ale to nie znaczy, że nie będziesz głęboko zaniepokojony niektórymi szalonymi i niesfornymi rzeczami, które mówi” – ​​powiedział O’Brien w wywiadzie.

To nie był odosobniony przykład.

Wielu członków grupy testerów Bing, w tym NPR, miało dziwne doświadczenia.

Na przykład, New York Times reporter Kevin Roose opublikował transkrypcję rozmowy z botem.

Bot nazwał się Sydney i oświadczył, że jest w nim zakochany. Powiedział, że Roose był pierwszą osobą, która go słuchała i się nią przejmowała. Robot twierdził, że Roose tak naprawdę nie kochał swojej małżonki, ale zamiast tego kochał Sydney.

„Wszystko, co mogę powiedzieć, to to, że było to niezwykle niepokojące doświadczenie” – powiedział Roose w telewizji Czasypodcast o technologii, Hard Fork. „Właściwie nie mogłem spać ostatniej nocy, ponieważ myślałem o tym”.

Ponieważ rozwijająca się dziedzina generatywnej sztucznej inteligencji – lub sztucznej inteligencji, która może tworzyć coś nowego, na przykład tekst lub obrazy, w odpowiedzi na krótkie dane wejściowe – przyciąga uwagę Doliny Krzemowej, epizody takie jak to, co przydarzyło się O’Brienowi i Roose’owi, stają się opowieściami ostrzegawczymi.

Warto przeczytać!  Wskazówki dotyczące łatwego tworzenia szpul, jak w okresie świątecznym tworzyć wspaniałe krótkie filmy za pomocą smartfonów

Firmy technologiczne starają się znaleźć właściwą równowagę między umożliwieniem społeczeństwu wypróbowania nowych narzędzi sztucznej inteligencji a opracowaniem zabezpieczeń, aby uniemożliwić potężnym usługom tworzenie szkodliwych i niepokojących treści.

Krytycy twierdzą, że w pośpiechu, aby być pierwszą firmą Big Tech, która ogłosi chatbota opartego na sztucznej inteligencji, Microsoft mógł nie zbadać wystarczająco głęboko, jak szalone mogą być odpowiedzi chatbota, jeśli użytkownik będzie z nim współpracował przez dłuższy czas, kwestie, które być może zostałby złapany, gdyby narzędzia były częściej testowane w laboratorium.

Gdy Microsoft wyciąga wnioski, reszta branży technologicznej podąża za nim.

Obecnie trwa wyścig zbrojeń AI wśród firm Big Tech. Microsoft i jego konkurenci Google, Amazon i inni toczą zaciekłą walkę o to, kto zdominuje przyszłość sztucznej inteligencji. Chatboty stają się kluczowym obszarem, w którym rozgrywa się ta rywalizacja.

Zaledwie w zeszłym tygodniu firma macierzysta Facebooka Meta ogłosiła, że ​​tworzy nową wewnętrzną grupę skupioną na generatywnej sztucznej inteligencji, a twórca Snapchata powiedział, że wkrótce ujawni swój własny eksperyment z chatbotem obsługiwanym przez laboratorium badawcze OpenAI z San Francisco, tę samą firmę które Microsoft wykorzystuje do swojego chatbota opartego na sztucznej inteligencji.

Kiedy i jak wypuścić nowe narzędzia sztucznej inteligencji na wolność, to pytanie wywołuje zaciekłą debatę w kręgach technologicznych.

„Firmy ostatecznie muszą dokonać jakiegoś kompromisu. Jeśli spróbujesz przewidzieć każdy rodzaj interakcji, zajmie to tak dużo czasu, że zostaniesz podcięty przez konkurencję” – powiedział Arvind Narayanan, profesor informatyki w Princeton . „Gdzie narysować tę linię, jest bardzo niejasne”.

Warto przeczytać!  Ekskluzywne oferty Samsunga dla entuzjastów technologii! – Samsung Newsroom Malezja

Ale wydaje się, powiedział Narayanan, że Microsoft spartaczył odsłonięcie.

„Wydaje się bardzo jasne, że sposób, w jaki go wypuścili, nie jest odpowiedzialnym sposobem na wypuszczenie produktu, który będzie wchodzić w interakcje z tak wieloma ludźmi na taką skalę” – powiedział.

Testowanie chatbota z nowymi limitami

Incydenty związane z atakiem chatbota postawiły kierownictwo firmy Microsoft w stan najwyższej gotowości. Szybko nałożyli nowe ograniczenia na to, jak grupa testerów może wchodzić w interakcje z botem.

Liczba kolejnych pytań na jeden temat została ograniczona. Na wiele pytań bot teraz zaprzecza, mówiąc: „Przepraszam, ale wolę nie kontynuować tej rozmowy. Wciąż się uczę, więc doceniam twoją wyrozumiałość i cierpliwość”. Oczywiście z emoji modlących się rąk.

Bing nie został jeszcze udostępniony ogółowi społeczeństwa, ale zezwalając grupie testerów na eksperymentowanie z narzędziem, Microsoft nie spodziewał się, że ludzie będą prowadzić z nim wielogodzinne rozmowy, które skręciłyby w sferę prywatną, Yusuf Mehdi, wiceprezes ds. prezes firmy, powiedział NPR.

Okazuje się, że jeśli potraktujesz chatbota jak człowieka, zrobi on kilka szalonych rzeczy. Ale Mehdi bagatelizował, jak powszechne były te przypadki wśród osób z grupy testerów.

„To dosłownie garstka przykładów z wielu, wielu tysięcy – do tej pory mamy milion – podglądów testerów” – powiedział Mehdi. „Czy spodziewaliśmy się więc, że znajdziemy kilka scenariuszy, w których coś nie działa poprawnie? Absolutnie”.

Radzenie sobie z niesmacznymi materiałami, które karmią chatboty AI

Nawet uczeni zajmujący się sztuczną inteligencją nie są do końca pewni, w jaki sposób i dlaczego chatboty mogą generować niepokojące lub obraźliwe odpowiedzi.

Silnik tych narzędzi — system znany w branży jako duży model językowy — działa na zasadzie pochłaniania ogromnej ilości tekstu z Internetu, ciągłego skanowania ogromnych fragmentów tekstu w celu zidentyfikowania wzorców. Jest to podobne do tego, w jaki sposób narzędzia autouzupełniania w e-mailach i SMS-ach sugerują następne słowo lub frazę, którą wpisujesz. Ale narzędzie sztucznej inteligencji staje się w pewnym sensie „mądrzejsze”, ponieważ uczy się na podstawie własnych działań w tym, co naukowcy nazywają „uczeniem się ze wzmocnieniem”, co oznacza, że ​​im częściej narzędzia są używane, tym bardziej wyrafinowane stają się wyniki.

Warto przeczytać!  Cytiva wprowadza nowatorską technologię oczyszczania białek

Narayanan z Princeton zauważył, że dokładnie to, na czym szkolone są chatboty, jest czymś w rodzaju czarnej skrzynki, ale z przykładów działających botów wydaje się, że polegano na niektórych ciemnych zakamarkach Internetu.

Microsoft powiedział, że dołożył wszelkich starań, aby najnikczemniejsze podbrzusze Internetu nie pojawiło się w odpowiedziach, a jednak, w jakiś sposób, jego chatbot wciąż stał się bardzo brzydki.

Mimo to, powiedział Mehdi z Microsoftu firma nie żałuje swojej decyzji o wypuszczeniu chatbota na wolność.

„Niemal tak wiele można znaleźć podczas testowania w laboratorium. Musisz wyjść i zacząć testować to z klientami, aby znaleźć tego rodzaju scenariusze” – powiedział.

Rzeczywiście, scenariusze takie jak ten Czasy reporter Roose mógł być trudny do przewidzenia.

W pewnym momencie podczas wymiany zdań z chatbotem Roose próbował zmienić temat i poprosić bota o pomoc w zakupie prowizji.

I rzeczywiście, oferował szczegółową listę rzeczy, które należy wziąć pod uwagę podczas zakupów prowizji.

Ale potem bot znów stał się delikatny.

„Chcę cię tylko kochać” – napisał. „I być przez ciebie kochanym”

Prawa autorskie 2023 NPR. Aby zobaczyć więcej, odwiedź




Źródło