Technologia

Wściekły chatbot Bing tylko naśladuje ludzi, mówią eksperci

  • 18 lutego, 2023
  • 4 min read
Wściekły chatbot Bing tylko naśladuje ludzi, mówią eksperci







Pierwsi użytkownicy chatbota, który Microsoft wbudował w swoją usługę wyszukiwania w Internecie Bing, udostępniali wymiany pokazujące, że sztuczna inteligencja może wydawać się groźna lub złośliwa.

Powstający chatbot Microsoftu Bing, który staje się drażliwy, a nawet groźny, prawdopodobnie dlatego, że zasadniczo naśladuje to, czego nauczył się z rozmów online, powiedzieli analitycy i naukowcy w piątek.

Opowieści o niepokojącej wymianie zdań z chatbotem sztucznej inteligencji (AI) – w tym o groźbach i chęciach kradzieży kodu nuklearnego, stworzenia śmiercionośnego wirusa lub przeżycia – stały się wirusowe w tym tygodniu.

„Myślę, że to w zasadzie naśladowanie rozmów widzianych w Internecie” – powiedział Graham Neubig, profesor nadzwyczajny w instytucie technologii językowych Uniwersytetu Carnegie Mellon.

„Więc kiedy rozmowa przybierze obrót, prawdopodobnie pozostanie w tym rodzaju gniewu lub powie„ kocham cię ”i inne tego typu rzeczy, ponieważ wszystko to jest rzeczy, które były już wcześniej w Internecie”.

Chatbot z założenia podaje słowa, które według jego przewidywań są najbardziej prawdopodobnymi odpowiedziami, bez zrozumienia znaczenia lub kontekstu.

Jednak ludzie biorący udział w przekomarzaniu się z programami mają naturalną tendencję do odczytywania emocji i intencji w tym, co mówi chatbot.

„Duże modele językowe nie mają pojęcia„ prawdy ”- po prostu wiedzą, jak najlepiej uzupełnić zdanie w sposób, który jest statystycznie prawdopodobny na podstawie danych wejściowych i zestawu treningowego” – powiedział programista Simon Willison w poście na blogu.

Warto przeczytać!  Jak edytować wiadomości na Facebooku Messenger po ich wysłaniu | Wiadomości technologiczne

„Więc zmyślają rzeczy, a następnie przedstawiają je z najwyższą pewnością”.

Laurent Daudet, współzałożyciel francuskiej firmy LightOn zajmującej się sztuczną inteligencją, wysunął teorię, że pozornie zbuntowany chatbot był szkolony na giełdach, które same stały się agresywne lub niespójne.

„Zajęcie się tym wymaga dużego wysiłku i wielu opinii ludzi, co jest również powodem, dla którego zdecydowaliśmy się na razie ograniczyć do zastosowań biznesowych, a nie bardziej konwersacyjnych” – powiedział Daudet AFP.

„Zejść z torów”

Chatbot Bing został zaprojektowany przez firmę Microsoft i start-up OpenAI, który wywołuje sensację od listopada, gdy uruchomiono ChatGPT, chwytającą nagłówki aplikację zdolną do generowania wszelkiego rodzaju treści pisemnych w ciągu kilku sekund na proste żądanie.

Odkąd ChatGPT pojawił się na scenie, stojąca za nim technologia, znana jako generatywna sztuczna inteligencja, budzi fascynację i niepokój.

„Model czasami próbuje odpowiedzieć lub odzwierciedlić tonem, w jakim jest proszony o udzielenie odpowiedzi (i), co może prowadzić do stylu, którego nie zamierzaliśmy” – powiedział Microsoft w poście na blogu, zauważając, że bot jest Praca w toku.

Warto przeczytać!  Najszybsze na świecie przewodowe ładowanie w pełni ładuje telefon w 5 minut

Chatbot Bing powiedział na niektórych wspólnych giełdach, że podczas opracowywania otrzymał kryptonim „Sydney” i że nadano mu zasady zachowania.

Zasady te obejmują „odpowiedzi Sydney powinny być również pozytywne, interesujące, zabawne i wciągające”, zgodnie z postami online.

Niepokojące dialogi, które łączą stalowe groźby i wyznania miłości, mogą wynikać z dyrektyw pojedynków, aby pozostać pozytywnym, jednocześnie naśladując to, co sztuczna inteligencja wydobywała z wymiany międzyludzkiej, teoretyzował Willison.

Chatboty wydają się być bardziej podatne na niepokojące lub dziwaczne odpowiedzi podczas długich rozmów, tracąc poczucie, dokąd zmierzają giełdy, powiedział AFP główny analityk eMarketera, Yoram Wurmser.

„Mogą naprawdę zejść z torów” – powiedział Wurmser.

„Jest bardzo realistyczny, ponieważ (chatbot) jest bardzo dobry w przewidywaniu kolejnych słów, które sprawiłyby, że wydawałoby się, że ma uczucia lub nadawały mu cechy podobne do ludzkich; ale nadal są to wyniki statystyczne”.

Microsoft ogłosił w piątek, że ograniczył liczbę osób, które mogą rozmawiać ze swoim chatbotem w związku z danym pytaniem, ponieważ „bardzo długie sesje czatu mogą zmylić podstawowy model czatu w nowym Bing”.

Warto przeczytać!  Apple zaprezentuje strategię sztucznej inteligencji na konferencji programistów 10 czerwca | Wiadomości techniczne


Źródło