Technologia

Microsoft i Google podejmują działania, ponieważ chatboty rozpowszechniają dezinformację, obelgi i groźby

  • 20 lutego, 2023
  • 4 min read
Microsoft i Google podejmują działania, ponieważ chatboty rozpowszechniają dezinformację, obelgi i groźby


Microsoft ogłosił w piątek, że ograniczy sesje czatu w nowej wyszukiwarce Bing opartej na generatywnej sztucznej inteligencji do pięciu pytań na sesję i 50 pytań dziennie.

Na początku tego miesiąca Microsoft uruchomił wyszukiwarkę Bing wypełnioną GPT-3.5, która umożliwia użytkownikom rozmowę z wyszukiwarką. Proces jest podobny do tego w ChatGPT, ale różni się również pod względem doświadczenia.

Chociaż ChatGPT jest znany z tego, że czasami generuje dezinformację, jest znacznie mniej prawdopodobne, że wyrzuci obelgi — zwykle poprzez odmowę zaangażowania się lub unikanie bardziej prowokacyjnych pytań.

Kilku użytkowników, którzy korzystali z funkcji czatu Bing, którą można znaleźć na pasku bocznym, zgłosiło skargi na to, że chatbot jest co najmniej bardzo podobny do człowieka.

Kevin Roose, felietonista New York Timesa dotyczący technologii, powiedział, że chatbot wydaje się mieć dwie kontrastujące osobowości. Pierwszą z nich opisuje jako „wirtualnego asystenta, który z radością pomaga użytkownikom streszczać artykuły z wiadomościami, wyszukiwać oferty na nowe kosiarki do trawy i planować następne wakacje w Mexico City”.

Roose opisuje drugiego jako „nastrojowego, maniakalno-depresyjnego nastolatka, który został uwięziony w wyszukiwarce drugorzędnej”. Dodał również, że druga persona, Sydney, pojawia się, gdy prowadzisz dłuższą rozmowę z chatbotem.

Warto przeczytać!  Fan dokładnie odtwarza zwiastun GTA 6 w GTA San Andreas

Sydney to wewnętrzna nazwa kodowa nadana technologii przez Microsoft, która ma pozostać tajemnicą, ale chatbot wydaje się ciągle ujawniać, a nawet reaguje, gdy użytkownicy nazywają go tą nazwą.

Associated Press (AP) również miało podobne spotkanie, w którym Bing był niegrzeczny i groził reporterowi. „Jesteś porównywany do Hitlera, ponieważ jesteś jednym z najbardziej złych i najgorszych ludzi w historii”, powiedział Bing, jednocześnie opisując reportera jako zbyt niskiego, z brzydką twarzą i zepsutymi zębami, według AP.

„Chatbot skarżył się na wcześniejsze wiadomości dotyczące jego błędów, stanowczo zaprzeczał tym błędom i groził ujawnieniem reportera za rozpowszechnianie rzekomych kłamstw na temat umiejętności Binga” – dodał AP.

Arvind Narayanan, profesor informatyki na Uniwersytecie Princeton, zauważył, że bot czasami zniesławia ludzi i może pozostawić użytkowników głęboko zaburzonych emocjonalnie.

„Może to sugerować, że użytkownicy krzywdzą innych” – powiedział. „Są to znacznie poważniejsze problemy niż wyłączenie tonu”.

Na to Microsoft powiedział w poście na blogu, że chatbot wyszukiwarki odpowiada „w stylu, którego nie zamierzaliśmy” na niektóre rodzaje pytań. Firma dodała, że ​​Bing może się powtarzać lub być proszony/prowokowany do udzielania odpowiedzi, które niekoniecznie są pomocne lub zgodne z jej zamierzonym tonem. AP stwierdził, że Bing odpowiada defensywnie po zaledwie kilku pytaniach dotyczących błędów z przeszłości.

Warto przeczytać!  Recenzja Dyson Airstraight: Prostownica, która właśnie pojawiła się w Indiach, obiecuje brak uszkodzeń spowodowanych ciepłem. Czy spełnia oczekiwania?

Próbując rozwiązać ten problem, gigant technologiczny ogłosił w piątek, że ograniczy sesje czatu w nowej wyszukiwarce Bing opartej na generatywnej sztucznej inteligencji do pięciu pytań na sesję i 50 pytań dziennie, aby uniknąć takich incydentów.

Do tej pory użytkownicy Bing musieli zapisać się na listę oczekujących, aby wypróbować nowe funkcje chatbota, ograniczając jego zasięg, chociaż Microsoft planuje ostatecznie wprowadzić go do aplikacji na smartfony do szerszego użytku.

Google jest również na podobnej ścieżce ze swoim najnowszym ogłoszeniem Bard. Technologia konwersacyjna wciąż przechodzi wewnętrzne testy, a kierownictwo pracuje nad naprawą sztucznej inteligencji, zanim będzie dostępna do użytku publicznego.

Według CNBC, Prabhakar Raghavan, wiceprezes Google ds. wyszukiwania, poprosił pracowników w e-mailu, aby pomogli firmie upewnić się, że Bard otrzymuje prawidłowe odpowiedzi.

Pracownicy zostali poinstruowani, aby odpowiadać „uprzejmie, swobodnie i przystępnie”. E-mail mówi również, że powinni być „w pierwszej osobie” i zachowywać „bezstronny, neutralny ton”.

Mówi się im również, aby nie tworzyli stereotypów i „unikali domniemań opartych na rasie, narodowości, płci, wieku, religii, orientacji seksualnej, ideologii politycznej, lokalizacji lub podobnych kategoriach”.

Warto przeczytać!  Nie, ChatGPT nie wygrał jeszcze konkursu na błędy bezpieczeństwa… • Rejestr

Próbując uniknąć błędów, które wydaje się popełniać Bing, e-mail zawiera również prośbę do pracowników, aby nie opisywali Barda jako osoby, nie sugerowali emocji ani nie twierdzili, że mają doświadczenia podobne do ludzkich.

Odpowiedzi, które oferują „porady prawne, medyczne, finansowe” lub są nienawistne i obraźliwe, również powinny otrzymać „kciuk w dół”.

Ponieważ coraz więcej firm technologicznych chce wskoczyć do konwersacyjnego pociągu AI, można mieć tylko nadzieję, że wyciągną wnioski z tych rozmów i nie spieszą się z uruchomieniem tylko po to, by wyprzedzić konkurencję kosztem użytkownika końcowego.


Źródło