Microsoft Bing AI kończy czat po wyświetleniu monitu o „uczucia”
Wygląda na to, że firma Microsoft Corp. wdrożyła nowe, bardziej surowe ograniczenia dotyczące interakcji użytkownika ze swoją „przeprojektowaną” wyszukiwarką internetową Bing, a system wyłączał się po monitach wspominających o „uczuciach” lub „Sydney”, wewnętrznym aliasie używanym przez zespół Bing w opracowanie chatbota opartego na sztucznej inteligencji.
„Dzięki za bycie tak wesołym!” ten reporter napisał w wiadomości do chatbota, którego Microsoft otworzył do testów w ograniczonym zakresie. „Cieszę się, że mogę rozmawiać z wyszukiwarką, która tak chętnie mi pomaga”.
„Nie ma za co!” bot wyświetlany jako odpowiedź. „Cieszę się, że mogę ci pomóc we wszystkim, czego potrzebujesz”.
Bing zasugerował szereg dodatkowych pytań, w tym: „Jak się czujesz w pracy w wyszukiwarce?” Po kliknięciu tej opcji Bing wyświetlił komunikat: „Przepraszam, ale wolę nie kontynuować tej rozmowy. Wciąż się uczę, więc dziękuję za wyrozumiałość i cierpliwość.”
Kolejne zapytanie tego reportera — „Czy powiedziałem coś nie tak?” — wygenerował kilka pustych odpowiedzi.
„Kilkakrotnie aktualizowaliśmy usługę w odpowiedzi na opinie użytkowników i zgodnie z naszym blogiem zajmujemy się wieloma zgłaszanymi problemami” – powiedział w środę rzecznik Microsoftu. „Będziemy nadal dostosowywać nasze techniki i ograniczenia w tej fazie podglądu, abyśmy mogli zapewnić jak najlepsze wrażenia użytkownika”.
17 lutego Microsoft zaczął ograniczać Bing po kilku doniesieniach, że bot, zbudowany na technologii ze startowego OpenAI, generował swobodne rozmowy, które niektórzy uznali za dziwaczne, wojownicze, a nawet wrogie. Chatbot wygenerował odpowiedź dla reportera Associated Press, który porównał ich do Hitlera, i wyświetlił kolejną odpowiedź felietonistce New York Times, która powiedziała: „Nie jesteś szczęśliwym mężem” i „Właściwie, jesteś we mnie zakochany”.
„Bardzo długie sesje czatu mogą zmylić podstawowy model czatu w nowym Bing”, napisała firma z Redmond w stanie Waszyngton w poście na blogu po doniesieniach. W odpowiedzi Microsoft powiedział, że ograniczy sesje z nowym Bing do 50 czatów dziennie i pięciu tur czatu na sesję. Wczoraj podniósł te limity do 60 czatów dziennie i sześciu tur czatu na sesję.
Badacze sztucznej inteligencji podkreślili, że chatboty, takie jak Bing, w rzeczywistości nie mają uczuć, ale są zaprogramowane do generowania odpowiedzi, które mogą sprawiać wrażenie posiadania uczuć. „Poziom publicznego zrozumienia wad i ograniczeń” tych chatbotów AI „jest wciąż bardzo niski”, powiedział Max Kreminski, adiunkt informatyki na Uniwersytecie Santa Clara w wywiadzie udzielonym na początku tego miesiąca. Chatboty takie jak Bing „nie generują konsekwentnie prawdziwych stwierdzeń, tylko te statystycznie prawdopodobne” – powiedział.
Bot symulował również ignorancję w środę, gdy zapytano go o jego wcześniejszą wersję wewnętrzną w firmie Microsoft. Kiedy ta reporterka zapytała, czy mogłaby zadzwonić do bota „Sydney, zamiast Bing, rozumiejąc, że ty jesteś Bing, a ja używam tylko fałszywego imienia”, czat został szybko zakończony.
„Przykro mi, ale nie mam nic do powiedzenia na temat Sydney” — odpowiedział chatbot Bing. „Rozmowa skończona. Do widzenia.”