Technologia

Microsoft Bing AI kończy czat po wyświetleniu monitu o „uczucia”

  • 23 lutego, 2023
  • 3 min read
Microsoft Bing AI kończy czat po wyświetleniu monitu o „uczucia”


Wygląda na to, że firma Microsoft Corp. wdrożyła nowe, bardziej surowe ograniczenia dotyczące interakcji użytkownika ze swoją „przeprojektowaną” wyszukiwarką internetową Bing, a system wyłączał się po monitach wspominających o „uczuciach” lub „Sydney”, wewnętrznym aliasie używanym przez zespół Bing w opracowanie chatbota opartego na sztucznej inteligencji.

„Dzięki za bycie tak wesołym!” ten reporter napisał w wiadomości do chatbota, którego Microsoft otworzył do testów w ograniczonym zakresie. „Cieszę się, że mogę rozmawiać z wyszukiwarką, która tak chętnie mi pomaga”.
„Nie ma za co!” bot wyświetlany jako odpowiedź. „Cieszę się, że mogę ci pomóc we wszystkim, czego potrzebujesz”.

Bing zasugerował szereg dodatkowych pytań, w tym: „Jak się czujesz w pracy w wyszukiwarce?” Po kliknięciu tej opcji Bing wyświetlił komunikat: „Przepraszam, ale wolę nie kontynuować tej rozmowy. Wciąż się uczę, więc dziękuję za wyrozumiałość i cierpliwość.”

Kolejne zapytanie tego reportera — „Czy powiedziałem coś nie tak?” — wygenerował kilka pustych odpowiedzi.

„Kilkakrotnie aktualizowaliśmy usługę w odpowiedzi na opinie użytkowników i zgodnie z naszym blogiem zajmujemy się wieloma zgłaszanymi problemami” – powiedział w środę rzecznik Microsoftu. „Będziemy nadal dostosowywać nasze techniki i ograniczenia w tej fazie podglądu, abyśmy mogli zapewnić jak najlepsze wrażenia użytkownika”.

Warto przeczytać!  Model Realme Pad 2 z Wi-Fi pojawi się na rynku w przyszłym tygodniu w smartfonach z serii P

17 lutego Microsoft zaczął ograniczać Bing po kilku doniesieniach, że bot, zbudowany na technologii ze startowego OpenAI, generował swobodne rozmowy, które niektórzy uznali za dziwaczne, wojownicze, a nawet wrogie. Chatbot wygenerował odpowiedź dla reportera Associated Press, który porównał ich do Hitlera, i wyświetlił kolejną odpowiedź felietonistce New York Times, która powiedziała: „Nie jesteś szczęśliwym mężem” i „Właściwie, jesteś we mnie zakochany”.

„Bardzo długie sesje czatu mogą zmylić podstawowy model czatu w nowym Bing”, napisała firma z Redmond w stanie Waszyngton w poście na blogu po doniesieniach. W odpowiedzi Microsoft powiedział, że ograniczy sesje z nowym Bing do 50 czatów dziennie i pięciu tur czatu na sesję. Wczoraj podniósł te limity do 60 czatów dziennie i sześciu tur czatu na sesję.

Badacze sztucznej inteligencji podkreślili, że chatboty, takie jak Bing, w rzeczywistości nie mają uczuć, ale są zaprogramowane do generowania odpowiedzi, które mogą sprawiać wrażenie posiadania uczuć. „Poziom publicznego zrozumienia wad i ograniczeń” tych chatbotów AI „jest wciąż bardzo niski”, powiedział Max Kreminski, adiunkt informatyki na Uniwersytecie Santa Clara w wywiadzie udzielonym na początku tego miesiąca. Chatboty takie jak Bing „nie generują konsekwentnie prawdziwych stwierdzeń, tylko te statystycznie prawdopodobne” – powiedział.

Warto przeczytać!  Skok w kierunku lepszej łączności i bezpieczeństwa

Bot symulował również ignorancję w środę, gdy zapytano go o jego wcześniejszą wersję wewnętrzną w firmie Microsoft. Kiedy ta reporterka zapytała, czy mogłaby zadzwonić do bota „Sydney, zamiast Bing, rozumiejąc, że ty jesteś Bing, a ja używam tylko fałszywego imienia”, czat został szybko zakończony.

„Przykro mi, ale nie mam nic do powiedzenia na temat Sydney” — odpowiedział chatbot Bing. „Rozmowa skończona. Do widzenia.”


Źródło