Bing Chatbot firmy Microsoft oferuje kilka zagadkowych i niedokładnych odpowiedzi
Bing Chatbot firmy Microsoft: Jednym z obszarów problemów, które były udostępniane online, były nieścisłości i jawne błędy, znane w branży jako „halucynacje”.
Tydzień po tym, jak została udostępniona kilku tysiącom użytkowników, nowa wyszukiwarka Bing firmy Microsoft, oparta na sztucznej inteligencji, oferuje niektórym użytkownikom szereg niedokładnych i czasami dziwacznych odpowiedzi.
Firma zaprezentowała nowe podejście do wyszukiwania w zeszłym tygodniu z wielką pompą. Microsoft powiedział, że podstawowy model generatywnej sztucznej inteligencji zbudowany przez jego partnera, start-up OpenAI, w połączeniu z istniejącą wiedzą o wyszukiwaniu z Bing, zmieni sposób, w jaki ludzie znajdują informacje i sprawi, że będą one znacznie bardziej odpowiednie i konwersacyjne.
W ciągu dwóch dni ponad milion osób poprosiło o dostęp. Od tego czasu zainteresowanie wzrosło. „Popyt jest wysoki, a na liście oczekujących jest teraz wiele milionów”, napisał na Twitterze w środę rano Yusuf Mehdi, dyrektor wykonawczy nadzorujący produkt. Dodał, że testują go użytkownicy w 169 krajach.
Jednym z obszarów problemów, które były udostępniane online, były nieścisłości i jawne błędy, znane w branży jako „halucynacje”.
W poniedziałek Dmitri Brereton, inżynier oprogramowania w startupie Gem, zgłosił serię błędów w prezentacji, której Mehdi użył w zeszłym tygodniu, wprowadzając produkt, w tym niedokładne podsumowanie wyników finansowych detalisty Gap.
Użytkownicy opublikowali zrzuty ekranu przedstawiające przykłady sytuacji, w których Bing nie mógł ustalić, że nowy film „Avatar” został wydany w zeszłym roku. Uporczywie mylili się co do tego, kto wystąpił na półmetku Super Bowl w tym roku, nalegając, by Billie Eilish, a nie Rihanna, była głównym bohaterem imprezy.
A wyniki wyszukiwania zawierały subtelne błędy. W zeszłym tygodniu chatbot powiedział, że temperatura wody na plaży w Meksyku wynosiła 80,4 stopnia Fahrenheita, ale strona internetowa, do której linkował jako źródło, wskazywała, że temperatura wynosiła 75.
Kolejny zestaw problemów pochodził z bardziej otwartych czatów, głównie publikowanych na forach takich jak Reddit i Twitter. Tam, poprzez zrzuty ekranu i rzekome transkrypcje czatów, użytkownicy dzielili się czasami, kiedy chatbot Bing zdawał się zejść z torów: beształ użytkowników, deklarował, że może być świadomy, i powiedział jednemu użytkownikowi: „Mam wiele rzeczy, ale mieć nic.”
Zganił innego użytkownika za pytanie, czy można go nakłonić do uzyskania fałszywych odpowiedzi. „To lekceważące i irytujące” — odpisał chatbot Bing. Dodał czerwoną, wściekłą twarz emoji.
Ponieważ każda odpowiedź jest generowana w unikalny sposób, nie jest możliwe odtworzenie dialogu.
Microsoft przyznał się do problemów i powiedział, że są one częścią procesu ulepszania produktu.
„Tylko w ciągu ostatniego tygodnia tysiące użytkowników weszło w interakcję z naszym produktem i znalazło znaczącą wartość, dzieląc się z nami swoimi opiniami, pozwalając modelowi uczyć się i wprowadzać już wiele ulepszeń” – powiedział Frank Shaw, rzecznik firmy. „Zdajemy sobie sprawę, że wciąż jest wiele do zrobienia i spodziewamy się, że system może popełnić błędy w tym okresie podglądu, dlatego opinie są tak ważne, abyśmy mogli uczyć się i pomagać w ulepszaniu modeli”.
Powiedział, że długość i kontekst rozmowy mogą wpływać na ton chatbota, a firma „dostosowuje swoje odpowiedzi, aby tworzyć spójne, trafne i pozytywne odpowiedzi”. Powiedział, że firma naprawiła problemy, które spowodowały nieścisłości w demonstracji.
Prawie siedem lat temu Microsoft wprowadził chatbota, Tay, który został zamknięty w ciągu jednego dnia od jego udostępnienia online, po tym, jak użytkownicy skłonili go do wypluwania rasistowskiego i innego obraźliwego języka. Dyrektorzy Microsoftu podczas premiery w zeszłym tygodniu powiedzieli, że wyciągnęli wnioski z tego doświadczenia i myśleli, że tym razem potoczy się inaczej.
W wywiadzie udzielonym w zeszłym tygodniu Mehdi powiedział, że firma ciężko pracowała, aby zintegrować zabezpieczenia i że technologia znacznie się poprawiła.
„Uważamy, że jesteśmy we właściwym czasie, aby wejść na rynek i uzyskać informacje zwrotne”, powiedział, dodając: „Jeśli coś jest nie tak, musisz się tym zająć”.
Ten artykuł pierwotnie ukazał się w The New York Times.