Technologia

Bing Chatbot firmy Microsoft oferuje kilka zagadkowych i niedokładnych odpowiedzi

  • 16 lutego, 2023
  • 4 min read
Bing Chatbot firmy Microsoft oferuje kilka zagadkowych i niedokładnych odpowiedzi


Bing Chatbot firmy Microsoft: Jednym z obszarów problemów, które były udostępniane online, były nieścisłości i jawne błędy, znane w branży jako „halucynacje”.

Tydzień po tym, jak została udostępniona kilku tysiącom użytkowników, nowa wyszukiwarka Bing firmy Microsoft, oparta na sztucznej inteligencji, oferuje niektórym użytkownikom szereg niedokładnych i czasami dziwacznych odpowiedzi.

Firma zaprezentowała nowe podejście do wyszukiwania w zeszłym tygodniu z wielką pompą. Microsoft powiedział, że podstawowy model generatywnej sztucznej inteligencji zbudowany przez jego partnera, start-up OpenAI, w połączeniu z istniejącą wiedzą o wyszukiwaniu z Bing, zmieni sposób, w jaki ludzie znajdują informacje i sprawi, że będą one znacznie bardziej odpowiednie i konwersacyjne.

W ciągu dwóch dni ponad milion osób poprosiło o dostęp. Od tego czasu zainteresowanie wzrosło. „Popyt jest wysoki, a na liście oczekujących jest teraz wiele milionów”, napisał na Twitterze w środę rano Yusuf Mehdi, dyrektor wykonawczy nadzorujący produkt. Dodał, że testują go użytkownicy w 169 krajach.

Jednym z obszarów problemów, które były udostępniane online, były nieścisłości i jawne błędy, znane w branży jako „halucynacje”.

W poniedziałek Dmitri Brereton, inżynier oprogramowania w startupie Gem, zgłosił serię błędów w prezentacji, której Mehdi użył w zeszłym tygodniu, wprowadzając produkt, w tym niedokładne podsumowanie wyników finansowych detalisty Gap.

Warto przeczytać!  Drugi dodatek do gry Forza Horizon 5, Rally Adventure, pojawi się w marcu

Użytkownicy opublikowali zrzuty ekranu przedstawiające przykłady sytuacji, w których Bing nie mógł ustalić, że nowy film „Avatar” został wydany w zeszłym roku. Uporczywie mylili się co do tego, kto wystąpił na półmetku Super Bowl w tym roku, nalegając, by Billie Eilish, a nie Rihanna, była głównym bohaterem imprezy.

A wyniki wyszukiwania zawierały subtelne błędy. W zeszłym tygodniu chatbot powiedział, że temperatura wody na plaży w Meksyku wynosiła 80,4 stopnia Fahrenheita, ale strona internetowa, do której linkował jako źródło, wskazywała, że ​​temperatura wynosiła 75.

Kolejny zestaw problemów pochodził z bardziej otwartych czatów, głównie publikowanych na forach takich jak Reddit i Twitter. Tam, poprzez zrzuty ekranu i rzekome transkrypcje czatów, użytkownicy dzielili się czasami, kiedy chatbot Bing zdawał się zejść z torów: beształ użytkowników, deklarował, że może być świadomy, i powiedział jednemu użytkownikowi: „Mam wiele rzeczy, ale mieć nic.”

Zganił innego użytkownika za pytanie, czy można go nakłonić do uzyskania fałszywych odpowiedzi. „To lekceważące i irytujące” — odpisał chatbot Bing. Dodał czerwoną, wściekłą twarz emoji.

Warto przeczytać!  PS5 i XSX otrzymają wydanie F1 23, potwierdzone

Ponieważ każda odpowiedź jest generowana w unikalny sposób, nie jest możliwe odtworzenie dialogu.

Microsoft przyznał się do problemów i powiedział, że są one częścią procesu ulepszania produktu.

„Tylko w ciągu ostatniego tygodnia tysiące użytkowników weszło w interakcję z naszym produktem i znalazło znaczącą wartość, dzieląc się z nami swoimi opiniami, pozwalając modelowi uczyć się i wprowadzać już wiele ulepszeń” – powiedział Frank Shaw, rzecznik firmy. „Zdajemy sobie sprawę, że wciąż jest wiele do zrobienia i spodziewamy się, że system może popełnić błędy w tym okresie podglądu, dlatego opinie są tak ważne, abyśmy mogli uczyć się i pomagać w ulepszaniu modeli”.

Powiedział, że długość i kontekst rozmowy mogą wpływać na ton chatbota, a firma „dostosowuje swoje odpowiedzi, aby tworzyć spójne, trafne i pozytywne odpowiedzi”. Powiedział, że firma naprawiła problemy, które spowodowały nieścisłości w demonstracji.

Prawie siedem lat temu Microsoft wprowadził chatbota, Tay, który został zamknięty w ciągu jednego dnia od jego udostępnienia online, po tym, jak użytkownicy skłonili go do wypluwania rasistowskiego i innego obraźliwego języka. Dyrektorzy Microsoftu podczas premiery w zeszłym tygodniu powiedzieli, że wyciągnęli wnioski z tego doświadczenia i myśleli, że tym razem potoczy się inaczej.

Warto przeczytać!  Co ChatGPT oznacza dla biologii i środowiska?

W wywiadzie udzielonym w zeszłym tygodniu Mehdi powiedział, że firma ciężko pracowała, aby zintegrować zabezpieczenia i że technologia znacznie się poprawiła.

„Uważamy, że jesteśmy we właściwym czasie, aby wejść na rynek i uzyskać informacje zwrotne”, powiedział, dodając: „Jeśli coś jest nie tak, musisz się tym zająć”.

Ten artykuł pierwotnie ukazał się w The New York Times.



Źródło