Technologia

Dlaczego chatboty czasami zachowują się dziwnie i wygadują bzdury? Oto jak działa ich podstawowa technologia

  • 17 lutego, 2023
  • 5 min read
Dlaczego chatboty czasami zachowują się dziwnie i wygadują bzdury?  Oto jak działa ich podstawowa technologia


Microsoft wydał w zeszłym tygodniu nową wersję swojej wyszukiwarki Bing, która w przeciwieństwie do zwykłej wyszukiwarki zawiera chatbota, który może odpowiadać na pytania w jasnej, zwięzłej prozie. Od tego czasu ludzie zauważyli, że część tego, co generuje chatbot Bing jest niedokładne, wprowadzający w błąd i wręcz dziwny, budzący obawy, że stał się świadomy lub świadomy otaczającego go świata. Nie o to chodzi. Aby zrozumieć, dlaczego, ważne jest, aby wiedzieć, jak naprawdę działają chatboty.

Czy chatbot żyje?

Nie. Powiedzmy to jeszcze raz: Nie!

W czerwcu inżynier Google, Blake Lemoine, stwierdził, że podobna technologia chatbota testowana w Google jest świadoma. To nieprawda. Chatboty nie są świadome i nie są inteligentne — przynajmniej nie w taki sposób, w jaki ludzie są inteligentni.

Dlaczego więc wydaje się żywy?

Cofnijmy się. Chatbot Binga jest zasilany przez rodzaj sztucznej inteligencji zwanej siecią neuronową. To może brzmieć jak skomputeryzowany mózg, ale termin ten jest mylący.

Sieć neuronowa to po prostu system matematyczny, który uczy się umiejętności, analizując ogromne ilości danych cyfrowych. Gdy sieć neuronowa analizuje na przykład tysiące zdjęć kotów, może nauczyć się rozpoznawać kota.

Większość ludzi korzysta z sieci neuronowych na co dzień. Jest to technologia, która identyfikuje ludzi, zwierzęta domowe i inne obiekty na obrazach publikowanych w serwisach internetowych, takich jak Zdjęcia Google. Pozwala Siri i Alexie, mówiącym asystentom głosowym Apple i Amazon, rozpoznawać wypowiadane słowa. I to jest to, co tłumaczy między angielskim a hiszpańskim w usługach takich jak Tłumacz Google.

Warto przeczytać!  5 najlepszych budżetowych laptopów w styczniu 2023 r

Sieci neuronowe bardzo dobrze naśladują sposób, w jaki ludzie używają języka. A to może wprowadzić nas w błąd, myśląc, że technologia jest potężniejsza niż jest w rzeczywistości.

Jak dokładnie sieci neuronowe naśladują ludzki język?

Około pięć lat temu badacze z firm takich jak Google i OpenAI, startup z San Francisco, który niedawno wypuścił popularnego Chatbot GPTzaczął budować sieci neuronowe, które uczyły się z ogromnych ilości tekstu cyfrowego, w tym książek, artykułów z Wikipedii, dzienników czatów i wszelkiego rodzaju innych materiałów publikowanych w Internecie.

Te sieci neuronowe są znane jako duże modele językowe. Są w stanie wykorzystać te góry danych do zbudowania czegoś, co można nazwać matematyczną mapą ludzkiego języka. Korzystając z tej mapy, sieci neuronowe mogą wykonywać wiele zadań, takich jak pisanie własnych tweetów, komponowanie przemówień, generowanie programów komputerowych i, tak, prowadzenie konwersacji.

Te duże modele językowe okazały się przydatne. Firma Microsoft oferuje narzędzie Copilot, które jest oparte na dużym modelu językowym i może sugerować następny wiersz kodu, gdy programiści komputerowi tworzą aplikacje, w podobny sposób, jak narzędzia autouzupełniania sugerują następne słowo podczas pisania SMS-ów lub e-maili.

Warto przeczytać!  Nic CMF Phone 1 Cena w Indiach Wyciekły Specyfikacje Specyfikacje Data premiery w Indiach Wydanie Flipkart Wycieki

Inne firmy oferują podobną technologię, która może generować materiały marketingowe, e-maile i inny tekst. Ten rodzaj technologii jest również znany jako generatywna sztuczna inteligencja.

Teraz firmy wprowadzają wersje tego, z którymi możesz rozmawiać?

Dokładnie. W listopadzie OpenAI udostępniło ChatGPT, po raz pierwszy opinia publiczna mogła tego posmakować. Ludzie byli zdumieni – i słusznie.

Te chatboty nie rozmawiają dokładnie tak, jak ludzie, ale często tak się wydaje. Mogą także pisać prace semestralne i poezję oraz riffować na prawie każdy temat, który im rzuci.

Dlaczego coś źle rozumieją?

Bo uczą się z internetu. Pomyśl, ile dezinformacji i innych śmieci jest w sieci.

Systemy te nie powtarzają również tego, co jest w Internecie słowo w słowo. Opierając się na tym, czego się nauczyli, samodzielnie tworzą nowy tekst, co naukowcy zajmujący się sztuczną inteligencją nazywają „halucynacją”.

Dlatego chatboty mogą udzielić Ci różnych odpowiedzi, jeśli zadasz to samo pytanie dwa razy. Powiedzą wszystko, niezależnie od tego, czy jest to oparte na rzeczywistości, czy nie.

Jeśli chatboty mają „halucynacje”, czy to nie czyni ich świadomymi?

Badacze sztucznej inteligencji uwielbiają używać terminów, które sprawiają, że te systemy wydają się ludzkie. Ale halucynacja to tylko chwytliwe określenie „zmyślają”.

Warto przeczytać!  Apple spotyka się z ostrą krytyką celebrytów po reklamie iPada miażdżącej pianino

Brzmi to przerażająco i niebezpiecznie, ale nie oznacza to, że technologia jest w jakiś sposób żywa lub świadoma swojego otoczenia. To po prostu generowanie tekstu przy użyciu wzorców znalezionych w Internecie. W wielu przypadkach miesza i dopasowuje wzory w zaskakujący i niepokojący sposób. Ale nie jest świadomy tego, co robi. Nie może rozumować tak jak ludzie.

Czy firmy nie mogą powstrzymać chatbotów przed dziwnym zachowaniem?

Oni próbują.

Dzięki ChatGPT OpenAI próbowało kontrolować zachowanie technologii. Ponieważ niewielka grupa osób prywatnie testowała system, OpenAI poprosił ich o ocenę odpowiedzi. Czy były przydatne? Czy były zgodne z prawdą? Następnie OpenAI wykorzystał te oceny, aby udoskonalić system i dokładniej określić, co zrobi, a czego nie.

Ale takie techniki nie są doskonałe. Dzisiejsi naukowcy nie wiedzą, jak budować systemy, które są całkowicie zgodne z prawdą. Mogą ograniczyć nieścisłości i dziwactwa, ale nie mogą ich powstrzymać. Jednym ze sposobów na powstrzymanie dziwnych zachowań jest krótkie rozmowy.

Ale chatboty nadal będą wypluwać rzeczy, które nie są prawdziwe. A gdy inne firmy zaczną wdrażać tego rodzaju boty, nie każdy będzie dobrze kontrolował, co mogą, a czego nie.

Wniosek: nie wierz we wszystko, co mówi ci chatbot.

Napisane przez Cade’a Metza. Ten artykuł pierwotnie ukazał się w The New York Times.


Źródło