Technologia

Dlaczego nie powinieneś ufać Google, Microsoft ChatGPT Clones

  • 16 lutego, 2023
  • 10 min read
Dlaczego nie powinieneś ufać Google, Microsoft ChatGPT Clones


Kilka dni po tym, jak Google i Microsoft ogłosiły, że będą dostarczać wyniki wyszukiwania generowane przez chatboty — sztucznie inteligentne oprogramowanie zdolne do tworzenia niesamowicie ludzkiej prozy — martwiłem się, że naszym nowym pomocnikom AI nie można ufać. W końcu badacze sztucznej inteligencji Google ostrzegali firmę, że chatboty będą „stochastycznymi papugami” (prawdopodobnie wykrzyczą rzeczy, które są złe, głupie lub obraźliwe) i „skłonne do halucynacji” (mogą po prostu zmyślać). Boty, opierając się na tak zwanych dużych modelach językowych, „są szkolone w przewidywaniu prawdopodobieństwo wypowiedzi”, napisał w zeszłym roku zespół DeepMind, firmy AI należącej do Alphabet, w prezentacji na temat ryzyka związanego z LLM. „Jednak niezależnie od tego, czy zdanie jest prawdopodobnie nie wskazuje wiarygodnie, czy zdanie jest również poprawne”.

Innymi słowy, te chatboty nie są tak naprawdę inteligentne. Oni są kłamliwymi debilami.

Nie trzeba było długo czekać, aby same chatboty udowodniły tę tezę. W zeszłym tygodniu reklama bota Google, Bard, pokazała, że ​​otrzymuje błędną odpowiedź na pytanie; wycena akcji firmy osiągnęła wielomiliardowy sukces. Tymczasem odpowiedzi, których bot Binga, Sydney, udzielił podczas otwartej demonstracji, nie wytrzymały nawet podstawowych weryfikacji faktów.

To wydaje się złe! Wyszukiwanie online było już nieustanną walką ze spamem, zoptymalizowanym pod kątem wyszukiwarek bełkotem i potrzebami reklamodawców. Niemniej jednak wyszukiwarki były społeczną micwą. Zaprowadzili porządek w chaotycznej przestrzeni danych w Internecie i stanęli gdzieś pomiędzy informacją a wiedzą, pomagając nam transponować jedno w drugie. Nauczyliśmy się im ufać.

I tak nas złapali. Chatboty to bzdurne silniki stworzone do mówienia rzeczy z niezaprzeczalną pewnością i całkowitym brakiem wiedzy. Nic dziwnego, że elita technologiczna żartobliwie nazywa ich „mansplaining jako usługa”. A teraz będą napędzać podstawowy sposób, w jaki ludzie codziennie zdobywają wiedzę.

Dlaczego więc kupujemy ich bzdury? Chociaż wiemy od samego początku, że nasi nowi bibliotekarze-roboty są głęboko wadliwi, nadal będziemy ich używać miliony razy na godzinę i podejmować działania w oparciu o odpowiedzi, których nam udzielają. Co sprawia, że ​​ludzie ufają maszynie, o której wiemy, że nie jest godna zaufania?

Szczerze mówiąc, nikt tak naprawdę nie wie, dlaczego ktoś wierzy wszystko. Po tysiącleciach debat czołowi światowi filozofowie, psycholodzy i neuronaukowcy nie zgodzili się nawet co do mechanizmu wyjaśniającego, dlaczego ludzie zaczynają wierzyć w różne rzeczy lub czym w ogóle są przekonania. Trudno więc wiedzieć, jak działają lub dlaczego jedna rzecz jest bardziej wiarygodna niż inna. Ale mam pewne spekulacje na temat tego, dlaczego dajemy się nabrać na sztuczkę ChatGPT. My, ludzie, kochamy zgrabnego oszusta z imponująco brzmiącymi referencjami. A boty będą coraz bardziej wyrafinowane w oszukiwaniu nas.

Liczby autorytetów

W ciągu ostatnich kilku dekad przeprowadzono wiele badań nad tym, dlaczego ludzie wierzą w dezinformację. Większość z tych prac zakładała, że ​​napotkamy głównie fikcję udającą fakt w formie propagandy lub mediów społecznościowych. Ale to się zmieni. W używanych przez nas wyszukiwarkach będą teraz umieszczane błędne informacje. A post na Facebooku ma o wiele mniejszą wiarygodność niż odpowiedź na pytanie, które znalazłeś w Google.

Warto przeczytać!  Jak ukończyć zadanie Witamy w Hogwarcie

Teraz nie wszystkie przekonania są mocno zakorzenione, a nawet oparte na dowodach. Może więc ludzie będą traktować odpowiedzi chatbota tak, jak my traktujemy każdą nową informację. Joe Vitriol, politolog z Lehigh University, który bada dezinformację, mówi, że spodziewa się, że ludzie „zaakceptują wyniki w sposób stronniczy lub samolubny, tak jak ludzie z każdym innym źródłem informacji”. Innymi słowy, ludzie uwierzą chatbotowi, jeśli powie im rzeczy, które są zgodne z ich obecnymi przekonaniami i opiniami — tak samo jak w przypadku tradycyjnych wyników Google. To, czy chatbot mówi prawdę, czy ma halucynacje, nie ma znaczenia.

Pakowanie tych odpowiedzi – w akapity niewiele różniące się od tego, który czytasz, ale z imprimatur Google – może przechylić szalę dalej w stronę łatwowierności. My chcieć Wyniki Google są prawdziwe, ponieważ uważamy Google za zaufanego arbitra, jeśli nie autorytet. „Naiwni użytkownicy mogą założyć, że bot ma wiarygodność, której nie mają ludzie” – mówi Vitriol. „Zastanawiam się, czy ludzie będą szczególnie skłonni lekceważyć lub lekceważyć możliwość, że bot, zwłaszcza w swojej obecnej formie, cierpi z powodu tych samych uprzedzeń i błędów rozumowania, co ludzie”.

W tym miejscu podejrzewam, że zdolność chatbota do generowania prozy, w przeciwieństwie do listy przydatnych linków, staje się niebezpieczna. Ludzie przekazują wierzenia społecznie, poprzez język. A kiedy wielu z nas podziela system wierzeń, tworzymy bardziej spójną i harmonijną grupę. Ale to system, który można zhakować. Ponieważ pomysły, które są dobrze zakomunikowane — przy użyciu właściwych słów, sformułowań i tonu — mogą wydawać się bardziej przekonujące. Boty używają pierwszej osoby „ja”, mimo że nie ma osoby. Dla przypadkowego czytelnika odpowiedzi Barda i Sydney będą wyglądać na wystarczająco ludzkie, a to oznacza, że ​​tak czuć o wiele prawdziwszy.

Potęga opowieści

Innym możliwym wyjaśnieniem, dlaczego jesteśmy frajerami dla chatbotów, jest to, że jesteśmy frajerami wyjaśnienie. Na pewnym podstawowym poziomie ludzkim po prostu bardzo, bardzo satysfakcjonująco jest zamiana oszołomienia na pewność. Sprawia, że ​​czujemy się mądrzy i kontrolujemy rzeczy, nad którymi nie mamy kontroli.

Problem polega na tym, że tak naprawdę nie wiemy, co sprawia, że ​​ludzie zakochują się w jednym wyjaśnieniu, a nie w innym. Niektóre badania sugerują, że wyjaśnienia o największej mocy to te, które są najprostsze i mają największe zastosowanie. Inne badania wykazały, że mając wybór, ludzie są bardziej skłonni uwierzyć w historie zawierające więcej szczegółów. (Kieran Healy, socjolog z Duke University, napisał artykuł potępiający naszą skłonność do nadmiernego komplikowania rzeczy; zatytułował go „Fuck Nuance”). Metaanaliza 61 artykułów z pięciu dekad badań wykazała, że ​​najważniejszy jest kontekst. W obszarach emocjonalnych dawka opowiadania historii sprawia, że ​​wyjaśnienie jest bardziej wiarygodne. W sprawach mniej osobistych, takich jak polityka publiczna, ludzie wolą, aby fakty nie były upiększone narracją.

Chatboty to bzdurne silniki stworzone do mówienia rzeczy z niezaprzeczalną pewnością i całkowitym brakiem wiedzy.

„Nie sądzę, aby istniał jakikolwiek konsensus co do tego, co sprawia, że ​​wyjaśnienie jest atrakcyjne”, mówi Duncan Watts, socjolog, który prowadzi zajęcia na Uniwersytecie w Pensylwanii. Pamiętaj, że pochodzi od faceta, który prowadzi kurs o nazwie Wyjaśnianie wyjaśnień.

Warto przeczytać!  Sprawdź zniżki na produkty Apple na Amazon, Flipkart Republic Day Sales

Ale cokolwiek to pewne je ne sais quoi wydaje się, że chatboty AI to mają. Zaledwie kilka dni przed ogłoszeniem przez Google i Microsoft nadchodzącej botyfikacji zespół socjologów ze Stanford opublikował fascynujący preprint. Pokazali tysiącom ludzi krótkie, przekonujące artykuły na gorące tematy, takie jak zakaz broni szturmowej i podatki węglowe. Niektóre wersje zostały napisane przez chatbota GPT-3; inne przez człowieka. Następnie naukowcy zmierzyli, jak bardzo ludzie zmienili swoje opinie na podstawie artykułów.

Okazuje się, że wiadomości generowane przez sztuczną inteligencję były tak samo przekonujące jak te ludzkie. Ale dzika część jest Dlaczego. Kiedy badacze przesłuchiwali swoich ludzi, ci, którzy woleli artykuły z chatbota, powiedzieli, że rzemieślnicze, stworzone przez ludzi wiadomości zbytnio opierają się na anegdotach i obrazach. GPT-3 był bardziej oparty na dowodach i dobrze uzasadniony. Ta sama cecha, która uczyniła robota mniej ludzkim, sprawiła, że ​​ludzie byli bardziej skłonni w to uwierzyć. Podobnie jak ich przodkowie „Terminatorzy”, chatboty nie odczuwały litości, wyrzutów sumienia ani strachu. I absolutnie nie przestawali, nigdy, dopóki badani ludzie nie byli przekonani.

Ty leniwy draniu

Więc chatboty będą kłamać i robić coś źle. Najbardziej martwię się, że użytkownicy Google i Bing będą o tym wiedzieć i po prostu nie będą się tym przejmować. Jedna z teorii wyjaśniających, dlaczego szerzą się dezinformacje i fałszywe wiadomości, głosi, że ludzie są wręcz leniwi. Kupują wszystko, co sprzedaje zaufane źródło. Jeśli chatboty przez większość czasu robią to dobrze, to wystarczy. Dopóki, powiedzmy, Twój samolot faktycznie nie odlatuje o tej porze z tego lotniska. Lub twój dom się pali, ponieważ źle zainstalowałeś włącznik światła.

Kilka tygodni temu poprosiłem Wattsa, socjologa, o pomoc przy opowiadaniu o tym, dlaczego ludzie wierzą w zwariowane teorie spiskowe. Zasugerował, żebym przeczytał 25-letni artykuł Alison Gopnik, psycholog z Uniwersytetu Kalifornijskiego w Berkeley, zatytułowany „Wyjaśnienie jako orgazm”.

Warto przeczytać!  Asus: Asus wprowadza na rynek nowe laptopy w ramach linii ROG Strix i Zephyrus: cena, specyfikacje i inne szczegóły

Gopnik jest najbardziej znana ze swojej pracy nad psychologią rozwojową dzieci. Mówi, że małe dzieci tworzą mentalne modele świata, wykorzystując obserwacje do testowania hipotez – zasadniczo metoda naukowa. Ale w swoim artykule na temat wyjaśnień Gopnik sugeruje, że ludzie mają dwa systemy, aby dowiedzieć się, jak działa świat. Jednym z nich jest zastanawianie się, dlaczego rzeczy są takie, jakie są — „system hmm”, jeśli wolisz. Drugi służy do rozwijania wyjaśnień — „systemu aha”. Podobnie jak nasze biologiczne systemy reprodukcji i orgazmu, mówi Gopnik, te dwa systemy poznawcze są powiązane, ale oddzielne. Możemy zrobić jedno, nie robiąc drugiego. Drugi jest dobry i jest nagrodą za wykonanie pierwszego.

Ale system aha można oszukać. Doświadczenia psychedeliczne mogą wywołać poczucie, że „wszystko ma sens”, nawet jeśli nie dają one konkretnego wyjaśnienia, w jaki sposób. Marzenia też to potrafią. Dlatego kiedy budzisz się o 3 nad ranem i piszesz sobie notatkę, aby zapamiętać jakiś genialny wgląd, który przyszedł ci do głowy we śnie, twoje bazgroły nie mają sensu następnego ranka.

Innymi słowy, poczucie posiadania czegoś, co wygląda jak wyjaśnienie, może być tak cholernie przyjemne, że może przytłoczyć tę część naszego umysłu, która zadała to pytanie. Mylimy się jakiś odpowiedź na the odpowiedź.

Tak nie powinno być. W 1877 roku filozof William Clifford napisał artykuł zatytułowany „Etyka przekonań”, w którym argumentuje, że wiara musi pochodzić z cierpliwych badań, a nie tylko z tłumienia wątpliwości. Twierdzi, że nasze idee są wspólną własnością – „dziedzictwem” przekazywanym kolejnym pokoleniom. To „okropny przywilej i okropna odpowiedzialność, że powinniśmy pomagać w tworzeniu świata, w którym będą żyć potomni”.

Pokusa unikania tej odpowiedzialności jest potężna. Clifford, podobnie jak Gopnik, rozumiał, że wyjaśnienia są dobre, nawet jeśli są błędne. „To poczucie władzy związane z poczuciem wiedzy sprawia, że ​​ludzie pragną wierzyć i boją się wątpić” — argumentuje Clifford. Bądź świadkiem wyścigu, aby wyjaśnić wszystkie niezidentyfikowane obiekty zestrzelone nad Saskatchewan. Lepiej wierzyć w kosmitów niż żyć w strachu przed nieznanym.

Clifford oferuje antidotum na tę pokusę. Jego odpowiedź brzmi zasadniczo: Nie dzisiaj, szatanie. „Święta tradycja ludzkości”, mówi, „składa się nie z twierdzeń lub twierdzeń, które należy przyjąć i w które należy wierzyć na podstawie autorytetu tradycji, ale z właściwie postawionych pytań, z koncepcji, które pozwalają nam zadawać dalsze pytania i w metodach odpowiadania na pytania”.

Boty zaoferują nam łatwe odpowiedzi. Musimy tylko pamiętać, że nie o to powinniśmy prosić.


Adama Rogersa jest starszym korespondentem Insidera.


Źródło