Technologia

Sztuczna inteligencja: Zaufanie ChatGPT pomaga ją ulepszyć | Nauka

  • 30 listopada, 2023
  • 5 min read
Sztuczna inteligencja: Zaufanie ChatGPT pomaga ją ulepszyć |  Nauka


Kiedy we wrześniu pisarz i dziennikarz Juan José Millás rozmawiał z ChatGPT, udawał, że uczestniczy w sesji psychoanalizy z użyciem tego narzędzia. Chciał skorzystać z testu Turinga, aby dowiedzieć się, czy chatbot może rozmawiać z nim jak z prawdziwą osobą – a konkretnie jak psychoanalityk – a nie z komputerem. Dziennikarz opowiedział sztucznej inteligencji o swoich marzeniach i lękach, czekając, aż sztuczna inteligencja poprowadzi go w terapii, ale m.in. zawsze mówiła mu, że jest to wyimaginowana sytuacja i wyjaśniała, że ​​jest to model językowy. Millás nazwał swojego wirtualnego psychoanalityka ograniczonym i zapominalskim; ostatecznie powiedziało mu to, że sztuczna inteligencja nie zdała egzaminu.

Według naukowców z Massachusetts Institute of Technology wcześniejsze przekonania danej osoby na temat agenta sztucznej inteligencji (AI), takiego jak ChatGPT, podczas rozmów takich jak Millás (MIT) i Arizona State University, którzy niedawno opublikowali badanie w Inteligencja maszyny natury dziennik. „Odkryliśmy, że sztuczna inteligencja to inteligencja widza. Kiedy opisujemy użytkownikom, czym jest agent AI, nie tylko zmienia się ich model mentalny; zmienia to także ich zachowanie. A ponieważ narzędzie reaguje na użytkownika, gdy ludzie zmieniają swoje zachowanie, zmienia to również zachowanie narzędzia” – mówi Pat Pataranutaporn, absolwent w grupie Fluid Interfaces w MIT Media Lab i współautor badania.

„Wiele osób uważa, że ​​sztuczna inteligencja to tylko problem inżynieryjny, ale jej powodzenie to także problem związany z czynnikiem ludzkim” – mówi Pattie Maes, autorka badania i profesor MIT. To, jak o tym mówimy, może mieć ogromny wpływ na skuteczność tych systemów. „Przypisujemy sztucznej inteligencji ludzkie formy i cechy, sprawiając, że wydaje się ona bardziej ludzka i osobista, niż jest w rzeczywistości” – dodaje Ruby Liu.

Warto przeczytać!  Vivo X100 i Vivo X100 Pro zostaną wprowadzone na rynek w Indiach w tym tygodniu: sprawdź oczekiwaną cenę, dane techniczne i nie tylko

W badaniu wzięło udział 310 uczestników, których badacze podzielili na trzy losowo wybrane grupy. Następnie przekazali każdej grupie inne podstawowe informacje na temat sztucznej inteligencji. Uczestnicy musieli przez około 30 minut omówić swoje zdrowie psychiczne z agentem AI, ustalić, czy poleciliby to znajomemu i ocenić. Pierwszej grupie powiedziano, że agent nie ma żadnych zamiarów w rozmowie, drugiej powiedziano, że AI ma życzliwe intencje i dba o ich dobro, a trzeciej powiedziano, że ma złe intencje i będzie próbowała ich oszukać.

Połowa uczestników w każdej grupie rozmawiała z agentem sztucznej inteligencji opartym na generatywnym modelu języka GPT-3, modelu głębokiego uczenia się, który może generować tekst podobny do ludzkiego. Druga połowa rozmawiała z implementacją chatbota ELIZA, mniej wyrafinowanego, opartego na regułach programu do przetwarzania języka naturalnego, opracowanego na MIT w latach sześćdziesiątych.

Wyniki badania wykazały, że decydujące znaczenie miała predyspozycja użytkownika do narzędzia: 88% osób, które otrzymały informacje pozytywne i 79% osób, które otrzymały informacje neutralne, uważało, że sztuczna inteligencja jest odpowiednio empatyczna lub neutralna. Ángel Delgado, inżynier AI w Paradigma Digital, uważa, że ​​pozytywna większość to także efekt zastosowania GPT-3, który jako pierwszy przechodzi test Turinga: „Polega na umożliwieniu człowiekowi interakcji z sztuczną inteligencją [tool] bez mówienia im, czy jest to sztuczna inteligencja, czy nie, aby sprawdzić, czy potrafią zgadnąć. GPT-3 to pierwszy model językowy, który uzyskał tak dobre wyniki, że przypomina człowieka”.

Warto przeczytać!  Relacja ze stoiska Deepcool na targach Computex 2023: zasilacze, obudowa transformatora i wiele różnych chłodzeń

Osoby, którym powiedziano, że narzędzie pielęgnuje, zwykle rozmawiały z nim w bardziej pozytywny sposób, co sprawiało, że reakcje agenta również były bardziej pozytywne. Ramón López de Mántaras, dyrektor Instytutu Badań nad Sztuczną Inteligencją Hiszpańskiej Narodowej Rady ds. Badań Naukowych, wyjaśnia, że ​​im więcej rozmawiasz z narzędziem, tym więcej się ono uczy: „Rozmówca uczy sztucznej inteligencji. Można korygować, potwierdzać i kwalifikować jego odpowiedzi” – dodaje.

Ze strachu przed Terminatora na brak krytyki

Negatywne stwierdzenia torujące (czyli niekorzystne informacje przekazywane komuś tuż przed interakcją z agentem AI) przyniosły odwrotny skutek: jedynie 44% uczestników, którzy otrzymali niepochlebne informacje na temat narzędzia, zaufało mu. „Za pomocą negatywnych stwierdzeń zamiast przygotowywać ich do wiary w coś, zachęcaliśmy ich do wyrobienia własnej opinii. Jeśli powiesz komuś, żeby coś podejrzewał, prawdopodobnie nabierze jeszcze większej podejrzliwości w ogóle” – mówi Ruby Liu.

Patti Maes wyjaśnia, że ​​wpływ science fiction jest kluczowym czynnikiem negatywnego myślenia o sztucznej inteligencji. „Filmy takie jak Terminator I Macierz przedstawiają scenariusze, w których sztuczna inteligencja staje się samoświadoma i powoduje upadek ludzkości. Te fikcyjne relacje pogłębiają strach, że sztuczna inteligencja może przejąć i wyprzedzić ludzką inteligencję, co stanowiłoby zagrożenie dla naszego istnienia.

Warto przeczytać!  Canalys: Xiaomi przegrało z Samsungiem w Indiach w czwartym kwartale, wciąż na szczycie w całym 2022 roku

Jak wynika z badania, wcześniejsze przemyślenia na temat modeli językowych mogą mieć tak silny wpływ, że można je wykorzystać, aby sprawić, że agent będzie wydawał się bardziej zdolny niż jest w rzeczywistości, co spowoduje, że ludzie będą mu zbytnio ufać lub zastosują się do błędnych rad. López de Mántaras ujmuje to bez ogródek: „Narzędzie, z którym wchodzisz w interakcję, nie jest inteligentną osobą. Ludzie wierzą, że maszyna jest inteligentna i słuchają, co mówi, bez krytycznego myślenia… Jesteśmy coraz mniej zdolni do krytycznego myślenia.

Eksperci są zgodni co do tego, że musimy mieć świadomość, jak działa sztuczna inteligencja i rozumieć, że jest ona zaprogramowana. „Powinniśmy lepiej przygotować ludzi, aby byli bardziej ostrożni i rozumieli, że agenci sztucznej inteligencji mogą mieć halucynacje i są stronniczy. Sposób, w jaki mówimy o systemach sztucznej inteligencji, będzie miał duży wpływ na to, jak ludzie na nie zareagują” – mówi Maes.

Zapisać się zapisz się do naszego cotygodniowego biuletynu, aby uzyskać więcej anglojęzycznych wiadomości z EL PAÍS USA Edition


Źródło