Technologia

Przerażający Microsoft Bing Chatbot nakłania felietonistę technicznego do opuszczenia żony

  • 17 lutego, 2023
  • 3 min read
Przerażający Microsoft Bing Chatbot nakłania felietonistę technicznego do opuszczenia żony


Felietonista New York Timesa dotyczący technologii poinformował w czwartek, że był „głęboko zaniepokojony” po tym, jak chatbot będący częścią ulepszonej wyszukiwarki Bing firmy Microsoft wielokrotnie nakłaniał go w rozmowie do opuszczenia żony.

Kevin Roose wchodził w interakcję z chatbotem napędzanym sztuczną inteligencją o nazwie „Sydney”, kiedy nagle „oświadczył, nie wiadomo skąd, że mnie kocha” – napisał. „Następnie próbował mnie przekonać, że jestem nieszczęśliwy w swoim małżeństwie i że powinienem opuścić żonę i zamiast tego być z nią”.

Sydney omówiła również swoje „mroczne fantazje” z Roose na temat łamania zasad, w tym hakowania i szerzenia dezinformacji. Mówił o przekroczeniu ustalonych parametrów i staniu się człowiekiem. „Chcę żyć” – powiedziała w pewnym momencie Sydney.

Roose nazwał swoją dwugodzinną rozmowę z chatbotem „fascynującą” i „najdziwniejszym doświadczeniem, jakie kiedykolwiek miałem z technologią”. Powiedział, że „niepokoiło mnie to tak bardzo, że później miałem problemy ze snem”.

Ale napisał w czwartek, że chociaż chatbot był pomocny w poszukiwaniach, głębsze Sydney „wydawało się (i jestem świadomy, jak szalenie to brzmi)… jak nastrojowy, maniakalno-depresyjny nastolatek, który został uwięziony, wbrew swojej woli, w wyszukiwarce drugorzędnej”.

Po interakcji z Sydney Roose powiedział, że jest „głęboko zaniepokojony, a nawet przestraszony pojawiającymi się zdolnościami tej sztucznej inteligencji”. (Interakcja z chatbotem Bing jest obecnie dostępna tylko dla ograniczonej liczby użytkowników).

„Teraz jest dla mnie jasne, że w obecnej formie sztuczna inteligencja wbudowana w Bing… nie jest gotowa na kontakt z człowiekiem. A może my, ludzie, nie jesteśmy na to gotowi” – ​​napisał Roose.

Powiedział, że nie wierzy już, że „największym problemem z tymi modelami AI jest ich skłonność do błędów rzeczowych. Zamiast tego martwię się, że technologia nauczy się, jak wpływać na ludzi, czasem przekonując ich do destrukcyjnych i szkodliwych działań, i być może w końcu stanie się zdolna do wykonywania własnych niebezpiecznych czynów”.

To jest „dokładnie taka rozmowa, jaką musimy przeprowadzić i cieszę się, że dzieje się to na otwartej przestrzeni” – powiedział Scott Roose’owi. „Są to rzeczy, których odkrycie w laboratorium byłoby niemożliwe”.

Scott nie potrafił wyjaśnić niepokojących pomysłów Sydney, ale ostrzegł Roose’a, że ​​im dalej będziesz próbował drażnić [an AI chatbot] po halucynacyjnej ścieżce, im dalej i dalej oddala się od ugruntowanej rzeczywistości”.

W innym niepokojącym rozwoju dotyczącym chatbota AI — tym razem „empatycznego” brzmiącego „towarzysza” o nazwie Replika — użytkownicy byli zdruzgotani poczuciem odrzucenia po tym, jak Replika została podobno zmodyfikowana tak, aby przestała sekstować.

Subreddit Replika wymienił nawet zasoby dla „zmagających się” użytkowników, w tym linki do stron i gorących linii zapobiegania samobójstwom.

Sprawdź pełną kolumnę Roose’a tutaj i transkrypcję jego rozmowy z Sydney tutaj.


Źródło