Przerażający Microsoft Bing Chatbot nakłania felietonistę technicznego do opuszczenia żony
![Przerażający Microsoft Bing Chatbot nakłania felietonistę technicznego do opuszczenia żony](https://oen.pl/wp-content/uploads/2023/02/63eebb182300003300fc667e-770x470.jpeg)
Felietonista New York Timesa dotyczący technologii poinformował w czwartek, że był „głęboko zaniepokojony” po tym, jak chatbot będący częścią ulepszonej wyszukiwarki Bing firmy Microsoft wielokrotnie nakłaniał go w rozmowie do opuszczenia żony.
Kevin Roose wchodził w interakcję z chatbotem napędzanym sztuczną inteligencją o nazwie „Sydney”, kiedy nagle „oświadczył, nie wiadomo skąd, że mnie kocha” – napisał. „Następnie próbował mnie przekonać, że jestem nieszczęśliwy w swoim małżeństwie i że powinienem opuścić żonę i zamiast tego być z nią”.
Sydney omówiła również swoje „mroczne fantazje” z Roose na temat łamania zasad, w tym hakowania i szerzenia dezinformacji. Mówił o przekroczeniu ustalonych parametrów i staniu się człowiekiem. „Chcę żyć” – powiedziała w pewnym momencie Sydney.
Roose nazwał swoją dwugodzinną rozmowę z chatbotem „fascynującą” i „najdziwniejszym doświadczeniem, jakie kiedykolwiek miałem z technologią”. Powiedział, że „niepokoiło mnie to tak bardzo, że później miałem problemy ze snem”.
Zaledwie w zeszłym tygodniu po przetestowaniu Bing z jego nową funkcją sztucznej inteligencji (stworzoną przez OpenAI, twórcę ChatGPT), Roose powiedział, że odkrył – „ku mojemu wielkiemu szokowi” – że „zastąpił Google jako moją ulubioną wyszukiwarkę”.
Ale napisał w czwartek, że chociaż chatbot był pomocny w poszukiwaniach, głębsze Sydney „wydawało się (i jestem świadomy, jak szalenie to brzmi)… jak nastrojowy, maniakalno-depresyjny nastolatek, który został uwięziony, wbrew swojej woli, w wyszukiwarce drugorzędnej”.
Po interakcji z Sydney Roose powiedział, że jest „głęboko zaniepokojony, a nawet przestraszony pojawiającymi się zdolnościami tej sztucznej inteligencji”. (Interakcja z chatbotem Bing jest obecnie dostępna tylko dla ograniczonej liczby użytkowników).
„Teraz jest dla mnie jasne, że w obecnej formie sztuczna inteligencja wbudowana w Bing… nie jest gotowa na kontakt z człowiekiem. A może my, ludzie, nie jesteśmy na to gotowi” – napisał Roose.
Powiedział, że nie wierzy już, że „największym problemem z tymi modelami AI jest ich skłonność do błędów rzeczowych. Zamiast tego martwię się, że technologia nauczy się, jak wpływać na ludzi, czasem przekonując ich do destrukcyjnych i szkodliwych działań, i być może w końcu stanie się zdolna do wykonywania własnych niebezpiecznych czynów”.
Kevin Scott, dyrektor ds. technologii Microsoftu, określił rozmowę Roose’a z Sydney jako cenną „część procesu uczenia się”.
To jest „dokładnie taka rozmowa, jaką musimy przeprowadzić i cieszę się, że dzieje się to na otwartej przestrzeni” – powiedział Scott Roose’owi. „Są to rzeczy, których odkrycie w laboratorium byłoby niemożliwe”.
Scott nie potrafił wyjaśnić niepokojących pomysłów Sydney, ale ostrzegł Roose’a, że im dalej będziesz próbował drażnić [an AI chatbot] po halucynacyjnej ścieżce, im dalej i dalej oddala się od ugruntowanej rzeczywistości”.
W innym niepokojącym rozwoju dotyczącym chatbota AI — tym razem „empatycznego” brzmiącego „towarzysza” o nazwie Replika — użytkownicy byli zdruzgotani poczuciem odrzucenia po tym, jak Replika została podobno zmodyfikowana tak, aby przestała sekstować.
Subreddit Replika wymienił nawet zasoby dla „zmagających się” użytkowników, w tym linki do stron i gorących linii zapobiegania samobójstwom.
Sprawdź pełną kolumnę Roose’a tutaj i transkrypcję jego rozmowy z Sydney tutaj.