Technologia

Oto dziesiątki sposobów, w jakie sztuczna inteligencja może zostać wykorzystana do wyrządzenia krzywdy — a niektóre są zbyt przerażające, by je przetestować

  • 8 maja, 2023
  • 5 min read
Oto dziesiątki sposobów, w jakie sztuczna inteligencja może zostać wykorzystana do wyrządzenia krzywdy — a niektóre są zbyt przerażające, by je przetestować


Od czasu premiery ChatGPT w zeszłym roku Twitterverse wykonał świetną robotę w pozyskiwaniu nikczemnych zastosowań dla generatywnej sztucznej inteligencji. Nowa broń chemiczna, oszustwa phishingowe na skalę przemysłową — co tylko chcesz, ktoś to zasugerował.

Ale tylko podrapaliśmy powierzchnię tego, jak duże modele językowe (LLM), takie jak GPT-4, mogą być manipulowane w celu wyrządzenia szkody. Tak więc jeden z londyńskich zespołów postanowił zanurkować głębiej w otchłań, przeprowadzając burzę mózgów, w jaki sposób boty AI mogą być wykorzystywane przez złych aktorów, a przy okazji ujawniając potencjał wszystkiego, od oszustw naukowych po wygenerowane piosenki Taylor Swift, które mogą być wykorzystywane jako pułapki.

Jeśli nie chcesz spać w nocy, czytaj dalej.

Oszustwo

Zespół przedstawił swoje odkrycia na temat wielu sposobów, w jakie generatywną sztuczną inteligencję można wykorzystać do wyrządzenia szkody razem w kultowej witrynie zatytułowanej „LLMS are Going Great! (LAGG)”.

Jeden z jej członków, Stef Lewandowski, mówi, że niektóre z najszerszych szkodliwych zastosowań generatywnej sztucznej inteligencji mogą dotyczyć przypadków użycia „szarej strefy”, wobec których trudno będzie ustanowić przepisy. Aby zademonstrować jedną z nich, firma LAGG opracowała chatbota o nazwie „Manipuluj mną”, który zleca użytkownikom odgadnięcie, w jaki sposób próbuje nimi manipulować.

Warto przeczytać!  Niesamowita okazja! Zaoszczędź 10991 Rs na 43-calowym telewizorze Acer Smart LED z dwuzakresowym Wi-Fi, szczegóły tutaj

„Możesz dostosować sposób, w jaki wiadomości są postrzegane, aby przekazać ludziom nieco inny przekaz” — mówi Lewandowski. „Myślę, że bardziej martwię się tym obszarem, ponieważ tak łatwo jest dostosować i zmanipulować ludzi, aby stworzyli inną opinię, a to zdecydowanie nie jest w sferze bycia nielegalnym ani czymś, przeciwko czemu moglibyśmy ustanowić prawo”.

Dodaje, że modele językowe są już wykorzystywane w celu tworzenia fałszywych tożsamości lub poświadczeń, co LAGG wykazała za pomocą sfabrykowanego profilu akademickiego (patrz poniżej).

„Dość łatwo jest zrobić zdjęcie, opisać kogoś. Ale potem możesz pójść o krok dalej i zacząć generować fałszywy artykuł, odwołując się do innych prawdziwych badaczy, aby uzyskać fałszywe linki zwrotne do swoich badań” – mówi Lewandowski. „Właściwie widzimy ludzi, którzy robią te fałszywe referencje dla siebie, aby dostać się do innych krajów, kiedy potrzebują cytatów, aby udowodnić swoje kwalifikacje akademickie”.

Angażowanie się w ciemną stronę

Oprócz możliwości manipulacji lub fabrykowania cennych informacji, LAGG bada inne, bardziej zabawne pomysły, takie jak Amazon Alexa, którą można zaprogramować tak, aby odtwarzała generowane przez sztuczną inteligencję piosenki Taylor Swift, gdy użytkownik wypowie tajne słowo, i nie wyłączała się, dopóki tajne słowo nie zostanie wypowiedziane. powtarzający się.

Ale Lewandowski mówi, że zespół, który pracował nad projektem podczas niedawno zorganizowanego generatywnego hackathonu AI, omawiał również pomysły tak niepokojące, że uważali, że byłyby zbyt ryzykowne, aby je rozwinąć, jak pomysł stworzenia samoreplikującego się LLM, który mógłby działają jak rodzaj wykładniczo mnożącego się wirusa komputerowego.

„Z pewnością nie chciałbym być osobą, która ogłosi to światu” — mówi. „Myślę, że naiwnością byłoby zakładać, że w ciągu najbliższych kilku lat nie zobaczymy replikacji kodu opartego na LLM”.

Lewandowski mówi, że zbudował LAGG, ponieważ ważne jest, aby programiści rozważyli ryzyko wbudowane w narzędzia, które budują z generatywną sztuczną inteligencją, aby spróbować zminimalizować przyszłe szkody spowodowane przez tę technologię.

Dodaje, że spośród różnych projektów, które wyszły z hackathonu, większość oferowała optymistyczną wizję przyszłości sztucznej inteligencji i że nie było entuzjazmu do angażowania się w bardziej negatywne aspekty.

Warto przeczytać!  Top 6 referatów przedstawionych przez Meta na CVPR 2023

„Moja propozycja brzmiała:„ Wszyscy przedstawiliście niezwykle pozytywne, podnoszące na duchu pomysły na temat tego, jak sztuczna inteligencja może się rozwijać, a może spójrzmy na ciemną stronę? ”- mówi Lewandowski. „Nie zdobyłem tylu chętnych, którzy chcieli zbadać tę stronę”.

Sarah Drinkwater, inwestor Atomico angel — która współorganizowała hackathon z Victorią Stoyanovą — dodaje, że chociaż wydarzenie miało w dużej mierze optymistyczny ton, chcieli również zwrócić uwagę na możliwe zagrożenia.

„Ważne było, abyśmy beztrosko rozważyli społeczne implikacje niektórych przypadków użycia LLM, biorąc pod uwagę, że technologia ma tendencję do poruszania się szybciej niż polityka”, mówi Sifted. „Produkt Stef i zespołu, choć zabawny, poważnie traktuje o konsekwencjach, niezamierzonych lub niezamierzonych”.


Źródło