Rozrywka

Frustrująco można było zapobiec klęsce Taylor Swift z deepfake’iem

  • 31 stycznia, 2024
  • 7 min read
Frustrująco można było zapobiec klęsce Taylor Swift z deepfake’iem


Kredyty obrazkowe: Kevina Wintera / Getty Images

Wiesz, że schrzaniłeś, kiedy jednocześnie rozgniewałeś Biały Dom, Człowieka Roku TIME i najbardziej wściekłą rzeszę fanów popkultury. To właśnie przydarzyło się w zeszłym tygodniu X, platformie należącej do Elona Muska, dawniej zwanej Twitter, kiedy wygenerowane przez sztuczną inteligencję pornograficzne fałszywe zdjęcia Taylor Swift stały się wirusowe.

Jeden z najbardziej rozpowszechnionych postów zawierających bezsensowne i jawne deepfake został wyświetlony ponad 45 milionów razy i uzyskał setki tysięcy polubień. Nie uwzględnia to nawet wszystkich kont, które udostępniły zdjęcia w oddzielnych postach — gdy zdjęcie zostanie tak szeroko rozpowszechnione, w zasadzie nie da się go usunąć.

X brakuje infrastruktury umożliwiającej szybkie i na dużą skalę identyfikowanie obraźliwych treści. Nawet w czasach Twittera problem ten był trudny do naprawienia, ale sytuacja znacznie się pogorszyła, odkąd Musk wypatroszył tak dużą część personelu Twittera, w tym większość jego zespołów ds. zaufania i bezpieczeństwa. Tak więc ogromna i pełna pasji fanka Taylor Swift wzięła sprawy w swoje ręce, zalewając wyniki wyszukiwania hasłami takimi jak „taylor Swift AI” i „Taylor Swift deepfake”, aby utrudnić użytkownikom znalezienie obraźliwych zdjęć. Gdy sekretarz prasowy Białego Domu wezwał Kongres do podjęcia odpowiednich działań, X po prostu na kilka dni zakazał wyszukiwania hasła „taylor Swift”. Gdy użytkownicy wyszukali nazwisko muzyka, zobaczyli informację o wystąpieniu błędu.

Ta awaria moderacji treści stała się ogólnokrajową wiadomością, ponieważ Taylor Swift to Taylor Swift. Ale jeśli platformy społecznościowe nie są w stanie chronić jednej z najsłynniejszych kobiet na świecie, to kogo mogą chronić?

„Jeśli przydarzyło ci się to, co przydarzyło się Taylor Swift, tak jak przydarzyło się to wielu osobom, prawdopodobnie nie będziesz mieć takiego samego wsparcia ze względu na siłę przebicia, co oznacza, że ​​nie będziesz mieć do nich dostępu ważnych społeczności opieki” – powiedziała TechCrunch dr Carolina Are, pracownik Centrum Cyfrowych Obywateli Uniwersytetu Northumbria w Wielkiej Brytanii. „A większość użytkowników musi uciekać się do tych wspólnot opieki w takich sytuacjach, co naprawdę pokazuje niepowodzenie moderacji treści”.

Warto przeczytać!  Była dziewczyna Jonathana Majorsa uzyskała całkowity tymczasowy zakaz zbliżania się podczas śledztwa prokuratora okręgowego na Manhattanie

Zakazanie wyszukiwania hasła „taylor Swift” jest jak przyklejenie kawałka taśmy klejącej do pękniętej rury. Istnieje wiele oczywistych obejść, na przykład sposób, w jaki użytkownicy TikTok wyszukują „seggs” zamiast „seks”. Blok wyszukiwania był czymś, co X mógł wdrożyć, aby wyglądało, że coś robi, ale nie powstrzymuje to ludzi od wyszukiwania zamiast tego „t Swift”. Instytut Copia i założyciel Techdirt, Mike Masnick, nazwał ten wysiłek „wersją zaufania i bezpieczeństwa młotem kowalskim”.

„Platformy są do niczego, jeśli chodzi o dawanie kobietom, osobom niebinarnym i osobom queer wpływu na swoje ciała, więc replikują systemy przemocy i patriarchatu offline” – stwierdziła Are. „Jeśli Twoje systemy moderacji nie są w stanie zareagować w sytuacji kryzysowej lub jeśli Twoje systemy moderacji nie są w stanie zareagować na potrzeby użytkowników, którzy zgłaszają, że coś jest nie tak, mamy problem”.

Co zatem powinien był zrobić X, aby zapobiec fiasku Taylor Swift?

Are zadaje te pytania w ramach swoich badań i proponuje, aby platformy społecznościowe wymagały całkowitej zmiany sposobu, w jaki radzą sobie z moderacją treści. Niedawno przeprowadziła serię dyskusji przy okrągłym stole z 45 użytkownikami Internetu z całego świata, na których wpływa cenzura i nadużycia, aby wydać platformom zalecenia dotyczące sposobów wprowadzenia zmian.

Jedno z zaleceń dotyczy większej przejrzystości platform mediów społecznościowych w stosunku do indywidualnych użytkowników w zakresie decyzji dotyczących ich konta lub raportów na temat innych kont.

„Nie masz dostępu do akt sprawy, mimo że platformy mają dostęp do tych materiałów – po prostu nie chcą ich upubliczniać” – powiedział Are. „Myślę, że jeśli chodzi o molestowanie, ludzie potrzebują bardziej spersonalizowanej, kontekstowej i szybkiej reakcji, która obejmuje, jeśli nie pomoc bezpośrednią, to przynajmniej bezpośrednią komunikację”.

Warto przeczytać!  Jakie były cele ich podróży do Kolumbii?

X ogłosił w tym tygodniu, że zatrudni 100 moderatorów treści do pracy w nowym centrum „Zaufania i bezpieczeństwa” w Austin w Teksasie. Jednak zdaniem Muska platforma nie stworzyła mocnego precedensu w zakresie ochrony zmarginalizowanych użytkowników przed nadużyciami. Traktowanie Muska dosłownie może być trudne, ponieważ potentat ma długą historię niedotrzymywania obietnic. Kiedy po raz pierwszy kupił Twittera, Musk zadeklarował, że przed podjęciem najważniejszych decyzji utworzy radę ds. moderowania treści. Tak się nie stało.

W przypadku deepfake’ów generowanych przez sztuczną inteligencję problem nie leży tylko na platformach społecznościowych. Dotyczy to również firm, które tworzą skierowane do konsumentów produkty generatywnej sztucznej inteligencji.

Według dochodzenia przeprowadzonego przez 404 Media obraźliwe przedstawienia Swifta pochodziły od grupy na Telegramie zajmującej się tworzeniem bezsensownych, jawnych fałszywych fałszywych informacji. Członkowie grupy często używają Microsoft Designer, który czerpie z DALL-E 3 OpenAI do generowania obrazów na podstawie wprowadzonych podpowiedzi. W ramach luki, którą Microsoft wyeliminował od tego czasu, użytkownicy mogli generować obrazy gwiazd, wpisując podpowiedzi, takie jak „taylor „singer” Swift” lub „Jennifer „aktor” Aniston”.

Główny kierownik inżynierii oprogramowania w firmie Microsoft, Shane Jones, napisał list do prokuratora generalnego stanu Waszyngton, w którym stwierdził, że w grudniu znalazł luki w zabezpieczeniach DALL-E 3, które umożliwiły „ominięcie niektórych barier ochronnych zaprojektowanych w celu zapobiegania model przed tworzeniem i rozpowszechnianiem szkodliwych obrazów”.

Jones zaalarmował Microsoft i OpenAI o lukach, ale po dwóch tygodniach nie otrzymał żadnej informacji, że problemy są naprawiane. Opublikował więc list otwarty na LinkedIn, w którym nalegał, aby OpenAI zawiesiło dostępność DALL-E 3. Jones powiadomił firmę Microsoft o swoim liście, ale szybko poproszono go o jego usunięcie.

Warto przeczytać!  Anouk Aimée, tajemnicza gwiazda „Mężczyzny i kobiety”, umiera w wieku 92 lat

„Musimy pociągnąć firmy do odpowiedzialności za bezpieczeństwo ich produktów i obowiązek ujawniania opinii publicznej znanych zagrożeń” – napisał Jones w swoim piśmie do prokuratora generalnego stanu. „Zaniepokojeni pracownicy, tacy jak ja, nie powinni dać się zastraszyć i nakłonić do milczenia”.

OpenAI powiedział TechCrunch, że natychmiast zbadał raport Jonesa i stwierdził, że opisana przez niego technika nie omija jego systemów bezpieczeństwa.

„W podstawowym modelu DALL-E 3 pracowaliśmy nad odfiltrowaniem z danych szkoleniowych najbardziej jawnych treści, w tym drastycznych treści seksualnych i zawierających przemoc, a także opracowaliśmy solidne klasyfikatory obrazów, które kierują model z dala od generowania szkodliwych obrazów” – rzecznik z OpenAI powiedział. „Wdrożyliśmy także dodatkowe zabezpieczenia dla naszych produktów, ChatGPT i API DALL-E – w tym odrzucanie żądań zawierających imię i nazwisko osoby publicznej”.

OpenAI dodało, że wykorzystuje zewnętrzne czerwone zespoły do ​​testowania produktów pod kątem niewłaściwego użycia. Nadal nie potwierdzono, czy program Microsoftu jest odpowiedzialny za jawne deepfake Swifta, ale faktem jest, że od zeszłego tygodnia zarówno dziennikarze, jak i źli aktorzy Telegramu mogli używać tego oprogramowania do generowania zdjęć celebrytów.

Ponieważ najbardziej wpływowe firmy na świecie stawiają na sztuczną inteligencję, platformy muszą przyjąć proaktywne podejście do regulowania obraźliwych treści – ale nawet w czasach, gdy tworzenie deepfakes celebrytów nie było takie proste, agresywne zachowania z łatwością umykały moderacji.

„To naprawdę pokazuje, że platformy są zawodne” – powiedział Are. „Społeczności marginalizowane muszą bardziej ufać swoim obserwującym i innym użytkownikom niż osobom, które technicznie odpowiadają za nasze bezpieczeństwo w Internecie”.

Zaktualizowano 30.01.24 o 22:30 ET, z komentarzem OpenAI




Źródło