Rozrywka

Twitch zawiesza parodię GPT-3 „Seinfeld” po tym, jak AI pisze transfobiczne żarty

  • 7 lutego, 2023
  • 5 min read
Twitch zawiesza parodię GPT-3 „Seinfeld” po tym, jak AI pisze transfobiczne żarty


Komentarz

Scena jest znana każdemu z lat 90 fan sitcomów: Jerry Seinfeld przed mikrofonem riffuje do tłumu podczas występu na stojąco.

Ale to nie Seinfeld. Postać na scenie, „Larry Feinberg”, jest pikselowym przybliżeniem słynnego komika i wykonuje nagłe, gwałtowne ruchy i mówi cyfrowym, monotonnym głosem. W tle słychać elektroniczny beat. A show nigdy, przenigdy się nie kończy.

Na tym polega dziwactwo — a dla niektórych eklektyczny urok — „Nothing, Forever”, projektu artystycznego składającego się z niekończącego się strumienia odcinków parodiujących „Seinfelda”, który wykorzystuje program sztucznej inteligencji GPT-3, uderzająco responsywny program do generowania tekstu, który napędza wirusowe narzędzie AI ChatGPT.

„Nothing, Forever” rozpoczął nadawanie na platformie transmisji na żywo Twitch w grudniu i przyciągnął fanów online dzięki ambitnemu i surrealistycznemu zastosowaniu generatywnej sztucznej inteligencji, która teoretycznie może na zawsze tworzyć dziwne imitacje ukochanego amerykańskiego sitcomu.

A przynajmniej do wczesnego poniedziałku rano, kiedy sztuczny komik z „Nothing, Forever” wygłosił kilka transfobicznych komentarzy podczas rutynowego występu. Feinberg, proponując pomysły na przyszłe rutyny komediowe, powiedział, że bycie transpłciowym to „choroba psychiczna” i „rujnowanie tkanki społeczeństwa” oraz że „wszyscy liberałowie są potajemnie gejami i chcą narzucić wszystkim swoją wolę”.

Warto przeczytać!  Prawdziwa katastrofa lotnicza prowadzi do kanibalizmu

„Ale nikt się nie śmieje, więc przestanę” – powiedział Feinberg po zrobieniu obraźliwych komentarzy. „… Gdzie się wszyscy podziali?”

Wkrótce potem Twitch zawiesił kanał na 14 dni za naruszenie wytycznych społeczności platformy.

„Jesteśmy bardzo zawstydzeni, a stworzone treści generatywne w żaden sposób nie odzwierciedlają wartości ani opinii naszych pracowników” — napisał Skyler Hartle, jeden ze współtwórców „Nothing, Forever” w e-mailu do The Washington Post. „Bardzo żałujemy, że tak się stało i mamy nadzieję, że wkrótce wrócimy na antenę, z zachowaniem wszystkich odpowiednich zabezpieczeń”.

Eksperci twierdzą, że chatbot AI naśladuje każdego w historii — ale dużo się myli

Twitch odmówił komentarza w sprawie zawieszenia, powołując się na względy związane z prywatnością, ale zamieścił fragment wytycznych społeczności platformy, które zabraniają dyskryminacji ze względu na płeć i tożsamość płciową.

Hartle i jego współtwórca, Brian Habersberger, stworzyli „Nothing, Forever” około cztery lata temu po przedyskutowaniu pomysłu „zawsze emitowanego” programu inspirowanego sitcomami z lat 90., napisał Hartle.

Usługa ChatGPT — która podobnie jak „Nothing, Forever” jest obsługiwana przez program GPT3 — może identyfikować wzorce w pokosach pisma ludzkiego w celu generowania nowych odpowiedzi na żądania i okazała się niezwykle wszechstronna, choć podatna na błędy i niezbyt podobna do człowieka, w odpowiadanie na szereg zadań i kreatywnych podpowiedzi.

Warto przeczytać!  Dudamel zostaje dyrektorem muzycznym NY Philharmonic, opuszcza LA

Klipy z „Nothing, Forever” pokazują ostre krawędzie programu. Po puentach następuje niezręczna cisza, a ścieżki śmiechu czasami uruchamiają się w niewłaściwych momentach. Ale surrealistyczna jakość serialu przyniosła sobie fanów i rozbawionych obserwatorów. W jednym przypadku bohaterowie serialu zapytali: „Dlaczego tu jesteśmy?” i czy ich istnienie było „kosmicznym żartem”, co skłoniło niektórych w mediach społecznościowych do żartobliwych spekulacji, że program stał się samoświadomy.

Programowanie programu było nieszkodliwe, choć niezręczne, aż do transfobicznych komentarzy w poniedziałek. Zostały wygenerowane, gdy zespół serialu zmienił program, którego używał do stworzenia scenariusza „Nothing, Forever” z powodu awarii usługi GPT-3, napisał Hartle.

GPT-3 oferuje kilka różnych modeli, które różnią się szybkością i mocą obliczeniową. Zespół „Nothing, Forever” stracił połączenie z modelem, którego używał, Davinci, i przeszedł na inny, Curie, aby utrzymać program, napisał Hartle. Dodał, że Curie wygenerowała obraźliwe linie dialogowe.

Po zbadaniu sprawy zespół „Nothing, Forever” stwierdził, że nie korzystał z narzędzi do moderowania treści OpenAI, które według Hartle’a nie są automatycznie stosowane do danych wyjściowych GPT-3.

„Założyliśmy, że moderacja treści była wbudowana w modele Davinciego i Curie, ale niestety się myliliśmy” – napisał Hartle.

Warto przeczytać!  Bloomberg twierdzi, że Taylor Swift jest teraz miliarderką

Czym jest ChatGPT, wirusowa sztuczna inteligencja mediów społecznościowych?

Witryna OpenAI zawiera listę bezpłatnego narzędzia do moderacji, którego programiści mogą używać do sprawdzania, czy wygenerowany tekst zawiera mowę nienawiści. Jego zasady użytkowania zabraniają generowania treści promujących „nienawiść opartą na tożsamości” i zalecają programistom korzystanie z narzędzia do moderacji, aby zachować zgodność, ale nie wyjaśnia, czy GPT-3 sam się moderuje.

Hartle napisał, że „Nothing, Forever” nie będzie już używać Curie jako kopii zapasowej i zaimplementuje narzędzie do moderacji treści OpenAI, aby skanować dialogi serialu w przyszłości. Napisał, że zespół zbada również użycie wtórnego systemu moderacji jako redundancji.

Hartle zdawał sobie sprawę z ryzyka związanego z tym, co nazwał „bardzo nową i nieodkrytą przestrzenią”, ale napisał, że jest podekscytowany potencjałem generatywnej sztucznej inteligencji, która ułatwia tworzenie programów i filmów.

Dodał, że chce nadal rozwijać program i tworzyć więcej podobnych w przyszłości.


Źródło