Wygenerowany przez sztuczną inteligencję film przedstawiający Willa Smitha jedzącego spaghetti zadziwia straszliwą urodą – Ars Technica
![Wygenerowany przez sztuczną inteligencję film przedstawiający Willa Smitha jedzącego spaghetti zadziwia straszliwą urodą – Ars Technica](https://oen.pl/wp-content/uploads/2023/03/Wygenerowany-przez-sztuczna-inteligencje-film-przedstawiajacy-Willa-Smitha-jedzacego-spaghetti-770x450.jpg)
![Kadry z wygenerowanego przez sztuczną inteligencję filmu, na którym Will Smith je spaghetti.](https://oen.pl/wp-content/uploads/2023/03/Wygenerowany-przez-sztuczna-inteligencje-film-przedstawiajacy-Willa-Smitha-jedzacego-spaghetti.jpg)
Wśród kontrowersji związanych z sztuczną inteligencją w zeszłym tygodniu dotyczących regulacji, obaw przed zagładą świata i zakłóceń w pracy, chmury na krótko się rozstąpiły. Przez krótką i olśniewającą chwilę możemy cieszyć się absolutnie absurdalnym filmem wygenerowanym przez sztuczną inteligencję, na którym Will Smith je spaghetti, które teraz rozświetla nasze życie swoją straszliwą chwałą.
W poniedziałek użytkownik Reddita o nazwie „chaindrop” udostępnił wideo wygenerowane przez sztuczną inteligencję na subreddicie r/StableDiffusion. To szybko się rozprzestrzeniać do innych form mediów społecznościowych i zainspirował mieszane refleksje w prasie. Na przykład Vice powiedział, że wideo „będzie cię prześladować przez resztę życia”, podczas gdy AV Club nazwał to „naturalnym punktem końcowym rozwoju sztucznej inteligencji”.
Jesteśmy gdzieś pomiędzy. 20-sekundowy cichy film składa się z 10 niezależnie wygenerowanych dwusekundowych segmentów połączonych ze sobą. Każdy z nich pokazuje różne kąty symulowanego Willa Smitha (w pewnym momencie nawet dwóch Will Smithów) łapczywie pożerającego spaghetti. Jest w całości generowany komputerowo dzięki sztucznej inteligencji.
A zobaczysz to teraz:
Wiemy, co myślisz: „Czyż nie widziałem tego rodzaju zaawansowanej technologii deepfake w 1987 r.„Uciekający mężczyzna”.Nie, to Jesse „The Body” Ventura pokonał fałszywego Arnolda Schwarzeneggera w dystopijnym teleturnieju w klatce, którego akcja rozgrywa się gdzieś między 2017 a 2019 rokiem. Tutaj, w 2023 roku, mamy fałszywego Willa Smitha jedzącego spaghetti.
Ten wyczyn jest możliwy dzięki nowemu narzędziu AI o otwartym kodzie źródłowym o nazwie ModelScope, wydanemu kilka tygodni temu przez DAMO Vision Intelligence Lab, dział badawczy Alibaba. ModelScope to model rozpowszechniania „text2video”, który został przeszkolony w zakresie tworzenia nowych filmów na podstawie monitów poprzez analizę milionów obrazów i tysięcy filmów zeskrobanych do zestawów danych LAION5B, ImageNet i Webvid. Obejmuje to filmy z Shutterstock, stąd upiorny znak wodny „Shutterstock” na jego wyjściu.
Społeczność sztucznej inteligencji HuggingFace udostępnia obecnie wersję demonstracyjną ModelScope online, chociaż wymaga ona konta, a do jej uruchomienia trzeba zapłacić za czas obliczeniowy. Próbowaliśmy go użyć, ale był przeciążony, prawdopodobnie z powodu spaghetti manii Smitha.
Według chaindrop, proces tworzenia wideo był dość prosty: podaj ModelScope monit „Will Smith je spaghetti” i wygeneruj go z prędkością 24 klatek na sekundę (FPS). Następnie chaindrop użył narzędzia interpolacji Flowframes, aby zwiększyć liczbę klatek na sekundę z 24 do 48, a następnie zwolnił ją do połowy prędkości, co skutkowało płynniejszym filmem.
Oczywiście ModelScope nie jest jedyną grą w mieście dotyczącą rozwijającej się dziedziny text2video. Niedawno Runway zadebiutował „Gen-2”, a wcześniej omawialiśmy wczesne projekty badawcze dotyczące text2video z Meta i Google.
Odkąd Will Smith jedzący spaghetti stał się wirusowym hitem, Internet został zaszczycony kontynuacjami, takimi jak Scarlett Johansson i Joe Biden jedzący spaghetti. Jest nawet Smith jedzący klopsiki, wideo, które być może jest naprawdę przerażające. Ale wciąż jest świetny – idealna przyszła pasza dla memów.
Oczywiście, gdy wyniki tych narzędzi text2video staną się zbyt realistyczne, będziemy musieli zająć się innymi problemami — prawdopodobnie głębokimi problemami społecznymi i kulturowymi. Ale na razie cieszmy się niedoskonałą, okropną chwałą ModelScope. Z góry przepraszamy.