Rozrywka

Sarah Silverman napotyka przeszkodę w procesie dotyczącym sztucznej inteligencji przeciwko Meta – The Hollywood Reporter

  • 21 listopada, 2023
  • 5 min read
Sarah Silverman napotyka przeszkodę w procesie dotyczącym sztucznej inteligencji przeciwko Meta – The Hollywood Reporter


Sędzia federalny oddalił większość pozwu Sarah Silverman przeciwko Meta w związku z nieuprawnionym wykorzystaniem książek autorów chronionych prawem autorskim do szkolenia jej modelu generatywnej sztucznej inteligencji, co stanowi drugie orzeczenie sądu stojącego po stronie firm zajmujących się sztuczną inteligencją w sprawie nowatorskich kwestii własności intelektualnej przedstawionych w batalii prawnej .

W poniedziałek amerykański sędzia okręgowy Vince Chhabria całkowicie zaprzeczył jednej z podstawowych teorii autorów, jakoby system sztucznej inteligencji Meta sam w sobie był dziełem pochodnym naruszającym prawa autorskie, możliwym jedynie dzięki informacjom uzyskanym z materiałów chronionych prawem autorskim. „To nonsens” – napisał w postanowieniu. „Nie można rozumieć samych modeli LLaMA jako przekształcenia lub adaptacji którejkolwiek z książek powodów”.

Inny argument Silverman, jakoby każdy wynik uzyskany przez narzędzia sztucznej inteligencji Meta stanowi naruszenie praw autorskich, został odrzucony, ponieważ nie przedstawiła ona dowodów na to, że którykolwiek z wyników „można by zrozumieć jako przekształcenie, przekształcenie lub adaptacja ksiąg powodów”. Chhabria dała swoim prawnikom szansę na ponowne przedstawienie pozwu wraz z pięcioma innymi osobami, którym nie pozwolono na wniesienie pozwu.

Warto przeczytać!  Poznaj obsadę 21. sezonu „Top Chef”.

Warto zauważyć, że Meta nie odrzuciła zarzutu, jakoby kopiowanie książek w celu szkolenia jej modelu sztucznej inteligencji osiągnęło poziom naruszenia praw autorskich.

Orzeczenie opiera się na ustaleniach innego sędziego federalnego nadzorującego pozew złożony przez artystów pozywających generatory dzieł sztuki AI w związku z wykorzystaniem miliardów obrazów pobranych z Internetu jako danych szkoleniowych. W tej sprawie amerykański sędzia okręgowy William Orrick w podobny sposób zadał cios zasadniczym twierdzeniom pozwu, kwestionując, czy artyści mogą uzasadnić naruszenie praw autorskich w przypadku braku identycznego materiału stworzonego za pomocą narzędzi sztucznej inteligencji. Nazwał zarzuty „wadliwymi pod wieloma względami”.

Niektóre kwestie przedstawione w postępowaniu sądowym mogą zadecydować o tym, czy twórcy otrzymają wynagrodzenie za wykorzystanie ich materiałów do szkolenia chatbotów naśladujących człowieka, które mogą potencjalnie podcinać ich pracę. Firmy zajmujące się sztuczną inteligencją utrzymują, że nie muszą zabezpieczać licencji, ponieważ są chronione przez obronę dozwolonego użytku przed naruszeniem praw autorskich.

Zgodnie ze skargą złożoną w lipcu model sztucznej inteligencji Meta „kopiuje każdy fragment tekstu ze zbioru danych szkoleniowych”, a następnie „stopniowo dostosowuje swoje dane wyjściowe, aby bardziej przypominały” wyrażenia wyodrębnione ze zbioru danych szkoleniowych. Pozew obracał się wokół twierdzenia, że ​​całym celem LLaMA jest naśladowanie wypowiedzi chronionych prawem autorskim i że cały model należy uznać za dzieło pochodne naruszające prawa autorskie.

Warto przeczytać!  Dziwne nowe światy” i „Dolne pokłady” odnowione; Ogłoszono letnie daty premier – TrekMovie.com

Jednak Chhabria nazwał ten argument „niewykonalnym” ze względu na brak zarzutów lub dowodów sugerujących, że LLaMA, skrót od Meta AI modelu dużego języka, została „przekształcona, przekształcona lub dostosowana” w oparciu o wcześniej istniejące dzieło chronione prawem autorskim.

Inna z głównych teorii Silvermana – podobnie jak innych twórców pozywających firmy zajmujące się sztuczną inteligencją – głosiła, że ​​każdy wynik wytworzony przez modele sztucznej inteligencji stanowi naruszenie instrumentów pochodnych, a firmy czerpią korzyści z każdej odpowiedzi zainicjowanej przez użytkowników zewnętrznych, co rzekomo stanowi akt zastępczego naruszenia. Sędzia stwierdziła, że ​​jej prawnicy, którzy reprezentują także artystów pozywających StabilityAI, DeviantArt i Midjourney, „niesłusznie twierdzą, że” – ponieważ ich książki zostały w całości zduplikowane w ramach procesu szkoleniowego LLaMA – dowody zasadniczo podobnych wyników nie są niezbędny.

„Aby oprzeć się na teorii, że wyniki LLaMA stanowią naruszenie instrumentów pochodnych, powodowie rzeczywiście musieliby twierdzić i ostatecznie udowodnić, że wyniki „obejmują w jakiejś formie część” ksiąg powodów” – napisał Chhabria. Jego rozumowanie odzwierciedlało rozumowanie Orricka, który w pozwie przeciwko StabilityAI stwierdził, że „utwór pochodny rzekomego sprawcy naruszenia musi nadal wykazywać pewne podobieństwo do utworu oryginalnego lub zawierać chronione elementy utworu oryginalnego”.

Warto przeczytać!  Hiszpański akcent Hilarii Baldwin powraca, gdy błaga reporterów, żeby sobie poszli

Oznacza to, że w większości przypadków powodowie będą musieli przedstawić dowody potwierdzające naruszenie dzieł stworzonych za pomocą narzędzi sztucznej inteligencji, które są identyczne z ich materiałami chronionymi prawem autorskim. Stanowi to potencjalnie poważny problem, ponieważ w niektórych przypadkach przyznano, że żaden z wyników prawdopodobnie nie będzie ściśle zgodny z materiałem wykorzystanym w danych szkoleniowych. Zgodnie z prawem autorskim test istotnego podobieństwa służy ocenie stopnia podobieństwa w celu ustalenia, czy doszło do naruszenia.

Wśród innych oddalonych roszczeń z postanowienia Chhabrii znajdują się roszczenia dotyczące bezpodstawnego wzbogacenia i naruszenia przepisów prawa konkurencji. W zakresie, w jakim opierają się one na zachowanym pozwie dotyczącym naruszenia praw autorskich, stwierdził, że zostały one wywłaszczone.

Meta nie odpowiedziała natychmiast na prośbę o komentarz.

W lipcu Silverman przyłączył się także do pozwu zbiorowego przeciwko OpenAI, zarzucając firmie naruszenie praw autorskich. Sprawa została połączona z innymi pozwami autorów w sądzie federalnym.


Źródło