Biznes

OpenAI twierdzi, że buduje narzędzie umożliwiające twórcom treści „rezygnację” ze szkoleń w zakresie sztucznej inteligencji

  • 7 maja, 2024
  • 4 min read
OpenAI twierdzi, że buduje narzędzie umożliwiające twórcom treści „rezygnację” ze szkoleń w zakresie sztucznej inteligencji


Kredyty obrazkowe: Justina Sullivana / Getty Images

OpenAI twierdzi, że opracowuje narzędzie, które pozwoli twórcom lepiej kontrolować sposób, w jaki ich treści są wykorzystywane w szkoleniu generatywnej sztucznej inteligencji.

Narzędzie o nazwie Media Manager umożliwi twórcom i właścicielom treści identyfikację ich dzieł w OpenAI i określenie, w jaki sposób mają one być uwzględniane lub wykluczane z badań i szkoleń nad sztuczną inteligencją.

OpenAI twierdzi, że celem jest wprowadzenie narzędzia do 2025 r., ponieważ firma współpracuje z „twórcami, właścicielami treści i organami regulacyjnymi” w celu wypracowania standardu – być może za pośrednictwem branżowego komitetu sterującego, do którego niedawno dołączyła.

„Będzie to wymagało najnowocześniejszych badań nad uczeniem maszynowym, aby zbudować pierwsze w historii narzędzie tego rodzaju, które pomoże nam zidentyfikować tekst, obrazy, dźwięk i wideo chronione prawem autorskim w wielu źródłach oraz odzwierciedlić preferencje twórców” – napisała OpenAI w poście na blogu. „Z biegiem czasu planujemy wprowadzić dodatkowe opcje i funkcje”.

Wygląda na to, że Media Manager, niezależnie od tego, jaką ostatecznie przybierze formę, jest odpowiedzią OpenAI na rosnącą krytykę jego podejścia do rozwoju sztucznej inteligencji, które w dużej mierze opiera się na pobieraniu publicznie dostępnych danych z sieci. Niedawno osiem czołowych amerykańskich gazet, w tym Chicago Tribune, pozwało OpenAI za naruszenie własności intelektualnej związane z wykorzystaniem przez firmę generatywnej sztucznej inteligencji, oskarżając OpenAI o kradzież artykułów w celu szkolenia modeli generatywnej sztucznej inteligencji, które następnie skomercjalizowała bez rekompensaty – lub uznania – publikacji źródłowych.

Warto przeczytać!  ZUS bije na alarm. Polska potrzebuje dwóch milionów migrantów

Generacyjne modele sztucznej inteligencji, w tym OpenAI — rodzaje modeli, które potrafią analizować i generować tekst, obrazy, filmy i nie tylko — są trenowane na ogromnej liczbie przykładów pochodzących zwykle z publicznych witryn i zbiorów danych. OpenAI i inni dostawcy generatywnej sztucznej inteligencji argumentują, że dozwolony użytek, czyli doktryna prawna, która pozwala na wykorzystanie dzieł chronionych prawem autorskim do stworzenia wtórnego dzieła, o ile ma ono charakter przekształcający, chroni ich praktykę polegającą na pobieraniu danych publicznych i wykorzystywaniu ich do szkolenia modeli. Ale nie wszyscy się z tym zgadzają.

W rzeczywistości OpenAI niedawno argumentowało, że nie da się stworzyć użytecznych modeli sztucznej inteligencji bez materiałów chronionych prawem autorskim.

Aby jednak udobruchać krytyków i bronić się przed przyszłymi procesami sądowymi, OpenAI podjęła kroki, aby spotkać się z twórcami treści pośrodku.

W zeszłym roku OpenAI pozwoliło artystom „zrezygnować” i usunąć swoje prace ze zbiorów danych, których firma używa do szkolenia swoich modeli generujących obrazy. Firma umożliwia także właścicielom witryn wskazanie, za pośrednictwem standardu robots.txt, który przekazuje botom przeszukującym sieć instrukcje dotyczące witryn internetowych, czy zawartość ich witryny może zostać pobrana w celu wytrenowania modeli sztucznej inteligencji. OpenAI nadal zawiera umowy licencyjne z dużymi właścicielami treści, w tym z organizacjami informacyjnymi, bibliotekami mediów giełdowych i witrynami z pytaniami i odpowiedziami, takimi jak Stack Overflow.

Warto przeczytać!  Rada Polityki Pieniężnej (RPP). Wpis Joanny Tyrowicz w sprawie komunikatów z posiedzeń RPP

Niektórzy twórcy treści twierdzą jednak, że OpenAI nie zaszło wystarczająco daleko.

Artyści opisali procedurę rezygnacji z obrazów przez OpenAI, która wymaga przesłania indywidualnej kopii każdego obrazu do usunięcia wraz z opisem, jako uciążliwa. Według doniesień OpenAI stosunkowo niewiele płaci za licencjonowanie treści. Jak sama OpenAI przyznaje we wtorkowym poście na blogu, obecne rozwiązania firmy nie uwzględniają scenariuszy, w których dzieła twórców są cytowane, remiksowane lub ponownie publikowane na platformach, nad którymi nie mają kontroli.

Poza OpenAI wiele stron trzecich próbuje zbudować narzędzia o uniwersalnym pochodzeniu i umożliwiające rezygnację z generatywnej sztucznej inteligencji.

Startup Spawning AI, którego partnerami są Stability AI i Hugging Face, oferuje aplikację, która identyfikuje i śledzi adresy IP botów w celu blokowania prób scrapowania, a także bazę danych, w której artyści mogą rejestrować swoje prace, aby uniemożliwić szkolenie przez dostawców, którzy zdecydują się szanować upraszanie. Steg.AI i Imatag pomagają twórcom ustalić własność ich obrazów, nakładając znaki wodne niezauważalne dla ludzkiego oka. Projekt Nightshade z Uniwersytetu w Chicago „zatruwa” dane obrazu, czyniąc je bezużytecznymi lub zakłócającymi szkolenie w zakresie modeli sztucznej inteligencji.

Warto przeczytać!  Wyniki za IV kwartał 2024 r. Aktualizacje NA ŻYWO: JSW Steel, Godrej Industries, NHPC, Zydus Lifesciences, Astral, ZEE więcej ogłoszą dziś wyniki - Wiadomości branżowe




Źródło