Apple Intelligence nie wykorzystało danych z YouTube do szkolenia: oto, co powiedziała firma
Firma Apple niedawno potwierdziła, że jej model AI Efficient Language Models (OpenELM) z otwartym kodem źródłowym, który firma wydała w kwietniu, nie obsługuje żadnej z jej funkcji AI ani uczenia maszynowego, w tym Apple Intelligence, zgodnie z 9To5Mac. Stało się to kilka dni po tym, jak dochodzenie wykazało, że Apple i inni giganci technologiczni użyli tysięcy napisów YouTube do trenowania swoich modeli AI.
Jak wspomniano w raporcie, Apple stwierdziło, że opracowało model OpenELM, aby przyczynić się do rozwoju społeczności badawczej i przyspieszyć rozwój dużego modelu języka open-source. Wcześniej badacze Apple opisali OpenELM jako najnowocześniejszy otwarty model języka.
Według marki OpenELM został zbudowany wyłącznie do celów badawczych i nie ma na celu zasilania żadnych funkcji Apple Intelligence. Model AI został wydany jako open source i jest szeroko dostępny na stronie internetowej Apple Machine Learning Research.
W zeszłym miesiącu artykuł badawczy zasugerował, że Apple nie używa danych użytkownika do trenowania swojego Apple Intelligence. Firma stwierdziła, że modele AI były trenowane na licencjonowanych danych, w tym danych wybranych w celu ulepszenia określonych funkcji, a także publicznie dostępnych danych zebranych przez naszego web crawlera, AppleBot.
Niedawne dochodzenie Wired zasugerowało, że kilka dużych firm, w tym Apple, NVIDIA, Anthropic, Salesforce i inne, wykorzystało napisy z ponad 170 000 filmów YouTube popularnych twórców treści do trenowania swoich modeli AI. Ten zestaw danych jest częścią większej kolekcji o nazwie The Pile, należącej do organizacji non-profit EleutherAI.
Gigant technologiczny oświadczył również, że nie zamierza wypuszczać nowych wersji modelu OpenELM.
karuzela wideo
Z drugiej strony rzeczniczka Anthropic, Jennifer Martinez, powiedziała Proof News, publikacji, która przeprowadziła dochodzenie: „Pile obejmuje bardzo mały podzbiór napisów YouTube. Warunki YouTube obejmują bezpośrednie korzystanie z platformy, co jest odrębne od korzystania z zestawu danych Pile. Jeśli chodzi o potencjalne naruszenia warunków korzystania z usługi YouTube, musielibyśmy odesłać Cię do autorów Pile”.
Funkcje Apple Intelligence zostały ujawnione na wydarzeniu WWDC 2024 firmy i będą dostępne w pewnej formie wraz z premierą serii iPhone 16. Te funkcje GenAI będą dostępne tylko na iPhone 15 Pro, iPhone 15 Pro Max oraz iPadzie i komputerze Mac z chipsetem M1 lub nowszym.
Z drugiej strony rzeczniczka Anthropic, Jennifer Martinez, powiedziała Proof News, publikacji, która przeprowadziła dochodzenie: „Pile obejmuje bardzo mały podzbiór napisów YouTube. Warunki YouTube obejmują bezpośrednie korzystanie z platformy, co jest odrębne od korzystania z zestawu danych Pile. Jeśli chodzi o potencjalne naruszenia warunków korzystania z usługi YouTube, musielibyśmy odesłać Cię do autorów Pile”.
Funkcje Apple Intelligence zostały ujawnione na wydarzeniu WWDC 2024 firmy i będą dostępne w pewnej formie wraz z premierą serii iPhone 16. Te funkcje GenAI będą dostępne tylko na iPhone 15 Pro, iPhone 15 Pro Max oraz iPadzie i komputerze Mac z chipsetem M1 lub nowszym.
najlepsze filmy
Pokaż wszystkie
Zagrożenie Deepfake w Indiach jest prawdziwe! Jak możemy się przed nim chronić? Znajdź w Breakfast Club
O Deepfakes: CNN-News18 rozmawia z doktorem Oren Etzioni, założycielem TrueMedia.Org
Meta traci miliony, ponieważ Facebook i Instagram zniknęły
WhatsApp wprowadza funkcję wyszukiwania według daty
Czy wiesz, że to sztuczna inteligencja, a nie ludzie, skanuje Twoje CV? | The Breakfast Club | News18
Lokalizacja: Kalifornia, USA
opublikowane po raz pierwszy: 22 lipca 2024, 13:10 IST