Przełomowe badania Apple nad sztuczną inteligencją mogą przekształcić iPhone’y, wyprzedzić Google i Microsoft | Wiadomości technologiczne
![Przełomowe badania Apple nad sztuczną inteligencją mogą przekształcić iPhone’y, wyprzedzić Google i Microsoft | Wiadomości technologiczne](https://oen.pl/wp-content/uploads/2023/12/Apple-AI-1-770x470.jpg)
Sztuczna inteligencja to najgłośniejsze hasło roku 2023. Google i Microsoft zaprezentowały swoją linię produktów i plany oraz wielką wizję wykorzystania sztucznej inteligencji. W całym zamieszaniu wokół sztucznej inteligencji Apple wyraźnie milczy lub powoli prezentuje swoje możliwości w zakresie sztucznej inteligencji. Być może z tego powodu wielu zadaje sobie pytanie, co robi Apple, aby nadążać za wyścigiem zbrojeń opartym na sztucznej inteligencji. Odpowiedź jest prosta, Apple od lat pracuje nad sztuczną inteligencją na różnych poziomach. Tyle tylko, że użytkownicy nie byli w stanie zintegrować czegoś takiego jak ChatGPT na swoich iPhone’ach.
Jednak sytuacja wkrótce się zmieni. Apple w nowym artykule badawczym zademonstrował przełomową technikę, która może pomóc w uruchomieniu sztucznej inteligencji na iPhone’ach. Technika ta polega na usprawnieniu nieporęcznych systemów LLMS przy użyciu optymalizacji pamięci flash. Kiedy Apple zintegruje zaawansowaną sztuczną inteligencję w iPhonie, będzie to kolejny znaczący zwrot wydarzeń. Gigant technologiczny z Cupertino ogłosił znaczący rozwój sztucznej inteligencji w dwóch nowych artykułach badawczych, które zaprezentował w tym miesiącu. W artykule ujawniono nowe techniki awatarów 3D i wydajne wnioskowanie o modelach językowych.
Wyniki nowego badania „LLM in a Flash: Efficient Large Language Model Inference with Limited Memory”, opublikowane 12 grudnia, mogą potencjalnie zmienić sposób korzystania z iPhone’a, ponieważ może zapewnić bardziej wciągające wrażenia wizualne, a użytkownicy będą mogli uzyskać dostęp do złożonych systemów sztucznej inteligencji na iPhone’y i iPady. Artykuł badawczy zasadniczo koncentruje się na wydajnym uruchamianiu dużych modeli językowych na urządzeniach o ograniczonej pojemności DRAM. DRAM to dynamiczna pamięć o dostępie swobodnym stosowana w komputerach PC, znana z dużej szybkości, dużej gęstości, przystępności cenowej i mniejszego zużycia energii.
Oto kilka wniosków z badań, które pozwolą Apple wyprzedzić konkurencję
W artykule omówiono wyzwanie związane z uruchamianiem modułów LLM, które w rzeczywistości przekraczają dostępną pamięć DRAM, przechowywaniem parametrów modelu w pamięci flash i uruchamianiem ich w pamięci DRAM na żądanie. Mówi o wnioskowanym modelu kosztów, który został opracowany w celu optymalizacji transferu danych z pamięci flash, biorąc pod uwagę charakterystykę pamięci flash i DRAM.
Techniki omówione w artykule to okienkowanie, które ogranicza transfer danych poprzez ponowne wykorzystanie wcześniej aktywowanych neuronów, oraz łączenie wierszy i kolumn, które zwiększa rozmiar porcji danych w celu wydajnego odczytu pamięci flash.
W artykule zwrócono także uwagę na technologię Sparsity Exploitation, która wykorzystuje rzadkość w warstwach sieci FeedForward Network (FFN) do selektywnego ładowania parametrów w celu zwiększenia wydajności. Innym kluczowym aspektem jest zarządzanie pamięcią, które proponuje strategie efektywnego zarządzania załadowanymi danymi w pamięci DRAM w celu zminimalizowania narzutu.
Aby zademonstrować swoje podejście, badacze wykorzystali modele takie jak OPT 6.7B i Falcon 7B. Jak wynika z artykułu, wyniki pokazały, że modele osiągnęły 4-5x i 20-25x wzrost prędkości odpowiednio procesora i karty graficznej w porównaniu z tradycyjnymi metodami.
Jeśli chodzi o praktyczne zastosowanie badań, oba modele wykazały znaczną poprawę w środowiskach o ograniczonych zasobach.
Nowe badanie Apple pokazuje innowacyjne podejście do wydajnego działania LLM w środowiskach o ograniczonej dostępności sprzętu. Wyznacza nowy kierunek przyszłych badań nad doświadczeniami użytkowników urządzeń i nowej generacji.
Co to oznacza dla użytkowników iPhone’a?
Z punktu widzenia użytkownika odkrycia dotyczące wydajnego wnioskowania LLM przy ograniczonej pamięci mogą przynieść ogromne korzyści zarówno użytkownikom Apple, jak i iPhone’a. Dzięki wydajnym LLM działającym efektywnie na urządzeniach z ograniczoną ilością pamięci DRAM, takich jak iPhone’y i iPady, użytkownicy będą mogli doświadczyć ulepszonych możliwości sztucznej inteligencji na wyciągnięcie ręki. Możliwości te obejmują ulepszone przetwarzanie języka, bardziej wyrafinowanych asystentów głosowych, większą prywatność, potencjalnie zmniejszone wykorzystanie przepustowości Internetu i, co najważniejsze, udostępnienie i responsywność zaawansowanej sztucznej inteligencji wszystkim użytkownikom iPhone’a.
Niezależnie od przyszłych możliwości, które pokazują, jak Apple pracuje nad zdominowaniem badań i zastosowań sztucznej inteligencji, eksperci wydają się zachować ostrożność. Niektórzy eksperci zdają się sugerować, że gigant technologiczny będzie musiał zachować szczególną ostrożność i odpowiedzialność, włączając wyniki badań do rzeczywistych przypadków użycia. Niektórzy nawet podkreślali potrzebę rozważenia ochrony prywatności, sposobów ograniczenia potencjalnego nadużycia i ogólnego wpływu.
© IE Online Media Services Pvt Ltd
Po raz pierwszy opublikowano: 22.12.2023 o 16:01 czasu wschodniego