W badaniu system AI organizuje się tak, aby bardziej przypominać ludzki mózg | Wiadomości technologiczne

Naukowcy z Uniwersytetu w Cambridge nakładają fizyczne ograniczenia na system sztucznej inteligencji, podobnie jak mózgi ludzi i innych zwierząt muszą się rozwijać i funkcjonować zarówno w oparciu o konstrukcje fizyczne, jak i biologiczne. Następnie system opracował pewne cechy mózgów złożonych organizmów w celu rozwiązywania zadań.
W badaniu opublikowanym dzisiaj w czasopiśmie Nature Machine Intelligence Jascha Achterberg i Danyal Akarca z Medical Research Council Cognition and Brain Sciences Unit (MRC CBSU) na Uniwersytecie w Cambridge współpracowali ze swoimi kolegami nad opracowaniem uproszczonej wersji mózgu i zastosowali pewne ograniczenia fizyczne przed przekazaniem zadań systemowych. Technologię tę można potencjalnie wykorzystać do opracowania bardziej wydajnych systemów sztucznej inteligencji, a nawet lepszego zrozumienia samego ludzkiego mózgu.
Opracowanie systemu z takimi samymi ograniczeniami jak mózg
Zamiast używać prawdziwych neuronów lub komórek mózgowych, wykorzystano węzły obliczeniowe. Dzieje się tak, ponieważ zarówno neurony, jak i węzły mają podobne funkcje. Obydwa pobierają dane wejściowe, przekształcają je, produkują i wytwarzają. Ponadto pojedynczy węzeł lub neuron może łączyć się z wieloma innymi, a każdy z nich wysyła i wprowadza informacje.
Fizyczne ograniczenia, jakie nałożyli na swój system węzłów obliczeniowych, były podobne do ograniczeń doświadczanych przez neurony w mózgu – każdemu węzłowi przydzielono określone położenie w przestrzeni wirtualnej, a im dalej był od drugiego, tym trudniej było mu to osiągnąć. oboje do komunikowania się.
Po nałożeniu tego ograniczenia dali systemowi zadanie do wykonania. Zadanie w tym przypadku było uproszczoną wersją zadania nawigacji w labiryncie, które zwykle zleca się zwierzętom takim jak szczury i małpy podczas badania ich mózgów. Zasadniczo otrzymywano wiele informacji, aby wybrać najkrótszą drogę do punktu końcowego labiryntu.
System początkowo nie wiedział, jak wykonać zadanie i ciągle popełniał błędy. Naukowcy przekazywali mu informacje zwrotne, aż stopniowo nauczył się lepiej radzić sobie z zadaniem. Następnie system powtarzał zadanie w kółko, aż nauczył się, jak wykonać je poprawnie.
Jak wspomnieliśmy wcześniej, ograniczenia nałożone na system oznaczały, że im dalej w przestrzeni wirtualnej znajdowały się dwa węzły, tym trudniej było zbudować połączenie między dwoma węzłami w odpowiedzi na sprzężenie zwrotne. Podobnie jest z tym, że tworzenie i utrzymywanie połączeń w mózgu na dużą odległość jest droższe.
Te same sztuczki, co ludzki mózg
Kiedy system wykonywał te zadania z tymi ograniczeniami, korzystał z tych samych „sztuczek”, których używają prawdziwe ludzkie mózgi do rozwiązywania tych samych zadań. Jednym z przykładów jest próba obejścia ograniczeń poprzez utworzenie koncentratorów wysoce połączonych ze sobą notatek, które działały jako węzły umożliwiające przekazywanie informacji w sieci.
Jednak tym, co bardziej zaskoczyło badaczy, był fakt, że zachowanie poszczególnych węzłów zaczęło się zmieniać. Zamiast systemu, w którym każdy węzeł szuka jednej konkretnej właściwości zadania labiryntu, np. lokalizacji celu lub następnego wyboru, węzły opracowały „elastyczny schemat kodowania”.
Oznaczało to, że w różnych momentach węzły mogły „wystrzeliwać” mieszankę właściwości labiryntu. Na przykład ten sam węzeł może kodować różne lokalizacje labiryntu, zamiast potrzebować wyspecjalizowanych węzłów do kodowania określonych lokalizacji. Obserwuje się to również w złożonych mózgach zwierząt.
To dość fascynujące, że to jedno proste ograniczenie – utrudniające łączenie bardziej oddalonych od siebie węzłów – zmusiło system sztucznej inteligencji do przyjęcia skomplikowanych cech. Te cechy są wspólne dla systemów biologicznych, takich jak ludzki mózg.
Projektowanie wydajniejszych systemów AI
Jedną z głównych konsekwencji tych badań jest to, że mogą one umożliwić opracowanie bardziej wydajnych modeli sztucznej inteligencji. Wiele znanych nam popularnych systemów sztucznej inteligencji, takich jak technologia wstępnie przeszkolonego transformatora generatywnego (GPT) używana przez OpenAI, wykorzystuje wiele zasobów, takich jak moc obliczeniowa (GPU) i energia elektryczna.
„Widzimy duży potencjał w wykorzystaniu naszych spostrzeżeń do tworzenia modeli sztucznej inteligencji, które są prostsze w swojej wewnętrznej strukturze, przy jednoczesnym zachowaniu ich możliwości, dzięki czemu działają wydajniej na chipach komputerowych. Uważamy również, że nasze wyniki mogą pomóc w lepszym rozmieszczeniu dużych modeli sztucznej inteligencji w wielu chipach w ramach dużych klastrów obliczeniowych” – Achterberg powiedział indianexpress.com w wywiadzie e-mailowym.
Obecna implementacja „systemu AI osadzonego przestrzennie” jest zbudowana przy użyciu bardzo małego i prostego modelu do badania jego efektów. Można go jednak skalować w celu tworzenia większych systemów sztucznej inteligencji.
Podczas gdy wiele firm, takich jak Google, Amazon, Meta i IBM, również zbudowało chipy AI, Nvidia dominuje na rynku. Odpowiada za ponad 70 procent sprzedaży chipów AI na rynku. To, w połączeniu z faktem, że kraje takie jak Stany Zjednoczone ograniczają sprzedaż chipów AI na niektórych rynkach, oznacza, że są one bardzo drogie i trudniejsze do zdobycia. Zużywają także dużo energii elektrycznej, przyczyniając się do zmian klimatycznych
Z tego powodu istnieje duże zainteresowanie budowaniem rzadkich modeli sztucznej inteligencji, które działają z mniejszym zestawem parametrów i mniejszą liczbą „połączeń neuronowych”. Teoretycznie modele rzadkie mogą działać wydajniej. Wyniki badań z Cambridge mogą pomóc w zbudowaniu rzadkich modeli inspirowanych mózgiem, które będą w stanie skuteczniej rozwiązywać te same problemy.
Zrozumienie ludzkiego mózgu
Technologia ta ma jeszcze bardziej interesującą perspektywę — być może uda się ją nawet wykorzystać do lepszego badania ludzkiego mózgu.
„Mózg jest zadziwiająco skomplikowanym organem i aby go zrozumieć, musimy zbudować uproszczone modele jego funkcji, aby wyjaśnić zasady, według których działa mózg. Jedną z głównych zalet tych sztucznych modeli jest to, że możemy badać w nich zjawiska, które są trudne do zbadania w prawdziwym mózgu” – powiedział Achterberg. W przypadku prawdziwego mózgu nie można usunąć neuronu, a następnie dodać go później, aby zobaczyć, jaka jest jego dokładna rola. Ale dzięki systemom sztucznej inteligencji jest to całkowicie możliwe.
„Jednym z głównych problemów neuronauki jest to, że zazwyczaj możemy zarejestrować jedynie strukturę mózgu (które neurony są połączone z jakimi innymi neuronami?) lub funkcję mózgu (które neurony aktualnie wysyłają i odbierają informacje?). Korzystając z naszego uproszczonego sztucznego modelu, pokazujemy, że możemy badać zarówno zasady strukturalne, jak i funkcjonalne mózgu, aby badać powiązania między strukturą i funkcją mózgu” – dodał Achterberg.
Najczesciej czytane
Co stanie się z Twoim organizmem, jeśli będziesz jadł tylko owoce przez 72 godziny?
Finał Pucharu Świata: Po porażce z Australią Rahul Dravid mówi, że Indie „dały z siebie wszystko”; niepewny własnej przyszłości
To, co opisał Achterberg, byłoby niezwykle trudne do zrealizowania na podstawie danych zarejestrowanych z prawdziwego mózgu. Dzięki uproszczonym sztucznym mózgom mogłoby to być dużo łatwiejsze.
Dalsze podejście do elementarnych „sztucznych mózgów”.
Obecnie badacze skupiają się na rozwijaniu swoich systemów w dwóch kierunkach — jednym z nich jest uczynienie modelu jeszcze bardziej przypominającym mózg, a jednocześnie nie będąc zbyt skomplikowanym. „W tym kierunku zaczęliśmy wykorzystywać tak zwane „Spiking Neural Networks”, które emulują sposób przesyłania informacji przez mózg dokładniej niż w przypadku zwykłych modeli sztucznej inteligencji” – powiedział Achterberg.
Drugim jest przeniesienie zdobytej wiedzy z małego i uproszczonego modelu na modele wielkoskalowe wykorzystywane w nowoczesnych systemach sztucznej inteligencji. Mają nadzieję, że w ten sposób będą mogli przyjrzeć się skutkom energooszczędnego przetwarzania przypominającego mózg w wielkoskalowych systemach, które w innym przypadku zużywałyby dużo energii.