Technologia

Zrozumienie Perceptronu w uczeniu maszynowym

  • 17 stycznia, 2023
  • 4 min read
Zrozumienie Perceptronu w uczeniu maszynowym


McCulloch i Pitts opracowali perceptron w 1943 roku. Pierwsza maszyna została stworzona w 1958 roku w Cornell Aeronautical Laboratory przez Franka Rosenblatta i przy wsparciu Biura Badań Marynarki Wojennej Stanów Zjednoczonych.

Perceptron (lub neuron McCullocha-Pittsa) to technika nadzorowanego uczenia się klasyfikatorów binarnych w uczeniu maszynowym. Klasyfikator binarny to funkcja, która określa, czy wektor wejściowy liczb należy do określonej klasy. Jest to rodzaj klasyfikatora liniowego, technika klasyfikacji, której przewidywania opierają się na liniowej funkcji predykcyjnej, która łączy zestaw wag z wektorem cech.

Cel

Perceptron miał być raczej maszyną niż programem. Chociaż jego pierwsza implementacja miała miejsce w oprogramowaniu dla IBM 704, badacze wdrożyli go następnie w niestandardowym sprzęcie jako „perceptron Mark 1”. Stworzyli tę maszynę do rozpoznawania obrazów: zawierała ona tablicę 400 fotokomórek losowo połączonych z „neuronami”. Wagi były zakodowane w potencjometrach, a silniki elektryczne dokonywały aktualizacji wagi podczas uczenia się.

Perceptron został opisany jako „zarodek komputera elektronicznego, który spodziewa się, że będzie mógł chodzić, mówić, widzieć, pisać, reprodukować się i być świadomym swojego istnienia” przez Rosenblatta na konferencji prasowej Marynarki Wojennej Stanów Zjednoczonych w 1958 roku.

Warto przeczytać!  The Legend of Zelda Tears of the Kingdom sprzedaje się w 10 milionach egzemplarzy w trzy dni, bijąc rekordy franczyzy

Perceptrony wielowarstwowe

Chociaż początkowo perceptron wydawał się obiecujący, naukowcy natychmiast wykazali, że nie można go wyszkolić w rozpoznawaniu wielu wzorców. Doprowadziło to do stagnacji badań nad sieciami neuronowymi, dopóki naukowcy nie odkryli, że sprzężone sieci neuronowe z dwiema lub więcej warstwami (perceptrony wielowarstwowe) przetwarzają lepiej niż perceptrony jednowarstwowe (zwane również perceptronami jednowarstwowymi). Ponadto perceptrony jednowarstwowe mogą uczyć się tylko liniowo separowalnych wzorców. Pojedynczy węzeł będzie zawierał pojedynczą linię dzielącą punkty danych i tworzącą wzorce dla zadania klasyfikacji z pewną funkcją aktywacji krokowej. Więcej węzłów może utworzyć więcej linii podziału, ale musi zintegrować te linie, aby uzyskać bardziej skomplikowane klasyfikacje. Z drugiej strony może rozwiązać wiele trudnych do rozwiązania problemów za pomocą drugiej warstwy perceptronów, a nawet węzłów liniowych.

Ewolucja

Marvin Minsky i Seymour Papertprzełomowa książka Perceptrons, opublikowana w 1969 roku, wykazała, że ​​tego typu sieci nie mogą nauczyć się funkcji XOR. Powszechnie przyjmuje się (niesłusznie), że postawili oni również hipotezę, że wielowarstwowa sieć perceptronów dawałaby porównywalne wyniki. Tak nie jest, ponieważ Minsky i Papert wiedzieli, że perceptrony wielowarstwowe mogą tworzyć funkcję XOR. Niemniej jednak szeroko cytowany esej Minsky/Papert spowodował znaczny spadek zainteresowania i finansowania badań nad sieciami neuronowymi. Badania nad sieciami neuronowymi pojawiły się ponownie w latach 80. po kolejnych dziesięciu latach. Publikacja ta została ponownie wydana w 1987 roku jako „Perceptrons – Expanded Edition”, podkreślając i poprawiając pewne błędy w oryginalnym tekście.

Warto przeczytać!  Sztuczna inteligencja zabiera pracę Yoko Ono, Elon Musk chce fanatycznej sztucznej inteligencji, rozwiązano zagadkę z twarzą gęsi

Aizerman i in. po raz pierwszy zaproponowali algorytm perceptronu jądra w 1964 r. Freund i Schapire (1998) jako pierwsi gwarantowali granice marginesu dla algorytmu Perceptronu w ogólnej sytuacji nierozłącznej, podczas gdy Mohri i Rostamizadeh (2013) rozszerzyli wcześniejsze wyniki i dostarczyli dodatkowe granice L1. Ponadto perceptron jest uproszczoną reprezentacją neuronu biologicznego. Podczas gdy do pełnego zrozumienia działania mózgu często wymagana jest złożoność biologicznych modeli neuronów, badania pokazują, że model liniowy podobny do perceptronu może naśladować niektóre zachowania obserwowane w prawdziwych neuronach.

Wniosek

Perceptron jest elementem sztucznej sieci neuronowej. W połowie XIX wieku pan Frank Rosenblatt zaprojektował Perceptron do rozpoznawania możliwości danych wejściowych lub analizy biznesowej poprzez przeprowadzanie określonych obliczeń. Perceptron to liniowa technika uczenia maszynowego wykorzystywana do uczenia nadzorowanego z różnymi klasyfikatorami binarnymi. Takie podejście pozwala neuronom uczyć się elementów i indywidualnie przetwarzać je podczas przygotowania.




Źródło