Podstawy sieci neuronowych

Często używa się sieci złożonych z kilku warstw neuronów przekazujących sygnały w jednym kierunku (tzn. od wejść do wyjść). Taki typ sieci nazywa się perceptronami ze względu na ich podobieństwo do naturalnych sieci analizującymi sygnały odbierane zmysłami. Zazwyczaj taka sieć posiada jedną warstwę neuronów wejściowych, które nie podlegają uczeniu, jedną wartwę neuronów wyjściowych oraz kilka tzw. warstw ukrytych. Dzięki zwiększaniu ilości warstw można rozwiązywać coraz bardziej skomplikowane problemy, aczkolwiek zwiększa się czas działania i uczenia sieci.