Data: 2008-09-23 21:31:40
Temat: Re: Wieczne trwanie
Od: Relpp <n...@m...px>
Pokaż wszystkie nagłówki
Dnia 23.09.2008 Yyy <y...@m...o2.pl> napisał/a:
>> Zlozonosc obliczeniowa jest zawsze
>> identyczna, bez wzgledu czy siec rozwiazuje zadanie do krórego
>> wystarczylby jeden perceptron czy zadanie przewyzszajace jej mozliwosci.
> sieci neuronowe to nie tylko perceptron (siec jednokierunkowa)
>
> to takze, a wlasciwie przede wszystkim, sieci REKURENCYJNE,
> asocjacyjne, np. model Hopfielda (rozmyte rozpoznawania wzorcow), Maszyna
> Boltzmana,
> samoorganizujace sie, itd.
I co? Do takiej sieci Hopfielda nie odnosi się to co napisałem?
> takim podobne wystepuja najwiecej w przyrodzie
No nie wiem... SSN to chyba nawet nie jest namiastka tych prawdziwych.
> ale jesli juz mowa o perceptronie to w jednym z algorytmow uczenia go
> wystepuje znany mechanizm "neuron trimming" - poprawiajacy zdolnosc
> generalizacji (a wiec skutecznosci)
> przypomne, ze juz po wyuczeniu - chodzi o pozbycie sie neuronow
> odpowiedzialnych za "zbyt wierne" odwzorowanie hiperplaszczyzny
> aproksymacyjnej i to polepsza "trafnosc decycyjna" sieci
To w końcu podczas działania algorytmu uczenia czy już po wyuczeniu?
Jeśli podczas uczenia to sieć sama z siebie umie uogólniać wiedzę,
szczególnie kiedy do nauki wykorzystuje się różnorodne ciągi uczące.
Ale pozbywanie się neuronów po uczeniu? Daj jakiegoś linka albo słowo
kluczowe.
--
Relpp
|