D 1992

Direct Approaches to Improving the Robustness of Multilayer Neural Networks

BUGMANN, Guido, Petr SOJKA, Michael REISS, Mark PLUMBLEY, John G. TAYLOR et. al.

Základní údaje

Originální název

Direct Approaches to Improving the Robustness of Multilayer Neural Networks

Název česky

Přímé postupy pro zvýšení robustnosti vícevrstných neuronových sítí

Autoři

BUGMANN, Guido (756 Švýcarsko), Petr SOJKA (203 Česká republika, garant), Michael REISS (826 Velká Británie a Severní Irsko), Mark PLUMBLEY (826 Velká Británie a Severní Irsko) a John G. TAYLOR (826 Velká Británie a Severní Irsko)

Vydání

Brighton, UK, Artificial Neural Networks II: Proceedings of the International Conference on Artificial Neural Networks ICANN 1999, s. 1063-1066, 1992

Nakladatel

Elsevier Science Publishers B.V.

Další údaje

Jazyk

angličtina

Typ výsledku

Stať ve sborníku

Obor

20200 2.2 Electrical engineering, Electronic engineering, Information engineering

Stát vydavatele

Velká Británie a Severní Irsko

Utajení

není předmětem státního či obchodního tajemství

Odkazy

Organizační jednotka

Fakulta informatiky

ISBN

0-444-89488-8

UT WoS

A1992BX31W00223

Klíčová slova anglicky

multilayer perceptron; back propagation; robustness of neural nets
Změněno: 19. 6. 2009 16:03, doc. RNDr. Petr Sojka, Ph.D.

Anotace

V originále

Multilayer neural networks trained with backpropagation are in general not robust against the loss of a hidden neuron. In this paper we define a form of robustness called 1-node robustness and propose methods to improve it. One approach is based on modification of the error function by the addition of a ``robustness error''. It leads to more robust networks but at the cost of a reduced accuracy. A second approach, ``pruning-and-duplication'', consists of duplicating the neurons whose loss is the most damaging for the network. Pruned neurons are used for the duplication. This procedure leads to robust and accurate networks at low computational cost. It may also prove beneficial for generalisation.

Česky

Vícevrstvé neuronové sítě učené metodou zpětného šíření obecně nejsou robustní vůči ztrátě neuronu ve skryté vrstvě. V tomto příspěvku definujeme formu robustnosti nazývanou jednoneuronová robustnost a navrhujeme metody pro její zlepšení. Jeden přístup je založen na modifikaci chybové funkce přidáním členu s `chybou robustnosti'. To vede k robustnějším sítím, ale za cenu horší přesnosti. Druhý přístup, `promaž a zduplikuj', sestává z duplikace těch neuronů, jejichž ztráta je pro funkci sítě nejvíce destruktivní. Tento postup vede k robustním a přesným sítím při nízké výpočetní náročnosti. Také se zlepšují generalizační vlastnosti.