Est-ce que le livre Bishop implique qu'un flux de neurones à lui-même au chapitre 5.3?
-
16-10-2019 - |
Question
Je viens de lire le livre de Bishop Reconnaissance et l'apprentissage machine . J'ai lu le chapitre 5.3 à propos de rétropropagation, et il a dit que, dans un réseau d'alimentation en avant, chaque unité calcule une somme pondérée de ses entrées de la forme $$ A_j = \ sum \ limits_ {i} w_ {ji} Z_I $ $
Ensuite, le livre dit que la somme de l'équation ci-dessus transformée par la fonction d'activation non linéaire $ h (.) $ Pour donner l'activation $ z_j $ de l'unité $ j $ sous la forme $$ z_j = h (a_j ) $$
Je pense que la notation est en quelque sorte akward: supposons que je veuille calculer $ $ de A_2, puis $$ a_2 = w_ {21} z_1 + w_ {22} Z_2 + \ points $$
Alors ne $$ = A_2 w_ {21} z_1 + w_ {22} h (A_2) + \ $$ points signifient que le neurone A_2 $ est relié à lui-même?
La solution
Les équations ne travaillent que pour une couche donnée.
Si vous voulez généraliser, vous devez les réécrire comme, par exemple: $$ a ^ l_j = \ sum \ limits_ {i} w ^ l_ {ji} z ^ {l-1} _i + b ^ l_j $$
Autres conseils
La sortie du neurone est calculée comme étant la fonction d'activation appliquée à la somme directement:
$$ z_3 = h (w_ {21} z_1 + w_ {22} Z_2) $$
Vous pouvez consulter le perceptron wikipage , où il y a des explications et ilustrations de cette , comme celui-ci .