Question

Je viens de lire le livre de Bishop Reconnaissance et l'apprentissage machine . J'ai lu le chapitre 5.3 à propos de rétropropagation, et il a dit que, dans un réseau d'alimentation en avant, chaque unité calcule une somme pondérée de ses entrées de la forme $$ A_j = \ sum \ limits_ {i} w_ {ji} Z_I $ $

Ensuite, le livre dit que la somme de l'équation ci-dessus transformée par la fonction d'activation non linéaire $ h (.) $ Pour donner l'activation $ z_j $ de l'unité $ j $ sous la forme $$ z_j = h (a_j ) $$

Je pense que la notation est en quelque sorte akward: supposons que je veuille calculer $ $ de A_2, puis $$ a_2 = w_ {21} z_1 + w_ {22} Z_2 + \ points $$

Alors ne $$ = A_2 w_ {21} z_1 + w_ {22} h (A_2) + \ $$ points signifient que le neurone A_2 $ est relié à lui-même?

Était-ce utile?

La solution

Les équations ne travaillent que pour une couche donnée.

Si vous voulez généraliser, vous devez les réécrire comme, par exemple: $$ a ^ l_j = \ sum \ limits_ {i} w ^ l_ {ji} z ^ {l-1} _i + b ^ l_j $$

Autres conseils

La sortie du neurone est calculée comme étant la fonction d'activation appliquée à la somme directement:

$$ z_3 = h (w_ {21} z_1 + w_ {22} Z_2) $$

Vous pouvez consulter le perceptron wikipage , où il y a des explications et ilustrations de cette , comme celui-ci .

Licencié sous: CC-BY-SA avec attribution
scroll top