Question sur le code perceptron simple
-
03-11-2019 - |
Question
Je lis l'apprentissage automatique Python de Sebastian Raschka, et je vois quelque chose de confus qui n'est pas expliqué dans le texte.
Dans le code de cette page:https://github.com/rasbt/python-machine-learning-book/blob/master/code/ch02/ch02.ipynb
Implémentation d'un algorithme d'apprentissage Perceptron dans Python
Dans le processus de formation, en plus de mettre à jour les poids, je vois cela se produire:
self.w_[0] += update
Puis plus tard, pendant la «prédiction», lorsque des poids sont appliqués à l'entrée, je vois self.w_[0]
utilisé:
def net_input(self, X):
"""Calculate net input"""
return np.dot(X, self.w_[1:]) + self.w_[0]
Il semble que ce soit un biais ajouté dans le perceptron, mais le livre dit que net_input
est simplement de calculer "les poids transposent dot x" et ne mentionne rien à ce sujet + self.w_[0]
partie...
Quelqu'un peut-il jeter un œil au code lié et comprendre ce qui se passe avec le self.w_[0]
partie? Ou quelqu'un d'autre a-t-il ce livre qui pourrait expliquer pourquoi c'est là?
Pas de solution correcte