Question

Je lis l'apprentissage automatique Python de Sebastian Raschka, et je vois quelque chose de confus qui n'est pas expliqué dans le texte.

Dans le code de cette page:https://github.com/rasbt/python-machine-learning-book/blob/master/code/ch02/ch02.ipynb

Implémentation d'un algorithme d'apprentissage Perceptron dans Python

Dans le processus de formation, en plus de mettre à jour les poids, je vois cela se produire:

 self.w_[0] += update

Puis plus tard, pendant la «prédiction», lorsque des poids sont appliqués à l'entrée, je vois self.w_[0] utilisé:

def net_input(self, X):
    """Calculate net input"""
    return np.dot(X, self.w_[1:]) + self.w_[0]

Il semble que ce soit un biais ajouté dans le perceptron, mais le livre dit que net_input est simplement de calculer "les poids transposent dot x" et ne mentionne rien à ce sujet + self.w_[0] partie...

Quelqu'un peut-il jeter un œil au code lié et comprendre ce qui se passe avec le self.w_[0] partie? Ou quelqu'un d'autre a-t-il ce livre qui pourrait expliquer pourquoi c'est là?

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
Non affilié à cs.stackexchange
scroll top