Question

J'ai du mal à comprendre la terminologie avec l'apprentissage perceptron. Ma compréhension actuelle est-elle correcte? Disons que j'ai des données qui classent le type de fleur une fleur particulière. Et disons que les facteurs pris en considération sont la taille du pétale, la coloration des pétales et la taille des feuilles. Donc, ma compréhension actuelle est que nous prenons toutes les paires d'entrées et les faisons l'axe d'un graphique (par exemple, la taille des feuilles par rapport à la coloration du pétale). Donc, dans ce cas, nous aurions 3 graphiques. Maintenant, nous tracons les points de données et voyons s'il est séparable linéairement. Autrement dit, nous pouvons tracer une ligne appelée «limite de décision» qui sépare les données en deux régions pour pouvoir différencier les entrées en corrélation avec les sorties. Cette ligne est définie par $ w ^ t cdot x = y $. Cependant, ma première confusion est la suivante. Comment 3 graphiques différents sont-ils chacun avec des paires d'entrées (l'axe 2) représentés à l'aide d'une équation d'une seule ligne qui est utilisée comme couche d'entrée du réseau neuronal?

Ma deuxième confusion est: la fonction objectif est-elle ce qui définit comment le $ w ^ t cdot x $ doit être interprété? Par exemple, quelque chose comme $ y = 1 $ si $ w ^ t cdot x geqslant 0 $ et else $ y = 0 $. De plus, comme je l'ai compris, la règle d'apprentissage est censée être comment mettre à jour des poids consécutifs.

Quelqu'un peut-il expliquer la situation que j'ai aménagée. Je lis le livre de Bishop sur les réseaux de neurones. Mais je suis confus par le texte.

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
Non affilié à cs.stackexchange
scroll top