Question

Je suis récemment intéressé par l'apprentissage automatique, en particulier les réseaux de neurones, et après avoir créé ceux-ci pour résoudre des problèmes de base tels que les graphiques XOR et SIN et CO et voyez si je pouvais implémenter cela, j'ai utilisé un réseau de neurones d'apprentissage AQ pour Tic TAC Toe. Cependant, je ne sais pas pourquoi mon programme n'apprend pas correctement. Une idée que j'ai est que j'ai implémenté les neurones d'entrée de manière incorrecte. J'utilise l'application de console de base visuelle, alors faites-moi savoir si vous avez besoin de moi pour publier un code

Mon point de vue sur la façon de mettre en œuvre ceci:

Utilisez 18 neurones d'entrée et ayez les 9 premiers étant l'état avant de placer un mouvement, et les 9 suivants étant l'état après avoir mis un mouvement.

Une autre question que j'ai en termes de moment où vous enseignez le réseau neuronal, le nourrissez-vous l'ancien état, puis l'État après que vous et l'adversaire avez fait un mouvement? AL

Deuxième problème

Ce prochain problème potentiel que j'ai est de savoir comment j'utilise mes valeurs de seuil et d'exploration pour choisir de choisir une action aléatoire ou celle que le réseau neuronal choisit. J'augmente mon seuil linéairement de 0 à 1 tout au long des itérations. Alors que l'exploration est une valeur aléatoire entre 0 et 1. est-ce correct? Ou y a-t-il une meilleure façon de le faire?

Tous les commentaires seraient grandement appréciés, et si quelqu'un a des problèmes avec ma question, comme elle n'est pas claire, sans avoir de sens ou autre chose, faites-le moi savoir afin que je puisse le réparer

Merci pour tous ceux qui prennent le temps d'essayer d'aider.

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top