Question

Dans un système de règles, ou tout système de raisonnement qui déduit des faits par des règles d'inférence en avant-enchaînant, comment voulez-vous élaguer les branches « inutiles »? Je ne suis pas sûr de ce que la terminologie officielle, mais je suis juste essayer de comprendre comment les gens sont capables de limiter leur train de pensée en raisonnant sur des problèmes, alors que tous les raisonneurs sémantiques que j'ai vu semblent incapables de le faire.

Par exemple, dans le document de John McCarthy

Était-ce utile?

La solution

Bonne question.

De votre question, je pense que ce que vous appelez « la taille » est une étape de construction du modèle réalisé ex ante - par exemple, pour limiter les entrées disponibles à l'algorithme pour construire le modèle. Le terme « élagage » lorsqu'il est utilisé dans l'apprentissage machine fait référence à quelque chose de différent - un ex post étape, après construction de modèle et qui fonctionne lui-même sur le modèle et pas sur les entrées disponibles. (Il pourrait y avoir un second sens dans le domaine ML, pour le terme « taille ». De, mais je ne suis pas au courant.) Autrement dit, la taille est en effet littéralement une technique de « limiter sa chaîne de retenue », comme vous le dites, mais il le fait ex post , par excision des composantes d'un modèle complet (travail), et non en limitant les intrants utilisés pour créer ce modèle.

D'autre part, l'isolement ou de limiter les entrées disponibles pour la construction de modèle - qui est ce que je pense que vous pourriez avoir à l'esprit - est en effet un thème clé de l'apprentissage de la machine; il est clairement un facteur responsable de la performance supérieure de la plupart des algorithmes plus récents ML - par exemple, Support Vector Machines (la __gVirt_NP_NN_NNPS<__ insight qui sous-tend SVM est la construction de l'hyperplan marge maximale de seulement un petit sous-ensemble des données, à savoir, les « vecteurs de support »), et multi-Adaptive regression Splines (une technique de régression dans lequel aucune tentative est faite pour ajuster les données de « dessiner une courbe unique en continu à travers elle », à la place, la section discrète des données sont en forme, une par une, en utilisant une équation linéaire bornée pour chaque partie, à savoir., les « splines », de sorte que l'étape de prédicat de partitionnement optimal de données est évidemment le point crucial de cet algorithme).

Quel problème est la résolution par la taille?

Au moins w / r / t algorithmes spécifiques ML j'ai effectivement codés et utilisés - Les arbres de décision, MARS, et les réseaux de neurones - L'élagage est effectué sur un premier temps modèle sur-ajustement (a modèle qui correspond aux données de formation si étroitement qu'il est incapable de généraliser (prévoir avec précision les nouvelles instances). dans chaque cas, la taille consiste à enlever les nœuds marginaux (DT, NN) ou des termes dans l'équation de régression (MARS), un par un.

En second lieu, pourquoi est la taille nécessaire / souhaitable?

est-il pas mieux de définir avec précision les critères que la convergence / division? Ce ne sera pas toujours aider. Élagage fonctionne de « bas en haut »; le modèle est construit à partir du haut vers le bas, de sorte que le réglage du modèle (pour obtenir les mêmes avantages que la taille) élimine non seulement un ou plusieurs noeuds de décision, mais aussi les nœuds enfants qui (comme la coupe d'un arbre plus près du tronc). Ainsi, l'élimination d'un nœud marginal pourrait aussi éliminer un ou plusieurs solides nœuds subordonnés à ce nœud marginal - mais le modeleur ne saura jamais que parce que son / sa mise au point a éliminé plus la création de nœuds à ce noeud marginal. travaux d'élagage de l'autre direction -. de l'enfant (bas niveau) la plus subordonnée noeuds vers le haut dans la direction du nœud racine

scroll top