Question

Je comprends le principe principal de l'ensachage et du renforcement des arbres de classification et de régression. Mes doutes concernent l'optimisation des hyperparamètres, en particulier la profondeur des arbres

Première question: Pourquoi nous sommes censés utiliser des apprenants faibles pour augmenter (biais élevé) alors que nous devons utiliser des arbres profonds pour l'ensachage (grande variance)? - Honnêtement, je ne suis pas sûr du second, je viens de l'entendre une fois et n'a jamais vu de documentation à ce sujet.

Deuxième question : Pourquoi et comment peut-il arriver que nous obtenions de meilleurs résultats dans les recherches sur la grille pour augmenter le gradient avec des arbres plus profonds que les apprenants faibles (et de même avec des apprenants faibles que les arbres plus profonds dans la forêt aléatoire)?

Pas de solution correcte

Licencié sous: CC-BY-SA avec attribution
scroll top