Question

PyTorch et tensorflow Fold sont des cadres d'apprentissage en profondeur destinés à faire face aux situations où les données d'entrée a une longueur non uniforme ou les dimensions (qui est, les situations où sont utiles ou nécessaires graphiques dynamiques).

Je voudrais savoir comment ils se comparent, au sens des paradigmes qu'ils se fondent sur (par exemple batching dynamique) et leurs implications, des choses qui peuvent / ne peuvent pas être mis en œuvre dans chacune, les faiblesses / forces, etc.

Je l'intention d'utiliser cette information pour choisir l'un d'entre eux pour commencer à explorer les graphiques de calcul de dynamique, mais je n'ai pas une tâche spécifique à l'esprit.

Note 1: d'autres cadres de graphique de calcul de dynamique comme DyNet ou ce fil de HackerNews sur PyTorch avec quelques informations éparses, mais pas beaucoup.

Note 3: Un autre thread HackerNews concerné , à propos tensorflow pli, qui contient quelques informations sur la façon dont ils se comparent.

Note 4: Reddit fil

.

Note 5: bug pertinent dans tensorflow est Fold github qui identifie une limitation importante: impossibilité à faire le branchement conditionnel lors de l'évaluation.

Note 6: discussion sur pytorch forum sur les entrées de longueur variable par rapport aux algorithmes utilisés (par exemple le dosage de dynamique).

Était-ce utile?

La solution

Il y a quelques bonnes discussions sur Reddit en ce moment ( ici et ).

Je n'ai pas utilisé l'un de ces cadres, mais à la lecture et parler aux utilisateurs, je crois que le soutien pour les graphes dynamiques PyTorch est un « top down principe de conception », alors que tensorflow Fold est boulonnée sur le cadre de tensorflow original, donc si vous faites quoi que ce soit raisonnablement compliqué avec tensorflow Pliage vous allez probablement finir par faire beaucoup plus de piratage autour que si vous utilisez PyTorch .

Licencié sous: CC-BY-SA avec attribution
scroll top