Domanda

PyTorch e tensorflow Fold sono quadri d'apprendimento profonde destinate a far fronte a situazioni in cui i dati di input contiene lunghezza o dimensioni non uniforme (cioè le situazioni in cui grafici dinamici sono utili o necessario).

Mi piacerebbe sapere come si confronta, nel senso di paradigmi si basano su (ad esempio dinamica dosaggio) e le loro implicazioni, cose che possono / non può essere attuato in ognuno, le debolezze / punti di forza, ecc.

Ho intenzione di utilizzare queste informazioni per scegliere uno di loro per iniziare ad esplorare i grafici dinamici di calcolo, ma non ho compito specifico in mente.

Nota 1: altre dinamico calcolo framework grafico come DyNet o Chainer sono benvenuti anche nel confronto, ma mi piacerebbe mettere a fuoco PyTorch e tensorflow Fold perché penso che sono / saranno quelli più utilizzati .

Nota 2: ho trovato questa discussione hackernews su PyTorch con alcune informazioni sparse, ma non molto.

Nota 3: Un altro rilevante hackernews filo , circa tensorflow Fold, che contiene alcune informazioni su come si confronta.

Nota 4: relativo Reddit filo

.

Nota 5: rilevanti bug nel tensorflow Fold è github che identifica una limitazione importante: l'impossibilità fare ramificazione condizionale durante la valutazione.

Nota 6: discussione sulla pytorch forum merito ingressi lunghezza variabile in relazione alle algoritmi utilizzati (ad esempio dosaggio dinamico).

È stato utile?

Soluzione

There are a couple of good threads on Reddit right now (here and here).

I haven't used either of these frameworks, but from reading around and talking to users I gather that support for dynamic graphs in PyTorch is a 'top down design principle', whereas TensorFlow Fold is bolted on to the original Tensorflow framework, so if you're doing anything reasonably complicated with Tensorflow Fold you're probably going to end up doing a lot more hacking around than if you're using PyTorch.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
scroll top