Tensorflow-外部プロセスの勾配を設定する方法(PY_FUNC)?
-
16-10-2019 - |
質問
外部プロセスで使用されるいくつかの変数の計算と最適化ですが、「勾配なし」というエラーが発生します。
コードの大幅に簡素化された(テストされていない)バージョンですが、アイデアを取得できます。
def external_process (myvar):
subprocess.call("process.sh", myvar)
with open('result.json', 'r') as f:
result = json.load(data, f)
return np.array(result["result"])
myvar = tf.Variable(1.0, dtype = 'float32', trainable = True)
loss = tf.reduce_sum( tf.py_func(external_process, [myvar], [tf.float32])[0] )
optimizer = tf.train.AdamOptimizer(0.05)
train_step = optimizer.minimize(loss)
sess.run(train_step)
私はこの議論を見ましたが、私はそれを完全に理解していません: https://github.com/tensorflow/tensorflow/issues/1095
ありがとう!
解決 2
正解は次のとおりです。「外部プロセスは微分可能ではありません(各詳細を知らない限り、この場合は不可能なこと)。したがって、この問題は強化学習問題として直面する必要があります」
他のヒント
ここ https://www.tensorflow.org/versions/r0.9/api_docs/python/framework.html (探す gradient_override_map
)の例です gradient_override_map
:
@tf.RegisterGradient("CustomSquare")
def _custom_square_grad(op, grad):
# ...
with tf.Graph().as_default() as g:
c = tf.constant(5.0)
s_1 = tf.square(c) # Uses the default gradient for tf.square.
with g.gradient_override_map({"Square": "CustomSquare"}):
s_2 = tf.square(s_2) # Uses _custom_square_grad to compute the
# gradient of s_2.
したがって、可能な解決策は次のとおりです。
@tf.RegisterGradient("ExternalGradient")
def _custom_external_grad(unused_op, grad):
# I don't know yet how to compute a gradient
# From Tensorflow documentation:
return grad, tf.neg(grad)
def external_process (myvar):
subprocess.call("process.sh", myvar)
with open('result.json', 'r') as f:
result = json.load(data, f)
return np.array(result["result"])
myvar = tf.Variable(1.0, dtype = 'float32', trainable = True)
g = tf.get_default_graph()
with g.gradient_override_map({"PyFunc": "ExternalGradient"}):
external_data = tf.py_func(external_process, [myvar], [tf.float32])[0]
loss = tf.reduce_sum(external_data)
optimizer = tf.train.AdamOptimizer(0.05)
train_step = optimizer.minimize(loss)
sess.run(train_step)
所属していません datascience.stackexchange