Tensorflow - Как установить градиент внешнего процесса (py_func)?
-
16-10-2019 - |
Вопрос
Я вычисляю и оптимизация некоторых переменных, которые используются на внешнем процессе, но я получаю ошибку «нет градиента».
Сильно упрощенная (не протестированная) версия кода, но вы можете получить идею:
def external_process (myvar):
subprocess.call("process.sh", myvar)
with open('result.json', 'r') as f:
result = json.load(data, f)
return np.array(result["result"])
myvar = tf.Variable(1.0, dtype = 'float32', trainable = True)
loss = tf.reduce_sum( tf.py_func(external_process, [myvar], [tf.float32])[0] )
optimizer = tf.train.AdamOptimizer(0.05)
train_step = optimizer.minimize(loss)
sess.run(train_step)
Я видел это обсуждение, но я не до конца этого понимаю: https://github.com/tensorflow/tensorflow/issues/1095
Спасибо!
Решение 2
Правильный ответ: «Внешний процесс не является дифференцируемым (если вы не знаете каждую деталь, что в этом случае невозможно), поэтому эта проблема должна рассматриваться как проблема подкрепления»
Другие советы
Здесь https://www.tensorflow.org/versions/r0.9/api_docs/python/framework.html (поиск gradient_override_map
) является примером на gradient_override_map
:
@tf.RegisterGradient("CustomSquare")
def _custom_square_grad(op, grad):
# ...
with tf.Graph().as_default() as g:
c = tf.constant(5.0)
s_1 = tf.square(c) # Uses the default gradient for tf.square.
with g.gradient_override_map({"Square": "CustomSquare"}):
s_2 = tf.square(s_2) # Uses _custom_square_grad to compute the
# gradient of s_2.
Таким образом, возможным решением может быть:
@tf.RegisterGradient("ExternalGradient")
def _custom_external_grad(unused_op, grad):
# I don't know yet how to compute a gradient
# From Tensorflow documentation:
return grad, tf.neg(grad)
def external_process (myvar):
subprocess.call("process.sh", myvar)
with open('result.json', 'r') as f:
result = json.load(data, f)
return np.array(result["result"])
myvar = tf.Variable(1.0, dtype = 'float32', trainable = True)
g = tf.get_default_graph()
with g.gradient_override_map({"PyFunc": "ExternalGradient"}):
external_data = tf.py_func(external_process, [myvar], [tf.float32])[0]
loss = tf.reduce_sum(external_data)
optimizer = tf.train.AdamOptimizer(0.05)
train_step = optimizer.minimize(loss)
sess.run(train_step)