【问题标题】:Run multiple clones of a model in parallel并行运行模型的多个克隆
【发布时间】:2018-02-16 03:13:17
【问题描述】:

所以我正在尝试使用进化策略来实现强化学习算法。

原理是将原始模型克隆 N 次(比如说 100 次),在这 100 个克隆上应用一些噪音,运行它们,检查哪些结果最好,然后用它来更新原始模型。

p>

现在我试图将这些克隆中的每一个放在不同的线程中并并行运行它们。

这是我的 Worker 类:

class WorkerThread(Thread):

    def __init__(self, action_dim, img_dim, sigma, sess):
        Thread.__init__(self)
        #sess = tf.Session()
        self.actor = ActorNetwork(sess, action_dim, img_dim)
        self.env = Environment()
        self.reward = 0
        self.N = {}
        self.original_model = None
        self.sigma = sigma

    def setActorModel(self, model):
        self.original_model = model

    def run(self):
        k = 0
        for l in self.actor.model.layers:
            if len(np.array(l.get_weights())) > 0:
                # First generate some noise
                shape = (np.array(l.get_weights()[0])).shape
                if len(shape) == 2:
                    self.N[k] = np.random.randn(shape[0], shape[1])
                else:
                    self.N[k] = np.random.randn(shape[0], shape[1], shape[2], shape[3])
                # 2nd set weights using original model's weights and noise
                la = self.original_model.layers[k]
                self.actor.model.layers[k].set_weights((la.get_weights()[0] + self.sigma * self.N[k], la.get_weights()[1]))

            k += 1

        ob = self.env.reset()

        while True:
            action = self.actor.predict(np.reshape(ob['image'], (1, 480, 480, 3)))
            ob = self.env.step(action[0])

            if ob['done']:
                self.reward = ob['reward']
                break

所以每个工作线程都有自己的模型,运行时我使用原始模型的权重设置权重。

此时我收到以下错误

  File "/usr/local/lib/python3.6/site-packages/keras/engine/topology.py", line 1219, in set_weights
    K.batch_set_value(weight_value_tuples)
  File "/usr/local/lib/python3.6/site-packages/keras/backend/tensorflow_backend.py", line 2365, in batch_set_value
    assign_op = x.assign(assign_placeholder)
  File "/usr/local/lib/python3.6/site-packages/tensorflow/python/ops/variables.py", line 594, in assign
    return state_ops.assign(self._variable, value, use_locking=use_locking)
  File "/usr/local/lib/python3.6/site-packages/tensorflow/python/ops/state_ops.py", line 276, in assign
    validate_shape=validate_shape)
  File "/usr/local/lib/python3.6/site-packages/tensorflow/python/ops/gen_state_ops.py", line 59, in assign
    use_locking=use_locking, name=name)
  File "/usr/local/lib/python3.6/site-packages/tensorflow/python/framework/op_def_library.py", line 350, in _apply_op_helper
    g = ops._get_graph_from_inputs(_Flatten(keywords.values()))
  File "/usr/local/lib/python3.6/site-packages/tensorflow/python/framework/ops.py", line 5055, in _get_graph_from_inputs
    _assert_same_graph(original_graph_element, graph_element)
  File "/usr/local/lib/python3.6/site-packages/tensorflow/python/framework/ops.py", line 4991, in _assert_same_graph
    original_item))
ValueError: Tensor("Placeholder:0", shape=(5, 5, 3, 24), dtype=float32) must be from the same graph as Tensor("conv2d_11/kernel:0", shape=(5, 5, 3, 24), dtype=float32_ref).

在上面的代码示例中,我在所有线程中使用了相同的 tensorflow 会话。我尝试为每个会话创建不同的会话,但出现相同的错误。

我对 tensorflow 知之甚少,有人知道如何解决吗?

【问题讨论】:

    标签: python multithreading tensorflow keras evolutionary-algorithm


    【解决方案1】:

    您需要在所有线程中使用相同的图表。在您的主线程中创建一个 tf.Graph() 并将您的每个线程函数包装在“with my_graph.as_default():”中。

    【讨论】:

    • 我认为它默认使用默认图形,并且我认为它确实如此,因为我的层的名称如 dense_1 用于原始模型,dense_41 用于最后一个克隆。不是所有的克隆都应该使用自己的图表吗?
    • 不,他们都应该使用相同的图表。我认为启动单独的线程可以创建单独的每个线程图。
    猜你喜欢
    • 2022-10-16
    • 1970-01-01
    • 1970-01-01
    • 2012-05-16
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-01-28
    • 2020-02-10
    相关资源
    最近更新 更多