【问题标题】:Learning parameters of each simulated device每个模拟设备的学习参数
【发布时间】:2020-02-18 16:36:59
【问题描述】:

tensorflow-federated 是否支持为不同的模拟设备分配不同的超参数(如批量大小或学习率)?

【问题讨论】:

    标签: tensorflow tensorflow2.0 tensorflow-federated


    【解决方案1】:

    目前,您可能会觉得这有点不自然,但是是的,这样的事情是可能的。

    目前支持的一种方法是让每个客户端将其本地学习率作为顶级参数,并在训练中使用它。这里的一个虚拟示例是(在下面的计算中滑动模型参数)类似于

    @tff.tf_computation(tff.SequenceTyoe(...), tf.float32)
    def train_with_learning_rate(ds, lr):
      # run training with `tf.data.Dataset` ds and learning rate lr
      ...
    
    @tff.federated_computation(tff.FederatedType([tff.SequenceType(...), tf.float32])
    def run_one_round(datasets_and_lrs):
      return tff.federated_mean(
          tff.federated_map(train_with_learning_rate, datasets_and_lrs))
    

    在此处使用元组列表调用联合计算,其中元组的第一个元素表示客户端数据,第二个元素表示特定客户端的学习率,将给出您想要的结果。

    这样的事情需要编写自定义联合计算,特别是可能定义您自己的IterativeProcess。最近开源了一个类似的迭代过程定义here, link goes to the relevant local client function definition,以允许通过采用表示轮数的额外整数参数在客户端上进行学习率调度,这可能是一个不错的地方。

    【讨论】:

      猜你喜欢
      • 2013-03-23
      • 1970-01-01
      • 2021-05-16
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2021-12-07
      • 2018-09-18
      • 2012-07-30
      相关资源
      最近更新 更多