【问题标题】:Monitoring weight sparsity during training在训练期间监控权重稀疏度
【发布时间】:2019-11-29 12:13:41
【问题描述】:

我想知道是否可以在训练期间监控整个网络(不仅仅是一层)的非零权重的百分比?

例如,我用

optim = AdagradDAOptimizer(learning_rate=0.01).minimize(my_loss)

for i in range(10):
  sess = tf.Session()
  loss, _ = sess.run([my_loss, optim])

并且我想在每次迭代后打印非零权重数与所有权重数的比率。有可能吗?

【问题讨论】:

    标签: tensorflow deep-learning


    【解决方案1】:

    以下代码计算非零权重的数量。

    import tensorflow as tf
    import numpy as np
    
    tvars = sess.run(tf.trainable_variables())
    nonzero_parameters = np.sum([np.count_nonzero(var) for var in tvars])
    

    这里显示了如何计算权重总数:How to count total number of trainable parameters in a tensorflow model?

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2020-03-14
      • 2021-01-29
      • 1970-01-01
      • 2021-03-28
      • 1970-01-01
      • 1970-01-01
      • 2016-10-25
      相关资源
      最近更新 更多