【发布时间】:2023-03-23 04:52:02
【问题描述】:
当我在 Google deep dream bvlc_googlenet 中将 'batch_size' 中的 deploy.prototxt file 设置为降低 GPU 内存要求时,它对速度和内存要求都没有影响。就好像它被忽略了一样。我知道正在使用文件本身(deploy.prototxt),因为其他更改会反映在结果中,所以这不是问题。我还尝试在所有相关层上设置 batch_size(“inception_4c/1x1”等),同样没有区别。
我是这样设置的:
layer {
name: "inception_4c/output"
type: "Concat"
bottom: "inception_4c/1x1"
bottom: "inception_4c/3x3"
bottom: "inception_4c/5x5"
bottom: "inception_4c/pool_proj"
top: "inception_4c/output"
data_param {
batch_size 1
}
}
当我对脚本的运行时间计时,batch_size 1 和batch_size 512 是一样的,没有区别。
我做错了什么?
【问题讨论】:
标签: python artificial-intelligence neural-network deep-learning caffe