VGG和GoogleLeNet发明的时候,batch normalization还没有出现,因此难以使得这些网络收敛

VGG预训练了11层的网络,然后才得到16/19层的

GoogleLeNet添加了两个auxiliary classification part

有了batch norm以后,就不再需要那样做了

----------------------------------------------------------------------------------------------------------------------

ResNet中,当某层权重参数为0,则输出为0,再加上输入,即为Identity block。即这层没有用。

反向传播时,由于有skip connection,则梯度传播也就有了捷径,可以避免梯度消失。

第十讲--循环神经网络--课时21

one to many : image captioning

many to one: sentiment analysis

many to many: translation

many to many: 对视频的每一帧进行分类,输入输出个数一致

第十讲--循环神经网络--课时21

第十讲--循环神经网络--课时21



相关文章:

  • 2022-02-03
  • 2021-05-27
  • 2021-06-25
  • 2021-05-15
  • 2021-05-26
  • 2021-12-29
  • 2021-12-04
猜你喜欢
  • 2021-08-24
  • 2021-07-08
  • 2022-01-18
  • 2021-10-11
  • 2022-02-02
  • 2022-01-16
  • 2021-11-07
相关资源
相似解决方案