• 求助:(Python)小白关于optimizer 的使用问题~
  • python
    2.00元

问题1:

optimizer = torch.optim.SGD(filter(lambda p:p.requires_grad, net.parameters()),lr=lr, momentum=0.9, weight_decay=WD, nesterov=True)

optimizer = optim.SGD(net.parameters(), lr=args.lr, momentum=args.momentum,weight_decay=args.weight_decay)

有什么区别么?
一个是值优化器更新net权重的更新梯度(?),一个是直接更新net权重??为什么要这样区别?有什么意义么?

问题2:

优化器是默认根据定义到loss的内容与某一权重的求导关系来更新此权重的嘛?


  • Caroline    2020-04-27 10:17:55
  • 阅读 1812    收藏 0    回答 1
  • 邀请
  • 收藏
  • 分享
发送
登录 后发表评论
  • 51testing软件测试圈微信