码迷,mamicode.com
首页 > Web开发 > 详细

课程二(Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization),第三周(Hyperparameter tuning, Batch Normalization and Programming Frameworks) —— 1.Practice Questions

时间:2017-12-22 00:32:25      阅读:232      评论:0      收藏:0      [点我收藏+]

标签:ogr   技术   com   参数   ural   network   image   设置   影响   

技术分享图片

技术分享图片

 

【中文翻译】

  2、每个 hyperparameter, 如果设置不佳, 会对训练产生巨大的负面影响, 所以所有的参数都同样重要, 可以很好地调整。真的还是假的?

技术分享图片

技术分享图片

技术分享图片

 【中文翻译】

   4、如果你认为β (hyperparameter 为动量) 在0.9 和0.99 之间, 以下是推荐的方法为 beta 的值抽样?

技术分享图片

技术分享图片

技术分享图片

技术分享图片

 

【中文翻译】

 8、以下哪一项关于γ和β在Batch Norm 中的陈述是真的?

   每个层都有一个全局值γ∈R 和一个全局值β∈R, 并适用于该层中的所有隐藏单元。  

  最优的值是技术分享图片和β = μ。  

  β和γ是算法的参数, 我们通过随机抽样进行调整。

  他们可以使用Adam, 动量梯度下降与,或 RMSprop训练, 不只是与梯度下降。

  它们设置给定层的线性变量 z [l] 的平均值和方差。

技术分享图片

技术分享图片

 

课程二(Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization),第三周(Hyperparameter tuning, Batch Normalization and Programming Frameworks) —— 1.Practice Questions

标签:ogr   技术   com   参数   ural   network   image   设置   影响   

原文地址:http://www.cnblogs.com/hezhiyao/p/8082815.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!