码迷,mamicode.com
首页 > 其他好文 > 详细

神经架构搜索(NAS)综述

时间:2020-04-03 23:51:29      阅读:201      评论:0      收藏:0      [点我收藏+]

标签:arch   tps   指标   搜索   原理   code   hit   param   综述   

一、定义

神经架构搜索(Neural Architecture Search,简称 NAS)的核心思想是使用搜索算法来发现用于解决我们的问题所需要的神经网络结构。

有些论文的结果很难重现原因之一就是获得最优超参值往往需要花很大的力气。超参数的自动搜索优化是一个古老的话题了。

对于深度学习来说,超参数(Hyperparameter)主要有三类:

  1. 优化参数(如learning rate,batch size,weight decay等)
  2. 定义网络结构的参数(比如有几层,每层是啥算子,卷积中的filter size等)
  3. 正则化系数

对于训练参数的自动调优属于超参数优化(Hyperparameter optimization,简称HO);而定义网络结构的参数进行自动调优一般称为网络架构搜索(Neural Architecture Search,简称NAS)

二、NAS 架构

技术图片

三、NAS结构组成

NAS主要由搜索空间、搜索策略、性能评估策略三部分组成。

NAS的原理是给定一个称为搜索空间的候选神经网络结构集合,用某种策略从中搜索出最优网络结构。神经网络结构的优劣即性能用某些指标如精度、速度来度量,称为性能评估。

技术图片

四、搜索策略

技术图片

参考博客:https://blog.csdn.net/jinzhuojun/article/details/84698471

神经架构搜索(NAS)综述

标签:arch   tps   指标   搜索   原理   code   hit   param   综述   

原文地址:https://www.cnblogs.com/somedayLi/p/12629508.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!