码迷,mamicode.com
首页 > 其他好文 > 详细

网络前置任务(Pretext task)

时间:2021-07-19 16:35:08      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:tun   好处   避免   mic   The   enc   com   解释   ext   

  Pretext task 可以理解为是一种为达到特定训练任务而设计的间接任务。
  比如,要训练一个网络来对 ImageNet 分类,可以表达为 $f_{\theta}(x): x \rightarrow y$ ,目的是获得具有语义特征提取/推理能力的 $\theta$ 。假设有另外一个任务 (Pretext task ),它可以近似获得 $\theta$。 比如, $Auto-encoder$ ($\mathrm{AE}$) , 表示为: $g_{\theta}(x): x \rightarrow x$ 。为什么 $AE$ 可以近似 $\theta$ 呢? 因为 AE 要重建 $x$ 就必须学习 $x$ 中的内在关系,而这种内在关系的学习又是有利于我们学习 $ f_{\theta}(x)$ 的。这种方式 也叫做预训练,为了在目标任务上获得更好的泛化能力,一般还需要进行 $fine-tuning$ 等操作。

  因此,Pretex task 的好处就是简化了原任务的求解,在深度学习里就是避免了人工标记样本,实现无监督的语义提取,下面进一步解释。

  Pretext任务可以进一步理解为:对目标任务有帮助的辅助任务。而这种任务目前更多的用于所谓的 Self-Supervised learning,即一种更加宽泛的无监督学习。这里面涉及到一个很强的动机:训练深度学习需要大量的人工标注的样本,这是费时耗力的。而自监督的提出就是为了打破这种人工标注样本的限制,目的是在没有人工标注的条件下也能高效的训练网络,自监督的核心问题是如何产生伪标签(Pseudo label),而这种伪标签的产生是不涉及人工的,比如上述的 AE 的伪标签就是自身。这里举几个在视觉任务里常用的 pretext task 伪标签的产生方式:

  Rotation(图片旋转)

  技术图片 

  Colorization(图片上色)

  技术图片

   Inpainting(图片补全)

  技术图片

   Jigsaw Puzzle/Context Prediction(关系预测/上下文预测)

  技术图片

 

 

 

网络前置任务(Pretext task)

标签:tun   好处   避免   mic   The   enc   com   解释   ext   

原文地址:https://www.cnblogs.com/BlairGrowing/p/15023137.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!