码迷,mamicode.com
首页 > 其他好文 > 详细

google nmt 实验踩坑记录

时间:2019-01-27 16:41:20      阅读:196      评论:0      收藏:0      [点我收藏+]

标签:led   信息   todo   语言   att   node   img   提高   不同   

   最近因为要做一个title压缩的任务,所以调研了一些text summary的方法。

   text summary 一般分为抽取式和生成式两种。前者一般是从原始的文本中抽取出重要的word or sentence,然后按照一定的语法或者句法进行组合,从而对原始的文本进行压缩。再文本摘要的早期,基本都是这个思路,代表性的方法是textrank。所谓生成式的方法,就是试图让机器理解原始的文本,从而自己归纳出原始文本的摘要,给出的结果(词语或者句子)可能是原始文本中没有出现过的,这也是其与抽取式的方法最大的不同之处。

   随着最近几年深度学习的大行其道,生成式的方法的研究也逐渐多了起来。其实最主流的思路就是使用基于深度学习的seq2seq框架。说起seq2seq就不得不提著名的nmt(nerual machine translation,神经机器翻译),其基本也是基于seq2seq框架的,一般分为encoder和decoder,最近几年流行在基本的seq2seq框架上加上attention机制(注意力机制),一般可以显著提高translation的质量。

    废话了这么多,本文是对于google nmt 官方github repo 实验的一个踩坑记录。基本不做理论方面的讨论,主要讨论记录一些实验结果。

1. google nmt 官方 github 地址:nmt

2. clone repo to local,这个按照教程做就可以了,不表。

3. first experiment

  • 教程中给出的第一个实例是越南语到英语的翻译(Vietnamese to English),
    具体如何下载数据,训练(train)以及在测试集上推断(infer)的脚本github上面都说的很清楚了,不表。
  • 注意第一个实验只是作为一个demo,其训练数据只有13w+,这个对于大规模的机器翻译真的可以说是very small
    了。
  • 数据的准备一般有以下部分:
    1. source language & target language,格式是每行一句话,source & target两个文件每行是一一对应的,
    2. 还有就是需要source & target 的vocabulary(词汇表),其中包括了该种语言尽可能多的词汇,每行一个word(还
      包括特殊的开始,结束token,unknow token)
    3. 数据集分为三个部分,训练集,验证集,测试集,特别地,.vi结尾的是越南语文件,.en结尾的是英语文件
  • 作者进行了普通的nmt 以及加入了attention 机制的nmt两组实验

  • 我使用了公司四核(4*24G) RAM 的 Tesla M40 显卡 进行train & infer(使用 nvidia-smi 查看nvidia 显卡信息)

  • 实验结果表明在训练数据较少的情况下,使用attention 的nmt 的翻译质量还是比不加attention的翻译强不少的,这个结果是
    通过将二者的翻译结果分别于参考翻译进行粗略得到的,当然使用定量的bleu指标也可以得到一样的结论,加入attention的nmt bleu
    score 要比普通的nmt 高不少。具体结果见下图1,2:

    技术分享图片

    图1:普通nmt翻译结果(右)与参考翻译(左)




    技术分享图片

    图2:nmt with attention 翻译结果(右)与参考翻译(左)

直观看上去,确实是attention nmt 的翻译质量更胜一筹。

2. second experiment

  • 教程中给出的第二个实验是德语到英语的翻译(WMT German-English)

  • 这个部分的训练数据就比较大了,400w+行,教程中提供了train 和 infer 两个脚本,
    在下载完数据之后,我又下载了几个pretrained de-en(德语到英语) model,但是发现
    infer总是会报错如下:
FailedPreconditionError (see above for traceback): 
Attempting to use uninitialized value dynamic_seq2seq/decoder/multi_rnn_cell/cell_1/basic_lstm_cell/kernel
     [[Node: dynamic_seq2seq/decoder/multi_rnn_cell/cell_1/basic_lstm_cell/kernel/read = Identity[T=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:GPU:0"]
     (dynamic_seq2seq/decoder/multi_rnn_cell/cell_1/basic_lstm_cell/kernel)]]
  • de-en infer fail 这个问题暂时没有找到原因。

  • de-en train from stratch 没有问题,但是因为训练数据巨大,所以应该需要训练很久(几天吧)

3. 使用nmt 做 text summary

  • text summary 在nmt的框架下,可以看做是单语言的简化(一般的翻译是两个语言之间),原文是source,
    summary 是target

  • 需要准备的训练数据有:
    1. text.ori:原始的文本,每行一个文本,越多越好,需要去除一些无关词汇
    2. text.sum:原始文本对应的summary文本,每行一个summary
    3. vocab.txt:全部的word组成的文本,包括token_start,token_end,以及unknow_token等
  • train & infer 的脚本仿照 vi-en 或者de-en来写就行,需要显示指定source 以及target,可以这样写:
--src=ori --tgt=sum

其余的参数类似指定

  • 这部分的实验,TODO

4. OTHERS

  • google nmt github repo 讲的非常清楚,除了代码部分,关于nmt,attention等基础知识也讲的很清楚,值得一看,
    而且它也给出了一些有价值的参考资料,可以好好阅读一下。

google nmt 实验踩坑记录

标签:led   信息   todo   语言   att   node   img   提高   不同   

原文地址:https://www.cnblogs.com/lyrichu/p/10325218.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!