李林 编译自 Google Research Blog
量子位 报道 | 公众号 QbitAI
想自己在TensorFlow上搭神经机器翻译(NMT)模型?Google亲自来教你了。
周三,Google在GitHub上发布了一份TensorFlow神经机器翻译教程,带着读者充分理解seq2seq,并从零开始构建翻译模型。
一个seq2seq模型
seq2seq直译成汉语是“序列到序列”,是机器翻译中一种常用方法,能够用深层神经网络捕捉句子意义。
Google Translate就用了seq2seq,Google开源的tf-seq2seq、哈佛大学的OpenNMT,都是基于seq2seq的框架。
Google的这份教程,从神经机器翻译的背景知识讲起,然后详解了基础系统的代码细节,再讲到NMT系统处理长句的关键:注意力机制。最后,这份教程还详细介绍了如何复制Google神经机器翻译系统(GNMT)的关键功能,并在多个GPU上进行训练。
教程中还包含了详细的基准测试结果。Google开源模型的性能与GNMT相当,在WMT’14英语-德语翻译任务上,BLEU得分为24.4。
另外,这份教程还展示了完全动态的seq2seq API,让建立seq2seq模型更简单。
Google神经机器翻译教程的主要作者有:Google研究员Thang Luong、Google Brain软件工程师Eugene Brevdo、Rui Zhao。
原文:
https://research.googleblog.com/2017/07/building-your-own-neural-machine.html
教程详情:
https://github.com/tensorflow/nmt
GNMT简介:
https://research.google.com/pubs/pub45610.html
【完】
“