Google发布神经机器翻译教程,带你从零开始搭建NMT系统

AI资讯1年前 (2023)发布 AI工具箱
358 0 0

李林 编译自 Google Research Blog
量子位 报道 | 公众号 QbitAI

想自己在TensorFlow上搭神经机器翻译(NMT)模型?Google亲自来教你了。

周三,Google在GitHub上发布了一份TensorFlow神经机器翻译教程,带着读者充分理解seq2seq,并从零开始构建翻译模型。

一个seq2seq模型

seq2seq直译成汉语是“序列到序列”,是机器翻译中一种常用方法,能够用深层神经网络捕捉句子意义。

Google Translate就用了seq2seq,Google开源的tf-seq2seq、哈佛大学的OpenNMT,都是基于seq2seq的框架。

Google的这份教程,从神经机器翻译的背景知识讲起,然后详解了基础系统的代码细节,再讲到NMT系统处理长句的关键:注意力机制。最后,这份教程还详细介绍了如何复制Google神经机器翻译系统(GNMT)的关键功能,并在多个GPU上进行训练。

教程中还包含了详细的基准测试结果。Google开源模型的性能与GNMT相当,在WMT’14英语-德语翻译任务上,BLEU得分为24.4。

另外,这份教程还展示了完全动态的seq2seq API,让建立seq2seq模型更简单。

Google神经机器翻译教程的主要作者有:Google研究员Thang Luong、Google Brain软件工程师Eugene Brevdo、Rui Zhao。

原文:

https://research.googleblog.com/2017/07/building-your-own-neural-machine.html

教程详情:

https://github.com/tensorflow/nmt

GNMT简介:

https://research.google.com/pubs/pub45610.html

【完】

© 版权声明

相关文章

暂无评论

暂无评论...