array(2) { ["docs"]=> array(10) { [0]=> array(10) { ["id"]=> string(3) "428" ["text"]=> string(77) "Visual Studio 2017 单独启动MSDN帮助(Microsoft Help Viewer)的方法" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(8) "DonetRen" ["tagsname"]=> string(55) "Visual Studio 2017|MSDN帮助|C#程序|.NET|Help Viewer" ["tagsid"]=> string(23) "[401,402,403,"300",404]" ["catesname"]=> string(0) "" ["catesid"]=> string(2) "[]" ["createtime"]=> string(10) "1511400964" ["_id"]=> string(3) "428" } [1]=> array(10) { ["id"]=> string(3) "427" ["text"]=> string(42) "npm -v;报错 cannot find module "wrapp"" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(4) "zzty" ["tagsname"]=> string(50) "node.js|npm|cannot find module "wrapp“|node" ["tagsid"]=> string(19) "[398,"239",399,400]" ["catesname"]=> string(0) "" ["catesid"]=> string(2) "[]" ["createtime"]=> string(10) "1511400760" ["_id"]=> string(3) "427" } [2]=> array(10) { ["id"]=> string(3) "426" ["text"]=> string(54) "说说css中pt、px、em、rem都扮演了什么角色" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(12) "zhengqiaoyin" ["tagsname"]=> string(0) "" ["tagsid"]=> string(2) "[]" ["catesname"]=> string(0) "" ["catesid"]=> string(2) "[]" ["createtime"]=> string(10) "1511400640" ["_id"]=> string(3) "426" } [3]=> array(10) { ["id"]=> string(3) "425" ["text"]=> string(83) "深入学习JS执行--创建执行上下文(变量对象,作用域链,this)" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(7) "Ry-yuan" ["tagsname"]=> string(33) "Javascript|Javascript执行过程" ["tagsid"]=> string(13) "["169","191"]" ["catesname"]=> string(0) "" ["catesid"]=> string(2) "[]" ["createtime"]=> string(10) "1511399901" ["_id"]=> string(3) "425" } [4]=> array(10) { ["id"]=> string(3) "424" ["text"]=> string(30) "C# 排序技术研究与对比" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(9) "vveiliang" ["tagsname"]=> string(0) "" ["tagsid"]=> string(2) "[]" ["catesname"]=> string(8) ".Net Dev" ["catesid"]=> string(5) "[199]" ["createtime"]=> string(10) "1511399150" ["_id"]=> string(3) "424" } [5]=> array(10) { ["id"]=> string(3) "423" ["text"]=> string(72) "【算法】小白的算法笔记:快速排序算法的编码和优化" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(9) "penghuwan" ["tagsname"]=> string(6) "算法" ["tagsid"]=> string(7) "["344"]" ["catesname"]=> string(0) "" ["catesid"]=> string(2) "[]" ["createtime"]=> string(10) "1511398109" ["_id"]=> string(3) "423" } [6]=> array(10) { ["id"]=> string(3) "422" ["text"]=> string(64) "JavaScript数据可视化编程学习(二)Flotr2,雷达图" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(7) "chengxs" ["tagsname"]=> string(28) "数据可视化|前端学习" ["tagsid"]=> string(9) "[396,397]" ["catesname"]=> string(18) "前端基本知识" ["catesid"]=> string(5) "[198]" ["createtime"]=> string(10) "1511397800" ["_id"]=> string(3) "422" } [7]=> array(10) { ["id"]=> string(3) "421" ["text"]=> string(36) "C#表达式目录树(Expression)" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(4) "wwym" ["tagsname"]=> string(0) "" ["tagsid"]=> string(2) "[]" ["catesname"]=> string(4) ".NET" ["catesid"]=> string(7) "["119"]" ["createtime"]=> string(10) "1511397474" ["_id"]=> string(3) "421" } [8]=> array(10) { ["id"]=> string(3) "420" ["text"]=> string(47) "数据结构 队列_队列实例:事件处理" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(7) "idreamo" ["tagsname"]=> string(40) "C语言|数据结构|队列|事件处理" ["tagsid"]=> string(23) "["246","247","248",395]" ["catesname"]=> string(12) "数据结构" ["catesid"]=> string(7) "["133"]" ["createtime"]=> string(10) "1511397279" ["_id"]=> string(3) "420" } [9]=> array(10) { ["id"]=> string(3) "419" ["text"]=> string(47) "久等了,博客园官方Android客户端发布" ["intro"]=> string(288) "目录 ECharts 异步加载 ECharts 数据可视化在过去几年中取得了巨大进展。开发人员对可视化产品的期望不再是简单的图表创建工具,而是在交互、性能、数据处理等方面有更高的要求。 chart.setOption({ color: [ " ["username"]=> string(3) "cmt" ["tagsname"]=> string(0) "" ["tagsid"]=> string(2) "[]" ["catesname"]=> string(0) "" ["catesid"]=> string(2) "[]" ["createtime"]=> string(10) "1511396549" ["_id"]=> string(3) "419" } } ["count"]=> int(200) } 222 Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记 - 爱码网

Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记

该文是阅读Fine-Grained Attention Mechanism for Neural Machine Translation 论文总结的笔记,用来记录自己的理解和思考,一来记录自己的学习历程,二来期待和大家讨论研究,共同进步。


1. 概述

这篇论文提出了一种细粒度(或者2D)的注意力机制,上下文向量中的每个维度都会单独获得一个注意力得分。在英德和英法德翻译任务中,从BLEU值看,该机制提高了翻译质量。另外对齐分析也表示该机制探索出了上下文向量的内部结构。
这里的注意力机制可以选择关注,在高纬度的上下文向量中编码的单个单词的许多可能解释其中的一个。这可以通过让注意力机制输出和上下文向量维度相同数量的得分,区别于现存的每个上下文向量返回一个值的各种注意力机制。
注意
这篇论文还讲解了基于注意力机制的神经机器翻译的原理以及各种注意力机制的变种,讲解得比较细致,有兴趣的同学可以移步原论文,此处不再赘述。

2. 模型结构

所有现有的注意力机制都是为每个上下文向量得出一个得分。然而这里发现每次给上下文向量一个得分并不必要,而且为上下文向量的每个维度赋一个得分可能会更好,因为每个维度代表了抓取的内部结构的一个不同的方面。词嵌入的每个维度都有不同的意义并且上下文能够用不同的方式来丰富每个维度的意义。这篇论文有两点不同:1)注重编码后的词向量而不是词嵌入;用2维的注意力机制而不是给出句子的上下文。
因此拓展了注意力的计分函数,返回了对应上下文向量ht维度的得分集合。公式如下:
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
这里e是时间t‘的第t个上下文向量ht的第d维的得分。f是全连接神经网络,输出节点的数目是d。这些维度的各个得分要在维度方面进一步正则化,公式如下:
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
然后上下文向量可以这样结合:
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
α是
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
图1对比了卷积注意力机制和提出的细粒度的注意力机制
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记

3. 实验训练

在下表中展示了所有模型在英德和英法的翻译效果:
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
此外,该论文还对模型结果的对齐进行了分析,该模型返回的是一个三维的张量,代表了源标记xt,目的标记yt’和对应的上下文向量c一个维度之间的关系。这样的话可视化该模型的结果就是一个挑战了,因为上下文向量的唯独通常更大。
这里开始是通过在上下文向量的维度上取平均来实现可视化:
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
这个公式计算了来源和目的标记的对齐的强度,并且和卷积注意力机制的对齐矩阵是可比的。如图2:
Fine-Grained Attention Mechanism for Neural Machine Translation 论文笔记
之后还进行了其他的比较方式,此处不再赘述。

4. 总结

这篇论文为神经机器翻译提出了一个细粒度(或者2维)的注意力机制。英德和英法的翻译实验显示该模型明显提升了翻译质量。当这个方法应用于之前的技术,基于简单想法的语境时,表现会进一步提升。经过对齐分析,细粒度注意力机制显示上下文的不同维度在神经机器翻译中发挥着不同的作用。
以后可以在不同的NMT模型中尝试细粒度注意力机制,比如字符水平的模型或者多层的编码解码模型。而且细粒度注意力机制也可以应用于不同的任务,比如语音识别。

相关文章: