IJCAI 2019 | 通过交互提升机器翻译质量

自从神经网络模型在机器翻译任务(Machine Transoformer,MT)得到了应用,该任务得到了飞速的发展,机器翻译的质量也在不断地提高。尽管如此,机器翻译的质量也难以与人类译者相提并论。但是,有不少工作证明由人工介入机器翻译过程对机器翻译质量有明显的帮助。本文提出了一种新的交互式机器翻译模型(Interactive Machine Translation, IMT)来提升机器翻译质量,相比于过去单向的IMT模型在测试集上达到了新的state-of-the-art。


论文地址:
暂无.

引言

交互式机器翻译(Interactive Machine Translation, IMT)是在机器翻译的基础上,引入人工操作改善机器翻译产生的翻译错误,从而通过将修改信息反馈给机器翻译模型达到提升机器翻译质量的效果。但从早前的IMT方法来看,IMT存在着两类问题。1)机器翻译模型通常是以从左往右解码的形式翻译的,这导致因为错误积累而产生的严重错误会出现在翻译结果的最右边。而在人工审查时,错误的修改顺序也是从左往右的,这使得最致命的错误无法第一实际得到修改。2)由于机器翻译的模型参数固定,在面对类似语境下的句子会产生相同的错误,而早前的IMT很少有关注修改的历史记录去避免相同错误。因此,如何优先处理致命错误以及如何利用修改记录避免相同错误成为了IMT研究中的难点。

数据集

https://drive.google.com/uc?export=download&id=0B_bZck-ksdkpM25jRUN2X2UxMm8

实验方法

论文针对性地提出了一种名为纠正-记忆交互式机器翻译框架(correct-and-memorize framework for interactive machine translation, CAMIT)。其主要方法包括:
1、在获得修改信息后,同时从两端对翻译句子进行解码,更新翻译;
2、从修改记录中学习相关信息提升翻译结果质量:
a)词级别。使用修改记忆(revision memory)存储修改过的单词;
b)句子级别。使用在线学习(online learning)通过修改后的句子精调翻译模型。
其主要流程如图1所示

论文提出使用两种解码器,包括前向解码器和后向解码器,通过共享一个编码器的方式进行翻译。论文将这种解码方式称为序列双向解码(Sequential Bi-directional Decoding, BiDiR)。整体结构如图2所示。

再通过结合网格束搜索(grid beam search)的方式重新生成经过修改后的翻译结果。

论文提出使用两种方法从人机交互历史中学习修改信息。
1)修改记忆。使用一对键-值对去保存先前的修改记录。如图3所示。

通过存储并复制先前的修改记录,可以有效地避免相同翻译错误的产生。
2)在线学习。从先前修改过后的句子中继续训练翻译模型。通过这种方式,翻译模型本身可以通过学习正确的样本有效地解决相同的翻译错误。

实验细节

论文使用了RNNSearch和Transformer分别作为baseline模型。
论文实验基于NJUNMT-pytorch。代码地址:https://github.com/whr94621/NJUNMT-pytorch
论文分别理想和实际实验条件下进行了测试。

实验结果

论文分别报道了基于RNNSearch和Transformer的实验结果。




从图7中可以看出,CAMIT在实际实验中达到了最好的效果。

结论

论文提出了CAMIT的模型架构,同时在解码和再训练方面增强了人机交互的效率,充分利用了人机交互带来的信息增强翻译模型的效果。随着翻译技术的不断进步,翻译模型不仅仅依赖于先进的模型结构和优质的数据,也要依赖于大量的通过人机交互得到的交互信息去补强自身的翻译能力。在未来的发展中,人机交互、相互学习会成为机器翻译技术甚至时人工智能技术进步的关键。



扫码识别关注,获取更多新鲜论文解读

你可能感兴趣的