腾讯AI Lab深度解读文本生成技术相关论文

随着近年来端到端的 深度神经网络 的流行,文本生成逐渐成为 自然语言处理 中一个热点研究领域。文本生成技术具有广阔的应用前景,包括用于智能对话系统,实现更为智能的 人机交互 ;我们还可以通过自动生成新闻、财报及其它类型的文本,提高撰文者的工作效率。

根据不同的输入类型,文本生成可以大致划分为三大类:文本到文本的生成,数据到文本的生成以及图像到文本的生成。每一类的文本生成技术都极具挑战性,在近年来的 自然语言处理 人工智能 领域的顶级会议中均有相当多的研究工作。

本次将介绍腾讯AI Lab在文本到文本生成研究领域中关于文本风格转化及对话生成的两篇论文。其中,文本风格的论文中,我们提出了一个新的序列编辑模型旨在解决如何生成与给定数值相匹配的句子的研究问题。而关于对话生成的论文中,我们提出了一个新的对话模型用于抑制对话 生成模型 中通用回复的生成。

以下我们将分别介绍两篇论文。

论文:QuaSE: Sequence Editing under Quantifiable Guidance

https://arxiv.org/abs/1804.07007

论文:Towards Less Generic Responses in Neural Conversation Models: A Statistical Re-weighting Method

https://ai.tencent.com/ailab/nlp/papers/emnlp2018_conversation.pdf

 QuaSE: Sequence Editing under Quantifiable Guidance解读

在这篇由腾讯 AI Lab 主导,与香港中文大学(The Chinese University of Hong Kong)合作完成的论文中,作者提出一种新的量化指标引导下的序列编辑模型,可以编辑生成与给定的量化指标相匹配的句子,未来可以扩展到诸如CTR引导下的新闻标题和摘要生成、广告描述生成等业务场景中。

研究问题

论文的主要任务是给定一个句子以及其对应的分数,例如Yelp平台上的用户评价“The food is terrible”以及其评分1,然后我们设置一个目标分数,让模型能够生成与目标分数相匹配的句子,并且原句的主要内容在新的句子中必须得以保持。例如,给定数值3,生成“The food is OK”。给定数值5,生成“The food is extremely delicious”。任务的挑战和特点主要有以下几方面:(1) 给定的数值可以是连续的,例如2.5, 3.7, 4.1等,意味着很难像 机器翻译 一样能够有人工标注的成对出现的训练样本。(2) 模型需要具有甄别句子中与数值相关的语义单元的能力。(3) 根据数值进行句子编写时,必须保持原句的主要内容。

模型框架

图1:QuaSE模型框架

图1为我们提出的模型QuaSE的框架。包含单句建模以及序列编辑两个部分的建模。左半部分为单句建模。其中X和R是观测值,分别表示句子(例如用户对餐厅的评价)以及其对应的数值(例如用户评分)。Z和Y是隐变量,是对句子内容以及句子数值相关属性的建模表示。受Variational Auto-Encoders(VAE)模型的启发,对于隐变量Z和Y的建模是通过 生成模型 的方式实现。我们设计了两个Encoder(E1和E2)和一个Decoder (D). X以Z和Y为条件进行生成。模型的优化目标是使得生成的句子X’能够最大限度的重建输入句子X。同时,由于优化目标积分计算困难等原因,我们采用变分的方法探寻优化目标的下界。单句建模的优化目标为:

此外,我们还设计了一个回归函数F来学习隐变量Y和数值R的 映射 关系。

对于序列编辑过程的建模,我们首先构建了一个伪平行句对数据集。例如,对于句子x=“I will never come back to the restaurant.” 我们找到其伪平行句子为x’=“I will definitely come back to the restaurant, recommend!”其中x和x’对应的数值分别是1和5。

对于句子编辑的建模主要包含三个部分:

(1) 建立句子x到句子x’的内容变化与数值变化之间的关系。原句x到目标句x’的变化肯定是增加或者减少了某些词,从而使得在数值这个属性上产生变化,即y到y’的差别。对于这个变化 映射 我们设计了第一个 目标函数 L_diff。

(2) 我们提到x和x’必须在主要内容方面继续保持一致,例如必须都是在描述“restaurant”。所以我们引入第二个 目标函数 L_sim来使得z和z’尽量的相似。

(3) 我们知道生成过程是给定z和y来生成x (p(x|z,y)), 那么改写的过程可以是给定z和y’来生成x’ (p(x’|z,y’)),也可以同时是给定z’和y来生成x (p(x|z’,y)),这是个双向过程。所以对于这两个生成过程我们引入了第三个 损失函数 L_d-rec。

最后,单句建模和编辑建模可以融合成一个统一的优化问题通过端到端的方法进行训练。

实验分析

我们使用Yelp上的用户评论和打分数据进行实验。实验分为两个部分。

第一个实验主要是为了验证给定任意数值的句子编辑能力。我们通过MAE和Edit Distance两个指标来衡量句子编辑的性能。实验结果如表1所示:

表 1:Yelp数据集上的任意数值指导下的句子改写

从表1中可以看出我们的模型编辑的句子质量更高,编辑后的句子的预测数值与给定的目标数值更接近。而且能够保持原句的主要内容。

为了更加形象的说明句子编辑的效果,我们抽样了一些样本进行展示,如表2:

表 2:序列编辑的示例展示

另外,我们注意到有相关做文本风格转换的研究工作可以进行句子双向生成,即给定负向情感句子生成正向情感句子,或反之。所以,为了与该类模型比较句子编辑的效果,我们设计了第二个实验与之对应,即从数值1的句子生成数值5的句子,或相反。我们用 准确率 来评价改写的好坏。实验结果如表3所示:

表 3 :双向文本风格转换效果

实验结果说明我们的模型在双向文本风格转换实验中可以获得更高的 准确率

此外,生成的句子质量很难以进行客观评测,所以我们引入了人工评测的结果来衡量句子内容保持度以及句子质量的高低。人工评测结果如表4所示:

表 4 :人工评测结果

可以看出我们的模型可以最大程度的保持原句的内容,并且句子依然保持很好的流畅度。

Towards Less Generic Responses in Neural Conversation Models: A Statistical Re-weighting Method解读

在这篇由腾讯 AI Lab 主导,与武汉大学、苏州大学合作完成的论文中,作者提出一种适用于开放领域对话系统的新型神经对话模型(Neural Conversation Model),旨在解决 生成模型 中容易产生通用回复(如“我不知道”,“我也是”)的问题。

神经 生成模型 机器翻译 中的成功应用,即神经 机器翻译 Neural Machine Translation , NMT),激发了研究人员对于神经对话模型的热情。目前,最常用的神经对话模型为 序列到序列 (Sequence-to-sequence, Seq2seq)模型: 给定一个输入序列 及输出序列 ,模型的 参数 用于优化negative log likelihood: 。然而在开放领域的对话中,我们经常发现对于一个输入x,如“你吃饭了吗?”,若干意思完全不一致的回复都是可以被接受的,如“刚吃完。”,“还没呢,还不饿。”,“不急。你呢?”等等,因此从x到y是一对多的 映射 关系。甚至,同一个回复经常可以适用于多个输入,因此是从x到y是多对多的 映射 关系(如图1所示)。然而,Seq2seq模型的 目标函数 学习的是一个从x到y的一对一的 映射 关系,并且优化的 目标函数 由大量的预测高频词/短语的损失项所组成,导致最终 收敛 的模型易于生成高频词及他们的组合,生成通用回复。

因此,本文在 损失函数 项中引入 权重 ,使得Seq2seq模型能优化更为多样化的损失项。其中,我们发现若输出为(包含)高频序列,以及输出序列长度过短或过长,此输出序列的损失项优化都容易导致通用回复,因此我们设计了有效的方法对这些损失项乘以一个较小的 权重 。有兴趣的读者可以阅读我们的论文及具体的 权重 计算方式。

图1: 机器翻译 及对话语料中从输入x到输出y的 映射 关系对比

我们从各大中文社交网站(如微博等)中爬取并筛选了700万高质量的对话句对进行实验。其中,我们保留了500个输入作为测试集,并且聘请了3个评测人员对各种对话 生成模型 的生成回复进行了包括句子通顺度(Fluency)、与输入句子的相关性等方面的评测。

同时,我们也对比了多种 权重 设计方式的有效性,包括只使用句子频次(Ours-RWE)、只使用句子长度(Ours-RWF)以及句子频次、长度均使用(Ours-RWEF)。结果如表1所示。从中,我们可以看到,我们的方法在保持较高的句子通顺度的时候,有效地提高了回复的相关性。

表1:人工标注结果

我们还另外保留了10万个输入作为另一个较大的测试集。在这个测试集上,我们统计了各种对比模型中产出几个常见的通用回复的频次。结果见表2。由此表可见,我们提出的方法极大程度地减少了生成的通用回复。

 表2:通用回复生成频次对比

最后,我们在表3中给出一些具体的生成回复。由此我们可以更为直观地感受到所提出的方法确实能够生成质量较高的回复。

表3:生成结果对比

腾讯AI实验室
腾讯AI实验室

理论 EMNLP2018 文本生成 机器翻译 生成模型 NLP 人机交互 深度神经网络
2