0%

Seq2seq based Summarization

本科毕业设计是做一个基于seq2seq的短句文摘模型,并设计了一种情感融合机制 现在对整个模型做一个简单的总结

i0TGHH.png

任务

  • 自动文摘是一类自然语言处理(Natural Language Processin,NLP)任务。对于一段较长的文本,产生一段能够覆盖原文核心意义的短文本,这段短文本就是原文本的摘要。自动文摘技术是指在计算机上构建数学模型,将长文本输入模型,通过计算之后模型能自动生成短摘要。根据需要产生摘要的语料规模和摘要的规模,可以将摘要分为多文本摘要、长文摘要、短文摘要。本文主要研究的是短文摘要:对于一句或者几句文本,生成一句短摘要,概括原文关键信息,且流畅可读,尽量达到人类作者撰写摘要的水平。
  • 自动文摘分抽取式和生成式,前者是抽取原文句子构成文摘,后者是通过深度学习模型逐字生成文摘。本文主要研究生成文摘,并将问题抽象成对一个平均长度为28词的长句生成一个平均长度为8词的短句。
i0TYEd.jpg

预备知识

循环神经网络

  • 循环神经网络(Recurrent Neural Network,RNN),是神经网络的一种变形,能够有效处理序列型数据,其所有的隐藏层共享参数,每一隐藏层不仅依赖当前时刻的输入还依赖上一时刻的隐藏层状态,数据流并不是如传统神经网络那样在网络层之间传播,而是作为状态在自身网络中循环传递。
  • 不展开时形式如下: i0TtUA.jpg
  • 按时间步展开之后: i0TN4I.jpg

LSTM和GRU

  • 循环神经网络能够有效捕捉序列数据的顺序信息且能够构造很深的神经网络而不产生大量需要学习的参数;但也因为参数共享,梯度通过时间步进行链式求导时相当于进行矩阵幂运算,若参数矩阵的特征值过小会造成梯度弥散,特征值过大会造成梯度爆炸,影响反向传播过程,即RNN的长期依赖问题。在处理长序列数据时长期依赖问题会导致序列的长期记忆信息丢失,虽然人们通过引入梯度截断和跳跃链接技术试图缓解此问题,但效果并不显著,直到长短期记忆神经网络和门控循环神经网络作为 RNN 的扩展形式的出现,有效地解决了这个问题。
  • LSTM即长短期记忆神经网络。为了捕捉长期记忆信息,LSTM在其节点中引入了门控单元,作为网络参数的一部分参与训练。门控单元控制了当前隐藏层节点记忆(遗忘)过去信息,接受当前输入新记忆的程度。 i0TaCt.jpg
  • GRU即门控神经网络,与LSTM不同的是,GRU 将遗忘门和输入门整合为重置门,遗忘门的门控值和输入门的门控值和为 1,因此 GRU 在 LSTM 的基础上简化了参数,从而使得模型能够更快得收敛。 i0Td8P.jpg ## 词嵌入
  • 深度学习的一大好处就是能自动学习特征,在自然语言处理中,我们专门用word2vec之类的技术学习词语的特征表示,即词嵌入。
  • 词向量(Word Vector)表示,又称词嵌入(Word Embedding),指以连续值向量形式表示(Distributed Representation)词语,而不是用离散的方式表示(One-hot Representation)。在传统的离散表示中,一个词用一个长度为 V 的向量表示,其中 V 是词典大小。向量中只有一个元素为 1,其余元素为 0,元素 1的位置代表这个词在词典中的下标。用离散的方式存储单词效率低下,且向量无法反映单词的语义语法特征,而词向量可以解决以上问题。词向量将向量的维 度从 V 降低到 \(\sqrt[k] V\)(一般 k 取 4),每个元素的值不再是 1 和 0,而是连续值。词向量是建立神经网络语言模型 (Neural Network Language Model,NNLM)对语料进行监督学习得到的副产物,此模型的提出基于一个语言学上的假设:具有相近语义的词有相似的上下文,即 NNLM 模型能够在给定上下文环境的条件下求出相应中心词。
  • 下图展示了word2vec中的skipgram模型: i0Twgf.jpg
  • 得到的词嵌入矩阵如下: i0T0v8.jpg
  • Mikolov等人在NNLM基础上提出了 Word2Vec 模型,此模型进行监督学习的输入输出分别为中心词与上下文(即 Skip Gram 模型) 或者上下文与中心词(即 CBOW 模型)。两种方式均能有效训练出高质量的词向量,但是 CBOW 模型是根据上下文求中心词,训练速度快,适合在大语料上训练;Skip Gram 模型能充分利用训练语料,其本身含义为“跳跃的语法模型”,不仅使用相邻词构成中心词的上下文环境,隔一个词的跳跃词也构成上下文环境,以图 2-1 为例,语料中的一个中心词的上下文包括四个词,假如语料中有 Wtotal 个词语,则 Skip Gram 模型能计算 4 · Wtotal 次损失并进行反向传播学习,对于语料的学习次数是 CBOW 模型的四倍,因此该模型适合于充分利用小语料训练词向量。
  • Word2Vec 模型训练完成时,输入层与隐藏层之间的权重矩阵即词嵌入矩阵(Word Embedding Matrix)。离散表示单词的向量与矩阵相乘即得到词向量,这项操作实际上等效于在词嵌入矩阵中查找对应词向量(Embedding Look Up)。词向量能够有效表示词的语义关系,其本质是为机器学习模型提供了一种提取文本信息特征的方法,方便将单词数值化输入模型进行处理。传统的语言模型训练词向量在输出 Softmax 层开销太大,
  • 而 Word2Vec 模型采用了分层 Softmax(Hierarchical Softmax)和噪声对比估计(Noise Contrastive Estimation)两种技术,大大加速了训练,使得在自然语言处理中使用大规模语料训练出的优质词向量成为可能。

注意力

  • 在 NLP 任务中注意力机制最早应用于机器翻译,即引入一个权重矩阵代表编码器序列中各个元素对解码器生成的每一个词的贡献程度。在实际实现时注意力机制会生成一个注意力权重,对各个编码器元素的隐藏层状态进行注意力加权生成中间表示,而不是简单的采用最后一个元素的隐藏层状态。最简单的注意力即解码器对编码器的注意力,分为全局和局部注意力。全局注意力生成对整个编码器序列的注意力权重,而局部注意力先训练出一个注意力对齐位置,再对此位置附近取一个窗口,仅对窗口内的序列加权,使得注意力更加精确、集中。注意力机制带来的一个副产品即词与词之间的对齐Alignment)。在机器翻译中,对齐关系可以理解为词到翻译词的关联程度。在自动文摘中采用注意力机制,可以有效缓解长序列经过编码器编码成中间表示时的信息损失问题。 i0TDKS.jpg

序列到序列

  • seq2seq模型,即使用一个RNN作为编码器,编码输入的序列数据得到中间语义表示,再利用另外一个RNN作为解码器,利用中间语义表示得到序列化的输出。广义的序列到序列以及端到端学习不一定使用RNN,也可以用CNN或者纯注意力机制。 i0TrDg.jpg
  • 对于序列到序列模型的一些个人理解:
    • (信息论)如果不考虑编码器和解码器的具体实现形式,只认为编码器可以将序列数据转化为中间表示,解码器可以将中间表示转化为序列数据,则整个序列到序列模型相当于对文摘信息的一次编码解码,由于中间表示的维度远小于编码器的总维度,因此这种编码是有损编码。序列到序列模型要使得有损编码的结果是提取原文中的文摘信息,因此训练网络的目标是让损失的部分为文摘不需要的冗余信息。解码器相当于编码器的逆过程,从包含文摘信息的中间表示中还原出文摘的序列形式数据。
    • (学习与应用)将整个模型比作人类的大脑,则编码器的隐藏层状态相当于大脑内存储的知识,解码器则是利用这些知识解决问题,即编码器是一个学习过程而解码器是一个应用过程。这种比喻能够形象地解释后来对序列到序列模型的各种改进:时间步上的学习对应现实时间线上的学习,越早学习的知识在大脑中越容易忘记(靠前的时间步隐藏层信息传递到最终步时信息丢失严重),且大脑的容量一定(中间表示的信息存储容量一定),因此学习时我们选择性记忆和忘记信息(LSTM 和 GRU 的应用),并且在记忆的过程中划重点(注意力机制),甚至还可以借助向外界环境查询信息,不完全靠自己的记忆解决问题(记忆网络)。
    • (循环神经网络)完全从数据流和网络结构的角度看,整个序列到序列模型可以看作一个长的、限定了某些时间步输入输出的 RNN,以图 3-1 为例,模型就是一个具有 8 个时间步的 RNN,前 5 时间步没有输出,后 3 个时间步将输出传递到下一时间步指导状态变化。编码器和解码器联合训练即相当于对这个大型RNN 进行训练。这种只在部分节点进行输入输出的 RNN 从结构上就适合处理序列到序列任务。

序列损失

  • 解码器每一步解码出来的实际上时词典的概率分布,取最大概率的词输出(或者做束搜索),损失是每一步的概率和这一步标准词语的01分布做交叉熵,求和再平均。实际上还要应用一个mask来解决句子长度不一定的问题。

基本模型

  • 预处理:应用序列到序列模型需要对数据进行一定的预处理,除了常用的去停用词加UNK,以及padding之外,还需要设计解码的开始与结束符号,如下: i0TsbQ.jpg
  • 训练好词嵌入之后,对输入做一个embedding lookup的操作得到特征 i0T6Ej.jpg
  • 特征输入编码器得到中间表示 i0Tg5n.png
  • 拿到中间表示和输出文摘(相当于label),输入解码器进行解码 i0TIrF.png
  • 加入注意力机制后完整的序列到序列模型结构如下: i0TRCq.jpg

情感融合机制

  • 情感机制主要是为文本补充了情感特征,通过查找情感词典的方式手动构造了一个六维的特征,未来希望能够用自动构造特征的方式来进行这方面工作。
  • 先训练情感分类器,对原语料进行了筛选形成情感语料,在情感语料和普通语料上都测试了模型 i0TW80.jpg
  • 查找词典得到情感向量(即情感特征) i0Tf2V.jpg
  • 将情感特征直接拼接在中间表示之后,输入解码器 i0ThvT.jpg

结果

  • 结果由ROUGE-F1值形式记录,情感语料下各种方法对比 i0T5KU.png
  • 普通语料下情感融合方案对比 i0Tb5R.png
  • 情感分类准确率,作为参考,之前训练的情感分类器准确率为74% i0Tob4.png
  • 因为是大语料小batch训练,只训练了十次迭代,各个迭代的测试集效果 i0T7VJ.png

问题

  • unk替换问题:在很多文献中都提到了使用指针开关技术解决生成文摘中的罕见词(unk),即从原文中挑选词语替换掉文摘中的unk,但是由于ROUGE评测的是词的共现程度,因此只要替换了原文的词,哪怕位置、词语不对,都有可能是ROUGE值上升,造成评测结果偏高,本文设计了对比试验,发现即便是没有采用任何机制的随机替换都能提高ROUGE值 i0THa9.png
  • 语料重复问题:在检查语料时我们发现了大量短文本不同但短文摘相同的语料,重复的语料来自于对于相同事件的不同描述,或者一些功能性的文字,翻译过来例如“...... 周三...... 黄金价格上涨”和“......周四......黄金价格上涨”均生成相同的文摘“黄金价格上涨”。短文摘重复的语料会导致模型在解码端学到一些不应该固化的短语,而如果训练集和测试集中有重复的相同的文摘,则固化的文摘反而会导致生成文摘正确率虚高。对于这类文本,本文进行了四组实验:
    • 不去重:保留原文本,不去重,进行训练和测试
    • 去重:删除语料中所有重复文摘对应的的短文本-短文摘对。
    • 训练去重:部分去重,只将训练语料中的重复数据删除,即学习好的模型已经没有受到重复文本的影响。
    • 测试去重:部分去重,只将测试集中与训练集重复的部分删除,学习好的模型受到了重复文本的影响,但测试集中没有与重复文本中相对应的数据。 重复的语料训练下 ROUGE-1 和 ROUGE-L 都突破了 30,远超正常训练的模型,去重之后便恢复到正常水平。两种部分去重的结果则分别表明:训练去重时,没有受重复语料影响的模型对于测试集中的重复数据没有明显的反应,与完全去重的普通模型近似;测试去重时,虽然模型受到了重复语料影响,但是测试集中没有重复的数据让其利用学习到的固化的文摘,因此结果也不会虚高,且由于学习到了不同短文对应相同文摘的模式,编码端实际上结构更加灵活,导致 ROUGE 指标高于训练去重的结果。 i0TLP1.png

实现环境

  • 这里是github地址:- Abstract_Summarization_Tensorflow
  • Ubuntu 16.04
  • Tensorflow 1.6
  • CUDA 9.0
  • Cudnn 7.1.2
  • Gigawords数据集,训练了部分数据,约30万
  • GTX1066,训练时间3到4个小时

参考文献

i0TX26.jpg i0TO8x.jpg