(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211394785.6 (22)申请日 2022.11.09 (71)申请人 东南大学 地址 210096 江苏省南京市玄武区四牌楼 2 号 (72)发明人 毕胜 程茜雅 漆桂林  (74)专利代理 机构 南京众联专利代理有限公司 32206 专利代理师 杜静静 (51)Int.Cl. G06F 40/126(2020.01) G06F 40/30(2020.01) (54)发明名称 一种基于双重规划的篇章级复杂问题生成 方法 (57)摘要 本发明公开了一种基于双重规划的篇章级 复杂问题 生成方法, 主要用于依据给定的一篇文 章和答案, 生成能够被答案回答的自然语言问题 序列。 本发明首先使用预训练语言模型BERT对 给 定的文章和答案进行编码, 获得答案感知的语义 向量。 然后针对 给定文章中的每个句子序列构建 语义结构图, 并采用多头注意力机制对这些语义 结构图进行编码, 获取它们之间的相关信息, 用 来指导复杂问题生成。 最后, 采用神经网络 Transformer作为解码器生成复杂问题, 在解码 的每个时间步, 基于双重规划, 即事实级规划和 语义图级规划, 选择需要重点关注的语义图和其 中的事实三元组, 通过融入这些信息增强生成问 题的复杂度, 辅助当前词汇的生成。 权利要求书3页 说明书10页 附图3页 CN 115510814 A 2022.12.23 CN 115510814 A 1.一种基于双重规划的篇 章级复杂问题生成方法, 其特 征在于, 该 方法包括如下步骤: 1)采用预训练语言模型BERT对给定的文章和答案进行编码, 获得答案感知的文本向量 表示, 2)对于给定文章中的每个句子序列, 利用自适应跨句指代消解技术对该句子序列进行 初步处理, 然后采用记 忆感知的语义图构建方法构建出细粒度的语义结构图, 3)对所述步骤2) 最终得到的细粒度语义结构图, 将图中的边也当作节点进行处理, 通 过多头注意力图编码器, 首先获得句 子中每个节点的向量表示, 然后获得单个事实的向量 表示, 最后获得整张图的向量表示, 4)对所述步骤1) 得到答案感知的文本向量表示, 将其送入Transformer模型中解码, 并 且在解码的每个时间步, 基于双重规划即事实级规划和语义图级规划, 选择需要重点关注 的语义图和其中的事实三元组, 辅助当前词的生成, 5)设计损失函数, 经 过多次迭代, 训练问题生成模型。 2.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步 骤 1 )中 ,采 用 B E R T 对 给 定 的 文 本 和 答 案 进 行 编 码 ,输 入 形 式 为 , 具体为, 将文本序列和答案进行拼接, 中间插入分隔符   , 将文本和答案分隔开来, 在开头插入特定的分类标识符 , 通过BERT的预训 练过程后, 该分类标识符会学到融合文本和答案的表征信息, 用向量C表示。 3.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步骤2) 中, 对给定文章中的每个句子序列都构建一个细粒度语义结构图, 首先采用自适应 跨句指代消解技术, 将代词替换成其指代的实体, 便于后续构图时对实体进行融合, 在自适 应跨句指代消解技术中, 需要将实体mention替换成现实世界的实体, 首先要将每个实体 mention表示成语义向量, 然后通过在softmax层中输入相似性特征来预测查询实体 和一 组候选对象之间的共指链接, 并预测实体 和具有最大共指概 率的候选者之间的联系。 4.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步骤2) 中, 采用了自适应跨句指代消解技术, 为了预测跨句子的共指链接, 采用一种算法, 来遍历句子列表并预测当前句子中提及的实体和 跨所有先前句子计算的候选集群之间的 共指链接,  该算法首先对句子列表D进行任意排序, 然后, 对于每个句子 中的实体 , 从先前的句子 的共指集中计算候选集 , 其中, , 表示句子的数量, , 之后预测 和一个候选对象 之间的共指链接 , 最后, 更新预测的候选集并 重新计算 的新候选对象。 5.根据权利要求4所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步骤2) 中, 采用自适应跨句指代消解技术预测共指链接时, 每个实体 的可能候选者的数 量会随着先前句子的数量的增加而增长, 计算成本增加, 在计算过程中仅考虑与句子 相似的先 前句子 。 6.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述权 利 要 求 书 1/3 页 2 CN 115510814 A 2步骤2) 中, 对每个句子经过指代消解后, 采用记忆感知的语义图构建方法, 从句子中抽取出 实体关系三元组, 构建出语义图, 在记忆感知的语义图构建方法中, 使用了迭代存储器将 每 轮生成的抽取结果都存储到内存中, 以便下一次解码迭代可以访问所有先前 的提取, 首先 通过将句子输入到序列到序列 架构中生成第一次抽取结果, 然后 将抽取结果与源句子拼接 后再次输入到序列到序列架构中生成新的抽取结果, 一直重复该过程直到生成 EndOfExt ractions, 该符号表示抽取 过程已结束; 所述步骤2) 中, 采用记忆感知的语义图构建方法中使用了序列到序列模型, 使用了得 评分框架来获得高质量的抽取结果, 首先对汇集的抽取结果进 行评分, 通常来说, 好的抽取 结果会比坏的和冗余的抽取结果获得更高的值, 然后过滤掉抽取结果中的冗余数据, 通过 上述的评分框架, 可以获得高质量的事实三元组, 从而构建语义图。 7.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步骤3) 中, 对语义结构图进 行编码时, 将结构图中的边也当作 节点进行编码, 对于某个语义 结构图, 首先采用预先训练好的词向量初始 化其中的节 点embedding向量, 接着为了能够捕 获节点之间的语义联系, 采用了关系增强的图Transformer对节 点进行编码, 该方法使用了 关系增强的多头注意力机制得到每个节点的emb edding向量, 使得对语义结构图中的每个 节点进行编码的时候, 不仅包含当前节点的编码信息, 还包含语义结构图中其他节点的信 息, 即保留了 当前节点和其余节点之间的联系, 最后, 将 语义结构图中的所有节点向量输入 到全联接 前馈网络 (Fu lly ConnectedFeed ‑forward Network, FFN) 中获得最终的节点语义 表示向量, 并采用残差连接解决深度学习中的退化问题, 获得节点语义表示向量后, 将图中 位于同一事实三元组的节点向量输入到平均池化层中, 得到该事实三元组的语义向量表 示。 8.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步骤4) 中, 基于文本和语义结构图的编码结果, 利用Transformer作为解码器, 生 成问题, 在 解码的每个时间步, 基于双重规划即事实级规划和语义图级规划, 选择需要重点关注的语 义图和其中的事实三元组, 辅助当前词的生成, 具体来说, 首先选择语义结构图, 然后从语 义结构图中选择相关的事实三元组, 最后基于文本向量和选择的事实三元组更新解码器的 隐状态, 并生成当前词, 其中, 语义图级规划旨在在每个解码时间步, 基于文本语义向量 和之前时间步生成的单词, 通过注意力机制 选择当前需要重点关注的语义结构图, 得到基 于注意力的语义结构图表示, 然后将基于注意力的语义结构图表示和文本语义向量 拼接 起来, 共同通过softmax层, 计算得到每个子图的概率, 从中选出概率最高的子图指导当前 问题生成, 事实级规划旨在在每个解码时间步, 基于文本语义向量 、 之前时间步生成的单 词以及被选择 的语义结构图, 通过注意力机制 选择当前需要重点关注的事实三元组, 得到 第k个语义结构图中基于注意力的事实三元组表示, 然后将基于注意力的事实三元组表示 和文本语义向量 拼接起来, 共同通过softmax层, 计算得到每个事实三元组的概率, 从中 选出概率最高的事实三元组指导当前问题生成。 9.根据权利要求1所述的基于双重规划的篇章级 复杂问题生成方法, 其特征在于, 所述 步骤4) 中, 解码生 成问题的过程中, 融入了覆盖机制, 鼓励解码 器在生成单词时能够覆盖到 所有的语义结构图和所有的事实三元组。权 利 要 求 书 2/3 页 3 CN 115510814 A 3

.PDF文档 专利 一种基于双重规划的篇章级复杂问题生成方法

安全报告 > 其他 > 文档预览
中文文档 17 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共17页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于双重规划的篇章级复杂问题生成方法 第 1 页 专利 一种基于双重规划的篇章级复杂问题生成方法 第 2 页 专利 一种基于双重规划的篇章级复杂问题生成方法 第 3 页
下载文档到电脑,方便使用
本文档由 思考人生2024-03-03 20:13:35上传分享
给文档打分
您好可以输入 255 个字符
网站域名是多少( 答案:github5.com )
评论列表
  • 暂时还没有评论,期待您的金玉良言
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。