(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202210975994.3
(22)申请日 2022.08.15
(71)申请人 华南师范大学
地址 528225 广东省佛山市南海区狮山 南
海软件园华 南师范大学软件学院
(72)发明人 曾碧卿 曾威 冯灵聪 蔡坤钊
(74)专利代理 机构 广州骏思知识产权代理有限
公司 44425
专利代理师 吴静芝
(51)Int.Cl.
G06F 16/332(2019.01)
G06N 20/00(2019.01)
(54)发明名称
一种对话回复生成方法和一种对话回复生
成方法模型
(57)摘要
本发明涉及一种对话回复生成方法, 其包括
步骤: S12: 根据历史选择知 识向量计算选择感知
向量; S13: 根据选 择感知向量和历史选 择知识向
量计算知 识流趋势向量; S14: 将选 择感知向量和
候选知识向量进行比较, 获得比较信息; S15: 对
上下文语句进行编码, 获得上下文向量; S20: 根
据候选知识向量、 知识流趋势向量、 比较信息和
上下文向量计算知识 选择分布; S30: 根据知识 选
择分布计算每个候选知 识向量的注 意力得分, 并
将注意力得分最高的候选知识向量作为当前选
择知识向量; S40: 根据上下文向量和当前选择知
识向量计算历史解码状态向量, 并根据历史解码
状态向量和历史生成词计算当前时刻 的解码状
态向量; S5 0: 计算当前时刻的目标生成概 率。
权利要求书3页 说明书13页 附图3页
CN 115357698 A
2022.11.18
CN 115357698 A
1.一种对话回复生成方法, 其特 征在于, 包括 步骤:
S12: 根据历史选择知识向量计算选择感知向量, 然后分别执 行步骤S13和步骤S14;
S13: 根据所述选择感知向量和所述历史选择知识向量计算知识流趋势向量;
S14: 将所述选择感知向量和候选知识向量进行比较, 获得比较信息;
S15: 对上下文语句进行编码, 获得上下文向量; 其中, 步骤S15在步骤S20之前的任一阶
段执行;
S20: 根据所述候选知识向量、 所述知识流趋势向量、 所述比较信息和所述上下文向量
计算知识选择分布;
S30: 根据 所述知识选择分布计算每个候选知识向量的注意力得分, 并将注意力得分最
高的候选知识向量作为当前选择知识向量;
S40: 根据 所述上下文向量和所述当前选择知识向量计算历史解码状态向量, 并根据所
述历史解码状态向量和历史生成词计算当前时刻的解码状态向量;
S50: 根据当前时刻的所述解码状态向量、 所述历史生成词、 所述上下文向量、 所述当前
选择知识向量分别计算当前时刻的词表生成概率和当前时刻的知识复制概率, 并根据当前
时刻的所述词表生成概 率和当前时刻的所述知识复制概 率计算当前时刻的目标生成概 率。
2.根据权利要求1所述的对话回复生成方法, 其特 征在于, 步骤S12具体为:
采用一层Transformer块的自注意力机制对所述历史选择知识向量进行建模, 捕获知
识流中的动态信息, 获得 所述选择感知向量, 其计算公式为:
Fτ=Transformer[TE(rτ‑N,s,rτ‑N+1,s,...,rτ‑1,s)] (4)
Fτ={fτ‑N,fτ‑N+1,...,fτ‑1} (5)
式中, Fτ为第τ轮对话的所述选择感知向量; fτ‑N,fτ‑N+1,...,fτ‑1分别为第( τ ‑N)轮至第
( τ‑1)轮对话的相互感知向量; TE()表示对每个所述历史选择知识向量添加对应轮次的信
息嵌入的操作; rτ‑N,s,rτ‑N+1,s,...,rτ‑1,s分别为第( τ ‑N)轮至第( τ ‑1)轮对话的所述历史选择
知识向量; N 为知识选择参数。
3.根据权利要求2所述的对话回复生成方法, 其特 征在于:
所述知识流趋势向量的计算公式为:
式中, Tτ为第τ轮对话的所述知识流趋势向量; fτ‑n为第( τ‑n)轮对话的所述相互感知向
量, rτ‑n,s为第( τ‑n)轮对话的所述历史选择知识向量; λn为第( τ‑n)轮对话的知识选择权重;
其中, n∈[1,N], 且
λn≥0。
4.根据权利要求3所述的对话回复生成方法, 其特 征在于, 步骤S14具体为:
通过比较函数将每个所述候选知识向量与当前轮次的所述选择感知向量进行比较, 获
得所述比较信息, 其计算公式为:
其中, fn为第( τ‑n)轮对话的所述相互感知向量, rl为第l个候选知识向量, oτ,l为第l个
候选知识向量与第 τ轮对话的选择知识向量的比较信息; Compare(,)表示比较函数, F()表权 利 要 求 书 1/3 页
2
CN 115357698 A
2示tanh激活函数, ⊙表示哈玛 达乘积。
5.根据权利要求 4所述的对话回复生成方法, 其特 征在于, 步骤S20具体为:
将所述上下文向量和所述知识流趋势向量作为查询, 将所述候选知识向量和所述比较
信息作为键, 计算所述知识选择分布, 其计算公式为:
式中,
为上下文向量; βτ,l为以第l个候选知识向量及其对应的比较信息为键时计算
得到的知识选择分布; v为矩阵转换参数,
表示矩阵的转置, Wquery为查询矩阵, Wkey为键矩
阵; tanh()表示tanh 激活函数。
6.根据权利要求1~5任一条所述的对话回复生成方法, 其特征在于, 步骤S12之前还包
括步骤:
S11: 对候选知识语句集中的所有候选知识语句进行编码, 获得所述候选知识向量; 其
中, 所述候选知识语句集包括历史选择知识语句, 所述候选知识向量包括对应的所述历史
选择知识向量。
7.根据权利要求6所述的对话回复生成方法, 其特 征在于, 步骤S1 1具体为:
采用双向门控循环单元对所述候选知识语句集中的所有候选知识语句进行第一次编
码, 获得候选知识中间向量; 采用双向门控循环单元对所述候选知识中间向量进行第二次
编码, 获得候选知识向量。
8.根据权利要求7 所述的对话回复生成方法, 其特 征在于, 还 包括参数优化 步骤:
S91: 初始化步骤S11~S80的网络参数, 将训练集中的对话样本随机分为多个批次, 按
批次对所述训练集的对话样 本执行步骤S11~S8 0来优化所述网络参数, 并采用总损失函数
进行损失计算; 其中, 所述总损失函数包括知识 流监督损失函数、 知识选择损失函数和响应
生成损失函数;
S92、 每次迭代后, 对验证集中的对话样本执行步骤S11~S80来进行验证, 并记录每次
迭代的验证结果和对应的网络参数;
S93: 多次迭代后, 选择步骤S92中最优验证结果对应的网络参数来更新步骤S11~S80
的网络参数, 然后对测试集的对话样本执 行步骤S1 1~S80来进行性能测试。
9.一种对话回复生成模型, 其特 征在于, 包括:
选择感知向量计算模块, 用于根据历史选择知识向量计算选择感知向量;
知识流趋势向量计算模块, 用于根据 所述选择感知向量和所述历史选择知识向量计算
知识流趋势向量;
比较信息计算模块, 用于将所述选择感知 向量和候选知识向量进行比较, 获得比较信
息;
上下文编码模块, 用于对上 下文语句进行编码, 获得 上下文向量;
知识选择分布计算模块, 用于根据所述候选知识向量、 所述知识流趋势向量、 所述比较
信息和所述上 下文向量计算知识选择分布;
当前选择知识向量计算模块, 用于根据所述知识选择分布计算每个候选知识向量的注
意力得分, 并将注意力得分最高的候选知识向量作为当前选择知识向量;
当前解码状态向量计算模块, 用于根据所述上下文向量和所述当前选择知识向量计算权 利 要 求 书 2/3 页
3
CN 115357698 A
3
专利 一种对话回复生成方法和一种对话回复生成方法模型
文档预览
中文文档
20 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共20页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 13:01:17上传分享