(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202210663978.0
(22)申请日 2022.06.14
(71)申请人 湖南大学
地址 410082 湖南省长 沙市岳麓区麓山 南
路1号
(72)发明人 李树涛 宋启亚 孙斌
(74)专利代理 机构 湖南兆弘专利事务所(普通
合伙) 43008
专利代理师 谭武艺
(51)Int.Cl.
G06V 10/80(2022.01)
G06V 10/82(2022.01)
G06V 40/10(2022.01)
G06V 40/16(2022.01)
G06V 40/18(2022.01)G06V 40/70(2022.01)
G06V 10/764(2022.01)
G06T 7/73(2017.01)
G06F 3/01(2006.01)
(54)发明名称
一种人机交互场景下多特征融合的沉浸度
计算方法及系统
(57)摘要
本发明公开了一种人机交互场景下多特征
融合的沉浸度计算方法及系统, 本发明方法包
括: 确定人机交互场景下从用户的实时图像提取
得到的多种特征的序列, 包含人机交互距离特
征、 人体姿态特征、 头部姿态特征、 面部姿态特
征、 眼部姿态特征以及唇部运动特征中的部分或
者全部; 对多种特征的序列进行联合表示, 得到
特征表示向量 Hde并通过分类器进行分类得到沉
浸度。 本发 明能够实现人机交互场景下多特征融
合的沉浸度计算, 准确的评估人与机器人的交互
意愿, 可有效提升人机交互场景下的交互体验,
且结合多种特征的时序信息, 可有效提升用户的
沉浸度计算的准确度, 还可以进一步实现目标用
户选择、 机 器人工作状态控制。
权利要求书2页 说明书8页 附图3页
CN 114998700 A
2022.09.02
CN 114998700 A
1.一种人机交 互场景下多特征融合的沉浸度计算方法, 其特 征在于, 包括:
1) 确定人机交互场景下从用户的实时图像提取得到的多种特征的序列, 所述多种特征
包含人机交互距离特征、 人体姿态特征、 头部姿态特征、 面部姿态特征、 眼部姿态特征以及
唇部运动特 征中的部分或者全部;
2) 对多种特 征的序列进行 联合表示, 得到特 征表示向量 Hde;
3) 将特征表示向量 Hde通过分类 器进行分类, 得到用户的沉浸度。
2.根据权利要求1所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于,
步骤2) 包括: 分别将多种特征的序列进 行标准化处理, 使其 维度相同并被归一化, 构成特征
数据X; 将特征数据X送入门控循环时序网络 GRU对各个特征的序列进 行时序建模, 然后通过
注意力层A tt选取输入层特 征向量, 得到融合后的特 征表示向量 Hde。
3.根据权利要求1所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于,
步骤3) 中采用的分类 器为多层感知机, 其 函数表达式为:
P(Y) =sigmoid(MLP(Hde))
上式中,P(Y)为得到的用户的沉浸度, sigmoid为归一化指数函数, MLP为多层感知机将
特征表示向量 Hde回归到应的置信度数值。
4.根据权利要求1~3中任意一项所述的人机交互场景下多特征融合的沉浸度计算方
法, 其特征在于, 步骤1) 中的多种特征包含人机交互距离特征, 且人机交互距离特征的计算
函数表达式为:
,
上式中,f(di)为第i个用户的人机交互距离特征, xi,1和yi,1分别为第 i个用户的颈部特
征点的三维空间坐标的x坐标和y坐标, xi,2和yi,2分别为第 i个用户的左肩部特征点的三维
空间坐标的x坐标和y坐标, xi,5和yi,5分别为第 i个用户的右肩部特征点的三维空间坐标的x
坐标和y坐标, 所述颈部特征点、 左肩部特征点和右肩部特征点均为对人机交互场景下从用
户的实时图像进行人体姿势估计得到, 所述颈部特征点、 左肩部特征点和右肩部特征点的
三维空间坐标为基于点 坐标及深度进行图像坐标系变换 得到。
5.根据权利要求4所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于,
步骤1) 中的人体姿态特 征包含人体方位角特 征, 且人体方位角特 征的计算 函数表达式为:
,
上式中,f(αi)为第i个用户的人体方位角特征, αi为第i个用户的人体方位角, xi,1和yi,1
分别为颈部特征点的三 维空间坐标的x坐标和y坐标, 所述颈部特征点为对人机交互场景下
从用户的实时图像进 行人体姿势估计得到, 所述颈部特征点的三 维空间坐标为基于点坐标
及深度进行图像坐标系变换 得到。
6.根据权利要求5所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于,
步骤1) 中的头 部姿势特 征的计算 函数表达式为:
,权 利 要 求 书 1/2 页
2
CN 114998700 A
2上式中,f(hi)为第i个用户的头部姿势特征, αi为第i个用户的人体方位角, βi为第i个
用户的头部角度, xi,1和yi,1分别为颈部特征点的三维空间坐标的x坐标和y坐标, xi,k和yi,k
分别为任意第 k个鼻部特征点的三维空间坐标的x坐标和y坐标, 所述颈部特征点、 第 k个鼻
部特征点均为对人机交互场景下从用户的实时图像进 行人体姿势估计得到, 所述颈部特征
点、 第k个鼻部特 征点的三维空间坐标为基于点 坐标及深度进行图像坐标系变换 得到。
7.根据权利要求6所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于,
步骤1) 中的唇部运动特 征的计算 函数表达式为:
,
上式中,f(lari)为第i个用户的唇部运动特征, lari为第i个用户的唇部上下距离, σ 为
判断唇部运动特征的阈值, lari大于等于阈值σ 时判定唇部为张开、 唇部运动特征为1, 反之
判定唇部为闭合、 且唇部运动特征为0, 其中第 i个用户的唇部上下距离为对人机交互场景
下从用户的实时图像进行唇部 关键特征点定位, 并基于定位得到的唇部关键特征点坐标计
算得到。
8.根据权利要求1所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于,
步骤3) 之后还包括将用户的沉浸度与预设阈值进 行比较的步骤, 若用户的沉浸度小于 设定
阈值、 且机器人当前 处于人机交互状态, 则暂停或退出机器人的人机交互状态; 若用户的沉
浸度大于或等于设定阈值、 且机器人当前处于非人机交互状态, 则首先判断检测到的用户
数量, 若用户数量大于1则选择沉浸度最高的用户作为目标用户, 若用户数量等于1则选择
该用户作为目标用户, 然后唤醒机器人使其进入人机交互状态以用于与目标用户进行人机
交互; 机器人 的传感系统在人机交互状态和非人机交互状态下均保持工作状态, 机器人 的
运动系统仅在人机交 互状态下处于 工作状态、 在非人机交 互状态下处于非工作状态。
9.一种人机交互场景下多特征融合的沉浸度计算系统, 包括相互连接的微处理器和存
储器, 其特征在于, 该微处理器被编程或配置以执行权利要求1~8 中任意一项所述人机交
互场景下多特征融合的沉浸度计算方法的步骤。
10.一种计算机可读存储介质, 所述计算机可读存储介质中存储有计算机程序, 其特征
在于, 该计算机程序用于被微处理器编程或配置以执行权利要求 1~8中任意一项 所述人机
交互场景下多特征融合的沉浸度计算方法的步骤。权 利 要 求 书 2/2 页
3
CN 114998700 A
3
专利 一种人机交互场景下多特征融合的沉浸度计算方法及系统
文档预览
中文文档
14 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 09:46:16上传分享