iso file download
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210663978.0 (22)申请日 2022.06.14 (71)申请人 湖南大学 地址 410082 湖南省长 沙市岳麓区麓山 南 路1号 (72)发明人 李树涛 宋启亚 孙斌  (74)专利代理 机构 湖南兆弘专利事务所(普通 合伙) 43008 专利代理师 谭武艺 (51)Int.Cl. G06V 10/80(2022.01) G06V 10/82(2022.01) G06V 40/10(2022.01) G06V 40/16(2022.01) G06V 40/18(2022.01)G06V 40/70(2022.01) G06V 10/764(2022.01) G06T 7/73(2017.01) G06F 3/01(2006.01) (54)发明名称 一种人机交互场景下多特征融合的沉浸度 计算方法及系统 (57)摘要 本发明公开了一种人机交互场景下多特征 融合的沉浸度计算方法及系统, 本发明方法包 括: 确定人机交互场景下从用户的实时图像提取 得到的多种特征的序列, 包含人机交互距离特 征、 人体姿态特征、 头部姿态特征、 面部姿态特 征、 眼部姿态特征以及唇部运动特征中的部分或 者全部; 对多种特征的序列进行联合表示, 得到 特征表示向量 Hde并通过分类器进行分类得到沉 浸度。 本发 明能够实现人机交互场景下多特征融 合的沉浸度计算, 准确的评估人与机器人的交互 意愿, 可有效提升人机交互场景下的交互体验, 且结合多种特征的时序信息, 可有效提升用户的 沉浸度计算的准确度, 还可以进一步实现目标用 户选择、 机 器人工作状态控制。 权利要求书2页 说明书8页 附图3页 CN 114998700 A 2022.09.02 CN 114998700 A 1.一种人机交 互场景下多特征融合的沉浸度计算方法, 其特 征在于, 包括: 1) 确定人机交互场景下从用户的实时图像提取得到的多种特征的序列, 所述多种特征 包含人机交互距离特征、 人体姿态特征、 头部姿态特征、 面部姿态特征、 眼部姿态特征以及 唇部运动特 征中的部分或者全部; 2) 对多种特 征的序列进行 联合表示, 得到特 征表示向量 Hde; 3) 将特征表示向量 Hde通过分类 器进行分类, 得到用户的沉浸度。 2.根据权利要求1所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于, 步骤2) 包括: 分别将多种特征的序列进 行标准化处理, 使其 维度相同并被归一化, 构成特征 数据X; 将特征数据X送入门控循环时序网络 GRU对各个特征的序列进 行时序建模, 然后通过 注意力层A tt选取输入层特 征向量, 得到融合后的特 征表示向量 Hde。 3.根据权利要求1所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于, 步骤3) 中采用的分类 器为多层感知机, 其 函数表达式为: P(Y) =sigmoid(MLP(Hde)) 上式中,P(Y)为得到的用户的沉浸度, sigmoid为归一化指数函数, MLP为多层感知机将 特征表示向量 Hde回归到应的置信度数值。 4.根据权利要求1~3中任意一项所述的人机交互场景下多特征融合的沉浸度计算方 法, 其特征在于, 步骤1) 中的多种特征包含人机交互距离特征, 且人机交互距离特征的计算 函数表达式为: , 上式中,f(di)为第i个用户的人机交互距离特征, xi,1和yi,1分别为第 i个用户的颈部特 征点的三维空间坐标的x坐标和y坐标, xi,2和yi,2分别为第 i个用户的左肩部特征点的三维 空间坐标的x坐标和y坐标, xi,5和yi,5分别为第 i个用户的右肩部特征点的三维空间坐标的x 坐标和y坐标, 所述颈部特征点、 左肩部特征点和右肩部特征点均为对人机交互场景下从用 户的实时图像进行人体姿势估计得到, 所述颈部特征点、 左肩部特征点和右肩部特征点的 三维空间坐标为基于点 坐标及深度进行图像坐标系变换 得到。 5.根据权利要求4所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于, 步骤1) 中的人体姿态特 征包含人体方位角特 征, 且人体方位角特 征的计算 函数表达式为: , 上式中,f(αi)为第i个用户的人体方位角特征, αi为第i个用户的人体方位角, xi,1和yi,1 分别为颈部特征点的三 维空间坐标的x坐标和y坐标, 所述颈部特征点为对人机交互场景下 从用户的实时图像进 行人体姿势估计得到, 所述颈部特征点的三 维空间坐标为基于点坐标 及深度进行图像坐标系变换 得到。 6.根据权利要求5所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于, 步骤1) 中的头 部姿势特 征的计算 函数表达式为: ,权 利 要 求 书 1/2 页 2 CN 114998700 A 2上式中,f(hi)为第i个用户的头部姿势特征, αi为第i个用户的人体方位角, βi为第i个 用户的头部角度, xi,1和yi,1分别为颈部特征点的三维空间坐标的x坐标和y坐标, xi,k和yi,k 分别为任意第 k个鼻部特征点的三维空间坐标的x坐标和y坐标, 所述颈部特征点、 第 k个鼻 部特征点均为对人机交互场景下从用户的实时图像进 行人体姿势估计得到, 所述颈部特征 点、 第k个鼻部特 征点的三维空间坐标为基于点 坐标及深度进行图像坐标系变换 得到。 7.根据权利要求6所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于, 步骤1) 中的唇部运动特 征的计算 函数表达式为: , 上式中,f(lari)为第i个用户的唇部运动特征, lari为第i个用户的唇部上下距离, σ 为 判断唇部运动特征的阈值, lari大于等于阈值σ 时判定唇部为张开、 唇部运动特征为1, 反之 判定唇部为闭合、 且唇部运动特征为0, 其中第 i个用户的唇部上下距离为对人机交互场景 下从用户的实时图像进行唇部 关键特征点定位, 并基于定位得到的唇部关键特征点坐标计 算得到。 8.根据权利要求1所述的人机交互场景下多特征融合的沉浸度计算方法, 其特征在于, 步骤3) 之后还包括将用户的沉浸度与预设阈值进 行比较的步骤, 若用户的沉浸度小于 设定 阈值、 且机器人当前 处于人机交互状态, 则暂停或退出机器人的人机交互状态; 若用户的沉 浸度大于或等于设定阈值、 且机器人当前处于非人机交互状态, 则首先判断检测到的用户 数量, 若用户数量大于1则选择沉浸度最高的用户作为目标用户, 若用户数量等于1则选择 该用户作为目标用户, 然后唤醒机器人使其进入人机交互状态以用于与目标用户进行人机 交互; 机器人 的传感系统在人机交互状态和非人机交互状态下均保持工作状态, 机器人 的 运动系统仅在人机交 互状态下处于 工作状态、 在非人机交 互状态下处于非工作状态。 9.一种人机交互场景下多特征融合的沉浸度计算系统, 包括相互连接的微处理器和存 储器, 其特征在于, 该微处理器被编程或配置以执行权利要求1~8 中任意一项所述人机交 互场景下多特征融合的沉浸度计算方法的步骤。 10.一种计算机可读存储介质, 所述计算机可读存储介质中存储有计算机程序, 其特征 在于, 该计算机程序用于被微处理器编程或配置以执行权利要求 1~8中任意一项 所述人机 交互场景下多特征融合的沉浸度计算方法的步骤。权 利 要 求 书 2/2 页 3 CN 114998700 A 3

.PDF文档 专利 一种人机交互场景下多特征融合的沉浸度计算方法及系统

文档预览
中文文档 14 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种人机交互场景下多特征融合的沉浸度计算方法及系统 第 1 页 专利 一种人机交互场景下多特征融合的沉浸度计算方法及系统 第 2 页 专利 一种人机交互场景下多特征融合的沉浸度计算方法及系统 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 09:46:16上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。