中国科学院空间应用工程与技术中心何煜获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学院空间应用工程与技术中心申请的专利基于眼动追踪的虚拟现实复杂场景交互方法、装置和电子设备获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120010666B 。
龙图腾网通过国家知识产权局官网在2025-09-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510093414.1,技术领域涉及:G06F3/01;该发明授权基于眼动追踪的虚拟现实复杂场景交互方法、装置和电子设备是由何煜;于歌;许晰;郑子洁设计研发完成,并于2025-01-21向国家知识产权局提交的专利申请。
本基于眼动追踪的虚拟现实复杂场景交互方法、装置和电子设备在说明书摘要公布了:本发明提供一种基于眼动追踪的虚拟现实复杂场景交互方法、装置和电子设备,包括:追踪用户眼球运动数据,实时确定在虚拟现实场景中的用户聚焦区域;将用户聚焦区域内的所有物体,保持用户视角下相对位置关系的基础上,投影到悬浮在用户身前的圆形平面内,并且,智能调整投影到所述圆形平面内的物体位置,使所有物体之间相互分离互不重叠;对圆形平面内的物体进行选择及交互。本发明利用用户的视线信息,帮助用户在复杂的虚拟场景中快速、精准地选择目标物体。相比于传统的射线交互方式,本发明能够显著缩短选择时间,并提高目标物体选择的准确性,尤其是在场景中存在大量重叠或遮挡物体的情况下,能够有效解决传统方法难以选中遮挡目标的不足。
本发明授权基于眼动追踪的虚拟现实复杂场景交互方法、装置和电子设备在权利要求书中公布了:1.一种基于眼动追踪的虚拟现实复杂场景交互方法,其特征在于,包括: 追踪用户眼球运动数据,实时确定在虚拟现实场景中的用户聚焦区域,进而确定所述用户聚焦区域内的所有物体; 将所述用户聚焦区域内的所有物体,保持用户视角下相对位置关系的基础上,投影到悬浮在用户身前的圆形平面内,并且,智能调整投影到所述圆形平面内的物体位置,使所有物体之间相互分离互不重叠; 对所述圆形平面内的物体进行选择及交互,实现基于眼动追踪的虚拟现实复杂场景交互; 其中:所述将所述用户聚焦区域内的所有物体,保持用户视角下相对位置关系的基础上,投影到悬浮在用户身前的圆形平面内,并且,智能调整投影到所述圆形平面内的物体位置,使所有物体之间相互分离互不重叠,具体为: 将所述用户聚焦区域内的所有物体进行坐标转换,将每个物体在世界坐标系下的全局坐标转换到圆形平面局部坐标系下,得到每个物体在圆形平面局部坐标系下的局部坐标; 对每个物体在圆形平面局部坐标系下的局部坐标进行缩放,得到缩放后的坐标; 根据缩放后的坐标,投影到所述圆形平面内的对应位置; 对投影到所述圆形平面内的各个物体进行碰撞检测,使重叠的物体互相互斥分离,直到不再重叠为止; 所述对投影到所述圆形平面内的各个物体进行碰撞检测,使重叠的物体互相互斥分离,直到不再重叠为止,具体为: 对投影到所述圆形平面内的各个物体,按从中心向外围的方向依次进行遍历;对于遍历到的每个物体,表示为当前检测的物体O,检测该物体O是否有重叠的碰撞体C,如果没有,则对下一个物体进行遍历和检测;如果有,则将碰撞体C推离开物体O,通过下式,确定更新后的碰撞体C的位置: 其中: Rc代表碰撞体C的半径;Ro代表物体O的半径; Coverlap代表碰撞体C在推离前的位置坐标; Odetect代表物体O的位置坐标; β是一个极小值,为已知给定值; D代表碰撞体C推离移动的距离; Coverlap‑Odetectnorm代表由碰撞体C在推离前的位置指向物体O位置的单位方向向量; Cnew代表碰撞体C推离后的位置坐标,即为更新后的碰撞体C的位置坐标。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院空间应用工程与技术中心,其通讯地址为:100094 北京市海淀区邓庄南路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励