苹果AR/VR专利介绍用于增强用户协同交互表示的解决方案
增强用户交互表示
(映维网Nweon 2024年07月20日)对于参与本地会议的远程XR用户,他们可能会看到缺少情景说明的用户表示。例如在本地会议中,本地用户可以伸手抓取一个杯子,但对于远程XR用户,他们可能只会看到表示本地用户的虚拟角色伸手抓取一个对象,但不清楚他抓取的是什么对象或者对象的具体位置。
在名为“Smart interactivity for scanned objects using affordance regions”的专利申请中,苹果就介绍了一种用于增强用户交互表示的技术。
在一个实施例中,可以扫描真实世界对象,并创建可由虚拟角色交互的虚拟对象。为每个对象类型创建3D规范对象表示,并且使用对象-用户交互注释创建功能区域。这可以包括扫描和获取目标现实世界对象的实例特定3D表示,将映射函数从特定于实例的对象应用到规范表示。
通常,如果在用户和物理对象之间检测到物理接触或交互,则为物理对象确定对象类型。从对象类型中,可以获得以对象为中心的功能区域,例如基于对象-用户交互注释。
......(全文 4477 字,剩余 4118 字)
注册用户请登入后阅读完整文章
映维会员、PICO员工、大朋员工可联系映维免费获取权限