空 挡 广 告 位 | 空 挡 广 告 位

苹果AR/VR专利介绍用于增强用户协同交互表示的解决方案

查看引用/信息源请点击:映维网Nweon

增强用户交互表示

映维网Nweon 2024年07月20日)对于参与本地会议的远程XR用户,他们可能会看到缺少情景说明的用户表示。例如在本地会议中,本地用户可以伸手抓取一个杯子,但对于远程XR用户,他们可能只会看到表示本地用户的虚拟角色伸手抓取一个对象,但不清楚他抓取的是什么对象或者对象的具体位置。

在名为“Smart interactivity for scanned objects using affordance regions”的专利申请中,苹果就介绍了一种用于增强用户交互表示的技术。

在一个实施例中,可以扫描真实世界对象,并创建可由虚拟角色交互的虚拟对象。为每个对象类型创建3D规范对象表示,并且使用对象-用户交互注释创建功能区域。这可以包括扫描和获取目标现实世界对象的实例特定3D表示,将映射函数从特定于实例的对象应用到规范表示。

通常,如果在用户和物理对象之间检测到物理接触或交互,则为物理对象确定对象类型。从对象类型中,可以获得以对象为中心的功能区域,例如基于对象-用户交互注释。

......(全文 4477 字,剩余 4118 字)

注册用户请登入后阅读完整文章
映维会员、PICO员工、大朋员工可联系映维免费获取权限

本文链接https://scc.nweon.com/2360
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

SCC