【动态】解析VR中的“键盘鼠标”:来自中国的空间定位和动捕方案提供商

770-6

作者:杨小新

 

 

从PC到智能手机时代,每一次计算平台的更迭都是一种人机交互上的跨越。随着智能手机行业的发展,曾经的键盘和鼠标已经演变成为了我们的手指。那么,作为公认的下一代计算平台,在VR的世界里,我们又应该通过哪些输入设备来与机器交流呢?

 

在现阶段看来,空间定位和动作捕捉或许会成为VR中人机交互的途径。空间定位就像是PC中的鼠标指针,而动作捕捉则更像是鼠标的点击动作或键盘的输入行为,二者互相作用并独立运行才能解决VR中的交互需求。虽然这两者分属两类不同的解决方案,但我们还是更加倾向于把空间定位和动作捕捉作为一套系统进行介绍。抛开国外不谈,但就国内而言,目前我们所了解到的能够提供空间定位/动作捕捉解决方案的提供商已有5家,分别是诺亦腾、DepthVR、G-wearable,青瞳视觉和曼恒数字。

 

下面我们就来介绍一下这些在VR中为我们提供“键盘鼠标”的公司和他们的产品:

 

诺亦腾 – PROJECT ALICE

作为国内动作捕捉领域的领导者,诺亦腾的Project Alice或许是现今为止最优的解决方案。为了一探诺亦腾的Project Alice,我们还曾对其做过深度的专访>>专访诺亦腾:用“运动”颠覆行业的世界级动捕公司, 据诺亦腾的CTO戴若犁博士介绍,Project Alice是全世界首个完全整合的商用虚拟现实解决方案,现今主要面向商用领域,考虑到目前的C端市场还不够成熟,离C端的应用还有些距离。

1-26

图为Project Alice的介绍,整套解决方案将包含有头显、惯性动捕服、光学跟踪系统、惯性动捕手套和背负式计算机等。这一套全整合的虚拟现实系统能够解决用户全方位的虚拟现实交互需求,包括基于光学跟踪系统实现的空间定位和基于惯性动捕服和手套实现的动作捕捉。

2-16

图为惯性动捕手套的产品特写。Project Alice通过此惯性动捕手套实现用户的手势捕捉,没有空间上的限制。而在空间定位方面,Project Alice提供了3种不同级别的解决方案。

3-13

Project Alice将通过不同复杂程度的光学跟踪系统来应对不同的需求,从10m²的房间到主题公园,Project Alice都能为用户提供空间定位的需求。当然,整套解决方案的报价也会随着实际的需求而浮动。据诺亦腾的工作人员介绍,部署30m²-50m²空间的报价大概在60万元人民币左右,而100m²的报价则为80万元人民币以上。这个报价包含Project Alice的所有空间定位和动捕设备,甚至还有3个适用的VR内容应用和道具枪。

 

据广州超级队长透露,在不久前举办的超级队长MixV产品公测发布会上展示的多人交互产品,使用的正是诺亦腾的Project Alice方案。

 

DEPTH-VR

与诺亦腾的Project Alice不同,Depth-VR的解决方案则更倾向于空间定位。Depth-VR认为他们的空间定位方案是对输入方式的重新定义。

DepthVR

图为国内头显厂商PICO发布会上宣布的头显定位组件

 

PICO所用的消费级产品空间定位方案正是DepthVR的产品。而5月12日大朋发布会上,大朋同样也宣布了基于DepthVR的一体机定位解决方案。

 

整套Depth-VR的解决方案包括:光学模组、A20主板和无线收发装置。据官方介绍,Depth-VR应该是国内唯一一家基于底层搭建的解决方案,其配备的元器件皆为通用而并非工业级别,算法才是Depth-VR最核心的价值。

1-4

报价方面,据悉由于选用了通用的元器件,所以Depth-VR的成本也相对较低。DepthVR向厂商提供的消费级定位方案,单个摄像头生产成本在100元左右,而面向商用领域的专业版也将在月末发布,届时将有公开报价,同时专业版相应地也将提升识别点的数量。

 

一般来说,2个摄像头就可以覆盖4m*4m的范围,当然为了提高识别的准确度,你也可以选择用3个摄像头来组成你的空间定位系统。随着识别准确度要求的提高和空间的扩大,你要做的也不过只是增加几个摄像头。

 

至于应用场景,在Depth-VR的官网介绍中主要提到了3大类:虚拟现实主题公园、虚拟样板房和无人机及机器人等。

 

G-WEARABLES:STEPVR

在几天前的「大朋CONNECT生态战略发布会」上,G-Wearables的CEO郭成博士曾上台介绍过G-Wearables的空间定位解决方案。

qqq

G-Wearables的空间定位解决方案采用的是激光定位的原理,具有毫米级空间精准定位、低延迟动作精准捕捉、同空间多人自然交互和定制化无限拓展空间等特点。据郭成博士介绍,G-Wearables所支持的空间从4m*4m开始,甚至可以拓展到长安街东面到西面那么大……

66

图为G-Wearables的激光定位系统示意图。分布在四个角的蓝色标记代表激光定位塔,可以无死角地对用户的空间位置和动作进行捕捉。

 

目前,G-Wearables的SDK已经与大朋VR打通,通过线下合作的方式为VR头显厂商提供空间定位/动作捕捉解决方案,而StepVR作为G-Wearables的整合解决方案。

770-7

整套解决方案包括4个部分:

  • 头戴式VR眼镜:集成空间定位与手势识别模组,例如TOF深度摄像头
  • 背包式计算单元:i7 CPU+GTX 980+32G RAM+512G SSD
  • 标准定位及动作捕捉单元:易于穿戴、无需校准,支持有线/无线方案;自主研发的反向动力学算法及定位;9轴姿态融合算法;可实现实时、1:1精准动作还原;最高刷新率240Hz,低延迟高还原度体验
  • 空间定位激光发射单元:1毫米级室内定位精度;分布式计算单元,允许多人同时接入;定位空间可任意扩展

 

G-Wearables为合作伙伴提供了两种不同的标准解决方案,分别为5m*5m和7m*7m,除此之外,还提供定制化大空间的解决方案。整套设备安装简便,无需大面积装修,场地复用性强,投入成本低,运营收益高,适用于影视、游戏、旅游、教育、房产、医疗和军事等诸多领域。

 

目前StepVR的标准解决方案的公开报价¥188,000。

 

青瞳视觉

上海青瞳视觉科技有限公司是一家专注于红外光学位置追踪系统研发的高科技企业,位于上海大学科技园内,公司自主研发的工业级红外光学位置追踪系统处于世界领先水平,广泛应用于军工,医疗,教育科研,生命科学工程,虚拟仿真,影视特技与三维动画游戏制作等领域。

7-5

与上述解决方案不同的是,青瞳视觉为用户提供的是软硬结合的光学红外动捕方案。目前,青瞳视觉可以为用户提供的是软件系统CMtracker1.0+摄像机MC300。

8-4

▲图为青瞳视觉的硬件解决方案

 

 

 

9-5

▲图为摄像机MC300的产品参数

 

而与之匹配的软件系统CMtracker1.0也有着诸多的特性:灵活方便的场地校准和相机校准、简单直观的界面操作和系统管理、高度准确的6自由度测量、低延迟、无电、磁和声音干扰、与立体眼镜没有冲突、直观的2D/3D数据显示、简捷快速自定义跟踪目标、支持外同步、数据记录与回放、支持有源和无源目标、多人追踪。

 

在未来,青瞳视觉还将带来软件系统CMtracker2.0和摄像机MC1300。据悉,CMtracker2.0在功能和稳定性相比前代系统将会提升一个数量级。具体体现在数据处理能力、系统稳定性和简易性三个方面,界面使用将更加简易化,以便帮助没有技术背景的使用者降低学习成本。而摄像机MC1300将在MC300的基础上,将更加优化,具体体现在产品工艺设计和性能上。

 

目前青瞳视觉的MC300报价约¥20000/个。

 

曼恒数字

深耕虚拟现实行业9年,作为隐形的行业冠军,目前曼恒数字在虚拟现实领域有两套动作捕捉的解决方案。分别是GDR-Motion全身动捕系统和G-Motion交互追踪系统。其解决方案完全面向商用领域,针对不同需求提供定制服务。

g-motion03

▲图为GDR-Motion全身动捕系统

 

GDR-Motion全身动作捕捉系统是曼恒数字拥有完全自主知识产权的国内首创实用光学式运动捕捉产品。

 

系统采用多台近红外线高感度摄像机及相关设备,实现高精度实时三维运动数据的采集,支持实时在线或者离线的运动捕捉及分析。在国际上拥有同类产品最高性价比,可广泛的应用于虚拟现实、军事模拟、工程测量、医学研究中的运动机能评价和康复医疗、体育运动分析和体育训练指导、影视、动画和游戏制作等诸多领域。

 

应用领域:影视动画、医疗、体育和其他领域(人体工学研究、机器人研究、感性工学研究、高精度振动计测、福祉工学领域、灵活性能评价、碰撞试验、飞行测试、心理分析、刚性测试、实用性能评价)。

 

GDR-Motion全身动作捕捉系统具备五大优势:

  • 数据采集 精度更高
  • 系统更加稳定可靠
  • 系统功能更强大
  • 系统操作更简洁便利
  • 国内首创光学被动式运动捕捉系统,拥有业界高性价比

 

而G-Motion交互追踪系统则分为两个不同的版本,分别为G-Motion手柄交互版和G-Motion全身交互版。

Motion04

▲图为G-Motion手柄交互版

 

G-Motion手柄交互版是一套以手柄为交互外设的高精度光学位置追踪产品,能实时准确的捕捉目标物体6自由度姿态(位置和方向)信息。可作为虚拟现实人机交互外设,也可应用于人体动作捕捉、结合半实物仿真设备进行姿态捕捉和运动实物的空间位置信息实时获取等方向。

g-motionjiaohu

▲图为G-Motion全身交互版

 

G-Motion全身交互系统是在G-Motion手柄版的功能基础上,融合了全身动捕交互技术,精确捕捉到人体头部、手部及其他关键部位的姿态及动作信息,进行步态分析和虚拟人动作模拟,实现人与虚拟环境的精准互动。

 

应用领域:虚拟现实、仿真训练、生物医学、科研教育等

 

G-Motion交互追踪系统可以作为交互外设与虚拟现实类软件DVS3D、Unity等结合,实现虚拟展示、虚拟装配等人机交互;可以应用于半实物仿真训练,如半实物的消防演练、军事虚拟射击等;可应用于运动物体的空间位置高精度姿态定位,比如机器人路径规划中运动信息的实时捕获;可应用于人体动作捕捉,进行步态分析和虚拟人动作模拟。

 

目前曼恒数字并未对外公布其所有动作捕捉解决方案的报价。

 

 

 

 

文章来源:极AR

==========================================================================================

不知不觉UXRen社区官网已经两岁了, 在这里小编要感谢那么一如既往支持本站的油茶人。

UXRen.cn欢迎油茶人投稿,提供有价值的资讯、线索、点子及建议。

邮箱:contact@13tech.com.cn

注明:本站内容及数据部分来自互联网及公开渠道,如有侵权请及时联系我们。

==========================================================================================

版权声明:UXRen社区发布文章均来自UXRen会员原创、成员投稿、活动笔记、翻译组原创或者授权文章,部分文章为转载内容,都会明确标注作者和来源,其版权归作者所有,若涉及版权问题,请添加qq:497027206(小编Tracy),感谢支持。

订阅
提醒
guest
0 评论
Inline Feedbacks
View all comments