• 7910阅读
  • 11回复

[港城日报]你被马云骗了!想要败家(BUY+)没那么容易

[复制链接]
上一主题 下一主题
微信分享→
 

发帖
1992
港币
1461
威望
6354
来自
人生阶段
单身
职业
企业员工
只看楼主 倒序阅读 楼主  发表于: 2017-02-07
 这几天,淘宝Buy+宣传视频在网上异常火爆,很多人看过之后都无限憧憬,觉得有了VR购物,以后真的可以足不出户到全世界买买买了!


  可我们看过之后发现,短短几分钟的视频中“漏洞百出”,很多细节都经不起推敲。
  对此,业内人士也有同感。超多维刘宁认为,淘宝这次只是把未来的一种电子商务或者说是虚拟购物的模式,通过视频呈现出来;但是,以现有的技术手段和产品,想要实现真正意义上的VR购物,还有很长一段路要走。

  需要考虑的是,这样一个技术(VR),进入到产品阶段,会面对各种各样的挑战。
  比如,如何让十亿真实的商品成为在虚拟环境中可以展示、触摸、试穿的虚拟商品,这就涉及到对每个物体单独三维建模的问题,这个工作量和耗费的资金成本都是十分惊人的。
  而将所有的商品模型置于VR虚拟场景之中,需要传输的数据量将非常庞大,现有的互联网带宽恐怕也无法承受。
  还有很重要的一点,VR发展到现在,最困难的问题之一就是交互。而视频中提到将增加五感模拟来实现视觉、听觉、触觉等,事实上目前除了视觉和听觉,其它几种实现起来都还比较困难。

  下面,就具体来分析一下,你们是怎么一步步被马云“欺骗”的。
  视频中,用户戴上VR头显之后立刻进入了虚拟世界。在这个虚拟世界中,好像所有的操作都能靠自己的双手来完成,比如可以直接用手在空中点击确认,拿起衣服、鞋子,甚至还能用手感受内衣的质地。
  
  ▲我点,我点,我点点点……
  
  ▲想拿哪个就拿哪个
  
  ▲还可以……兰花指?
  那么,手真的可以直接与虚拟世界进行交互吗?
  事实上,现阶段VR交互仍然需要借助一些外设才能实现。
  像这样↓
  
  
  而且可以肯定的是,视频中佩戴的三星Gear VR、HTC Vive,当前并不能独立完成手指手势识别、控制。
  而要实现VR交互,需要大量外置传感器。这些传感器,要么是布置在空间中,要么直接戴在或者拿在用户手上。这样,才能捕捉和识别用户的位置、方向、甚至手指的动作等。
  也可以利用蓝牙手柄等完成一些比较简单的操作,或者利用陀螺仪,就能实现通过头部转动进行操控。除此之外,还能利用虚拟键盘或实体键盘,以及语音识别等实现文字输入。
  
  不管是哪种交互方式,都需要借助外设才能实现。
  当 然,视频中展示的手势控制、隔空取物,目前确实有很多公司在研究,技术上也具备一定的成熟度。可是也只能进行有限度的识别,超出一定的距离就无法进行了。 而且,目前能识别的手势也只是摆手、挥手、抬手、甩手等简单动作,对于一些比较精细的动作,比如视频中出现的用手指去捏东西等,还比较困难。
  视频中,一个小孩拿着香蕉敲鼓的场景,大家应该印象深刻吧?这么说,香蕉也能交互了?这脑洞是不是有点大?
  
  事实上,想要用香蕉敲鼓,牵扯的技术和问题更多。
  举个例子,隔空取物的时候,你只需在空中点一个“确定”那就是确定了,但敲鼓的时候,如何才能确定你真的敲到鼓面上了呢?这是需要虚拟世界给你一个反馈,就要用到力反馈技术。而且,你敲到铁皮上,和你敲到木头上,手的感觉是不一样的,这些都要考虑进去。
  因此,想要实现视频中用香蕉敲鼓,至少需要将使用力反馈技术的辅助设备戴在你手上,这样才能将反馈信息传达到你的手上,你才能感受到,觉得自己真的敲到东西了。
  视频中呈现的可以用手直接感受内衣质地的画面,是不是也令你充满期待?
  
  现实中,同样是交互,触觉感知的实现则更为困难。
  因 为人的感官由神经来感应到,然后传递给大脑,除非你真的摸到东西,或者大脑接收到了这种信号,才会产生触觉。不同材质、质地,软的、硬的,光滑的、涩 的……这些感受完全不同。所以,要实现触觉感知,需要很多传感器和力反馈技术,同时还需要配合实物。但是从视频中看,并没有实物。
  视频中“下一秒将你立刻送到巴黎老佛爷”什么的听起来真的是很诱人。
  
  但现实却是,要还原一个真实的360度街景绝非易事。
  现在的街景地图基本可以实现角度、位置切换,不过却不是每一个细节都有。想要还原真实街景,不仅要把每一条街道,甚至每条街道中的细节都要做出来。
  况且,视频中展示的街景还只是平面的,如果要追求效果,将来肯定要做成三维立体的,又会涉及到给如此众多的物体三维建模,同时还要考虑实时渲染等问题。
  需要注意的是,受到网速的限制,现在很多全景视频传到网上之后画质都非常渣,如何确保传输画面质量?这些问题都亟待解决,而以现有的技术和软硬件条件,不仅十分困难,而且成本非常高。
  即便解决了360度街景的问题,要实现人在VR场景中的行走、移动,却不像看起来的那么简单,更别提像逛街那样随意走动了。
  
  因为人走路是需要一个参照物的,比如,你看到自己离一堵墙有2米远,那么你就会保持2米的安全距离。一旦戴上VR眼镜,你视觉的参照物就变成VR场景中的虚拟物体,这样就会产生问题。
  举 个例子,我在自家客厅玩VR,如果我家里客厅很小,往前走两步撞到墙了,往后走几步又撞到桌子了。当我戴上VR眼镜之后,看到的VR场景中虚拟出来的购物 中心是很大的,感觉我可以随便往各个方向走,可是一旦我这么做,就会在现实中“碰壁”,这不仅影响VR体验,更会带来安全问题。
  而内容制作者很难确切地知道每个用户所处的具体场景是什么样的,以及每个人在移动过程中,前后距离、移动的速度,以及速度带来的感官变化等。当你处于不同的运动状态,比如奔跑、走路、蹲下来时,场景的变化和真实环境中场景的变化都是不一致的,所以解决起来就更麻烦了。
  视频中提到的“即时购物”,对淘宝十亿商品进行“100%还原”,就更显夸张了。
  
  把十亿商品都进行建模,短时间内是不太现实的事情。
  从视频中看,每件商品感觉都能拿起来,这就需要将店铺所有的衣服、鞋子等都建模,只有每一个是独立的单元才能实现拿起、试穿等交互,这需要耗费庞大的资金。如果要做到极为精细的话,那么成本比制作一款3D游戏还要高。
  而 且,我们是不是也要考虑下这样做是否值得?故宫博物院曾经利用三维建模还原了很多珍贵文物,使得大家通过互联网就能很方便地360度参观,这样不仅起到了 保护珍贵文物的作用,还让更多的无法去现场的人有机会看到人类的文化遗产。这是一件意义重大的事情,即便花再多的钱和精力也是值得的。而现在,如果仅仅只 是买一双袜子,或者一件很普通的T恤,就要对它们逐个进行建模,这样做真的值得吗?
  视频中,用户在自己家中能随意试穿衣服的场景,是不是也深深吸引了你?
  
  一般来说,想要在VR场景中试穿,场景中应该会出现一个跟自己一模一样的模特,这样才能知道自己穿上是什么样。可是视频中并没有呈现这样的画面。
  想要实现,需要先将自己的外形扫描进去,包括身高、体重等数据,进行三维建模,然后放置在VR场景当中。同时,试穿的时候还涉及到动作,所以需要全身动作捕捉技术。这样的话,用户就需要穿上全身布满传感器的衣服,那么,试衣的场景应该是这样子的。
  
  所以,那些担心以后剁手不够还要挖眼的小伙伴们,大可不必如此激动,理想的VR购物离我们的现实生活真的还很遥远。不过VR游戏、VR视频等,无论是硬件还是内容,都日趋成熟,正在走进我们的日常生活,将带给我们炫酷的娱乐体验。
3条评分威望+3
态度决定一切. 威望 +1 - 2017-02-07
一只温暖的猫 威望 +1 - 2017-02-07
chenzhen8802 威望 +1 - 2017-02-07
离线major

发帖
1211
港币
1243
威望
4315
来自
人生阶段
单身
职业
企业员工
只看该作者 沙发  发表于: 2017-02-07
哈哈哈哈最后一张图莫名的想笑
离线o!man
发帖
648
港币
440
威望
734
来自
杨舍镇
人生阶段
孩爸孩妈
职业
个人经商
只看该作者 板凳  发表于: 2017-02-07
想法太美好
最近好忙呀,都没有事情做。

发帖
1101
港币
587
威望
2542
来自
人生阶段
单身
职业
企业员工
只看该作者 地板  发表于: 2017-02-07
真正败家的人都去店里买

发帖
1422
港币
813
威望
3443
来自
金港镇
人生阶段
单身
职业
个人经商
只看该作者 4楼 发表于: 2017-02-07
哈哈如果真的实现了,在家里的场景真的太好玩了
离线chenzhen8802

发帖
6086
港币
6789
威望
12989
来自
杨舍镇
人生阶段
孩爸孩妈
职业
其他
只看该作者 5楼 发表于: 2017-02-07
看看
离线略略略
发帖
216
港币
319
威望
1597
来自
锦丰镇
人生阶段
单身
职业
企业员工
只看该作者 6楼 发表于: 2017-02-07
好玩
离线Jy

发帖
2248
港币
1639
威望
3113
来自
塘桥
人生阶段
单身
职业
企业员工
只看该作者 7楼 发表于: 2017-02-07
用户被禁言,该主题自动屏蔽!
离线深海还蓝
发帖
71
港币
33
威望
104
来自
人生阶段
单身
职业
企业员工
只看该作者 8楼 发表于: 2017-02-07
也还是很牛逼的
发帖
192
港币
14
威望
214
来自
人生阶段
职业
只看该作者 9楼 发表于: 2017-02-07

 
回复标题限100 字节 提到某人:
选择好友