unity运行google谷歌的ARCore|unity运行google谷歌的ARCore depth API的案例效果
文章图片
惊呆了,google竟然发布了新的ARCore的depth API的SDK,这个据说是
没有没有没有
采用硬件的深度或 3D ToF传感器来完成,带有深度信息可以遮挡的效果
【unity运行google谷歌的ARCore|unity运行google谷歌的ARCore depth API的案例效果】在6月29日看了官方公众号的一个文章中,看到了一个Flag:
ARCore 是 Google 为开发者构建的增强现实平台,如何让虚拟物体和真实世界完美融合,这一直是 Google ARCore 技术所探讨的问题。众所周知,当虚拟物体附近有现实物体时,有可能会出现互相交融、重叠等效果,大大地影响了用户体验。这一直是 AR 技术的难点,也是 Google 不懈努力的方向。今天 ARCore 给出了这一难题的答案。
ARCore开发者将凭借 Google 动态深度算法和一颗 RGB 摄像头就可创建出深度图,然后加上ARCore原本的性能。呈现用户以有深度信息的效果。
看他们的效果:
看到他们的ARCore已经更新了1.18
数据在GitHub上面,我们可以通过这个码云下载学习:
https://gitee.com/shenty88/arcore-unity-sdk.git
文章图片
下载了sdk尝试安装体验了下。
对了,这个depth API对手机是有限制的,支持arcore的手机基础上有一波无效了
文章图片
我使用的是荣耀10,有效果,可真是的烫啊,好烫。来看下自己手机的效果,这个是2018年时候的手机,到今天是否可以坚挺支持ARCore:
ARcore的depthAPI有些效果 效果分析:
1,首先手机运行1分钟左右,已经变的超级无敌烫了,感觉可以回家煎蛋了
2,运行效果中,是有遮挡效果的,有像是做了mask遮罩效果,有时候像是模型自己隐身的效果
3,运行有depth API的效果的时候,手机画面有摄像机看到画面的浅浅的印象,是手机性能?是SDK效果?我已经傻傻分不清楚
以上是为个人非专业测试效果,可能是是手机影响,可能是自己操作不合理效果。
整体感觉,通过移动终端的普通摄像头的AR效果,使用相机图像RGB的信息来处理z轴深度的还是不错的。这个是抛离了必须使用深度或 3D ToF传感器的宿命。
也算是一个不不错的创新。But,希望可以更完善些。AR行业需要你。
推荐阅读
- Unity和Android通信系列文章2——扩展UnityPlayerActivity
- unity探究UGUI的Image中sprite和overrideSprite的区别
- 为Google|为Google Cloud配置深度学习环境(CUDA、cuDNN、Tensorflow2、VScode远程ssh等)
- unity|unity 在iOS平台跳转appstore
- 运行报错Cannot|运行报错Cannot find module '@babel/compat-data/corejs3-shipped-proposals’
- 17个搜索引擎
- Google|Google - 1
- OpenCV|OpenCV for Unity 通过WebCamTextureToMatHelper帮助类来获取摄像头的画面
- Python程序运行方式
- Android基础-Fragment