焦员|揭秘 iPhone 13 电影效果模式,苹果竟然是这样把它打造出来的( 三 )
文章插图
▲ A15 提升要点,注意 CPU、GPU 的提升是与竞争对手相比.
因此,「电影效果模式」会是 iPhone 13 全系列的一个暂时独享的功能,也会是 A 系芯片算力的一个门槛,也可能会成就新一代的 iPhone「钉子户」。
iPhone 营销副总裁凯安(Kaiann Drance)在采访中就表示让视频自带模拟景深比人像照片更具「挑战性」。
文章插图
▲ iPhone 营销副总裁 Kaiann Drance.
视频需要随着被摄者移动而移动,需要实时防抖(数码加光学),并准确识别不同的场景、人物、动物、物体,因此对于神经引擎和机器学习来说,需要质量更高的深度数据,并且实时的渲染出来。
哦,还有实时对焦,以及对杜比视界 HDR 编码的支持。而这一切的背后都来自于 A15,可谓小小的年纪承担了全家的重任。
文章插图
相对于 A15 的 CPU,在实测之中,GPU 性能提升明显,它或许采用了全新的架构,以及多堆了一颗核心。另外,A15 的神经网络引擎算力提升到了 15.8TOPS。
而这些硬件上的改进或许是跟本次 iPhone 13 全系在视频功能上提升不无关系。「电影效果模式」中包含的一些不同于静态照片的机器学习难题,相信在 A15 开发之时,约翰所在的人机交互设计团队就已经与芯片开发做过深入交流。
文章插图
在 TechCrunch 的测试视频之中,他们还发现了 iPhone 13 系列的「电影效果模式」在识人的过程中,会运用冗余的传感器进行主体的预测。
马修女儿的后脑勺一出现在画面中,他手里的 iPhone 13 立刻就把焦点切换好了,就好像在舞台剧中,有一位全局掌控的导演一般,主角未登场,提前就备好了灯光,并引领观众一同期待她的出现。
针对「电影模式」的这个细节,苹果人机交互设计师约翰说到:
我们在观察电影制作时发现,跟焦员并非是等主角登场之后再去移动焦点,而是有一个预测过程。我们也通过冗余传感器,来通过机器学习来预测画面外人们的运动,当他们出现在画面的时候,焦点也已经在他们身上了。
乔布斯曾很喜欢说,苹果是处于技术与艺术的交叉点。
文章插图
在 iPhone 13 系列发布之前,「人像模式」更像是一则技术术语,它给人的感觉是冰冷的。而「电影效果模式」,以及 TVC 的呈现,再到亲测,它不再冰冷,而带有了一定的温度。在深入了解「电影效果模式」背后的故事之后,它又带上了几分「拍摄的艺术」。
「电影效果模式」对于普通人而言,它可能没有这么深的意义,更像是瑞士军刀里的一则红酒起子,可能并非是最完美最省力,但却是在紧急时刻能堪大任的工具。
电影向我们展示了人类的情感和故事,如果你用对了正确的表达语言,就会被传达出去。而当下,我们努力了很久,让你的生活故事能在自己的手机上记录和演绎,我已经迫不及待地想看到人们用「电影效果模式」所书写的故事了。
推荐阅读
- 瑞声科技|红米K50电竞版最大看点?实测揭秘「安卓第一4D振感」,摸完馋哭了
- 掏心窝|放弃iPhone13,入手华为P50 Pocket后的60天,说几点掏心窝的话
- 手机|苹果玩的是什么把戏,华为市场份额减少,反而iPhone13价格下调了
- iphone|苹果教你如何让 iPhone 电池保持健康
- 电竞版|敢于跟iPhone叫板!Redmi K50电竞版的底气究竟在哪里?
- home|1秒打开健康码和行程码,iPhone用户学起来
- 显示屏|大不一样 iPhone 14 Pro或搭载8GB内存
- 液态|华为P60Pro渲染图:麒麟9000L+四曲面屏,死磕iPhone13毫不手软
- 魅族|隐私安全只看iPhone?魅族:说到隐私安全,那我可不困了
- 充电|C口iPhone普及?欧洲统一充电法案将投票