高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学( 二 )


当收到唤醒词信号时,才调动主处理器聆听用户的下一步指令。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
不过,虽然这样可以实现低功耗语音唤醒,但这距离科幻电影里 AI 助手随叫随到的理想形态还有点距离,这就像钢铁侠在战斗前还要说一句「嘿,贾维斯」一样,人机交互有点别扭。
Google 在 Pixel 6 系列上推出的「快捷指令」功能让这种存在于科幻电影的自然交互照进了现实。
正如文章开头提到那样,通过「快捷指令」用户不用再喊「OK Google」等的唤醒词,也能唤醒 Google 助理执行关闭闹钟、接听电话等指定任务。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
▲ Google 提出的 VoiceFilter 算法 图片来自:Google
要在嘈杂的声音环境下定向分离人声,手机就需要有更高精度的声纹识别能力,利用更加复杂的卷积神经网络算法准确捕捉并识别用户的口令。
而 Google 专为 AI 计算设计的 TPU 芯片正好满足了这种 AI 算力需求,这种自然的语音交互最终在 Pixel 6 系列上得以实现。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
基于神经处理单元的 NPU 在图像、语音识别和处理方面比传统 CPU 效率要高得多,手机厂商由此可以开发出诸多如计算摄影、文字识别等功能,丰富系统的软件功能。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
在苹果最新的 iOS15 上,不少新特性就是基于神经计算引擎而设计的,例如 FaceTime 加入的空间音频和人像模式、实时的文本提取和翻译、相册直接搜索照片中的文字、Siri 离线运行等。
由于这些功能对 AI 算力有一定的要求,苹果还强调如果 SoC 芯片不是 A12 仿生往后的型号,那么即便升级到 iOS15 这些功能都不能体验。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
当智能手机的功能趋同化,所谓的「智能」——发微信、放音乐、拍照、看新闻等等在某种意义上又变回功能。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
AI 功能开始成为了我们日常手机体验重要的一部分,原本被认为无关紧要的 NPU 成了组成系统软件体验不可或缺的一部分。
为什么需要 AI 计算芯片?和手机的其他零件相比,NPU 登场的时间要晚得多。
2017 年 9 月华为在柏林 IFA 展发布的麒麟 970 是首颗集成 NPU 的 SoC,同一时期,苹果发布了首次搭载神经计算引擎的 A11 仿生芯片,两个阵营对 AI 计算领域的关注出奇同步。
AI 功能的出现看似突兀,但这其实是智能手机形态发展过程中自然演化的结果。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
《连线》杂志与苹果副总裁 Tim Millet 关于 A 系列芯片的访谈中提到,在 iPhone X 发布的数年前,苹果的一些工程师就提出了利用机器学习算法让 iPhone 的摄像头变得更智能的想法。
正是这个想法,让定义了 iPhone 未来十年形态的 iPhone X 有了落地的可能。转向全面屏的 iPhone X 需要一个新的安全机制取代原本占据下巴的 Touch ID,并且在准确度、解锁速度都不能落后前者,为了实现这些点,苹果转向了 3D 结构光面容识别。
高通|苹果、高通、Google 都押注的未来芯片,到底是什么?|硬哲学
文章插图
每次点亮 iPhone 进行解锁,位于刘海中的深感摄像头都会通过成千上万个点创建一个深度图,与储存的人脸数据比对完成解锁,而这个收集、创建、校对的过程需要控制在瞬息之间,更重要的是,功耗必须控制在一个足够低的水平。

推荐阅读