gpu|iOS 15 也有「残血版」?

iOS 15 系统上的惊喜功能无疑就是实况文本了,但身边不少朋友升级之后告诉我用不了,打开图片根本没有相应的「文本识别」按钮。
细究之下,发现原因竟然是 A12 芯片,苹果在官网的 iOS 15 功能页用小字指出了实况文本功能的要求:
在配备 A12 仿生或后续芯片的 iPhone 上提供。
最早搭载 A12 芯片的机型是 2018 年发布的 iPhone XS、iPhone XS Max 以及 iPhone XR,也就是说它们以及之后更新的机型,都能用实况文本。
gpu|iOS 15 也有「残血版」?
文章插图
▲ iPhone XS Max
我仔细看了看 iOS 15 的功能详情页,发现 A12 芯片不仅仅是实况文本功能的基础要求,还是 FaceTime 中的人像模式、宽谱模式、语音突显模式、键盘连续听写等等一系列新功能的门槛。
数个 iOS 15 新功能「淘汰」了旧设备,是因为苹果想让你换新机?
A12,iPhone 体验的新门槛我们不妨先来看看实况文本等功能的原理。
实况文本功能指的是 iPhone 可以识别图片中的文本内容,包括电话、地址等,甚至还可以在相机界面实时识别输出文本结果。
gpu|iOS 15 也有「残血版」?
文章插图
▲ 拍摄照片时可识别文字
常见的 OCR 图片识别应用基本上是通过上传数据到云端,然后再识别输出结果,但苹果对于隐私极为看重,这些行为都是在 iPhone 设备本地运行的。
iPhone 此时就像人一样,摄像头是眼睛,芯片是大脑,实时识别画面中的文字信息以及类别。
要在本地完成实时扫描与识别乃至输出结果,甚至还支持 7 种语言,可见对于 iPhone 的算力要求有多高。
gpu|iOS 15 也有「残血版」?
文章插图
▲实况文本支持在输入框调用相机可直接识别文字
说到这里大家可能都猜到了,这里的算力指的并不是我们常见的 CPU 和 GPU,具备强大算力和智能识别效果的应该是苹果 A 系列芯片中的 AI 神经引擎模块。
相比常见的 CPU 和 GPU,AI 芯片模块往往有着更多计算单元,更少功能逻辑单元,这让它能更好地配合智能算法,完成低精度高计算量的运算。
在刚刚过去的苹果秋季新品发布会上,苹果也强调了 A15 芯片强大的 AI 算力对于 iPhone 13 系列、iPad mini 的助益。
gpu|iOS 15 也有「残血版」?
文章插图
包括 FaceTime 中的人像模式,自动虚化背景,让视频中的你成为核心,以及宽频音频等功能背后,都少不了 AI 神经引擎的支持。
早在 iPhone 11 发布时,苹果前营销高管菲尔?席勒(Phil Schiller)就表示,目前 iOS 系统功能中,基本上已经没有不使用机器学习(AI)的领域了,可见其影响力。
至于为什么是 A12 ,看看 A 系列芯片的发展史就知道了,A11 是苹果首次加入神经引擎模块,算力为每秒 6000 亿次运算,这还是一次尝试。
gpu|iOS 15 也有「残血版」?
文章插图
▲ A12 结构剖面图。图片来自:AnandTech
到了 A12 苹果在 AI 神经引擎方面才真正走向了成熟,不仅芯片工艺上从 10nm 走向了 7nm ,神经引擎也迎来了跨越式的提升,从 A11 的 6000 亿次运算直接增长到了每秒 5 万亿次运算。
现在答案就呼之欲出了,芯片 AI 算力大小限制了功能,能升级 iOS 15 并不意味着能使用完整版,A12 芯片就是 iPhone 体验的一道新门槛。
gpu|iOS 15 也有「残血版」?
文章插图
gpu|iOS 15 也有「残血版」?
文章插图
A12 是苹果自研芯片发展过程中一次成功的转向,在它之后你能看到诸多 iPhone 新功能和 CPU 性能的相关性在减小,和 AI 神经引擎模块联系愈发紧密。

推荐阅读