模型|撬开骁龙8一看,满满都是顶会论文( 三 )


这些论文中高效搭建AI应用的方法和模型,高通AI研究院通过合作、开源等方法,将它们分享给了更多开发者社区和合作伙伴,我们也因此能在骁龙8上体验到更多有意思的功能和应用。
**一方面,高通与谷歌合作,将快速开发更多AI应用的能力分享给了开发者。**
高通在骁龙8上搭载了谷歌的Vertex AI NAS服务,还是每月更新的那种,意味着开发者在第7代AI引擎上开发的AI应用,其模型性能也能快速更新。
模型|撬开骁龙8一看,满满都是顶会论文
文章插图

采用NAS,开发者就能自动用AI生成合适的模型,包括高通发表在顶会上的智能拍照算法、语音翻译、超分辨率……都能包含在AI的“筛选范围”中,自动为开发者匹配最好的模型。
这里用上了高通的运动补偿和插帧等算法。而类似于这些的AI技术,开发者们也都能通过NAS实现,还能让它更好地适配骁龙8,不会出现“调教不力”的问题。
想象一下,你将来用搭载骁龙8的手机打游戏时,会感觉画面更流畅了,但是并不会因此掉更多的电(指增加功耗):
模型|撬开骁龙8一看,满满都是顶会论文
文章插图

同时,关于AI模型的维护也变得更简单。据谷歌表示,与其他平台相比,Vertex AI NAS训练模型所需的代码行数能减少近80%。
**另一方面,高通也已经将自己这些年研究量化积累的工具进行了开源。**
去年,高通就开源了一个名为AIMET*(AI Model Efficiency Toolkit)*的模型“提效”工具。
其中包含如神经网络剪枝、奇异值分解(SVD)等大量压缩和量化算法,有不少都是高通AI研究院发表的顶会论文成果。开发者用上AIMET工具后,就能直接用这些算法来提效自己的AI模型,让它更流畅地在手机上运行。
模型|撬开骁龙8一看,满满都是顶会论文
文章插图

高通的量化能力也不止开源给普通开发者,同样能让头部AI企业的更多AI应用在骁龙8上实现。
在新骁龙8上,他们与NLP领域知名公司Hugging Face进行合作,让手机上的智能助手可以帮用户分析通知并推荐哪些可优先处理,让用户对最重要的通知一目了然。
在高通AI引擎上运行它们的情绪分析模型时,能做到比普通CPU速度快30倍。
模型|撬开骁龙8一看,满满都是顶会论文
文章插图

正是技术研究的沉淀和技术上保持的开放态度,才有了高通不断刷新手机业界的各种AI“新脑洞”:
从之前的视频智能“消除”、智能会议静音,到今年的防窥屏、手机超分辨率……
还有更多的论文、平台和开源工具实现的AI应用,也都被搭载在这次的AI引擎中。
而一直隐藏在这些研究背后的高通AI研究院,也随着第7代AI引擎的亮相而再次浮出水面。
高通AI的“软硬兼备”
大多数时候,我们对于高通AI的印象,似乎还停留在AI引擎的“硬件性能”上。
毕竟从2007年启动首个AI项目以来,高通一直在硬件性能上针对AI模型提升处理能力。
然而,高通在AI算法上的研究,同样也“早有筹谋”。
模型|撬开骁龙8一看,满满都是顶会论文
文章插图

2018年,高通成立AI研究院,负责人是在AI领域久负盛名的理论学者Max Welling,而他正是深度学习之父Hinton的学生。
据不完全统计,高通自成立AI研究院以来,已有数十篇论文发表在NeurIPS、ICLR、CVPR等AI顶级学术会议上。
模型|撬开骁龙8一看,满满都是顶会论文

推荐阅读