iOS11|iOS11 Core ML初探,Demo
1. 前言
CoreML是什么,有什么用?
Core ML
是iOS11新推出的机器学习使用框架。在此框架之上还有两个集成度较高的框架:Vision
和 NLP
(分别是图像处理和文字处理领域的机器学习框架)。
根据Apple WWDC 2017的Core ML相关的两个Session来看,Core ML更多的是作为一个中间层:Core ML起到的作用是承上启下,承接各种机器学习的社区产生的算法模型,经过Core ML将其封装成简单易用的.mlmodel
,开启APP离线应用各类封装好的算法模型,达到离线高效计算的效果,从而使得APP体验提高。
2. 如何使用CoreML:Demo
此处Demo使用的图片分类器,使用的是苹果给出的开源机器学习模型,下载模型在此处:https://developer.apple.com/machine-learning/
文章图片
模型下载
下载之后的模型在OS X下长这样:
文章图片
模型 如何使用?直接拖进Xcode项目中!
文章图片
我的Demo中使用的是Resnet50这个模型 拖进项目中之后,加油一步细节操作:将模型点开,右侧加入项目中的Target:
文章图片
加入Target.png 这样之后就可以看到.mlmodel会自己生成Swift或者OC类:
文章图片
生成类.png 然后就可以直接在代码中使用相关类了:
let mlmodel = Resnet50()
let result = try? mlmodel.prediction(image: ImageProcessor.pixelBuffer(forImage: imageTopredict.cgImage!)!)
print("\(result?.classLabel ?? "nil")")
是的你没有看错,就是这两行代码,就可以使用高大上的机器学习以及深度学习产生的模型了。
但是其实还有一些处理,例如mlmodel的prediction方法的参数是:
CVPixelBuffer
格式,我这里使用了一个专有类来做CGImage和CVPixelBuffer之间的转换(Github上有)产生的result是一个类,不同的模型会有不同的类定义,这里这个result格式如下:
文章图片
result.png
打印result的结果就可以看到模型产生的预测了,下面是我Demo的截图:
文章图片
Demo截图 3. 结语
看起来Core ML并没有太多神秘之处,就是对机器学习&深度学习训练好的模型的很好的应用。这里描述了如何使用这个模型,但是没有描述如何将社区中的模型转换成.mlmodel(苹果的Core ML Tools可以做到这一点)。
下面是我的demo的Github地址,希望能够帮助大家(这篇文章写的比较快,希望大家谅解文章看起来可能有点乱)
【iOS11|iOS11 Core ML初探,Demo】因为Resnet50太大上传不了github,我把模型换成了较小的MobileNet.mlmodel
地址在此:Demo地址
推荐阅读
- 关于Core|关于Core Image
- ASP.NET|ASP.NET Core应用开发思维导图
- 运行报错Cannot|运行报错Cannot find module '@babel/compat-data/corejs3-shipped-proposals’
- 基于NET|基于NET Core 的Nuget包制作、发布和运用流程解析(完整过程)
- 3.UIkit|3.UIkit CoreFoundatin Foundation
- asp.net|asp.net core中使用log4net
- iOS|iOS 移动存储初探(一)(SQLite)
- 初探数学思维(二)(数学思想与方法)
- linux采用core的调试方法
- ios|ios tableview顶部留白