iOS11|iOS11 Core ML初探,Demo

1. 前言
CoreML是什么,有什么用? Core ML是iOS11新推出的机器学习使用框架。在此框架之上还有两个集成度较高的框架:VisionNLP(分别是图像处理和文字处理领域的机器学习框架)。
根据Apple WWDC 2017的Core ML相关的两个Session来看,Core ML更多的是作为一个中间层:Core ML起到的作用是承上启下,承接各种机器学习的社区产生的算法模型,经过Core ML将其封装成简单易用的.mlmodel,开启APP离线应用各类封装好的算法模型,达到离线高效计算的效果,从而使得APP体验提高。
2. 如何使用CoreML:Demo
此处Demo使用的图片分类器,使用的是苹果给出的开源机器学习模型,下载模型在此处:https://developer.apple.com/machine-learning/

iOS11|iOS11 Core ML初探,Demo
文章图片
模型下载
下载之后的模型在OS X下长这样:
iOS11|iOS11 Core ML初探,Demo
文章图片
模型 如何使用?直接拖进Xcode项目中! iOS11|iOS11 Core ML初探,Demo
文章图片
我的Demo中使用的是Resnet50这个模型 拖进项目中之后,加油一步细节操作:将模型点开,右侧加入项目中的Target:
iOS11|iOS11 Core ML初探,Demo
文章图片
加入Target.png 这样之后就可以看到.mlmodel会自己生成Swift或者OC类:
iOS11|iOS11 Core ML初探,Demo
文章图片
生成类.png 然后就可以直接在代码中使用相关类了:

let mlmodel = Resnet50() let result = try? mlmodel.prediction(image: ImageProcessor.pixelBuffer(forImage: imageTopredict.cgImage!)!) print("\(result?.classLabel ?? "nil")")

是的你没有看错,就是这两行代码,就可以使用高大上的机器学习以及深度学习产生的模型了。
但是其实还有一些处理,例如mlmodel的prediction方法的参数是:CVPixelBuffer格式,我这里使用了一个专有类来做CGImage和CVPixelBuffer之间的转换(Github上有)
产生的result是一个类,不同的模型会有不同的类定义,这里这个result格式如下:

iOS11|iOS11 Core ML初探,Demo
文章图片
result.png
打印result的结果就可以看到模型产生的预测了,下面是我Demo的截图:
iOS11|iOS11 Core ML初探,Demo
文章图片
Demo截图 3. 结语
看起来Core ML并没有太多神秘之处,就是对机器学习&深度学习训练好的模型的很好的应用。这里描述了如何使用这个模型,但是没有描述如何将社区中的模型转换成.mlmodel(苹果的Core ML Tools可以做到这一点)。
下面是我的demo的Github地址,希望能够帮助大家(这篇文章写的比较快,希望大家谅解文章看起来可能有点乱)
【iOS11|iOS11 Core ML初探,Demo】因为Resnet50太大上传不了github,我把模型换成了较小的MobileNet.mlmodel
地址在此:Demo地址

    推荐阅读