古之立大事者,不惟有超世之才,亦必有坚忍不拔之志。这篇文章主要讲述Apple Vision Framework:通过观察检测微笑或幸福的面孔?相关的知识,希望能为你提供帮助。
我正在开发一个项目,该项目使用Vision Framework来检测图像中的面部,然后使用CoreML模型来检测面部是否在微笑。问题是CoreML模型文件接近500 MB。我不想那么膨胀我的应用程序。
【Apple Vision Framework(通过观察检测微笑或幸福的面孔())】由于我已经从Vision框架获取了VNFaceLandmarks2D观察数据,我想我会尝试使用它来检测微笑。
有没有人试图使用Vision框架中的VNFaceLandmarks2D数据来确定面部是幸福还是微笑?
如果是这样,你是怎么做到的,它的效果如何?
谢谢!
答案一种解决方案是使用较小的Core ML模型文件。听起来你正在使用基于VGGNet的模型。有几个更小的模型架构(4到16 MB之间)与VGGNet具有相同的精度,因此更适合在移动设备上使用。
推荐阅读
- Apple Mach-O链接器错误_OBJC_CLASS _ $ _ FIRInstanceID
- 有没有办法创建从Android中的Canvas扩展的类()
- Android EditText imeOptions使actionSearch像actionDone一样()
- Android自定义键盘出现一半
- Eclipse Android SDK错误(未知的虚拟设备名称)
- 从Iphone本机客户端通过Google App Engine进行身份验证
- 如何使用C#.NET以编程方式清除回收站
- 如何使用C#从Windows播放,暂停音乐或转到下一首和上一首曲目(适用于所有Windows音乐播放器)
- 如何下载github存储库的单个文件夹