Apple Vision Framework(通过观察检测微笑或幸福的面孔())

古之立大事者,不惟有超世之才,亦必有坚忍不拔之志。这篇文章主要讲述Apple Vision Framework:通过观察检测微笑或幸福的面孔?相关的知识,希望能为你提供帮助。
我正在开发一个项目,该项目使用Vision Framework来检测图像中的面部,然后使用CoreML模型来检测面部是否在微笑。问题是CoreML模型文件接近500 MB。我不想那么膨胀我的应用程序。
【Apple Vision Framework(通过观察检测微笑或幸福的面孔())】由于我已经从Vision框架获取了VNFaceLandmarks2D观察数据,我想我会尝试使用它来检测微笑。
有没有人试图使用Vision框架中的VNFaceLandmarks2D数据来确定面部是幸福还是微笑?
如果是这样,你是怎么做到的,它的效果如何?
谢谢!
答案一种解决方案是使用较小的Core ML模型文件。听起来你正在使用基于VGGNet的模型。有几个更小的模型架构(4到16 MB之间)与VGGNet具有相同的精度,因此更适合在移动设备上使用。

    推荐阅读