基于 KubeVela 的机器学习实践

作者:KubeVela 社区
在机器学习浪潮迸发的当下,AI 工程师除了需要训练、调试自己的模型之外,还需要将模型进行部署上线,从而验证模型的效果(当然,有的时候,这部分工作由 AI 系统工程师来完成)。这一部分工作对于 AI 工程师们来说是繁琐、且消耗额外精力的。
而在云原生时代,我们的模型训练和模型服务也通常在云上进行。这样做不仅提高了可扩展性,还能够提升资源的利用率。这对于需要消耗大量计算资源的机器学习场景来说,是十分有效的。
但是 AI 工程师要想使用云原生的能力通常比较困难。随着时间的推移,云原生的概念已经越来越复杂。想要在云原生之上部署一个简单的模型服务,可能对于 AI 工程师来说,需要额外学习数种概念:比如 Deployment、Service、Ingress 等。
而 KubeVela 作为一个简单、易用、且高可扩展的云原生应用管理工具,能让开发人员方便快捷地在 Kubernetes 上定义与交付应用,无需了解任何底层云原生基础设施相关的细节。KubeVela 拥有着丰富的可扩展性,其 AI 插件提供了模型训练、模型服务、A/B 测试等功能,覆盖了 AI 工程师的基本需求,能够帮助 AI 工程师快速在云原生环境中进行模型训练和模型服务。
本文主要介绍如何使用 KubeVela 的 AI 插件,来帮助工程师更便捷地完成模型训练及模型服务。
KubeVela AI 插件 KubeVela AI 插件分为模型训练和模型服务两个插件,模型训练插件基于 KubeFlow 的 training-operator,能够支持如 TensorFlow、PyTorch、MXNet 等不同框架的分布式模型训练。而模型服务插件基于 Seldon Core,可以便捷地使用模型启动模型服务,同时也支持流量分发,A/B 测试等高级功能。
基于 KubeVela 的机器学习实践
文章图片

通过 KubeVela AI 插件,可以大大简化模型训练任务的部署以及模型服务的部署,同时,可以将模型训练、模型服务等过程与 KubeVela 本身的工作流、多集群等功能相结合,从而完成生产可用的服务部署。

注:你可以在 KubeVela Samples [1]中找到所有的源码和 YAML 文件。如果你想使用在这个例子中预训练的模型,文件夹中的 style-model.yaml 和 color-model.yaml 会将模型复制到 PVC 中。
模型训练 首先启动模型训练和模型服务的两个插件。
vela addon enable model-training vela addon enable model-serving

模型训练中包含 model-training 和 jupyter-notebook 两个组件类型, 模型服务中包含 model-serving 这个组件类型。可以通过 vela show 命令来查看这三个组件中的具体参数。
你也可以选择查阅 KubeVela AI 插件文档 [2] , 来获取更多信息。
vela show model-training vela show jupyter-notebook vela show model-serving

我们来训练一个简单的使用 TensorFlow 框架的模型,这个模型的效果是能够将灰色的图片变成彩色的。部署如下 YAML 文件:
注:模型训练的源码来源于:emilwallner/Coloring-greyscale-images [3]
apiVersion: core.oam.dev/v1beta1 kind: Application metadata: name: training-serving namespace: default spec: components: # 训练模型 - name: demo-training type: model-training properties: # 训练模型的镜像 image: fogdong/train-color:v1 # 模型训练的框架 framework: tensorflow # 声明存储,将模型持久化。此处会使用集群内的默认 storage class 来创建 PVC storage: - name: "my-pvc" mountPath: "/model"

此时, KubeVela 将拉起一个 TFJob 进行模型训练。
仅仅是训练模型很难看出效果,我们修改一下这个 YAML 文件,将模型服务放到模型训练的步骤之后。同时,因为模型服务会直接启动模型,而模型的输入输出不太直观(ndarray 或者 Tensor),因此,我们再部署一个测试服务来调用服务,并将结果转换成图像。
部署如下 YAML 文件:
apiVersion: core.oam.dev/v1beta1 kind: Application metadata: name: training-serving namespace: default spec: components: # 训练模型 - name: demo-training type: model-training properties: image: fogdong/train-color:v1 framework: tensorflow storage: - name: "my-pvc" mountPath: "/model"# 启动模型服务 - name: demo-serving type: model-serving # 模型服务会在模型训练完成后启动 dependsOn: - demo-training properties: # 启动模型服务使用的协议,可以不填,默认使用 seldon 自身的协议 protocol: tensorflow predictors: - name: model # 模型服务的副本数 replicas: 1 graph: # 模型名 name: my-model # 模型框架 implementation: tensorflow # 模型地址,上一步会将训练完的模型保存到 my-pvc 这个 pvc 当中,所以通过 pvc://my-pvc 指定模型的地址 modelUri: pvc://my-pvc# 测试模型服务 - name: demo-rest-serving type: webservice # 测试服务会在模型训练完成后启动 dependsOn: - demo-serving properties: image: fogdong/color-serving:v1 # 使用 LoadBalancer 暴露对外地址,方便调用 exposeType: LoadBalancer env: - name: URL # 模型服务的地址 value: http://ambassador.vela-system.svc.cluster.local/seldon/default/demo-serving/v1/models/my-model:predict ports: # 测试服务的端口 - port: 3333 expose: true

部署之后,通过 vela ls 来查看应用的状态:
$ vela lstraining-servingdemo-trainingmodel-trainingrunninghealthyJob Succeeded2022-03-02 17:26:40 +0800 CST ├─demo-servingmodel-servingrunninghealthyAvailable2022-03-02 17:26:40 +0800 CST └─demo-rest-servingwebservicerunninghealthyReady:1/12022-03-02 17:26:40 +0800 CST

可以看到,应用已经正常启动。通过 vela status--endpoint 来查看应用的服务地址。
$ vela status training-serving --endpoint+---------+-----------------------------------+---------------------------------------------------+ | CLUSTER |REF(KIND/NAMESPACE/NAME)|ENDPOINT| +---------+-----------------------------------+---------------------------------------------------+ || Service/default/demo-rest-serving | tcp://47.251.10.177:3333| || Service/vela-system/ambassador| http://47.251.36.228/seldon/default/demo-serving| || Service/vela-system/ambassador| https://47.251.36.228/seldon/default/demo-serving | +---------+-----------------------------------+---------------------------------------------------+

该应用有三个服务地址,第一个是我们的测试服务的地址,第二个和第三都是原生模型的地址。我们可以调用测试服务来查看模型的效果:测试服务会读取图像的内容,并将其转成 Tensor 并请求模型服务,最后将模型服务返回的 Tensor 转成图像返回。
我们选择一张黑白的女性图片作为输入:
基于 KubeVela 的机器学习实践
文章图片

请求后,可以看到,输出了一张彩色图片:
基于 KubeVela 的机器学习实践
文章图片

模型服务:灰度测试 除了直接启动模型服务,我们还可以在一个模型服务中使用多个版本的模型,并对其分配不同的流量以进行灰度测试。
部署如下 YAML,可以看到,v1 版本的模型和 v2 版本的模型都设置为了 50% 的流量。同样,我们在模型服务后面部署一个测试服务:
apiVersion: core.oam.dev/v1beta1 kind: Application metadata: name: color-serving namespace: default spec: components: - name: color-model-serving type: model-serving properties: protocol: tensorflow predictors: - name: model1 replicas: 1 # v1 版本的模型流量为 50 traffic: 50 graph: name: my-model implementation: tensorflow # 模型地址,在 color-model 这个 pvc 中 /model/v1 路径下存放了我们的 v1 版本模型,所以通过 pvc://color-model/model/v1 指定模型的地址 modelUri: pvc://color-model/model/v1 - name: model2 replicas: 1 # v2 版本的模型流量为 50 traffic: 50 graph: name: my-model implementation: tensorflow # 模型地址,在 color-model 这个 pvc 中 /model/v2 路径下存放了我们的 v2 版本模型,所以通过 pvc://color-model/model/v2 指定模型的地址 modelUri: pvc://color-model/model/v2 - name: color-rest-serving type: webservice dependsOn: - color-model-serving properties: image: fogdong/color-serving:v1 exposeType: LoadBalancer env: - name: URL value: http://ambassador.vela-system.svc.cluster.local/seldon/default/color-model-serving/v1/models/my-model:predict ports: - port: 3333 expose: true

当模型部署完成后,通过 vela status--endpoint 查看模型服务的地址:
$ vela status color-serving --endpoint+---------+------------------------------------+----------------------------------------------------------+ | CLUSTER |REF(KIND/NAMESPACE/NAME)|ENDPOINT| +---------+------------------------------------+----------------------------------------------------------+ || Service/vela-system/ambassador| http://47.251.36.228/seldon/default/color-model-serving| || Service/vela-system/ambassador| https://47.251.36.228/seldon/default/color-model-serving | || Service/default/color-rest-serving | tcp://47.89.194.94:3333| +---------+------------------------------------+----------------------------------------------------------+

使用一张黑白的城市图片请求模型:
基于 KubeVela 的机器学习实践
文章图片

可以看到,第一次请求的结果如下。虽然天空和地面都被渲染成彩色了,但是城市本身还是黑白的:
基于 KubeVela 的机器学习实践
文章图片

再次请求,可以看到,这次请求的结果中,天空、地面和城市都被渲染成了彩色:
基于 KubeVela 的机器学习实践
文章图片

通过对不同版本的模型进行流量分发,可以帮助我们更好地对模型结果进行判断。
模型服务:A/B 测试 同样一张黑白的图片,我们既可以通过模型将其变成彩色的,也可以通过上传另一张风格图片,对原图进行风格迁移。
对于用户来说,究竟是彩色的图片好还是不同风格的图片更胜一筹?我们可以通过进行 A/B 测试,来探索这个问题。
部署如下 YAML,通过设置 customRouting,将 Header 中带有 style: transfer 的请求,转发到风格迁移的模型。同时,使这个风格迁移的模型与彩色化的模型共用一个地址。
注:风格迁移的模型来源于 TensorFlow Hub [4]
apiVersion: core.oam.dev/v1beta1 kind: Application metadata: name: color-style-ab-serving namespace: default spec: components: - name: color-ab-serving type: model-serving properties: protocol: tensorflow predictors: - name: model1 replicas: 1 graph: name: my-model implementation: tensorflow modelUri: pvc://color-model/model/v2 - name: style-ab-serving type: model-serving properties: protocol: tensorflow # 风格迁移的模型需要的时间较长,设置超时时间使请求不会被超时 timeout: "10000" customRouting: # 指定自定义 Header header: "style: transfer" # 指定自定义路由 serviceName: "color-ab-serving" predictors: - name: model2 replicas: 1 graph: name: my-model implementation: tensorflow modelUri: pvc://style-model/model - name: ab-rest-serving type: webservice dependsOn: - color-ab-serving - style-ab-serving properties: image: fogdong/style-serving:v1 exposeType: LoadBalancer env: - name: URL value: http://ambassador.vela-system.svc.cluster.local/seldon/default/color-ab-serving/v1/models/my-model:predict ports: - port: 3333 expose: true

部署成功后,通过 vela status--endpoint 查看模型服务的地址:
$ vela status color-style-ab-serving --endpoint+---------+---------------------------------+-------------------------------------------------------+ | CLUSTER |REF(KIND/NAMESPACE/NAME)|ENDPOINT| +---------+---------------------------------+-------------------------------------------------------+ || Service/vela-system/ambassador| http://47.251.36.228/seldon/default/color-ab-serving| || Service/vela-system/ambassador| https://47.251.36.228/seldon/default/color-ab-serving | || Service/vela-system/ambassador| http://47.251.36.228/seldon/default/style-ab-serving| || Service/vela-system/ambassador| https://47.251.36.228/seldon/default/style-ab-serving | || Service/default/ab-rest-serving | tcp://47.251.5.97:3333| +---------+---------------------------------+-------------------------------------------------------+

这个应用中,两个服务各自有两个地址,但是第二个 style-ab-serving 的模型服务地址是无效的,因为这个模型服务已经被指向了 color-ab-serving 的地址中。同样,我们通过请求测试服务来查看模型效果。
首先,在不加 header 的情况下,图像会从黑白变为彩色:
基于 KubeVela 的机器学习实践
文章图片

【基于 KubeVela 的机器学习实践】我们添加一个海浪的图片作为风格渲染:
基于 KubeVela 的机器学习实践
文章图片

我们为本次请求加上 style: transfer 的 Header,可以看到,城市变成了海浪风格:
基于 KubeVela 的机器学习实践
文章图片

我们还可以使用一张水墨画的图片作为风格渲染:
基于 KubeVela 的机器学习实践
文章图片

可以看到,这次城市变成了水墨画风格:
基于 KubeVela 的机器学习实践
文章图片

总结 通过 KubeVela 的 AI 插件,可以帮助你更便捷地进行模型训练与模型服务。
除此之外,通过与 KubeVela 的结合,我们还能将测试完效果的模型通过 KubeVela 的多环境功能,下发到不同的环境中,从而实现模型的灵活部署。
相关链接
[1] KubeVela Samples
??https://github.com/oam-dev/samples/tree/master/11.Machine_Learning_Demo??
[2] KubeVela AI 插件文档
??https://kubevela.io/zh/docs/next/reference/addons/ai??
[3] emilwallner/Coloring-greyscale-images
??https://github.com/emilwallner/Coloring-greyscale-images??
[4]TensorFlow Hub
??https://tfhub.dev/google/magenta/arbitrary-image-stylization-v1-256/2??
近期热门 您可以通过如下材料了解更多关于 KubeVela 以及 OAM 项目的细节:
  • 项目代码库:??github.com/oam-dev/kubevela?? 欢迎 Star/Watch/Fork!
  • 项目官方主页与文档:kubevela.io ,从 1.1 版本开始,已提供中文、英文文档,更多语言文档欢迎开发者进行翻译。
  • 项目钉钉群:23310022;Slack:CNCF #kubevela Channel
  • 加入微信群:请先添加以下 maintainer 微信号,表明进入 KubeVela 用户群:
基于 KubeVela 的机器学习实践
文章图片

点击“??此处???”,查看 KubeVela 项目官网。?

    推荐阅读