管理ai应用简介-九游平台
ai开发和调优往往需要大量的迭代和调试,数据集、训练代码或参数的变化都可能会影响模型的质量,如不能统一管理开发流程元数据,可能会出现无法重现最优模型的现象。
modelarts的ai应用可导入所有训练生成的元模型、上传至对象存储服务(obs)中的元模型和容器镜像中的元模型,可对所有迭代和调试的ai应用进行统一管理。
约束与限制
- 自动学习项目中,在完成模型部署后,其生成的模型也将自动上传至ai应用列表中。但是自动学习生成的ai应用无法下载,只能用于部署上线。
- 创建ai应用、管理ai应用版本等功能目前是免费开放给所有用户,使用此功能不会产生费用。
创建ai应用的几种场景
- :在modelarts中创建训练作业,并完成模型训练,在得到满意的模型后,可以将训练后得到的模型创建为ai应用,用于部署服务。
- :如果您使用常用框架在本地完成模型开发和训练,可以将本地的模型按照模型包规范上传至obs桶中,从obs将模型导入至modelarts中,创建为ai应用,直接用于部署服务。
- :针对modelarts目前不支持的ai引擎,可以通过自定义镜像的方式将编写的模型镜像导入modelarts,创建为ai应用,用于部署服务。
- :相同功能的模型配置信息重复率高,将相同功能的配置整合成一个通用的模板,通过使用该模板,可以方便快捷的导入模型,创建为ai应用,而不用编写config.json配置文件。
ai应用的功能描述
支持的功能 |
说明 |
---|---|
将训练后的模型导入至modelarts创建为ai应用,便于进行统一管理,支持如下几种场景的导入方式,不同场景对应的操作指导请参见: |
|
当ai应用创建成功后,您可以进入ai应用详情页查看ai应用的信息。 |
|
为方便溯源和模型反复调优,在modelarts中提供了ai应用版本管理的功能,您可以基于版本对ai应用进行管理。 |
|
针对在modelarts创建的ai应用,支持、或。 |
|
modelarts九游平台的服务支持用户从ai gallery中订阅官方发布或者他人分享的模型,支持从其他ei云服务订阅ai应用。订阅后的模型,在“modelarts > ai应用”中,进行统一管理。 |
推理支持的ai引擎
在modelarts创建ai应用时,若使用预置镜像“从模板中选择”或“从obs中选择”导入模型,则支持如下常用引擎及版本的模型包。
- 标注“推荐”的runtime来源于统一镜像,后续统一镜像将作为主流的推理基础镜像。统一镜像中的安装包更齐全,详细信息可以参见。
- 推荐将旧版镜像切换为统一镜像,旧版镜像后续将会逐渐下线。
- 待下线的基本镜像不再维护。
- 统一镜像runtime的命名规范:
- <硬件及版本:cpu或cuda或cann> - - <操作系统版本> -
模型使用的引擎类型 |
支持的运行环境(runtime) |
注意事项 |
---|---|---|
tensorflow |
python3.6 python2.7(待下线) tf1.13-python3.6-gpu tf1.13-python3.6-cpu tf1.13-python3.7-cpu tf1.13-python3.7-gpu tf2.1-python3.7(待下线) tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64(推荐) |
|
spark_mllib |
python2.7(待下线) python3.6(待下线) |
|
scikit_learn |
python2.7(待下线) python3.6(待下线) |
|
xgboost |
python2.7(待下线) python3.6(待下线) |
|
pytorch |
python2.7(待下线) python3.6 python3.7 pytorch1.4-python3.7 pytorch1.5-python3.7(待下线) pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64(推荐) |
|
mindspore |
aarch64(推荐) |
aarch64只能用于运行在snt3芯片上。 |
相关文档
意见反馈
文档内容是否对您有帮助?
如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨