什么是modelarts-九游平台
modelarts是华为云提供的一站式ai开发平台,提供海量数据预处理及半自动化标注、大规模分布式训练、自动化模型生成及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期ai工作流。
“一站式”是指ai开发的各个环节,包括数据处理、算法开发、模型训练、模型部署都可以在modelarts上完成。从技术上看,modelarts底层支持各种异构计算资源,开发者可以根据需要灵活选择使用,而不需要关心底层的技术。同时,modelarts支持tensorflow、pytorch、mindspore等主流开源的ai开发框架,也支持开发者使用自研的算法框架,匹配您的使用习惯。
产品形态
modelarts提供多种产品形态,如下表所示。
产品形态 |
产品定位 |
使用场景 |
---|---|---|
modelarts standard |
面向ai开发者的一站式开发平台, 提供了简洁易用的管理控制台,包含自动学习、数据管理、开发环境、模型训练、模型管理、部署上线等端到端的ai开发工具链,实现ai全流程生命周期管理。 |
面向有ai开发平台诉求的用户。 |
modelarts maas |
提供端到端的大模型生产工具链和昇腾算力资源,并预置了当前主流的第三方开源大模型。支持大模型数据生产、微调、提示词工程、应用编排等功能。 |
用户无需自建平台,可以基于maas平台开箱即用,对预置大模型进行二次开发,用于生产商用。 |
modelarts lite-server |
面向云主机资源型用户,基于裸金属服务器进行封装,可以通过弹性公网ip直接访问操作服务器。 |
适用于已经自建ai开发平台,仅有算力需求的用户,提供高性价比的ai算力,并预装主流ai开发套件以及自研的加速插件。 |
modelarts lite-cluster |
面向k8s资源型用户,提供k8s原生接口,用户可以直接操作资源池中的节点和k8s集群。 |
适用于已经自建ai开发平台,仅有算力需求的用户。要求用户具备k8s基础知识和技能。 |
modelarts edge |
为客户提供了统一边缘部署和管理能力,支持统一纳管异构边缘设备,提供ai应用部署、al应用和节点管理、资源池与负载均衡、应用商用保障等能力,帮助客户快速构建高性价比的边云协同ai九游平台的解决方案。 |
适用于边缘部署场景。 |
ai gallery |
ai gallery百模千态社区,为用户提供优质的昇腾云ai模型开发体验和丰富的社区资源。 |
适用于ai开发探索。 |
产品架构
modelarts产品架构请参考图1。
- 算力层提供全系列昇腾硬件,万卡级大规模集群管理能力,提供资源负载调度管理能力,兼容业界主流ai开发调试、训练推理框架。
- ai平台层提供端到端的ai开发工具链,支持开发者一站式完成模型开发和上线,并提供高效的资源管理能力,支持自动化故障恢复,提升ai模型开发、训练、上线全流程效率。
- ai开发工具链层提供端到端的大模型开发工具链,支持主流优质开源大模型“开箱即用”,提供大模型开发套件,提升大模型开发效率并缩短开发周期。
访问方式
modelarts基于不同的产品形态提供了多种访问方式。
- 管理控制台方式
modelarts standard支持通过管理控制台访问,包含自动学习、数据管理、开发环境、模型训练、ai应用管理、部署上线等功能,您可以在管理控制台端到端完成您的ai开发。
modelarts maas可以通过管理控制台访问,包括大模型数据生产、微调、提示词工程、应用编排等功能。
- sdk方式
如果您需要将modelarts standard功能集成到第三方系统,用于二次开发,可选择调用sdk方式完成目的。modelarts的sdk是对modelarts standard提供的rest api进行的python封装,简化用户的开发工作。具体操作和sdk详细描述,请参见《》。
除此之外,在modelarts standard的notebook中编写代码时,也可直接调用modelarts sdk。
- api方式
如果您需要将modelarts standard集成到第三方系统,用于二次开发,请使用api方式访问modelarts,具体操作和api详细描述,请参见《api参考》。
- 云原生方式
如果您使用的是modelarts lite server形态,您可以通过弹性公网ip直接访问云主机,详情请参见《》。
如果您使用的是modelarts lite cluster形态,您可以通过k8s原生接口操作集群,详情请参见《》。
相关文档
意见反馈
文档内容是否对您有帮助?
如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨