在modelarts standard上运行gpu多机多卡训练作业-九游平台
操作流程
- 准备工作:
- 购买服务资源(vpc/sfs/obs/swr/ecs)
- 配置权限
- 创建专属资源池(打通vpc)
- ecs服务器挂载sfs turbo存储
- 在ecs中设置modelarts用户可读权限
- 安装和配置obs命令行工具
- (可选)工作空间配置
- 模型训练:
本地构建镜像及调试
本节通过打包conda env来构建环境,也可以通过pip install、conda install等方式安装conda环境依赖。

- 容器镜像的大小建议小于15g,详细的自定义镜像规范要求请参见训练作业自定义镜像规范。
- 建议通过开源的官方镜像来构建,例如pytorch的官方镜像。
- 建议容器分层构建,单层容量不要超过1g、文件数不大于10w个。分层时,先构建不常变化的层,例如:先os,再cuda驱动,再python,再pytorch,再其他依赖包。
- 如果训练数据和代码经常变动,则不建议把数据、代码放到容器镜像里,避免频繁地构建容器镜像。
- 容器已经能满足隔离需求,不建议在容器内再创建多个conda env。
- 导出conda环境。
- 启动线下的容器镜像:
# run on terminal docker run -ti ${your_image:tag}
- 在容器中输入如下命令,得到pytorch.tar.gz:
# run on container # 基于想要迁移的base环境创建一个名为pytorch的conda环境 conda create --name pytorch --clone base pip install conda-pack #将pytorch env打包生成pytorch.tar.gz conda pack -n pytorch -o pytorch.tar.gz
- 将打包好的压缩包传到本地:
# run on terminal docker cp ${your_container_id}:/xxx/xxx/pytorch.tar.gz .
- 将pytorch.tar.gz上传到obs并设置公共读,并在构建时使用wget命令获取、解压、清理。
- 启动线下的容器镜像:
- 构建新镜像。
基础镜像一般选用“ubuntu 18.04”的官方镜像,或者nvidia官方提供的带cuda驱动的镜像。相关镜像直接到dockerhub九游平台官网查找即可。
构建流程:安装所需的apt包、驱动,配置ma-user用户、导入conda环境、配置notebook依赖。
- 推荐使用dockerfile的方式构建镜像。这样既满足dockerfile可追溯及构建归档的需求,也保证镜像内容无冗余和残留。
- 每层构建的时候都尽量把tar包等中间态文件删除,保证最终镜像更小,清理缓存的方法可参考:。
- 构建参考样例
dockerfile样例:
from nvidia/cuda:11.3.1-cudnn8-devel-ubuntu18.04 user root # section1: add user ma-user whose uid is 1000 and user group ma-group whose gid is 100. if there already exists 1000:100 but not ma-user:ma-group, below code will remove it run default_user=$(getent passwd 1000 | awk -f ':' '{print $1}') || echo "uid: 1000 does not exist" && \ default_group=$(getent group 100 | awk -f ':' '{print $1}') || echo "gid: 100 does not exist" && \ if [ ! -z ${default_group} ] && [ ${default_group} != "ma-group" ]; then \ groupdel -f ${default_group}; \ groupadd -g 100 ma-group; \ fi && \ if [ -z ${default_group} ]; then \ groupadd -g 100 ma-group; \ fi && \ if [ ! -z ${default_user} ] && [ ${default_user} != "ma-user" ]; then \ userdel -r ${default_user}; \ useradd -d /home/ma-user -m -u 1000 -g 100 -s /bin/bash ma-user; \ chmod -r 750 /home/ma-user; \ fi && \ if [ -z ${default_user} ]; then \ useradd -d /home/ma-user -m -u 1000 -g 100 -s /bin/bash ma-user; \ chmod -r 750 /home/ma-user; \ fi && \ # set bash as default rm /bin/sh && ln -s /bin/bash /bin/sh # section2: config apt source and install tools needed. run sed -i "s@http://.*archive.ubuntu.com@http://repo.huaweicloud.com@g" /etc/apt/sources.list && \ sed -i "s@http://.*security.ubuntu.com@http://repo.huaweicloud.com@g" /etc/apt/sources.list && \ apt-get update && \ apt-get install -y ca-certificates curl ffmpeg git libgl1-mesa-glx libglib2.0-0 libibverbs-dev libjpeg-dev libpng-dev libsm6 libxext6 libxrender-dev ninja-build screen sudo vim wget zip && \ apt-get clean && \ rm -rf /var/lib/apt/lists/* user ma-user # section3: install miniconda and rebuild conda env run mkdir -p /home/ma-user/work/ && cd /home/ma-user/work/ && \ wget https://repo.anaconda.com/miniconda/miniconda3-py37_4.12.0-linux-x86_64.sh && \ chmod 777 miniconda3-py37_4.12.0-linux-x86_64.sh && \ bash miniconda3-py37_4.12.0-linux-x86_64.sh -bfp /home/ma-user/anaconda3 && \ wget https://${bucketname}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/pytorch.tar.gz && \ mkdir -p /home/ma-user/anaconda3/envs/pytorch && \ tar -xzf pytorch.tar.gz -c /home/ma-user/anaconda3/envs/pytorch && \ source /home/ma-user/anaconda3/envs/pytorch/bin/activate && conda-unpack && \ /home/ma-user/anaconda3/bin/conda init bash && \ rm -rf /home/ma-user/work/* env path=/home/ma-user/anaconda3/envs/pytorch/bin:$path # section4: settings of jupyter notebook for pytorch env run source /home/ma-user/anaconda3/envs/pytorch/bin/activate && \ pip install ipykernel==6.7.0 --trusted-host https://repo.huaweicloud.com -i https://repo.huaweicloud.com/repository/pypi/simple && \ ipython kernel install --user --env path /home/ma-user/anaconda3/envs/pytorch/bin:$path --name=pytorch && \ rm -rf /home/ma-user/.local/share/jupyter/kernels/pytorch/logo-* && \ rm -rf ~/.cache/pip/* && \ echo 'export path=$path:/home/ma-user/.local/bin' >> /home/ma-user/.bashrc && \ echo 'export ld_library_path=$ld_library_path:/usr/local/nvidia/lib64' >> /home/ma-user/.bashrc && \ echo 'conda activate pytorch' >> /home/ma-user/.bashrc env default_conda_env_name=pytorch
dockerfile中的"https://${bucket_name}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/pytorch.tar.gz",需要替换为1中pytorch.tar.gz在obs上的路径(需将文件设置为公共读)。
进入dockerfile目录,通过dockerfile构建镜像命令:
# cd 到dockerfile所在目录下,输入构建命令 # docker build -t ${image_name}:${image_version} . # 例如 docker build -t pytorch-1.13-cuda11.3-cudnn8-ubuntu18.04:v1 .
- 调试镜像
建议把调试过程中的修改点通过dockerfile固化到容器构建正式流程,并重新测试。
- 确认对应的脚本、代码、流程在linux服务器上运行正常。
如果在linux服务器上运行就有问题,那么先调通以后再做容器镜像。
- 确认打入镜像的文件是否在正确的位置、是否有正确的权限。
训练场景主要查看自研的依赖包是否正常,查看pip list是否包含所需的包,查看容器直接调用的python是否是自己所需要的那个(如果容器镜像装了多个python,需要设置python路径的环境变量)。
- 测试训练启动脚本。
- 优先使用手工进行数据复制的工作并验证
一般在镜像里不包含训练所用的数据和代码,所以在启动镜像以后需要手工把需要的文件复制进去。建议数据、代码和中间数据都放到"/cache"目录,防止正式运行时磁盘占满。建议linux服务器申请的时候,有足够大的内存(8g以上)以及足够大的硬盘(100g以上)。
docker和linux的文件交互命令如下:
docker cp data/ 39c9ceedb1f6:/cache/
数据准备完成后,启动训练的脚本,查看训练是否能够正常拉起。一般来说,启动脚本为:
cd /cache/code/ python start_train.py
如果训练流程不符合预期,可以在容器实例中查看日志、错误等,并进行代码、环境变量的修正。
- 预制脚本测试整体流程
一般使用run.sh封装训练外的文件复制工作(数据、代码:obs-->容器,输出结果:容器-->obs),run.sh的构建方法参考基于modelarts standard运行gpu训练作业。
如果预置脚本调用结果不符合预期,可以在容器实例中进行修改和迭代。
- 针对专属池场景
由于专属池支持sfs挂载,因此代码、数据的导入会更简单,甚至可以不用再关注obs的相关操作。
可以直接把sfs的目录直接挂载到调试节点的"/mnt/sfs_turbo"目录,或者保证对应目录的内容和sfs盘匹配。
调试时建议使用接近的方式,即:启动容器实例时使用"-v"参数来指定挂载某个宿主机目录到容器环境。
docker run -ti -d -v /mnt/sfs_turbo:/sfs my_deeplearning_image:v1
上述命令表示把宿主机的"/mnt/sfs_turbo"目录挂载到容器的"/sfs"目录,在宿主机和容器对应目录的所有改动都是实时同步的。
- 优先使用手工进行数据复制的工作并验证
- 分析错误时:训练镜像先看日志,推理镜像先看api的返回。
可以通过命令查看容器输出到stdout的所有日志:
docker logs -f 39c9ceedb1f6
一般在做推理镜像时,部分日志是直接存储在容器内部的,所以需要进入容器看日志。注意:重点对应日志中是否有error(包括,容器启动时、api执行时)。
- 牵扯部分文件用户组不一致的情况,可以在宿主机用root权限执行命令进行修改
docker exec -u root:root 39c9ceedb1f6 bash -c "chown -r ma-user:ma-user /cache"
- 针对调试中遇到的错误,可以直接在容器实例里修改,修改结果可以通过commit命令持久化。
- 确认对应的脚本、代码、流程在linux服务器上运行正常。
上传镜像
客户端上传镜像,是指在安装了容器引擎客户端的机器上使用docker命令将镜像上传到容器镜像服务的镜像仓库。
如果容器引擎客户端机器为云上的ecs或cce节点,根据机器所在区域有两种网络链路可以选择:
- 如果机器与容器镜像仓库在同一区域,则上传镜像走内网链路。
- 如果机器与容器镜像仓库不在同一区域,则上传镜像走公网链路,机器需要绑定弹性公网ip。

- 使用客户端上传镜像,镜像的每个layer大小不能大于10g。
- 上传镜像的容器引擎客户端版本必须为1.11.2及以上。
- 连接容器镜像服务。
- 登录容器镜像服务控制台。
- 单击右上角“创建组织”,输入组织名称完成组织创建。请自定义组织名称,本示例使用“deep-learning”,下面的命令中涉及到组织名称“deep-learning”也请替换为自定义的值。
- 选择左侧导航栏的“总览”,单击页面右上角的“登录指令”,在弹出的页面中单击
复制登录指令。
- 此处生成的登录指令有效期为24小时,如果需要长期有效的登录指令,请参见获取长期有效登录指令。获取了长期有效的登录指令后,在有效期内的临时登录指令仍然可以使用。
- 登录指令末尾的域名为镜像仓库地址,请记录该地址,后面会使用到。
- 在安装容器引擎的机器中执行上一步复制的登录指令。
登录成功会显示“login succeeded”。
- 在安装容器引擎的机器上执行如下命令,为镜像打标签。
docker tag [镜像名称1:版本名称1] [镜像仓库地址]/[组织名称]/[镜像名称2:版本名称2]
- [镜像名称1:版本名称1]:${image_name}:${image_version}请替换为您所要上传的实际镜像的名称和版本名称。
- [镜像仓库地址]:可在swr控制台上查询,即1.c中登录指令末尾的域名。
- [组织名称]:/${organization_name}请替换为您创建的组织。
- [镜像名称2:版本名称2]:${image_name}:${image_version}请替换为您期待的镜像名称和镜像版本。
示例:
docker tag ${image_name}:${image_version} swr.cn-north-4.myhuaweicloud.com/${organization_name}/${image_name}:${image_version}
- 上传镜像至镜像仓库。
docker push [镜像仓库地址]/[组织名称]/[镜像名称2:版本名称2]
示例:
docker push swr.cn-north-4.myhuaweicloud.com/${organization_name}/${image_name}:${image_version}
上传镜像完成后,返回容器镜像服务控制台,在“我的镜像”页面,执行刷新操作后可查看到对应的镜像信息。
上传数据至obs
- 已经在obs上创建好普通obs桶,请参见创建普通obs桶。
- 已经安装obsutil,请参考安装和配置obs命令行工具。
- obs和训练容器间的数据传输原理可以参考基于modelarts standard运行gpu训练作业。
- 登录imagenet数据集下载九游平台官网地址,下载imagenet21k数据集:
- 下载格式转换后的annotation文件:和。
- 下载完成后将上述3个文件数据上传至obs桶中的imagenet21k_whole文件夹中。上传方法请参考上传数据和算法到obs。
上传算法到sfs
- 下载swin-transformer代码。
git clone --recursive
- 修改lr_scheduler.py文件,把第27行:t_mul=1. 注释掉。
- 修改data文件夹下imagenet22k_dataset.py,把第28行:print("error img loaded: ", path) 注释掉。
- 修改data文件夹下的build.py文件,把第112行:prefix = 'ilsvrc2011fall_whole',改为prefix = 'ilsvrc2021winner21k_whole'。
- 在swin-transformer目录下创建requirements.txt指定python依赖库:
# requirements.txt内容如下 timm==0.4.12 termcolor==1.1.0 yacs==0.1.8
- 准备run.sh文件中所需要的obs文件路径。
- 准备imagenet数据集的分享链接。
勾选要分享的imagenet21k_whole数据集文件夹,单击分享按钮,选择分享链接有效期,自定义提取码,例如123456,单击“复制链接”,记录该链接。
- 准备“obsutil_linux_amd64.tar.gz”的分享链接。
参考下载和安装obsutil下载“obsutil_linux_amd64.tar.gz”,将其上传至obs桶中,设置为公共读。单击属性,单击复制链接。
链接样例如下:
https://${bucketname_name}.obs.cn-north-4.myhuaweicloud.com/${folders_name}/pytorch.tar.gz
- 准备imagenet数据集的分享链接。
- 在swin-transformer目录下,创建运行脚本run.sh。
- 脚本中的"src_data_path=${imagenet数据集在obs中分享链接}",需要替换为上一步中的imagenet21k_whole文件夹分享链接。
- 脚本中的"https://${bucket_name}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/obsutil_linux_amd64.tar.gz",需要替换为上一步中obsutil_linux_amd64.tar.gz在obs上的路径(需将文件设置为公共读)。
单机单卡运行脚本:
# 在代码主目录下创建一个run.sh,内容如下 #!/bin/bash # 从obs中下载数据到本地ssd盘 dis_data_path=/cache src_data_path=${imagenet数据集在obs中分享链接} obsutil_path=https://${bucket_name}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/obsutil_linux_amd64.tar.gz mkdir -p $dis_data_path && cd $dis_data_path && wget $obsutil_path && tar -xzvf obsutil_linux_amd64.tar.gz && $dis_data_path/obsutil_linux_amd64*/obsutil share-cp $src_data_path $dis_data_path/ -ac=123456 -r -f -j 256 && cd - image_data_path=$dis_data_path/imagenet21k_whole master_port="6061" /home/ma-user/anaconda3/envs/pytorch/bin/python -m torch.distributed.launch --nproc_per_node=1 --master_addr localhost --master_port=$master_port main.py --data-path $image_data_path --cfg ./configs/swin/swin_base_patch4_window7_224_22k.yaml --local_rank 0
多机多卡运行脚本:
# 创建run.sh #!/bin/bash # 从obs中下载数据到本地ssd盘 dis_data_path=/cache src_data_path=${imagenet数据集在obs中分享链接} obsutil_path=https://${bucket_name}.obs.cn-north-4.myhuaweicloud.com/${folder_name}/obsutil_linux_amd64.tar.gz mkdir -p $dis_data_path && cd $dis_data_path && wget $obsutil_path && tar -xzvf obsutil_linux_amd64.tar.gz && $dis_data_path/obsutil_linux_amd64*/obsutil share-cp $src_data_path $dis_data_path/ -ac=123456 -r -f -j 256 && cd - image_data_path=$dis_data_path/imagenet21k_whole master_addr=$(echo ${vc_worker_hosts} | cut -d "," -f 1) master_port="6060" nnodes="$vc_worker_num" node_rank="$vc_task_index" ngpus_per_node="$ma_num_gpus" /home/ma-user/anaconda3/envs/pytorch/bin/python -m torch.distributed.launch --nnodes=$nnodes --node_rank=$node_rank --nproc_per_node=$ngpus_per_node --master_addr $master_addr --master_port=$master_port main.py --data-path $image_data_path --cfg ./configs/swin/swin_base_patch4_window7_224_22k.yaml
- 推荐先使用单机单卡运行脚本,待正常运行后再改用多机多卡运行脚本。
- 多机多卡run.sh中的“vc_worker_hosts”、“vc_worker_num”、“vc_task_index”、“ma_num_gpus”为modelarts训练容器中预置的环境变量。训练容器环境变量详细介绍可参考查看训练容器环境变量。
- 通过obsutils,将代码文件夹放到obs上,然后通过obs将代码传至sfs相应目录中。
- 在sfs中将代码文件swin-transformer-main设置归属为ma-user。
chown -r ma-user:ma-group swin-transformer
- 执行以下命令,去除shell脚本的\r字符。
cd swin-transformer sed -i 's/\r//' run.sh
shell脚本在windows系统编写时,每行结尾是\r\n,而在linux系统中行每行结尾是\n,所以在linux系统中运行脚本时,会认为\r是一个字符,导致运行报错“$'\r': command not found”,因此需要去除shell脚本的\r字符。
使用notebook进行代码调试
由于notebook的/cache目录只能支持500g的存储,超过后会导致实例重启,imagenet数据集大小超过该限制,因此建议用线下资源调试、或用小批量数据集在notebook调试(notebook调试方法与使用notebook进行代码调试相同)。
创建多机多卡训练作业
- 登录modelarts管理控制台,检查当前账号是否已完成访问授权的配置。如未完成,请参考使用委托授权。针对之前使用访问密钥授权的用户,建议清空授权,然后使用委托进行授权。
- 在左侧导航栏中选择“模型训练 > 训练作业”,默认进入“训练作业”列表。
- 在“创建训练作业”页面,填写相关参数信息,然后单击“提交”。
- 创建方式:选择“自定义算法”。
- 启动方式:选择“自定义”。
- 镜像:选择上传的自定义镜像。
- 启动命令:
cd /home/ma-user/work/code/swin-transformer && /home/ma-user/anaconda3/envs/pytorch/bin/pip install -r requirements.txt && /bin/sh run.sh
- 资源池:在“专属资源池”页签选择gpu规格的专属资源池。
- 规格:选择所需gpu规格。
- 计算节点个数:选择需要的节点个数。
- sfs turbo:增加挂载配置,选择sfs名称,云上挂载路径为“/home/ma-user/work”。
为了和notebook调试时代码路径一致,保持相同的启动命令,云上挂载路径需要填写为“/home/ma-user/work”。
- 单击“提交”,在“信息确认”页面,确认训练作业的参数信息,确认无误后单击“确定”。
- 训练作业创建完成后,后台将自动完成容器镜像下载、代码目录下载、执行启动命令等动作。
训练作业一般需要运行一段时间,根据您的训练业务逻辑和选择的资源不同,训练时长将持续几十分钟到几小时不等。
相关文档
意见反馈
文档内容是否对您有帮助?
如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨