腾讯云TI-ONE训练平台批量预测介绍_AI解决方案_同尘科技
面向不定时批量数据处理的业务场景,平台提供批量预测的模块能力,用于支撑算力资源按需使用,批量数据处理完成后推理算力自动释放的场景诉求。
前提条件
已完成模型的训练并导入模型仓库,或者已将自定义推理镜像上传至腾讯云容器镜像服务 TCR;已完成需要批量预测的数据准备,并上传至腾讯云对象存储 COS;已在对象存储 COS 中创建好文件夹,用于存储批量预测的推理结果文件。
创建预测任务
1. 登录 TI-ONE 控制台,在左侧导航栏中选择模型服务 > 批量预测,进入批量预测任务页面。2. 在任务列表页面单击新建任务,进入任务创建页面。3. 在任务创建页面,配置批量预测任务的相关参数。3.1 任务基础信息
参数 | 说明 |
任务名称 | 预测任务的名称,按照界面提示的规则填写即可 |
任务描述 | 可按需为预测任务配置描述信息 |
地域 | 同账号下的预测任务按地域进行隔离,地域字段取值根据您在任务列表页面所选择的地域自动带入 |
计费模式 | 可选择按量付费模式或包月包月模式。(A)包年包月模式下,可使用在资源组管理模块已购买的推理资源组部署任务,算力费用在购买资源组时已支付,创建任务时无需扣费。(B)按量付费模式下,用户无需预先购买推理资源组,根据任务依赖的算力规格,创建任务时冻结两小时费用,之后每小时根据运行中的实例数量按量扣费。 |
资源组 | 若选择包年包月模式,可选择资源组管理模块的推理资源组 |
3.2 服务实例信息
参数 | 说明 |
模型来源 | 从镜像仓库选择镜像适用于,预测任务所需的自定义镜像已封装模型文件,不需要再进行模型文件挂载,且自定义镜像已上传至容器镜像服务 TCR 的场景;从模型仓库选择模型适用于,预测任务所需的模型文件已导入至模型仓库的场景。如需使用模型文件创建任务,模型文件大小建议不超过16G。 |
运行环境 | (A)若从镜像仓库选择镜像,则运行环境可以选择已上传至容器镜像服务 TCR 的自定义镜像。(B)若从模型仓库选择模型,则运行环境会根据模型仓库的配置信息自动赋值。如需使用自定义镜像创建任务,镜像文件大小建议不超过34G。 |
模型推理文件 | 从模型仓库选择模型的场景下,需要上传模型推理文件,命名须为model_service.py,可自定义批量预测处理逻辑 |
启动命令 | 若创建批量预测任务未指定启动命令时,则默认启动命令为 python3 /opt/ml/code/model_service.py |
资源申请/算力规格 | (A)包年包月模式下,可设置从所选资源组中申请多少资源用于当前任务。(B)按量付费模式下,可按需选择当前任务所需的算力规格。 |
3.3 数据路径配置n
参数 | 说明 |
输入数据路径 | 即批量预测任务待处理数据的存储路径,可选择对象存储 COS 或者 Wedata(HDFS);当选择COS时,需要选择存储桶中的文件夹或文件;当选择Wedata(HDFS)时,需要下拉选择数据源,填写源路径(输入数据会默认挂载到 /opt/ml/input/data 下作为预测数据目录,您的代码中需要使用该路径以获取数据) |
输出数据路径 | 即批量预测任务将预测结果文件写入的目标路径,可选择对象存储 COS 或者 Wedata(HDFS);当选择COS时,需要选择存储桶中的文件夹或文件;当选择Wedata(HDFS)时,需要下拉选择数据源,填写源路径(输入数据会默认挂载到 /opt/ml/output 下作为预测数据目录,您的代码中需要使用该路径以获取数据) |
3.4 任务高级配置n
参数 | 说明 |
CLS 日志投递 | 平台为用户提供免费的近7日任务日志存储,若需要持久化日志存储以及更灵活的日志检索能力,可开启 CLS 日志投递,开启后任务日志会根据日志集与日志主题投递至腾讯云日志服务 CLS。 |
标签 | 支持为任务添加标签,用于按照标签进行授权或出账。 |
4. 确认预测任务配置信息无误后,单击保存进行任务创建。n任务启动过程中将为您调度算力资源,需要等待一段时间,启动成功后任务自动进入运行中状态,为您进行批量数据的预测处理,处理完成后任务状态将变为已完成。
查看预测结果
批量预测任务为已完成状态时,可查看批量预测任务的运行结果。1. 在批量预测任务页面页面点击任务名称,进入任务基本信息页面查看输出数据路径;2. 前往 对象存储 COS 控制台,在预测任务已关联的输出数据路径下,查看预测任务的结果文件,可在 COS 控制台进行预览或下载操作。n
对解决方案有疑惑?想了解解决方案收费? 联系解决方案专家
腾讯云限时活动1折起,即将结束: 马上收藏
同尘科技为腾讯云授权服务中心,购买腾讯云享受折上折,更有现金返利:同意关联,立享优惠
阿里云解决方案也看看?: 点击对比阿里云的解决方案
暂无评论,你要说点什么吗?