0

0

Windows:PaddleClas基于Hub Serving的服务部署(二)

P粉084495128

P粉084495128

发布时间:2025-08-01 15:04:51

|

819人浏览过

|

来源于php中文网

原创

本文为PaddleClas全流程文档第二篇,介绍基于PaddleHub Serving部署其服务功能。涵盖准备环境、下载推理模型、安装服务模块、启动服务(命令行和配置文件两种方式)、发送预测请求及自定义修改服务模块等步骤,还说明了相关参数和结果格式。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

windows:paddleclas基于hub serving的服务部署(二) - php中文网

再PaddleClas第一篇的基础上,来实现PaddleClas的服务功能

PaddleClas全流程文档 第二篇,主要展示如何部署PaddleClas的Hub Serving服务,服务化部署。上一篇(配置使用PaddleClas),下一篇(部署三DLL调用/EXE)


基于PaddleHub Serving的服务部署

hubserving服务部署配置服务包clas下包含3个必选文件,目录如下:

deploy/hubserving/clas/
  └─  __init__.py    空文件,必选
  └─  config.json    配置文件,可选,使用配置启动服务时作为参数传入
  └─  module.py      主模块,必选,包含服务的完整逻辑
  └─  params.py      参数文件,必选,包含模型路径、前后处理参数等参数

Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

快速启动服务

打开anaconda,激活paddle环境(已在环境搭建中建立)

Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

1. 准备环境

# 安装paddlehub2.0版本
pip3 install paddlehub==2.0.0b1 --upgrade -i https://pypi.tuna.tsinghua.edu.cn/simple

Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

2. 下载推理模型

安装服务模块前,需要准备推理模型并放到正确路径,默认模型路径为:

分类推理模型结构文件:./inference/cls_infer.pdmodel
分类推理模型权重文件:./inference/cls_infer.pdiparams

模型路径可在deploy/hubserving/clas/params.py中查看和修改。


Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

  • 可以使用基于ImageNet-1k数据集的预训练模型,模型列表及下载地址详见模型库概览
  • 也可以替换成自己训练转换好的模型。
  • 这里我替换成了之前训练的模型


Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

3. 安装服务模块

  • 进入PaddleClas目录 安装示例如下:
# 进入目录cd /d E:\PaddleClas-release-2.0# 安装服务模块:  hub install deploy\hubserving\clas\

Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

  • 如果出现 拒绝访问 错误,可以重新使用管理员身份打开Anaconda,再依次操作即可

4. 启动服务

方式1. 命令行命令启动(仅支持CPU)

启动命令:

$ hub serving start --modules Module1==Version1 \
                    --port XXXX \
                    --use_multiprocess \
                    --workers \

参数:

参数 用途
--modules/-m [必选] PaddleHub Serving预安装模型,以多个Module==Version键值对的形式列出
当不指定Version时,默认选择最新版本
--port/-p [可选] 服务端口,默认为8866
--use_multiprocess [可选] 是否启用并发方式,默认为单进程方式,推荐多核CPU机器使用此方式
Windows操作系统只支持单进程方式
--workers [可选] 在并发方式下指定的并发任务数,默认为2*cpu_count-1,其中cpu_count为CPU核数

如按默认参数启动服务:  hub serving start -m clas_system

这样就完成了一个服务化API的部署,使用默认端口号8866。

方式2. 配置文件启动(支持CPU、GPU)

启动命令:
hub serving start -c config.json

其中config.json在目录deploy/hubserving/clas/内,格式如下:

知我AI
知我AI

一款多端AI知识助理,通过一键生成播客/视频/文档/网页文章摘要、思维导图,提高个人知识获取效率;自动存储知识,通过与知识库聊天,提高知识利用效率。

下载
{    "modules_info": {        "clas_system": {            "init_args": {                "version": "1.0.0",                "use_gpu": true,                "enable_mkldnn": false
            },            "predict_args": {
            }
        }
    },    "port": 8866,    "use_multiprocess": false,    "workers": 2}
  • init_args中的可配参数与module.py中的_initialize函数接口一致。其中,
    • 当use_gpu为true时,表示使用GPU启动服务。
    • 当enable_mkldnn为true时,表示使用MKL-DNN加速。
  • predict_args中的可配参数与module.py中的predict函数接口一致。

注意:

  • 使用配置文件启动服务时,其他参数会被忽略。
  • 如果使用GPU预测(即,use_gpu置为true),则需要在启动服务之前,设置CUDA_VISIBLE_DEVICES环境变量,如:set CUDA_VISIBLE_DEVICES=0,否则不用设置。
  • use_gpu不可与use_multiprocess同时为true。
  • use_gpu与enable_mkldnn同时为true时,将忽略enable_mkldnn,而使用GPU。

如,使用GPU 0号卡启动串联服务(Windows 下不支持多卡一般使用0号卡,如果有问题可以尝试禁用其他显卡只保留一张使用):

set CUDA_VISIBLE_DEVICES=0
hub serving start -c deploy/hubserving/clas/config.json

Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

  • 启动服务后窗口最好不要关闭,因为不用的时候可以再窗口随时取消,放在后台容易忘记,浪费gpu资源

发送预测请求

配置好服务端,可使用以下命令发送预测请求,获取预测结果:

python tools/test_hubserving.py server_url image_path

需要给脚本传递2个参数:

  • server_url:服务地址,格式为
    http://[ip_address]:[port]/predict/[module_name]
  • image_path:测试图像路径,可以是单张图片路径,也可以是图像集合目录路径
  • top_k:[可选] 返回前 top_k 个 score ,默认为 1。

访问示例:

python tools/test_hubserving.py http://127.0.0.1:8866/predict/clas_system ./dataset/cat_12/cat_12_train/0aSixIFj9X73z41LMDUQ6ZykwnBA5YJW.jpg

  • 打开新命令窗口,输入以上指令:

Windows:PaddleClas基于Hub Serving的服务部署(二) - php中文网

返回结果格式说明

返回结果为列表(list),包含top-k个分类结果,以及对应的得分,还有此图片预测耗时,具体如下:

list: 返回结果└─ list: 第一张图片结果
   └─ list: 前k个分类结果,依score递减排序
   └─ list: 前k个分类结果对应的score,依score递减排序
   └─ float: 该图分类耗时,单位秒

说明: 如果需要增加、删除、修改返回字段,可在相应模块的module.py文件中进行修改,完整流程参考下一节自定义修改服务模块。

自定义修改服务模块

如果需要修改服务逻辑,你一般需要操作以下步骤:

  • 1、 停止服务
    hub serving stop --port/-p XXXX

  • 2、 到相应的module.py和params.py等文件中根据实际需求修改代码。
    例如,例如需要替换部署服务所用模型,则需要到params.py中修改模型路径参数cfg.model_file和cfg.params_file。

    修改并安装(hub install deploy/hubserving/clas/)完成后,在进行部署前,可通过python deploy/hubserving/clas/test.py测试已安装服务模块。

  • 3、 卸载旧服务包
    hub uninstall clas_system

  • 4、 安装修改后的新服务包
    hub install deploy/hubserving/clas/

  • 5、重新启动服务
    hub serving start -m clas_system

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
chatgpt使用指南
chatgpt使用指南

本专题整合了chatgpt使用教程、新手使用说明等等相关内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

chatgpt官网入口地址合集
chatgpt官网入口地址合集

本专题整合了chatgpt官网入口地址、使用教程等内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

minimax入口地址汇总
minimax入口地址汇总

本专题整合了minimax相关入口合集,阅读专题下面的文章了解更多详细地址。

4

2026.03.16

C++多线程并发控制与线程安全设计实践
C++多线程并发控制与线程安全设计实践

本专题围绕 C++ 在高性能系统开发中的并发控制技术展开,系统讲解多线程编程模型与线程安全设计方法。内容包括互斥锁、读写锁、条件变量、原子操作以及线程池实现机制,同时结合实际案例分析并发竞争、死锁避免与性能优化策略。通过实践讲解,帮助开发者掌握构建稳定高效并发系统的关键技术。

7

2026.03.16

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

114

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

141

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

396

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

65

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

111

2026.03.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号