We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
hello
我按照 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/README_CN.md 部署了服务 , 我看到 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/pipeline_http_client.py 是单张图片调用的 , 不支持 batch 调用 。 我看 server 端的代码 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/web_service.py 应该只是同一张图检测到了多个框的识别做了打 batch , 检测应该只能支持单张 。
在 https://github.com/PaddlePaddle/Serving/blob/v0.7.0/examples/Pipeline/PaddleOCR/ocr/web_service.py 侧我看到检测好像支持打 batch(也可能是 preprocess 底下的 images 有一些误导性) , 但 client 也还是单张调用 。 同时 https://github.com/PaddlePaddle/Serving/blob/v0.7.0/examples/Pipeline/PaddleOCR/ocr/benchmark.py 里面函数的 batch size 底下都没用到 , https://github.com/PaddlePaddle/Serving/blob/v0.7.0/examples/Pipeline/PaddleOCR/ocr/benchmark.sh 里面 batch size 都是 1 。看上去也没大 batch size 的测速 。
而我这边测试在多并发的 client 调用下 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/config.yml 开启 trt(use_trt: True)速度基本也没很大变化 , 基本接近文档的 T4 qps 20+ (https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/README_CN.md) 。 无论开不开 trt , precision 设置成 fp32 还是 fp16 还是 int8 , 基本速度都没差别 。 我都不确定是否实现是对的 。 GPU 使用率都能达到 80-90 及以上 。 用的模型都是 2.4 默认模型 , PP-OCRv2 。 Python Pipeline Serving 、 http 接口 。 简易测速脚本参考 #5360
我参考 https://github.com/PaddlePaddle/Serving/blob/v0.7.0/doc/Python_Pipeline/Pipeline_Design_CN.md#2%E8%AF%A6%E7%BB%86%E8%AE%BE%E8%AE%A1 开启了 batch_size 和 auto_batching_timeout , 看起来是生效的 , 但感受上更慢了 , 并且会因为图片大小不一样挂掉 。 所以是否要先 preprocess 把图片 resize 成一样 , 或者 padding 成一样 。(我之后可以实验一下这样是否会有效果) 。
所以这里我想问一下:
具体环境: cuda11.2-cudnn8-TensorRT8 , paddlepaddle 、 paddle-serving 均是该版本 。 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/config.yml#L22 use_profile 也关掉了 。
感谢 。
The text was updated successfully, but these errors were encountered:
我看到一些相关的 issue:
@TeslaZhao @LDOUBLEV 希望帮忙看一下 , 谢谢 。
Sorry, something went wrong.
您好~ Serving 的 pipeling 部署目前还不支持TensorRT加速,相关同学还在开发,可以关注下后续版本。
好的 , 多谢 。
还有人继续测试嘛?现在速度有提升嘛
MissPenguin
No branches or pull requests
hello
我按照 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/README_CN.md 部署了服务 , 我看到 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/pipeline_http_client.py 是单张图片调用的 , 不支持 batch 调用 。
我看 server 端的代码 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/web_service.py 应该只是同一张图检测到了多个框的识别做了打 batch , 检测应该只能支持单张 。
在 https://github.com/PaddlePaddle/Serving/blob/v0.7.0/examples/Pipeline/PaddleOCR/ocr/web_service.py 侧我看到检测好像支持打 batch(也可能是 preprocess 底下的 images 有一些误导性) , 但 client 也还是单张调用 。
同时 https://github.com/PaddlePaddle/Serving/blob/v0.7.0/examples/Pipeline/PaddleOCR/ocr/benchmark.py 里面函数的 batch size 底下都没用到 , https://github.com/PaddlePaddle/Serving/blob/v0.7.0/examples/Pipeline/PaddleOCR/ocr/benchmark.sh 里面 batch size 都是 1 。看上去也没大 batch size 的测速 。
而我这边测试在多并发的 client 调用下 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/config.yml 开启 trt(use_trt: True)速度基本也没很大变化 , 基本接近文档的 T4 qps 20+ (https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/README_CN.md) 。
无论开不开 trt , precision 设置成 fp32 还是 fp16 还是 int8 , 基本速度都没差别 。
我都不确定是否实现是对的 。
GPU 使用率都能达到 80-90 及以上 。
用的模型都是 2.4 默认模型 , PP-OCRv2 。 Python Pipeline Serving 、 http 接口 。
简易测速脚本参考 #5360
我参考 https://github.com/PaddlePaddle/Serving/blob/v0.7.0/doc/Python_Pipeline/Pipeline_Design_CN.md#2%E8%AF%A6%E7%BB%86%E8%AE%BE%E8%AE%A1 开启了 batch_size 和 auto_batching_timeout , 看起来是生效的 , 但感受上更慢了 , 并且会因为图片大小不一样挂掉 。
所以是否要先 preprocess 把图片 resize 成一样 , 或者 padding 成一样 。(我之后可以实验一下这样是否会有效果) 。
所以这里我想问一下:
具体环境:
cuda11.2-cudnn8-TensorRT8 , paddlepaddle 、 paddle-serving 均是该版本 。
https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.4/deploy/pdserving/config.yml#L22 use_profile 也关掉了 。
感谢 。
The text was updated successfully, but these errors were encountered: