-
Notifications
You must be signed in to change notification settings - Fork 2.1k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
如何将多个模型发布成一个服务? #874
Comments
可以的,可以参考这个https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.8/paddlehub/serving/templates/serving_config.json |
@ShenYuhan 我再通过这种方式(配置文件)启动某个模型时,会出现系统卡死的现象,若是单独使用 -m 启动该模型,则没有问题,这是为什么呢? |
@ShenYuhan 这里是错误信息
|
@ShenYuhan 我在将多个模型发布成一个服务时有什么限制吗? |
您可以提供下您的配置文件看下吗 |
@ShenYuhan 配置文件内容如下:
|
您试试把workers降低,看看是否还报错 |
@ShenYuhan 谢谢,我将其调整为 2 之后可以正常运行了。但是当我想使用GPU的时候会出现:
我已经将 use_multiprocess 设置为 false ,是那里出了问题呢? |
可以贴一下完整的报错日志吗 |
@ShenYuhan 我在更新 CUDA 9.0 的补丁之后出现新的错误,下面是完整的错误信息:
|
@ShenYuhan 谢谢,您知道怎么解决吗? |
您试着排除某个模型,看看是哪个模型报的问题,然后单独使用再试试 |
@ShenYuhan 您好,我尝试了 lac的官方模型,当我使用 hub serving start -m lac --use_gpu 时是不会出现错误的,但当我将该模型放到配置文件中,指定 predict_args:use_gpu 为Ture 的时候就会出现上面的问题。 |
@ShenYuhan 您有尝试官方lac模型吗? |
看错误像是显存不够,您在跑程序的时候是否有别的程序占用gpu呢 |
@ShenYuhan 谢谢!没有别的程序啊;使用配置文件启动模型和直接启动模型两种方式对显存要求不一致吗?为什么单独启动就没问题呢? |
我想问一下我能否使用HubServing将多个模型发布成一个服务?也就是通过一个端口启动多个模型作为服务,然后通过不同的url来访问不同的服务?
The text was updated successfully, but these errors were encountered: