-
Notifications
You must be signed in to change notification settings - Fork 253
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问可否提供pth模型转onnx的脚本 #188
Comments
你或许可以参考这个,DINO应该可以用相似的方法 IDEA-Research/detrex#192 |
请问你成功转换onnx了吗 |
未成功 |
@Zong-my 我最近使用mmdeploy可以成功转换出onnx,但是它的检测速度比pytorch慢很多。 |
我也是,速度差了10倍 |
@wuzujiong 使用tensorrt加速后,速度正常 |
I succeeded in converting to onnx. I recommend converting it to torch.jit.trace first and then exporting it to onnx. |
可以介绍一下用的是什么环境导出来.engine 的吗?我在windows 上转engine 转不成功; [02/25/2024-10:09:08] [E] [TRT] ModelImporter.cpp:751: --- End node --- |
请问下你dino转trt fp16的精度能对齐嘛 |
请问是怎么转换的呢,我尝试maskdino转onnx,转换后输出结果是错误的 |
hello、Could ou share your conversion code and environment configuration? I didn't succeed just use torch.jit.trace(model, img) |
In ms_deform_attn.py change line 124 to 126 as output = ms_deform_attn_core_pytorch(value, input_spatial_shapes, sampling_locations, attention_weights) and import ms_deform_attn_core_pytorch with adding from ..functions.ms_deform_attn_func import ms_deform_attn_core_pytorch |
@wuzujiong @Sencc
没有输出的模型
请问您是怎么导出的? |
要看一下onnx的版本,大于1.8才行 |
没有做具体测试,我感觉差不多 |
@Sencc onnx版本为1.16.0,似乎不是这个问题。
具体环境为:
请问可能是环境配置问题嘛?您的环境是什么样的? |
@Ochre-amber 这是我的环境 `05/07 11:06:53 - mmengine - INFO - TorchVision: 0.14.1+cu117 05/07 11:06:53 - mmengine - INFO - Backend information |
你成功了吗?我按照上面的几种方法都失败了。 |
你好,请问你所说的tensorrt加速后,速度正常,这个速度正常是dino的tensorrt推理速度回到了dino的pytorch推理速度?还是说dino经过onnx然后tensorrt加速后推理速度就远远大于pytorch推理速度呢?感谢感谢! |
您好,能麻烦加你一个联系方式吗,现在一个项目非常需要dino的tensorrt部署,我们能提供满意的报酬 |
@elesun2018 前面有个兄弟提到他转换了onnx后,推理速度比pytorch还慢,但是把dino转成了tensorrt格式后,推理速度比两者都快了很多。另外,dino的tensorrt部署使用mmdetection框架即可,我已成功运行 |
非常棒的工作,请问可否提供pth模型转onnx的脚本呢?
The text was updated successfully, but these errors were encountered: