Mindspore Lite和onnx runtime推理同一个模型,输入一样,输出结果不同

有伙伴用Mindspore Lite推理模型时发现。使用onnx runtime推理同一个模型,输入一样,输出结果不同。

定位过程

找伙伴要到了模型以及代码:

Mindspore Lite和onnx runtime推理同一个模型,输入一样,输出结果不同-鸿蒙开发者社区

使用https://netron.app/查看onnx模型和转换后的ms模型输入format是否一致:

Mindspore Lite和onnx runtime推理同一个模型,输入一样,输出结果不同-鸿蒙开发者社区

发现一个输入format为1x224x224x3,另一个为1x3x224x224。格式不一致,所以导致输出的结果不同。

HarmonyOS
2024-05-28 20:22:27
浏览
收藏 0
回答 1
待解决
回答 1
按赞同
/
按时间
spitter

模型输入format,onnx模型输入默认是NCHW,ms模型输入默认是NHWC。所以,用模型转换工具转换的时候,需要指定一下format,也就是加上:inputDataFormat=NCHW

./converter_lite --fmk=ONNX --modelFile=resnet18_static.onnx --outputFile=model_resnet18 --inputDataFormat=NCHW

转换后onnx模型和ms模型的输入格式就一致了。

模型转换文档:https://www.mindspore.cn/lite/docs/zh-CN/r1.8/use/converter_tool.html

分享
微博
QQ
微信
回复
2024-05-29 21:19:16
相关问题
鸿蒙安卓有什么不一样
4945浏览 • 3回复 待解决
Web组件获取高度不一样
702浏览 • 1回复 待解决
Stage模型下如何开发一个服务卡片
1099浏览 • 1回复 待解决