ONNX Inference with ONNX Runtime
作者:XD / 发表: 2021年9月10日 12:25 / 更新: 2021年9月10日 12:25 / 编程笔记 / 阅读量:1838
ONNX Inference with ONNX Runtime
import torch
import onnxruntime
import numpy as np
# tensor input to numpy
# input_data=tensor.numpy()
# numpy input
input_data = np.load("test_data.npy")
session = onnxruntime.InferenceSession("model_name.onnx")
ort_inputs = {session.get_inputs()[0].name: input_data}
ort_outs = session.run(None, ort_inputs)
# tensor output
# out = torch.Tensor(ort_outs).cpu()
np.save("output.npy", ort_outs)
print("save output.npy done")