TRTIS内使用pipeline串联多个模型中间的前后处理是否需要用CUDA实现?
答主
胡麟
NVIDIA高级系统架构师
NVIDIA高级系统架构师...
问题来源:使用TensorRT Inference Server加速深度学习模型的部署
其他回答
发布
网友答案仅供其表达个人看法,并不表明智猩猩立场。