需要的环境,适合什么样的场景? 对于GPU有什么样的要求,并发和实时的问题,还是只是用GPU建模?
答主
胡麟
NVIDIA高级系统架构师
NVIDIA高级系统架构师胡麟: TensorRT Inference Server在标准的Linux环境都可以使用,GP...
问题来源:使用TensorRT Inference Server加速深度学习模型的部署
其他回答
发布
网友答案仅供其表达个人看法,并不表明智猩猩立场。