使用TensorRT Inference Server,模型能跑在多个GPU上吗?
答主
胡麟
NVIDIA高级系统架构师
NVIDIA高级系统架构师胡麟: 单个的模型并不能切分的同时去跑在多个GPU上,Tenso...
问题来源:使用TensorRT Inference Server加速深度学习模型的部署
其他回答
发布
网友答案仅供其表达个人看法,并不表明智猩猩立场。