深度学习深刻改变了计算机应用程序的功能与形态,为了加速深度学习模型的推理,NVIDIA 英伟达推出了高性能深度学习推理优化器TensorRT。经过多年的更新迭代,TensorRT不断为深度学习提供低延迟、高吞吐率的部署推理,在保持优越性能的同时极大提高了易用性,已经成为GPU推理计算的必备工具。
然而,随着版本的迭代,编程最佳实践也在不断演化,开发者们开始探索新的问题:把模型跑在TensorRT上,最高效省力的方式是什么?为了帮助开发者们解决这一问题,阿里云天池联合英伟达在4月份启动了&l...