大赛介绍
  • 深度学习深刻地改变了计算机应用程序的功能与形态,广泛渗透于我们生活。为了加速深度学习模型的推理,英伟达推出了TensorRT。经过多年的版本迭代,TensorRT在保持极致性能的同时,大大提高了易用性,已经成为GPU上的必备工具。
  • 随着版本迭代,TensorRT的编程接口在不断更新,编程最佳实践也在不断演化。开发者想知道,为了把我的模型跑在TensorRT上,最省力、最高效的方式是什么?
  • 今天,英伟达联合阿里天池举办TensorRT Hackathon就是为了帮助开发者在编程实践中回答这一问题。英伟达抽调了TensorRT开发团队和相关技术支持团队的工程师组成专家小组,为开发者服务。参赛的开发者将在专家组的指导下在初赛中对给定模型加速;在复赛中自选模型进行加速,并得到专家组一对一指导。
赛题说明
初赛
利用TensorRT加速ASR模型WeNet中的encoder和decoder,以优化后的运行时间作为排名依据。初赛不为参赛选手提供开发环境;参赛选手需要自备带有GPU的Linux/WSL 2开发机,并在给定docker中用赛方提供的工具完成精度和性能验证,最终提交代码。初赛结束时将组织一次讲评,介绍优化该模型的技巧。
复赛
开放赛题,各选手可自由选择公开的transformer模型,移植到TensorRT上加速,在公开托管平台上发布代码并编写总结报告。
时间安排
上线+初赛提交阶段
2022.4.2——2022.5.20
复赛调优阶段
2022.5.23——2022.6.27
奖项设置
评委嘉宾
白鸿骁

NVIDIA DevTech Engineer

陳鎰龍

NVIDIA DevTech Engineer

方杰

NVIDIA DevTech Engineer

季光

NVIDIA DevTech Manager

李玮

NVIDIA DevTech Engineer

李雪薇

NVIDIA DevTech Engineer

刘斌

NVIDIA DevTech Engineer

王猛

NVIDIA DevTech Engineer

王晓伟

NVIDIA DevTech Engineer

姚佳杰

NVIDIA DevTech Tech Lead

张毅

NVIDIA DevTech Engineer