先来直观感受一下效果(右侧为新方法):
新方法名为PyramidAttentionBroadcast(PAB),由新加坡国立大学尤洋以及3位学生推出。
看完效果对比,网友们纷纷惊叹:
也引来了众多专业人士的转发和点评,如MIT博士YilunDu表示:
减少冗余注意力计算一开始,团队比较了当前扩散步骤与前一步骤的注意力输出差异。
这些差异通过均方误差(MSE)进行量化,并对每个扩散步骤的所有层进行平均。
团队捕捉到两个关键信息:
随着时间推移,注意力差异遵循U形模式,中间70%差异较小
注意力差异的排序为:空间时间交叉
具体而言,不同时间步骤的注意力差异呈现出U形模式,在第一步和最后一步的15%步骤中发生显著变化,而中间70%的步骤非常稳定,差异很小。
对此,团队正式提出用PAB来减少不必要的注意力计算。
PAB通过根据每种注意力的差异将注意力输出到不同的后续步骤,从而节省计算量。
举个例子,就像广播电台把一个信号发送给多个听众一样,如果某个步骤的注意力结果在接下来的几个步骤中仍然适用,就不需要重新计算,而是直接使用之前的结果。
团队发现,即使没有后期训练,这种简单策略也能实现高达35%的加速,并且质量损失可以忽略不计。
为了进一步增强PAB,团队基于动态序列并行(DSP)改进了序列并行。
使用单个GPU时,PAB实现了1.26倍到1.32倍的速度提升,这一提升在不同调度器中保持稳定。
扩展到多个GPU时,PAB实现了高达10.6倍的速度提升,且这一提升几乎与GPU数量成线性关系。
背后团队
简单介绍一下提出PAB的团队成员,总共有4位。
尤洋教授想必大家都比较熟悉了,清华计算机系硕士,UC伯克利博士,毕业后加入新加坡国立大学计算机系,担任校长青年教授(PresidentialYoungProfessor)。
2021年7月,在北京中关村创办了“潞晨科技”。
作者之一XuanleiZhao(赵轩磊),华科大计算机科学与电子信息专业工程学士,硕博均在新国立(目前为博一),导师为尤洋,研究方向包括但不限于算法、数据结构、计算机网络、信号处理、通信系统等方面。
作者之一KaiWang(王锴),新国立HPC-AI实验室博士生,导师为尤洋,本科就读于北师大珠海分校电气工程与自动化系,硕士就读于中科院深圳先进技术研究院(MMLAB-SIAT),研究重点是以数据为中心的人工智能和高效机器学习。他和尤洋教授共同指导了这个项目。
最后一位XiaolongJin(金小龙),本科就读于中国科学技术大学少年班学院,目前是普渡大学在读博士生。
目前相关研究已公开,感兴趣可以进一步了解。
—完—





