近日,生数科技与清华大年夜学 TSAIL 实验室结合宣布并开源视频生成加快框架:TurboDiffusion。

据介绍,在几乎不影响生成质量的前提下,该框架可实现最高达200倍的视频生成推理加快。TurboDiffusion的核心技巧优势精准击中了视频生成范畴的一个关键转折点。此前,视频扩散模型固然具备强大年夜的创造才能,但始终受限于计算复杂度高、效力受限的状况。

不合于单点优化筹划,TurboDiffusion 经由过程多项关键技巧的协同合营,从模型计算方法、留意力机制以及推理流程等多个层面,对视频生成进行整体提速。

TurboDiffusion 并非单一优化,而是经由过程多项前沿加快技巧的体系化组合:

  • 低比特留意力加快  采取 SageAttention 将留意力的计算履行在低比特的 Tensor Core 上,以无损且数倍地加快留意力计算。

  • 稀少-线性留意力加快  采取可练习的稀少留意力 Sparse-Linear Attention (SLA) 进行留意力的稀少加快,最高可在 SageAttention 的基本长进一步实现 17-20 倍的留意力稀少加快。

  • 采样步数蒸馏加快  经由过程今朝最先辈的蒸馏办法 rCM,让模型仅用 3-4 步即可完成高质量的视频生成。

  • 线性层加快  将模型的线性层中的参数以及激活都进行8 比特的128x128的块粒度量化,即经由过程 W8A8 不仅加快模型的线性层计算,也大年夜幅削减了模型的显存占用。

TurboDiffusion的宣布,在保持高质量输出的前提下大年夜幅紧缩生成速度,初次让高质量视频生成切近亲近及时交互的可行区间,被视为视频大年夜模型成长的 “DeepSeek Moment”,推动行业从“技巧摸索期”加快迈向“范围化与贸易化落地阶段”,也标记住 AI 视频创作正式迈入“及时生成”时代。

开源地址:https://github.com/thu-ml/TurboDiffusion


参考链接: 
TurboDiffusion:https://github.com/thu-ml/TurboDiffusion
SageAttention:https://github.com/thu-ml/SageAttention
Sparse-Linear Attention:https://github.com/thu-ml/
SLArCM:https://github.com/NVlabs/rcm

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部