热搜词:

AI视频的DeepSeek时刻!开源13B模型生成提速30倍,5090跑出好莱坞特效

AI 视频的 DeepSeek 时刻什么时候来?没想到吧,这就来了。

最新开源模型 LTXV-13B,免费可商用、推理速度快、游戏显卡就能跑,视觉效果也不错。要素都齐了,想不火都难。

从官方透露的信息看,新模型在速度、质量和控制三个方面有所提升。

生成速度——同类产品的 30 倍,提出想法可以获得接近实时的反馈。

视频质量——眼见为实,请看 VCR。

可控制性——支持逐帧控制,能让你按照自己想法来打造视频,创作自由度直接拉满。

这个 13B 参数的模型,官方证实在 24G 显存的 4090/5090 上就能跑,也难怪网友纷纷为之疯狂。

大家晒出的 " 买家秀 ",效果比官方卖家秀看起来也毫不缩水:

开源视频生成新标杆

LTX-Video 支持文本转图像、图像转视频、基于关键帧的动画、视频扩展(正向和反向)、视频转视频,以及上述所有这些功能的任意排列组合。

视觉效果爆炸

LTXV-13B 拥有超 130 亿个参数,即使在快速复杂的场景,也能提供更流畅的运动、更少的伪影和更清晰的视觉效果。

那么下面再直观感受一下效果。

Prompt:一位有着棕色长发和白皙皮肤的女人对着另一位女人微笑……一位有着棕色长发、肤色白皙的女子正对着另一位有着金色长发的女子微笑。这位棕色头发的女子身穿黑色夹克,右脸颊上长着一颗几乎难以察觉的小痣。镜头角度为特写镜头,聚焦于这位棕色头发女子的脸部。光线温暖自然,似乎是落日的余晖,在场景中投射出柔和的光芒。这幅场景似乎是真实拍摄的。

还可以不断地调整拍摄角度,营造出非常自然的航拍效果。

Prompt:海浪冲击着海岸线上嶙峋的岩石……海浪拍打着海岸线上嶙峋的岩石,溅起阵阵浪花。岩石呈深灰色,边缘锋利,裂缝深邃。海水清澈碧绿,浪花拍打岩石的地方泛起白色的泡沫。天空呈浅灰色,几朵白云点缀在地平线上。

这下谁还能分清什么是现实什么又是 AI 生成的呢?

但记得要在生成之前放大图片,不要像下面这位网友一样:

生成速度提升

相较于同类产品,LTXV-13B 生成速度领先近30 倍,但质量可是一点都没打折扣,相当适合快速迭代、实时反馈和大规模生产场景。

不仅效率大幅度提升,成本也跟着降低,用消费级 GPU 就能搞定,也可以选择官方平台 LTX Studio 云体验。

精细创意控制

此外,LTXV 还有强大的创意控制功能,提供多关键帧调节(起始帧和结束帧)、摄像机控制(推拉、变焦、摇臂、轨道等)、面部表情控制等。

LTXV-Video:实时视频潜空间扩散模型

官方透露,LTX Video 做到更流畅的运动和更一致的帧间连贯性,关键在于多尺度渲染技术,即同时以多种空间分辨率分析场景,保留精细细节的同时理解大规模结构。

如下面的例子,可以看到从左到右人物脸上的细节越来越丰富。

从团队几个月前发布的 2B 参数模型论文也可以看出,训练阶段就同时使用了多种分辨率和时长组合的数据。

训练时通过调整原始视频大小,使输入样本包含大致相同数量的 token,并采用随机丢弃 token 的策略,避免复杂的 token 填充或打包操作,保持数据多样性。

上一代 2B 参数的模型就以速度和效率见长,能够以超过实时的速度生成高质量视频,在 H100 GPU 上仅需2 秒就能生成 5 秒、24 帧每秒、768 × 512 分辨率的视频。

优化生成速度的秘诀在于一种整体式 Latent Diffusion 方法,将 Video-VAE 和去噪 Transformer 的任务无缝融合,在它们之间共享去噪目标。

另外 Video VAE 部分对时空维度进行 32 × 32 × 8 的下采样压缩,将高分辨率的视频数据转换到低分辨率的潜在空间进行处理,通过空间和时间压缩来降低冗余。

它实现了1:192的压缩比,超过当时的主流开源模型如 MovieGen、CogVideoX 等的 1:48 或 1:96 的压缩比。

为实现这种高压缩率,团队将图像块化操作(patchify)从 Transformer 的输入移到了 VAE 的输入,使每个 token 能够表示更多的像素信息,帮助 Transformer 计算全时空自注意力(full spatiotemporal self-attention)。

高压缩率虽好,但会限制对细节的表示能力。为了解决这个问题,LTX-Video 还采取了多种新策略。

在训练 Video VAE 时引入 GAN,减少高压缩率下 L2 loss 产生的模糊问题。

为此提出改进的 Reconstruction GAN,判别器同时接收原始样本和重建样本,通过判断哪个是原始的、哪个是重建的,简化了判别器的任务,提高了其引导生成器的能力,使生成的视频在保持与原始样本相似性的同时,能更有效地平衡保真度和感知质量。

此外还有一些小的改动如下:

多层噪声注入:受 StyleGAN 启发,在 VAE 解码器的多个层注入噪声,允许生成更多样化的高频细节。

统一对数方差:使用宽潜空间(大量 channels)时,标准 KL 损失会导致不均匀的利用。团队使用了所有潜通道共享的单一预测对数方差,均匀分配 KL 损失的影响。

视频 DWT 损失:引入了 spatio-temporal Discrete Wavelet Transform ( DWT ) loss,确保高频细节的重建。

LTX-Video 同时支持文本生成视频和图像生成视频两种能力。

对于文本条件生成,团队使用了预训练的 T5-XXL 文本编码器生成初始文本嵌入,并采用了交叉注意力机制,而非 MM-DiT 方法。

而对于图像条件生成,他们扩展了 Open-Sora 的方法,利用扩散时间步作为条件指示器,允许无缝条件化视频的任何部分。

这种方法不需要特殊的 tokens 或专门为图像到视频任务训练的模型,大大简化了流程。

2013 年成立的老牌团队

LTX-Video 开发团队 Lightricks 成立于 2013 年,前大模型时代有两个招牌产品,为美颜相机应用 Facetune 和视频剪辑应用 Videoleap,在苹果商店至今仍排得上号。

2023 转型 AI 后,推出 LTX Studio 视频生成平台,支持逐镜头地构建视频和时间线编辑,可以精细控制每个场景,并保持角色一致性,主要面向影视、广告和个人视频创作者。

除开源模型外,Lightricks 还提供配套的训练工具,支持微调、预处理数据集、为视频添加字幕、分割场景等使用功能。

LTX Video 13B 模型推出后开源社区也非常感兴趣,已经有人在一天之内就为其训练好了 LoRA,让不同类型角色的眼睛都能冒电光特效,引起网友围观。

Github:

https://github.com/Lightricks/LTX-Video

论文:

https://arxiv.org/pdf/2501.00103

参考链接:

[ 1 ] https://x.com/maxescu/status/1919801813987164527

[ 2 ] https://www.lightricks.com/ltxv-documentation

[ 3 ] https://www.reddit.com/r/StableDiffusion/comments/1kgxgtg/ive_trained_a_ltxv_13b_lora_its_insane/

—  完  —

 量子位 AI 主题策划正在征集中!欢迎参与专题365 行 AI 落地方案,一千零一个 AI 应用,或与我们分享你在寻找的 AI 产品,或发现的AI 新动向。

也欢迎你加入量子位每日 AI 交流群,一起来畅聊 AI 吧~

一键关注 点亮星标

科技前沿进展每日见

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!