今天我们主要来介绍一个超强的AI视频生成模型
不仅完全免费开源
而且生成视频的质量极高
其训练参数已经超过130亿
是目前在所有开源的AI视频模型中规模最大的一个
我们先来看一下它生成以后的效果
这款开源的视频生成模型
就这个Hunyuan video
它是由腾讯公布在Github开源社区的
该模型具备物理模拟
高度还原文本语义
动作一致性
电影级画质等特性
生成的视频动作流畅且一致
可以保持高度的运动连贯性
而且还能够生成带有背景音乐的视频
比如像这个
非常有画面带入感
并且自带语音驱动
支持任意图片对口型
由静态变动态
关键是看起来非常流畅
自然
其实这款开源的视频模型架构
它是通过基于时空压缩的潜在空间进行训练
并融合 Causal 3D VAE 技术
与 Transformer 架构融合
从而实现图像与视频的统一生成
拥有极高的视频生成和创新能力
从目前来看
这个视频生成模型的开源
还是非常有诚意的
因为在其开源的项目里
不仅包含包含 PyTorch 模型定义
预训练权重
还包含推理和采样代码等
所以可以方便我们进行本地部署使用
当然前提是你的电脑要足够强壮
接下来我们就来说一下
如何进行本地下载安装使用
到时打开这个帖子
这个链接我会放在视频下方
打开以后然后接着往下拉
在下方这里我们来看一下
它的硬件要求
目前它是需要CUDA引擎支持的
也就意味着你需要一张英伟达显卡
然后下方是它的最低要求
如果你需要生成一个
720x1280p的分辨率视频的话
那么你最低显存要求
是60G左右
当然你可以降低画质
比如说当你生成544x960p
这个分辨率的话
那么大概需要45GB的显存
官方要求是
如果你需要生成高质量的话
那么至少要80GB显存才可以
然后下方是安装过程
比如说如果你在海外的话
那么你通过这个命令来拉取它的开源项目
然后把它copy出来
然后接着我们在这个终端里
打开它
然后进入终端里来进行下载
Copy以后接着把它粘贴下
来把这个开源项目给它download下来
它现在已经下载完成了