目录

  • 一、CogVideoX 的发展历程
  • 二、 创建CogVideoX 实践流程
  • 三、 环境配置与依赖安装
  • 五、 模型运行
  • 六、使用 Web 界面生成视频

一、CogVideoX 的发展历程

CogVideoX 的诞生标志着视频生成技术的又一次突破。

以往的技术在追求效率和质量时常常难以两全,但 CogVideoX 通过其 3D 变分自编码器技术,将视频数据压缩至原始数据的 2%,大大减少了计算资源的消耗,同时保持了视频帧之间的高连贯性,确保生成的视频在视觉上流畅自然。

其中,最为引人注目的是 3D 旋转位置编码技术的引入,使得生成的视频在时间维度上实现了更自然的流动性,仿佛每一帧都被注入了生命力。这一技术提升让视频的连贯性和流畅度达到了一个全新的高度。

此外,智谱 AI 的端到端视频理解模型为 CogVideoX 增添了更强的文本解析和生成能力。这意味着,用户提供的指令可以被更精准地解析,生成的视频内容更加丰富、紧密契合输入。这一创新极大地提升了用户创作的灵活性,不论是简单的场景描述还是复杂的情节构建,CogVideoX 都能够轻松应对。

在这里插入图片描述

这一技术的进步也大大增强了 CogVideoX 对复杂文本指令的处理能力,确保生成的视频与用户的输入保持高度相关性。同时,它还能处理超长文本提示,为内容创作提供了更多的创意空间。

CogVideoX 的问世仅仅是技术进步的一个开始,随着未来技术的不断演进,CogVideoX 将为我们带来更多创新和可能性。

二、 创建CogVideoX 实践流程

  1. 进入丹摩平台控制台,选择 GPU 云实例,并点击“创建实例”

    在这里插入图片描述

  2. CogVideoX 在 FP-16 精度下至少需要 18GB 显存来进行推理,微调则需 40GB 显存。因此,建议选择 L40S 显卡(或4090显卡),并配置 100GB 系统盘和 50GB 数据盘。

    在这里插入图片描述

  3. 镜像选择 PyTorch2.3.0、Ubuntu-22.04,CUDA12.1,以确保模型运行环境的兼容性。

    在这里插入图片描述

  4. 点击创建密钥对,设置名称,完成后成功创建实例。

    在这里插入图片描述

三、 环境配置与依赖安装

丹摩平台已预置了调试好的代码库,用户可以直接使用,避免繁琐的环境搭建过程。

  1. 登录 JupyterLab 后,打开终端并拉取 CogVideoX 的代码仓库。
wget http://file.s3/damodel-openfile/CogVideoX/CogVideo-main.tar

在这里插入图片描述


2. 下载完成后,解压并进入 CogVideo-main 文件夹,安装相应的依赖。

tar -xf CogVideo-main.tar
cd CogVideo-main
pip install -r requirements.txt

在这里插入图片描述

  1. 确保依赖安装成功后,进入 Python 环境进行测试。
    ```bash
    import torch
    from diffusers import CogVideoXPipeline
    from diffusers.utils import export_to_video

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/38e5530d118f43a483276891bd6eda6b.png)
没有报错即表明依赖安装成功。输入 quit() 退出 Python。

# 四、模型文件与配置

用户需要上传 CogVideoX 的模型文件和配置文件以完成后续操作。

1. 在丹摩平台上,CogVideoX 模型可以通过内网高速下载。
```bash

cd /root/workspace
wget http://file.s3/damodel-openfile/CogVideoX/CogVideoX-2b.tar

在这里插入图片描述

  1. 解压下载的模型文件:
    tar -xf CogVideoX-2b.tar
    

    在这里插入图片描述

五、 模型运行

  1. 进入 CogVideo-main 文件夹,运行 test.py 脚本来生成视频。
    ```bash
    cd /root/workspace/CogVideo-main
    python test.py

2. 代码将加载预训练的 CogVideoX 模型,并根据自定义的文本描述生成对应视频。
```bash
import torch
from diffusers import CogVideoXPipeline
from diffusers.utils import export_to_video

# 自定义生成内容
prompt = "A panda, dressed in a small, red jacket and a tiny hat, sits on a wooden stool in a serene bamboo forest..."

pipe = CogVideoXPipeline.from_pretrained("/root/workspace/CogVideoX-2b", torch_dtype=torch.float16).to("cuda")

# 启用无分类器指导,生成视频
prompt_embeds, _ = pipe.encode_prompt(prompt=prompt, do_classifier_free_guidance=True, num_videos_per_prompt=1)

video = pipe(num_inference_steps=50, guidance_scale=6, prompt_embeds=prompt_embeds).frames[0]

export_to_video(video, "output.mp4", fps=8)
  1. 运行成功后,生成的视频文件 output.mp4 将保存在 CogVideo-main 文件夹中。

    在这里插入图片描述

六、使用 Web 界面生成视频

CogVideoX 还支持 Web 界面操作,用户可以通过 Gradio 启动 Web 端生成视频。

  1. 运行 gradio_demo.py 文件来启动 Web 界面。
    ```bash

cd /root/workspace/CogVideo-main
python gradio_demo.py

```

在这里插入图片描述

  1. 使用丹摩平台的端口映射功能,将内网端口映射到公网。

在这里插入图片描述

  1. 添加端口 7870,成功后访问生成的链接即可访问 Gradio 界面进行视频生成操作。

    在这里插入图片描述

在这里插入图片描述

Logo

尧米是由西云算力与CSDN联合运营的AI算力和模型开源社区品牌,为基于DaModel智算平台的AI应用企业和泛AI开发者提供技术交流与成果转化平台。

更多推荐