update readme

This commit is contained in:
zRzRzRzRzRzRzR 2025-11-04 18:10:07 +08:00
parent 0e179ee52c
commit a3429723be
4 changed files with 15 additions and 12 deletions

View File

@ -306,6 +306,7 @@ pipe.vae.enable_tiling()
We highly welcome contributions from the community and actively contribute to the open-source community. The following We highly welcome contributions from the community and actively contribute to the open-source community. The following
works have already been adapted for CogVideoX, and we invite everyone to use them: works have already been adapted for CogVideoX, and we invite everyone to use them:
+ [LeMiCa](https://unicomai.github.io/LeMiCa/): a training-free and efficient acceleration framework for diffusion-based video generation, substantially improves the consistency of global content and style across generated frame.
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx) + [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx)
RIFLEx extends the video with just one line of code: `freq[k-1]=(2np.pi)/(Ls)`. The framework not only supports training-free inference, but also offers models fine-tuned based on CogVideoX. By fine-tuning the model for just 1,000 steps on original-length videos, RIFLEx significantly enhances its length extrapolation capability. RIFLEx extends the video with just one line of code: `freq[k-1]=(2np.pi)/(Ls)`. The framework not only supports training-free inference, but also offers models fine-tuned based on CogVideoX. By fine-tuning the model for just 1,000 steps on original-length videos, RIFLEx significantly enhances its length extrapolation capability.
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Fun is a modified pipeline based on the + [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Fun is a modified pipeline based on the

View File

@ -293,6 +293,7 @@ pipe.vae.enable_tiling()
コミュニティからの貢献を大歓迎し、私たちもオープンソースコミュニティに積極的に貢献しています。以下の作品はすでにCogVideoXに対応しており、ぜひご利用ください コミュニティからの貢献を大歓迎し、私たちもオープンソースコミュニティに積極的に貢献しています。以下の作品はすでにCogVideoXに対応しており、ぜひご利用ください
+ [LeMiCa](https://unicomai.github.io/LeMiCa/):トレーニング不要で効率的な拡散型動画生成の加速フレームワークであり、生成されたフレーム間の全体的な内容とスタイルの一貫性を大幅に向上させます。
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx) + [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx)
RIFLExは動画の長さを外挿する手法で、たった1行のコードで動画の長さを元の2倍に延長できます。RIFLExはトレーニング不要の推論をサポートするだけでなく、CogVideoXをベースにファインチューニングしたモデルも提供しています。元の長さの動画でわずか1000ステップのファインチューニングを行うだけで、長さ外挿能力を大幅に向上させることができます。 RIFLExは動画の長さを外挿する手法で、たった1行のコードで動画の長さを元の2倍に延長できます。RIFLExはトレーニング不要の推論をサポートするだけでなく、CogVideoXをベースにファインチューニングしたモデルも提供しています。元の長さの動画でわずか1000ステップのファインチューニングを行うだけで、長さ外挿能力を大幅に向上させることができます。
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): + [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun):

View File

@ -279,6 +279,7 @@ pipe.vae.enable_tiling()
我们非常欢迎来自社区的贡献并积极的贡献开源社区。以下作品已经对CogVideoX进行了适配欢迎大家使用: 我们非常欢迎来自社区的贡献并积极的贡献开源社区。以下作品已经对CogVideoX进行了适配欢迎大家使用:
+ [LeMiCa](https://unicomai.github.io/LeMiCa/):一种无需训练的高效扩散视频生成加速框架,显著提升生成帧之间的全局内容与风格一致性。
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx) + [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx)
RIFLEx 是一个视频长度外推的方法只需一行代码即可将视频生成长度延伸为原先的二倍。RIFLEx 不仅支持 Training-free 的推理,也提供基于 CogVideoX 进行微调的模型,只需在原有长度视频上微调 1000 步即可大大提高长度外推能力。 RIFLEx 是一个视频长度外推的方法只需一行代码即可将视频生成长度延伸为原先的二倍。RIFLEx 不仅支持 Training-free 的推理,也提供基于 CogVideoX 进行微调的模型,只需在原有长度视频上微调 1000 步即可大大提高长度外推能力。
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): + [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun):

View File

@ -1,15 +1,15 @@
diffusers>=0.32.1 diffusers>=0.35.2
accelerate>=1.1.1 accelerate>=1.11.0
transformers>=4.46.2 transformers>=4.57.1
numpy==1.26.0 numpy==1.26.0
torch>=2.5.0 torch>=2.8.0
torchvision>=0.20.0 torchvision>=0.23.0
sentencepiece>=0.2.0 sentencepiece>=0.2.1
SwissArmyTransformer>=0.4.12 SwissArmyTransformer>=0.4.12
gradio>=5.5.0 gradio>=5.49.1
imageio>=2.35.1 imageio>=2.37.0
imageio-ffmpeg>=0.5.1 imageio-ffmpeg>=0.6.0
openai>=1.54.0 openai>=2.2.0
moviepy>=2.0.0 moviepy>=2.2.1
scikit-video>=1.1.11 scikit-video>=1.1.11
pydantic>=2.10.3 pydantic>=2.12.0