mirror of
https://github.com/THUDM/CogVideo.git
synced 2025-11-19 00:52:10 +08:00
update readme
This commit is contained in:
parent
0e179ee52c
commit
a3429723be
@ -306,6 +306,7 @@ pipe.vae.enable_tiling()
|
|||||||
We highly welcome contributions from the community and actively contribute to the open-source community. The following
|
We highly welcome contributions from the community and actively contribute to the open-source community. The following
|
||||||
works have already been adapted for CogVideoX, and we invite everyone to use them:
|
works have already been adapted for CogVideoX, and we invite everyone to use them:
|
||||||
|
|
||||||
|
+ [LeMiCa](https://unicomai.github.io/LeMiCa/): a training-free and efficient acceleration framework for diffusion-based video generation, substantially improves the consistency of global content and style across generated frame.
|
||||||
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx):
|
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx):
|
||||||
RIFLEx extends the video with just one line of code: `freq[k-1]=(2np.pi)/(Ls)`. The framework not only supports training-free inference, but also offers models fine-tuned based on CogVideoX. By fine-tuning the model for just 1,000 steps on original-length videos, RIFLEx significantly enhances its length extrapolation capability.
|
RIFLEx extends the video with just one line of code: `freq[k-1]=(2np.pi)/(Ls)`. The framework not only supports training-free inference, but also offers models fine-tuned based on CogVideoX. By fine-tuning the model for just 1,000 steps on original-length videos, RIFLEx significantly enhances its length extrapolation capability.
|
||||||
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Fun is a modified pipeline based on the
|
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Fun is a modified pipeline based on the
|
||||||
|
|||||||
@ -293,6 +293,7 @@ pipe.vae.enable_tiling()
|
|||||||
|
|
||||||
コミュニティからの貢献を大歓迎し、私たちもオープンソースコミュニティに積極的に貢献しています。以下の作品はすでにCogVideoXに対応しており、ぜひご利用ください:
|
コミュニティからの貢献を大歓迎し、私たちもオープンソースコミュニティに積極的に貢献しています。以下の作品はすでにCogVideoXに対応しており、ぜひご利用ください:
|
||||||
|
|
||||||
|
+ [LeMiCa](https://unicomai.github.io/LeMiCa/):トレーニング不要で効率的な拡散型動画生成の加速フレームワークであり、生成されたフレーム間の全体的な内容とスタイルの一貫性を大幅に向上させます。
|
||||||
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx):
|
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx):
|
||||||
RIFLExは動画の長さを外挿する手法で、たった1行のコードで動画の長さを元の2倍に延長できます。RIFLExはトレーニング不要の推論をサポートするだけでなく、CogVideoXをベースにファインチューニングしたモデルも提供しています。元の長さの動画でわずか1000ステップのファインチューニングを行うだけで、長さ外挿能力を大幅に向上させることができます。
|
RIFLExは動画の長さを外挿する手法で、たった1行のコードで動画の長さを元の2倍に延長できます。RIFLExはトレーニング不要の推論をサポートするだけでなく、CogVideoXをベースにファインチューニングしたモデルも提供しています。元の長さの動画でわずか1000ステップのファインチューニングを行うだけで、長さ外挿能力を大幅に向上させることができます。
|
||||||
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun):
|
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun):
|
||||||
|
|||||||
@ -279,6 +279,7 @@ pipe.vae.enable_tiling()
|
|||||||
|
|
||||||
我们非常欢迎来自社区的贡献,并积极的贡献开源社区。以下作品已经对CogVideoX进行了适配,欢迎大家使用:
|
我们非常欢迎来自社区的贡献,并积极的贡献开源社区。以下作品已经对CogVideoX进行了适配,欢迎大家使用:
|
||||||
|
|
||||||
|
+ [LeMiCa](https://unicomai.github.io/LeMiCa/):一种无需训练的高效扩散视频生成加速框架,显著提升生成帧之间的全局内容与风格一致性。
|
||||||
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx):
|
+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx):
|
||||||
RIFLEx 是一个视频长度外推的方法,只需一行代码即可将视频生成长度延伸为原先的二倍。RIFLEx 不仅支持 Training-free 的推理,也提供基于 CogVideoX 进行微调的模型,只需在原有长度视频上微调 1000 步即可大大提高长度外推能力。
|
RIFLEx 是一个视频长度外推的方法,只需一行代码即可将视频生成长度延伸为原先的二倍。RIFLEx 不仅支持 Training-free 的推理,也提供基于 CogVideoX 进行微调的模型,只需在原有长度视频上微调 1000 步即可大大提高长度外推能力。
|
||||||
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun):
|
+ [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun):
|
||||||
|
|||||||
@ -1,15 +1,15 @@
|
|||||||
diffusers>=0.32.1
|
diffusers>=0.35.2
|
||||||
accelerate>=1.1.1
|
accelerate>=1.11.0
|
||||||
transformers>=4.46.2
|
transformers>=4.57.1
|
||||||
numpy==1.26.0
|
numpy==1.26.0
|
||||||
torch>=2.5.0
|
torch>=2.8.0
|
||||||
torchvision>=0.20.0
|
torchvision>=0.23.0
|
||||||
sentencepiece>=0.2.0
|
sentencepiece>=0.2.1
|
||||||
SwissArmyTransformer>=0.4.12
|
SwissArmyTransformer>=0.4.12
|
||||||
gradio>=5.5.0
|
gradio>=5.49.1
|
||||||
imageio>=2.35.1
|
imageio>=2.37.0
|
||||||
imageio-ffmpeg>=0.5.1
|
imageio-ffmpeg>=0.6.0
|
||||||
openai>=1.54.0
|
openai>=2.2.0
|
||||||
moviepy>=2.0.0
|
moviepy>=2.2.1
|
||||||
scikit-video>=1.1.11
|
scikit-video>=1.1.11
|
||||||
pydantic>=2.10.3
|
pydantic>=2.12.0
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user