diff --git a/README.md b/README.md index 7b4c3f9..45440ca 100644 --- a/README.md +++ b/README.md @@ -306,8 +306,8 @@ pipe.vae.enable_tiling() We highly welcome contributions from the community and actively contribute to the open-source community. The following works have already been adapted for CogVideoX, and we invite everyone to use them: -+ [LeMiCa](https://unicomai.github.io/LeMiCa/): a training-free and efficient acceleration framework for diffusion-based video generation, substantially improves the consistency of global content and style across generated frame. -+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx): ++ [LeMiCa](https://unicomai.github.io/LeMiCa/): a diffusion model inference acceleration solution developed by China Unicom Data Science and Artificial Intelligence Research Institute. By leveraging cache-based techniques and global denoising path optimization, LeMiCa provides efficient inference support for CogVideoX, achieving nearly 2.5x lossless acceleration while maintaining visual consistency and quality. ++ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx): RIFLEx extends the video with just one line of code: `freq[k-1]=(2np.pi)/(Ls)`. The framework not only supports training-free inference, but also offers models fine-tuned based on CogVideoX. By fine-tuning the model for just 1,000 steps on original-length videos, RIFLEx significantly enhances its length extrapolation capability. + [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Fun is a modified pipeline based on the CogVideoX architecture, supporting flexible resolutions and multiple launch methods. diff --git a/README_ja.md b/README_ja.md index a52e9fb..afca6db 100644 --- a/README_ja.md +++ b/README_ja.md @@ -293,8 +293,8 @@ pipe.vae.enable_tiling() コミュニティからの貢献を大歓迎し、私たちもオープンソースコミュニティに積極的に貢献しています。以下の作品はすでにCogVideoXに対応しており、ぜひご利用ください: -+ [LeMiCa](https://unicomai.github.io/LeMiCa/):トレーニング不要で効率的な拡散型動画生成の加速フレームワークであり、生成されたフレーム間の全体的な内容とスタイルの一貫性を大幅に向上させます。 -+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx): ++ [LeMiCa](https://unicomai.github.io/LeMiCa/): 中国聯通データサイエンス・人工知能研究所が開発した拡散モデル推論加速ソリューション。LeMiCaは、キャッシュベースの技術とグローバルノイズ除去パス最適化を活用することで、CogVideoXの効率的な推論サポートを提供し、視覚的な一貫性と品質を維持しながら、約2.5倍のロスレス加速を実現します。 ++ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx): RIFLExは動画の長さを外挿する手法で、たった1行のコードで動画の長さを元の2倍に延長できます。RIFLExはトレーニング不要の推論をサポートするだけでなく、CogVideoXをベースにファインチューニングしたモデルも提供しています。元の長さの動画でわずか1000ステップのファインチューニングを行うだけで、長さ外挿能力を大幅に向上させることができます。 + [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Funは、CogVideoXアーキテクチャを基にした改良パイプラインで、自由な解像度と複数の起動方法をサポートしています。 diff --git a/README_zh.md b/README_zh.md index 45cead3..3eb399e 100644 --- a/README_zh.md +++ b/README_zh.md @@ -279,8 +279,8 @@ pipe.vae.enable_tiling() 我们非常欢迎来自社区的贡献,并积极的贡献开源社区。以下作品已经对CogVideoX进行了适配,欢迎大家使用: -+ [LeMiCa](https://unicomai.github.io/LeMiCa/):一种无需训练的高效扩散视频生成加速框架,显著提升生成帧之间的全局内容与风格一致性。 -+ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx): ++ [LeMiCa](https://unicomai.github.io/LeMiCa/): 由中国联通数据科学与人工智能研究院开发的扩散模型推理加速解决方案。它利用基于缓存的技术和全局去噪路径优化,为CogVideoX提供高效的推理支持,在保持视觉一致性和质量的前提下,实现了近2.5倍的无损加速。 ++ [RIFLEx-CogVideoX](https://github.com/thu-ml/RIFLEx): RIFLEx 是一个视频长度外推的方法,只需一行代码即可将视频生成长度延伸为原先的二倍。RIFLEx 不仅支持 Training-free 的推理,也提供基于 CogVideoX 进行微调的模型,只需在原有长度视频上微调 1000 步即可大大提高长度外推能力。 + [CogVideoX-Fun](https://github.com/aigc-apps/CogVideoX-Fun): CogVideoX-Fun是一个基于CogVideoX结构修改后的的pipeline,支持自由的分辨率,多种启动方式。