From 6ef15dd2a5898d210a5b0b5ed6e3a34e13aa8edc Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E4=B8=89=E6=B4=8B=E4=B8=89=E6=B4=8B?= <1258009915@qq.com> Date: Fri, 27 Dec 2024 19:37:08 +0800 Subject: [PATCH] docs: update TOC and add friendly link in README files - Update table of contents in README.md, README_ja.md and README_zh.md - Add friendly link section to all README files --- README.md | 31 +++++++++++++++++++------------ README_ja.md | 21 ++++++++++++++------- README_zh.md | 23 +++++++++++++++-------- 3 files changed, 48 insertions(+), 27 deletions(-) diff --git a/README.md b/README.md index a22b290..e58d8d8 100644 --- a/README.md +++ b/README.md @@ -61,18 +61,24 @@ The SAT code has already been updated, while the diffusers version is still unde Jump to a specific section: -- [Quick Start](#Quick-Start) - - [SAT](#sat) - - [Diffusers](#Diffusers) -- [CogVideoX-2B Video Works](#cogvideox-2b-gallery) -- [Introduction to the CogVideoX Model](#Model-Introduction) -- [Full Project Structure](#project-structure) - - [Inference](#inference) - - [SAT](#sat) - - [Tools](#tools) -- [Introduction to CogVideo(ICLR'23) Model](#cogvideoiclr23) -- [Citations](#Citation) -- [Model License](#Model-License) +- [Quick Start](#quick-start) + - [Prompt Optimization](#prompt-optimization) + - [SAT](#sat) + - [Diffusers](#diffusers) +- [Gallery](#gallery) + - [CogVideoX-5B](#cogvideox-5b) + - [CogVideoX-2B](#cogvideox-2b) +- [Model Introduction](#model-introduction) +- [Friendly Links](#friendly-links) +- [Project Structure](#project-structure) + - [Quick Start with Colab](#quick-start-with-colab) + - [Inference](#inference) + - [finetune](#finetune) + - [sat](#sat-1) + - [Tools](#tools) +- [CogVideo(ICLR'23)](#cogvideoiclr23) +- [Citation](#citation) +- [Model-License](#model-license) ## Quick Start @@ -321,6 +327,7 @@ works have already been adapted for CogVideoX, and we invite everyone to use the + [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): A simple ControlNet module code that includes the CogVideoX model. + [VideoTuna](https://github.com/VideoVerses/VideoTuna): VideoTuna is the first repo that integrates multiple AI video generation models for text-to-video, image-to-video, text-to-image generation. + [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): An identity-preserving text-to-video generation model, bases on CogVideoX-5B, which keep the face consistent in the generated video by frequency decomposition. ++ [A Step by Step Tutorial](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): A step-by-step guide on installing and optimizing the CogVideoX1.5-5B-I2V model in Windows and cloud environments. Special thanks to the [FurkanGozukara](https://github.com/FurkanGozukara) for his effort and support! ## Project Structure diff --git a/README_ja.md b/README_ja.md index c8c2d24..6c2303c 100644 --- a/README_ja.md +++ b/README_ja.md @@ -62,15 +62,21 @@ SAT バージョンのコードは [こちら](https://huggingface.co/THUDM/CogV 特定のセクションにジャンプ: - [クイックスタート](#クイックスタート) - - [SAT](#sat) - - [Diffusers](#Diffusers) -- [CogVideoX-2B ギャラリー](#CogVideoX-2B-ギャラリー) + - [プロンプトの最適化](#プロンプトの最適化) + - [SAT](#sat) + - [Diffusers](#diffusers) +- [Gallery](#gallery) + - [CogVideoX-5B](#cogvideox-5b) + - [CogVideoX-2B](#cogvideox-2b) - [モデル紹介](#モデル紹介) +- [友好的リンク](#友好的リンク) - [プロジェクト構造](#プロジェクト構造) - - [推論](#推論) - - [sat](#sat) - - [ツール](#ツール)= -- [CogVideo(ICLR'23)モデル紹介](#CogVideoICLR23) + - [Colabでのクイックスタート](#colabでのクイックスタート) + - [Inference](#inference) + - [finetune](#finetune) + - [sat](#sat-1) + - [ツール](#ツール) +- [CogVideo(ICLR'23)](#cogvideoiclr23) - [引用](#引用) - [ライセンス契約](#ライセンス契約) @@ -302,6 +308,7 @@ pipe.vae.enable_tiling() + [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): CogVideoXモデルを含むシンプルなControlNetモジュールのコード。 + [VideoTuna](https://github.com/VideoVerses/VideoTuna): VideoTuna は、テキストからビデオ、画像からビデオ、テキストから画像生成のための複数のAIビデオ生成モデルを統合した最初のリポジトリです。 + [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): 一貫性のある顔を保持するために、周波数分解を使用するCogVideoX-5Bに基づいたアイデンティティ保持型テキストから動画生成モデル。 ++ [ステップバイステップチュートリアル](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): WindowsおよびクラウドでのCogVideoX1.5-5B-I2Vモデルのインストールと最適化に関するステップバイステップガイド。[FurkanGozukara](https://github.com/FurkanGozukara)氏の尽力とサポートに感謝いたします! ## プロジェクト構造 diff --git a/README_zh.md b/README_zh.md index b280bd2..393770a 100644 --- a/README_zh.md +++ b/README_zh.md @@ -51,15 +51,21 @@ CogVideoX1.5-5B 系列模型支持 **10秒** 长度的视频和更高的分辨 跳转到指定部分: - [快速开始](#快速开始) - - [SAT](#sat) - - [Diffusers](#Diffusers) -- [CogVideoX-2B 视频作品](#cogvideox-2b-视频作品) -- [CogVideoX模型介绍](#模型介绍) + - [提示词优化](#提示词优化) + - [SAT](#sat) + - [Diffusers](#diffusers) +- [视频作品](#视频作品) + - [CogVideoX-5B](#cogvideox-5b) + - [CogVideoX-2B](#cogvideox-2b) +- [模型介绍](#模型介绍) +- [友情链接](#友情链接) - [完整项目代码结构](#完整项目代码结构) - - [Inference](#inference) - - [SAT](#sat) - - [Tools](#tools) -- [CogVideo(ICLR'23)模型介绍](#cogvideoiclr23) + - [Colab 快速使用](#colab-快速使用) + - [inference](#inference) + - [finetune](#finetune) + - [sat](#sat-1) + - [tools](#tools) +- [CogVideo(ICLR'23)](#cogvideoiclr23) - [引用](#引用) - [模型协议](#模型协议) @@ -282,6 +288,7 @@ pipe.vae.enable_tiling() + [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): 一个包含 CogvideoX 模型的简单 Controlnet 模块的代码。 + [VideoTuna](https://github.com/VideoVerses/VideoTuna):VideoTuna 是首个集成多种 AI 视频生成模型的仓库,支持文本转视频、图像转视频、文本转图像生成。 + [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): 一种身份保持的文本到视频生成模型,基于 CogVideoX-5B,通过频率分解在生成的视频中保持面部一致性。 ++ [教程](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): 一个关于在Windows和云环境中安装和优化CogVideoX1.5-5B-I2V模型的分步指南。特别感谢[FurkanGozukara](https://github.com/FurkanGozukara)的努力和支持! ## 完整项目代码结构