docs: update TOC and add friendly link in README files

- Update table of contents in README.md, README_ja.md and README_zh.md
- Add friendly link section to all README files
This commit is contained in:
三洋三洋 2024-12-27 19:37:08 +08:00 committed by OleehyO
parent 6e79472417
commit 6ef15dd2a5
3 changed files with 48 additions and 27 deletions

View File

@ -61,18 +61,24 @@ The SAT code has already been updated, while the diffusers version is still unde
Jump to a specific section:
- [Quick Start](#Quick-Start)
- [SAT](#sat)
- [Diffusers](#Diffusers)
- [CogVideoX-2B Video Works](#cogvideox-2b-gallery)
- [Introduction to the CogVideoX Model](#Model-Introduction)
- [Full Project Structure](#project-structure)
- [Inference](#inference)
- [SAT](#sat)
- [Tools](#tools)
- [Introduction to CogVideo(ICLR'23) Model](#cogvideoiclr23)
- [Citations](#Citation)
- [Model License](#Model-License)
- [Quick Start](#quick-start)
- [Prompt Optimization](#prompt-optimization)
- [SAT](#sat)
- [Diffusers](#diffusers)
- [Gallery](#gallery)
- [CogVideoX-5B](#cogvideox-5b)
- [CogVideoX-2B](#cogvideox-2b)
- [Model Introduction](#model-introduction)
- [Friendly Links](#friendly-links)
- [Project Structure](#project-structure)
- [Quick Start with Colab](#quick-start-with-colab)
- [Inference](#inference)
- [finetune](#finetune)
- [sat](#sat-1)
- [Tools](#tools)
- [CogVideo(ICLR'23)](#cogvideoiclr23)
- [Citation](#citation)
- [Model-License](#model-license)
## Quick Start
@ -321,6 +327,7 @@ works have already been adapted for CogVideoX, and we invite everyone to use the
+ [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): A simple ControlNet module code that includes the CogVideoX model.
+ [VideoTuna](https://github.com/VideoVerses/VideoTuna): VideoTuna is the first repo that integrates multiple AI video generation models for text-to-video, image-to-video, text-to-image generation.
+ [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): An identity-preserving text-to-video generation model, bases on CogVideoX-5B, which keep the face consistent in the generated video by frequency decomposition.
+ [A Step by Step Tutorial](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): A step-by-step guide on installing and optimizing the CogVideoX1.5-5B-I2V model in Windows and cloud environments. Special thanks to the [FurkanGozukara](https://github.com/FurkanGozukara) for his effort and support!
## Project Structure

View File

@ -62,15 +62,21 @@ SAT バージョンのコードは [こちら](https://huggingface.co/THUDM/CogV
特定のセクションにジャンプ:
- [クイックスタート](#クイックスタート)
- [SAT](#sat)
- [Diffusers](#Diffusers)
- [CogVideoX-2B ギャラリー](#CogVideoX-2B-ギャラリー)
- [プロンプトの最適化](#プロンプトの最適化)
- [SAT](#sat)
- [Diffusers](#diffusers)
- [Gallery](#gallery)
- [CogVideoX-5B](#cogvideox-5b)
- [CogVideoX-2B](#cogvideox-2b)
- [モデル紹介](#モデル紹介)
- [友好的リンク](#友好的リンク)
- [プロジェクト構造](#プロジェクト構造)
- [推論](#推論)
- [sat](#sat)
- [ツール](#ツール)=
- [CogVideo(ICLR'23)モデル紹介](#CogVideoICLR23)
- [Colabでのクイックスタート](#colabでのクイックスタート)
- [Inference](#inference)
- [finetune](#finetune)
- [sat](#sat-1)
- [ツール](#ツール)
- [CogVideo(ICLR'23)](#cogvideoiclr23)
- [引用](#引用)
- [ライセンス契約](#ライセンス契約)
@ -302,6 +308,7 @@ pipe.vae.enable_tiling()
+ [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): CogVideoXモデルを含むシンプルなControlNetモジュールのコード。
+ [VideoTuna](https://github.com/VideoVerses/VideoTuna): VideoTuna は、テキストからビデオ、画像からビデオ、テキストから画像生成のための複数のAIビデオ生成モデルを統合した最初のリポジトリです。
+ [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): 一貫性のある顔を保持するために、周波数分解を使用するCogVideoX-5Bに基づいたアイデンティティ保持型テキストから動画生成モデル。
+ [ステップバイステップチュートリアル](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): WindowsおよびクラウドでのCogVideoX1.5-5B-I2Vモデルのインストールと最適化に関するステップバイステップガイド。[FurkanGozukara](https://github.com/FurkanGozukara)氏の尽力とサポートに感謝いたします!
## プロジェクト構造

View File

@ -51,15 +51,21 @@ CogVideoX1.5-5B 系列模型支持 **10秒** 长度的视频和更高的分辨
跳转到指定部分:
- [快速开始](#快速开始)
- [SAT](#sat)
- [Diffusers](#Diffusers)
- [CogVideoX-2B 视频作品](#cogvideox-2b-视频作品)
- [CogVideoX模型介绍](#模型介绍)
- [提示词优化](#提示词优化)
- [SAT](#sat)
- [Diffusers](#diffusers)
- [视频作品](#视频作品)
- [CogVideoX-5B](#cogvideox-5b)
- [CogVideoX-2B](#cogvideox-2b)
- [模型介绍](#模型介绍)
- [友情链接](#友情链接)
- [完整项目代码结构](#完整项目代码结构)
- [Inference](#inference)
- [SAT](#sat)
- [Tools](#tools)
- [CogVideo(ICLR'23)模型介绍](#cogvideoiclr23)
- [Colab 快速使用](#colab-快速使用)
- [inference](#inference)
- [finetune](#finetune)
- [sat](#sat-1)
- [tools](#tools)
- [CogVideo(ICLR'23)](#cogvideoiclr23)
- [引用](#引用)
- [模型协议](#模型协议)
@ -282,6 +288,7 @@ pipe.vae.enable_tiling()
+ [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): 一个包含 CogvideoX 模型的简单 Controlnet 模块的代码。
+ [VideoTuna](https://github.com/VideoVerses/VideoTuna)VideoTuna 是首个集成多种 AI 视频生成模型的仓库,支持文本转视频、图像转视频、文本转图像生成。
+ [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): 一种身份保持的文本到视频生成模型,基于 CogVideoX-5B通过频率分解在生成的视频中保持面部一致性。
+ [教程](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): 一个关于在Windows和云环境中安装和优化CogVideoX1.5-5B-I2V模型的分步指南。特别感谢[FurkanGozukara](https://github.com/FurkanGozukara)的努力和支持!
## 完整项目代码结构