mirror of
https://github.com/THUDM/CogVideo.git
synced 2025-04-05 19:41:59 +08:00
docs: update TOC and add friendly link in README files
- Update table of contents in README.md, README_ja.md and README_zh.md - Add friendly link section to all README files
This commit is contained in:
parent
6e79472417
commit
6ef15dd2a5
31
README.md
31
README.md
@ -61,18 +61,24 @@ The SAT code has already been updated, while the diffusers version is still unde
|
||||
|
||||
Jump to a specific section:
|
||||
|
||||
- [Quick Start](#Quick-Start)
|
||||
- [SAT](#sat)
|
||||
- [Diffusers](#Diffusers)
|
||||
- [CogVideoX-2B Video Works](#cogvideox-2b-gallery)
|
||||
- [Introduction to the CogVideoX Model](#Model-Introduction)
|
||||
- [Full Project Structure](#project-structure)
|
||||
- [Inference](#inference)
|
||||
- [SAT](#sat)
|
||||
- [Tools](#tools)
|
||||
- [Introduction to CogVideo(ICLR'23) Model](#cogvideoiclr23)
|
||||
- [Citations](#Citation)
|
||||
- [Model License](#Model-License)
|
||||
- [Quick Start](#quick-start)
|
||||
- [Prompt Optimization](#prompt-optimization)
|
||||
- [SAT](#sat)
|
||||
- [Diffusers](#diffusers)
|
||||
- [Gallery](#gallery)
|
||||
- [CogVideoX-5B](#cogvideox-5b)
|
||||
- [CogVideoX-2B](#cogvideox-2b)
|
||||
- [Model Introduction](#model-introduction)
|
||||
- [Friendly Links](#friendly-links)
|
||||
- [Project Structure](#project-structure)
|
||||
- [Quick Start with Colab](#quick-start-with-colab)
|
||||
- [Inference](#inference)
|
||||
- [finetune](#finetune)
|
||||
- [sat](#sat-1)
|
||||
- [Tools](#tools)
|
||||
- [CogVideo(ICLR'23)](#cogvideoiclr23)
|
||||
- [Citation](#citation)
|
||||
- [Model-License](#model-license)
|
||||
|
||||
## Quick Start
|
||||
|
||||
@ -321,6 +327,7 @@ works have already been adapted for CogVideoX, and we invite everyone to use the
|
||||
+ [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): A simple ControlNet module code that includes the CogVideoX model.
|
||||
+ [VideoTuna](https://github.com/VideoVerses/VideoTuna): VideoTuna is the first repo that integrates multiple AI video generation models for text-to-video, image-to-video, text-to-image generation.
|
||||
+ [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): An identity-preserving text-to-video generation model, bases on CogVideoX-5B, which keep the face consistent in the generated video by frequency decomposition.
|
||||
+ [A Step by Step Tutorial](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): A step-by-step guide on installing and optimizing the CogVideoX1.5-5B-I2V model in Windows and cloud environments. Special thanks to the [FurkanGozukara](https://github.com/FurkanGozukara) for his effort and support!
|
||||
|
||||
## Project Structure
|
||||
|
||||
|
21
README_ja.md
21
README_ja.md
@ -62,15 +62,21 @@ SAT バージョンのコードは [こちら](https://huggingface.co/THUDM/CogV
|
||||
特定のセクションにジャンプ:
|
||||
|
||||
- [クイックスタート](#クイックスタート)
|
||||
- [SAT](#sat)
|
||||
- [Diffusers](#Diffusers)
|
||||
- [CogVideoX-2B ギャラリー](#CogVideoX-2B-ギャラリー)
|
||||
- [プロンプトの最適化](#プロンプトの最適化)
|
||||
- [SAT](#sat)
|
||||
- [Diffusers](#diffusers)
|
||||
- [Gallery](#gallery)
|
||||
- [CogVideoX-5B](#cogvideox-5b)
|
||||
- [CogVideoX-2B](#cogvideox-2b)
|
||||
- [モデル紹介](#モデル紹介)
|
||||
- [友好的リンク](#友好的リンク)
|
||||
- [プロジェクト構造](#プロジェクト構造)
|
||||
- [推論](#推論)
|
||||
- [sat](#sat)
|
||||
- [ツール](#ツール)=
|
||||
- [CogVideo(ICLR'23)モデル紹介](#CogVideoICLR23)
|
||||
- [Colabでのクイックスタート](#colabでのクイックスタート)
|
||||
- [Inference](#inference)
|
||||
- [finetune](#finetune)
|
||||
- [sat](#sat-1)
|
||||
- [ツール](#ツール)
|
||||
- [CogVideo(ICLR'23)](#cogvideoiclr23)
|
||||
- [引用](#引用)
|
||||
- [ライセンス契約](#ライセンス契約)
|
||||
|
||||
@ -302,6 +308,7 @@ pipe.vae.enable_tiling()
|
||||
+ [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): CogVideoXモデルを含むシンプルなControlNetモジュールのコード。
|
||||
+ [VideoTuna](https://github.com/VideoVerses/VideoTuna): VideoTuna は、テキストからビデオ、画像からビデオ、テキストから画像生成のための複数のAIビデオ生成モデルを統合した最初のリポジトリです。
|
||||
+ [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): 一貫性のある顔を保持するために、周波数分解を使用するCogVideoX-5Bに基づいたアイデンティティ保持型テキストから動画生成モデル。
|
||||
+ [ステップバイステップチュートリアル](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): WindowsおよびクラウドでのCogVideoX1.5-5B-I2Vモデルのインストールと最適化に関するステップバイステップガイド。[FurkanGozukara](https://github.com/FurkanGozukara)氏の尽力とサポートに感謝いたします!
|
||||
|
||||
## プロジェクト構造
|
||||
|
||||
|
23
README_zh.md
23
README_zh.md
@ -51,15 +51,21 @@ CogVideoX1.5-5B 系列模型支持 **10秒** 长度的视频和更高的分辨
|
||||
跳转到指定部分:
|
||||
|
||||
- [快速开始](#快速开始)
|
||||
- [SAT](#sat)
|
||||
- [Diffusers](#Diffusers)
|
||||
- [CogVideoX-2B 视频作品](#cogvideox-2b-视频作品)
|
||||
- [CogVideoX模型介绍](#模型介绍)
|
||||
- [提示词优化](#提示词优化)
|
||||
- [SAT](#sat)
|
||||
- [Diffusers](#diffusers)
|
||||
- [视频作品](#视频作品)
|
||||
- [CogVideoX-5B](#cogvideox-5b)
|
||||
- [CogVideoX-2B](#cogvideox-2b)
|
||||
- [模型介绍](#模型介绍)
|
||||
- [友情链接](#友情链接)
|
||||
- [完整项目代码结构](#完整项目代码结构)
|
||||
- [Inference](#inference)
|
||||
- [SAT](#sat)
|
||||
- [Tools](#tools)
|
||||
- [CogVideo(ICLR'23)模型介绍](#cogvideoiclr23)
|
||||
- [Colab 快速使用](#colab-快速使用)
|
||||
- [inference](#inference)
|
||||
- [finetune](#finetune)
|
||||
- [sat](#sat-1)
|
||||
- [tools](#tools)
|
||||
- [CogVideo(ICLR'23)](#cogvideoiclr23)
|
||||
- [引用](#引用)
|
||||
- [模型协议](#模型协议)
|
||||
|
||||
@ -282,6 +288,7 @@ pipe.vae.enable_tiling()
|
||||
+ [CogVideoX-Controlnet](https://github.com/TheDenk/cogvideox-controlnet): 一个包含 CogvideoX 模型的简单 Controlnet 模块的代码。
|
||||
+ [VideoTuna](https://github.com/VideoVerses/VideoTuna):VideoTuna 是首个集成多种 AI 视频生成模型的仓库,支持文本转视频、图像转视频、文本转图像生成。
|
||||
+ [ConsisID](https://github.com/PKU-YuanGroup/ConsisID): 一种身份保持的文本到视频生成模型,基于 CogVideoX-5B,通过频率分解在生成的视频中保持面部一致性。
|
||||
+ [教程](https://www.youtube.com/watch?v=5UCkMzP2VLE&ab_channel=SECourses): 一个关于在Windows和云环境中安装和优化CogVideoX1.5-5B-I2V模型的分步指南。特别感谢[FurkanGozukara](https://github.com/FurkanGozukara)的努力和支持!
|
||||
|
||||
|
||||
## 完整项目代码结构
|
||||
|
Loading…
x
Reference in New Issue
Block a user