diff --git a/README.md b/README.md
index d03514f0..5d902c23 100644
--- a/README.md
+++ b/README.md
@@ -1,3 +1,5 @@
+#
+
GPT-SoVITS-WebUI
@@ -7,12 +9,21 @@ A Powerful Few-shot Voice Conversion and Text-to-Speech WebUI.
-
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-WebUI.ipynb)
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-Inference.ipynb)
+[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/colab_webui.ipynb)
-[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
-[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://discord.gg/dnrgs5GHfG)
+[](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e)
+[](https://rentry.co/GPT-SoVITS-guide#/)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/docs/en/Changelog_EN.md)
+
+[](https://github.com/RVC-Boss/gpt-sovits/releases)
+[](https://github.com/RVC-Boss/gpt-sovits/stargazers)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
+
+[](https://www.python.org/downloads/)
+[](https://pytorch.org/)
+[](https://hub.docker.com/r/xxxxrt666/gpt-sovits)
**English** | [**中文简体**](./docs/cn/README.md) | [**日本語**](./docs/ja/README.md) | [**한국어**](./docs/ko/README.md) | [**Türkçe**](./docs/tr/README.md)
@@ -20,7 +31,7 @@ A Powerful Few-shot Voice Conversion and Text-to-Speech WebUI.
---
-## Features:
+## Features
1. **Zero-shot TTS:** Input a 5-second vocal sample and experience instant text-to-speech conversion.
@@ -34,13 +45,13 @@ A Powerful Few-shot Voice Conversion and Text-to-Speech WebUI.
Unseen speakers few-shot fine-tuning demo:
-https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
+
-**User guide: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)**
+
## Installation
-For users in China, you can [click here](https://www.codewithgpu.com/i/RVC-Boss/GPT-SoVITS/GPT-SoVITS-Official) to use AutoDL Cloud Docker to experience the full functionality online.
+For users in China, you can use [AutoDL Cloud Docker](https://www.codewithgpu.com/i/RVC-Boss/GPT-SoVITS/GPT-SoVITS-Official) to experience the full functionality online.
### Tested Environments
@@ -171,7 +182,7 @@ docker exec -it
```
-if you want to switch to V1,then
-
-```bash
-python webui.py v1
-```
-
-Or maunally switch version in WebUI
-
### Finetune
#### Path Auto-filling is now supported
@@ -253,7 +251,7 @@ Or maunally switch version in WebUI
#### Integrated Package Users
-Double-click `go-webui-v2.bat` or use `go-webui-v2.ps1` ,then open the inference webui at `1-GPT-SoVITS-TTS/1C-inference`
+Double-click `go-webui.bat` or use `go-webui.ps1` , then open the inference webui at `1-GPT-SoVITS-TTS/1C-inference`
#### Others
@@ -373,11 +371,6 @@ Use the command line to open the WebUI for UVR5
python tools/uvr5/webui.py ""
```
-
-
This is how the audio segmentation of the dataset is done using the command line
```bash
@@ -453,5 +446,5 @@ Thankful to @Naozumi520 for providing the Cantonese training set and for the gui
## Thanks to all contributors for their efforts
-
+
diff --git a/docs/cn/README.md b/docs/cn/README.md
index e674d9cf..57d441d5 100644
--- a/docs/cn/README.md
+++ b/docs/cn/README.md
@@ -1,18 +1,29 @@
+#
+
GPT-SoVITS-WebUI
-强大的少样本语音转换与语音合成Web用户界面.
+强大的少样本语音转换与语音合成Web用户界面.
[](https://github.com/RVC-Boss/GPT-SoVITS)
-
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-WebUI.ipynb)
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-Inference.ipynb)
+[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/colab_webui.ipynb)
-[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
-[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://discord.gg/dnrgs5GHfG)
+[](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e)
+[](https://rentry.co/GPT-SoVITS-guide#/)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/docs/cn/Changelog_CN.md)
+
+[](https://github.com/RVC-Boss/gpt-sovits/releases)
+[](https://github.com/RVC-Boss/gpt-sovits/stargazers)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
+
+[](https://www.python.org/downloads/)
+[](https://pytorch.org/)
+[](https://hub.docker.com/r/xxxxrt666/gpt-sovits)
[**English**](../../README.md) | **中文简体** | [**日本語**](../ja/README.md) | [**한국어**](../ko/README.md) | [**Türkçe**](../tr/README.md)
@@ -36,7 +47,7 @@
-**用户手册: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)**
+
## 安装
@@ -171,7 +182,7 @@ docker exec -it
```
-若想使用 V1,则
-
-```bash
-python webui.py v1
-```
-
-或者在 webUI 内动态切换
-
### 微调
#### 现已支持自动填充路径
@@ -243,13 +245,13 @@ python webui.py v1
3. 进行降噪(可选)
4. 进行 ASR
5. 校对标注
-6. 前往下一个窗口,点击训练
+6. 前往下一个窗口, 点击训练
### 打开推理 WebUI
#### 整合包用户
-双击 `go-webui.bat` 或者使用 `go-webui.ps1` ,然后在 `1-GPT-SoVITS-TTS/1C-推理` 中打开推理 webUI
+双击 `go-webui.bat` 或者使用 `go-webui.ps1` , 然后在 `1-GPT-SoVITS-TTS/1C-推理` 中打开推理 webUI
#### 其他
@@ -287,7 +289,7 @@ python webui.py
3. 需要从[huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained) 下载预训练模型文件放到 GPT_SoVITS/pretrained_models/gsv-v2final-pretrained 下
- 中文额外需要下载[G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (下载 G2PW 模型,解压并重命名为`G2PWModel`,将其放到`GPT_SoVITS/text`目录下)
+ 中文额外需要下载[G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (下载 G2PW 模型, 解压并重命名为`G2PWModel`, 将其放到`GPT_SoVITS/text`目录下)
## V3 更新说明
@@ -449,5 +451,5 @@ python ./tools/asr/fasterwhisper_asr.py -i -o -l -p
## 感谢所有贡献者的努力
-
+
diff --git a/docs/ja/README.md b/docs/ja/README.md
index d4d3081e..efb9012f 100644
--- a/docs/ja/README.md
+++ b/docs/ja/README.md
@@ -1,16 +1,27 @@
+#
+
GPT-SoVITS-WebUI
-パワフルなFew-Shot音声変換・音声合成 WebUI.
+パワフルなFew-Shot音声変換・音声合成 WebUI.
[](https://github.com/RVC-Boss/GPT-SoVITS)
-
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-WebUI.ipynb)
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-Inference.ipynb)
+[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/colab_webui.ipynb)
-[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
-[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://discord.gg/dnrgs5GHfG)
+[](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e)
+[](https://rentry.co/GPT-SoVITS-guide#/)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/docs/ja/Changelog_JA.md)
+
+[](https://github.com/RVC-Boss/gpt-sovits/releases)
+[](https://github.com/RVC-Boss/gpt-sovits/stargazers)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
+
+[](https://www.python.org/downloads/)
+[](https://pytorch.org/)
+[](https://hub.docker.com/r/xxxxrt666/gpt-sovits)
[**English**](../../README.md) | [**中文简体**](../cn/README.md) | **日本語** | [**한국어**](../ko/README.md) | [**Türkçe**](../tr/README.md)
@@ -18,7 +29,7 @@
---
-## 機能:
+## 機能
1. **Zero-Shot TTS:** たった 5 秒間の音声サンプルで、即座にテキストからその音声に変換できます.
@@ -32,9 +43,9 @@
声の事前学習無しかつ Few-Shot でトレーニングされたモデルのデモ:
-https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
+
-**ユーザーマニュアル: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)**
+
## インストール
@@ -165,7 +176,7 @@ docker exec -it
```
-V1 に切り替えたい場合は
-
-```bash
-python webui.py v1 <言語(オプション)>
-```
-
-または WebUI で手動でバージョンを切り替えてください.
-
### 微調整
#### パス自動補完のサポート
@@ -239,7 +241,7 @@ python webui.py v1 <言語(オプション)>
#### 統合パッケージ利用者
-`go-webui-v2.bat`をダブルクリックするか、`go-webui-v2.ps1`を使用して、`1-GPT-SoVITS-TTS/1C-inference`で推論 webui を開きます.
+`go-webui.bat`をダブルクリックするか、`go-webui.ps1`を使用して、`1-GPT-SoVITS-TTS/1C-inference`で推論 webui を開きます.
#### その他
@@ -359,11 +361,6 @@ V1/V2/V3/V4 環境から V2Pro への移行方法:
python tools/uvr5/webui.py ""
```
-
-
コマンド ラインを使用してデータセットのオーディオ セグメンテーションを行う方法は次のとおりです.
```bash
@@ -384,7 +381,7 @@ python tools/asr/funasr_asr.py -i -o
ASR 処理は Faster_Whisper を通じて実行されます(中国語を除く ASR マーキング)
-(進行状況バーは表示されません.GPU のパフォーマンスにより時間遅延が発生する可能性があります)
+(進行状況バーは表示されません. GPU のパフォーマンスにより時間遅延が発生する可能性があります)
```bash
python ./tools/asr/fasterwhisper_asr.py -i -o -l -p
@@ -439,5 +436,5 @@ python ./tools/asr/fasterwhisper_asr.py -i -o -l -p
## すべてのコントリビューターに感謝します
-
+
diff --git a/docs/ko/README.md b/docs/ko/README.md
index c4c7c794..91057fd3 100644
--- a/docs/ko/README.md
+++ b/docs/ko/README.md
@@ -1,3 +1,5 @@
+#
+
GPT-SoVITS-WebUI
@@ -5,12 +7,21 @@
[](https://github.com/RVC-Boss/GPT-SoVITS)
-
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-WebUI.ipynb)
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-Inference.ipynb)
+[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/colab_webui.ipynb)
-[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
-[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://discord.gg/dnrgs5GHfG)
+[](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e)
+[](https://rentry.co/GPT-SoVITS-guide#/)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/docs/ko/Changelog_KO.md)
+
+[](https://github.com/RVC-Boss/gpt-sovits/releases)
+[](https://github.com/RVC-Boss/gpt-sovits/stargazers)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
+
+[](https://www.python.org/downloads/)
+[](https://pytorch.org/)
+[](https://hub.docker.com/r/xxxxrt666/gpt-sovits)
[**English**](../../README.md) | [**中文简体**](../cn/README.md) | [**日本語**](../ja/README.md) | **한국어** | [**Türkçe**](../tr/README.md)
@@ -18,7 +29,7 @@
---
-## 기능:
+## 기능
1. **제로샷 텍스트 음성 변환 (TTS):** 5초의 음성 샘플을 입력하면 즉시 텍스트를 음성으로 변환할 수 있습니다.
@@ -32,9 +43,9 @@
보지 못한 발화자의 퓨샷(few-shot) 파인튜닝 데모:
-https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
+
-**사용자 설명서: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)**
+
## 설치
@@ -165,7 +176,7 @@ docker exec -it
```
-V1으로 전환하려면,
-
-```bash
-python webui.py v1 <언어(옵션)>
-```
-
-또는 WebUI에서 수동으로 버전을 전환하십시오.
-
### 미세 조정
#### 경로 자동 채우기가 지원됩니다
@@ -239,7 +241,7 @@ python webui.py v1 <언어(옵션)>
#### 통합 패키지 사용자
-`go-webui-v2.bat`을 더블 클릭하거나 `go-webui-v2.ps1`를 사용한 다음 `1-GPT-SoVITS-TTS/1C-inference`에서 추론 webui를 엽니다.
+`go-webui.bat`을 더블 클릭하거나 `go-webui.ps1`를 사용한 다음 `1-GPT-SoVITS-TTS/1C-inference`에서 추론 webui를 엽니다.
#### 기타
@@ -277,13 +279,13 @@ V1 환경에서 V2를 사용하려면:
3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained)에서 V2 사전 학습 모델을 다운로드하여 `GPT_SoVITS/pretrained_models/gsv-v2final-pretrained`에 넣으십시오.
- 중국어 V2 추가: [G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (G2PW 모델을 다운로드하여 압축을 풀고 `G2PWModel`로 이름을 변경한 다음 `GPT_SoVITS/text`에 배치합니다.)
+ 중국어 V2 추가: [G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (G2PW 모델을 다운로드하여 압축을 풀고 `G2PWModel`로 이름을 변경한 다음 `GPT_SoVITS/text`에 배치합니다)
## V3 릴리스 노트
새로운 기능:
-1. 음색 유사성이 더 높아져 목표 음성에 대한 학습 데이터가 적게 필요합니다. (기본 모델을 직접 사용하여 미세 조정 없이 음색 유사성이 크게 향상됩니다.)
+1. 음색 유사성이 더 높아져 목표 음성에 대한 학습 데이터가 적게 필요합니다. (기본 모델을 직접 사용하여 미세 조정 없이 음색 유사성이 크게 향상됩니다)
2. GPT 모델이 더 안정적이며 반복 및 생략이 적고, 더 풍부한 감정 표현을 가진 음성을 생성하기가 더 쉽습니다.
@@ -437,8 +439,8 @@ python ./tools/asr/fasterwhisper_asr.py -i -o -l -p
@Naozumi520 님께 감사드립니다. 광둥어 학습 자료를 제공해 주시고, 광둥어 관련 지식을 지도해 주셔서 감사합니다.
-## 모든 기여자들에게 감사드립니다 ;)
+## 모든 기여자들에게 감사드립니다
-
+
diff --git a/docs/tr/README.md b/docs/tr/README.md
index cc32691f..a8576c17 100644
--- a/docs/tr/README.md
+++ b/docs/tr/README.md
@@ -1,3 +1,5 @@
+#
+
GPT-SoVITS-WebUI
@@ -7,12 +9,21 @@ Güçlü Birkaç Örnekli Ses Dönüştürme ve Metinden Konuşmaya Web Arayüz
-
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-WebUI.ipynb)
+[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-Inference.ipynb)
+[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/colab_webui.ipynb)
-[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
-[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
-[](https://discord.gg/dnrgs5GHfG)
+[](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e)
+[](https://rentry.co/GPT-SoVITS-guide#/)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/docs/tr/Changelog_TR.md)
+
+[](https://github.com/RVC-Boss/gpt-sovits/releases)
+[](https://github.com/RVC-Boss/gpt-sovits/stargazers)
+[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
+
+[](https://www.python.org/downloads/)
+[](https://pytorch.org/)
+[](https://hub.docker.com/r/xxxxrt666/gpt-sovits)
[**English**](../../README.md) | [**中文简体**](../cn/README.md) | [**日本語**](../ja/README.md) | [**한국어**](../ko/README.md) | **Türkçe**
@@ -20,7 +31,7 @@ Güçlü Birkaç Örnekli Ses Dönüştürme ve Metinden Konuşmaya Web Arayüz
---
-## Özellikler:
+## Özellikler
1. **Sıfır Örnekli Metinden Konuşmaya:** 5 saniyelik bir vokal örneği girin ve anında metinden konuşmaya dönüşümünü deneyimleyin.
@@ -34,9 +45,9 @@ Güçlü Birkaç Örnekli Ses Dönüştürme ve Metinden Konuşmaya Web Arayüz
Görünmeyen konuşmacılar birkaç örnekli ince ayar demosu:
-https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
+
-**Kullanıcı Kılavuzu: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)**
+
## Kurulum
@@ -167,7 +178,7 @@ docker exec -it
```
-V1'e geçmek istiyorsanız,
-
-```bash
-python webui.py v1
-```
-
-veya WebUI'de manuel olarak sürüm değiştirin.
-
### İnce Ayar
#### Yol Otomatik Doldurma artık destekleniyor
@@ -243,7 +245,7 @@ veya WebUI'de manuel olarak sürüm değiştirin.
#### Entegre Paket Kullanıcıları
-`go-webui-v2.bat` dosyasına çift tıklayın veya `go-webui-v2.ps1` kullanın, ardından çıkarım webui'sini `1-GPT-SoVITS-TTS/1C-inference` adresinde açın.
+`go-webui.bat` dosyasına çift tıklayın veya `go-webui.ps1` kullanın, ardından çıkarım webui'sini `1-GPT-SoVITS-TTS/1C-inference` adresinde açın.
#### Diğerleri
@@ -281,11 +283,11 @@ V1 ortamından V2'yi kullanmak için:
3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained) adresinden v2 önceden eğitilmiş modelleri indirin ve bunları `GPT_SoVITS/pretrained_models/gsv-v2final-pretrained` dizinine yerleştirin.
- Ek olarak Çince V2: [G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (G2PW modellerini indirip, zipten çıkarıp, `G2PWModel` olarak yeniden adlandırıp `GPT_SoVITS/text` dizinine yerleştirin.)
+ Ek olarak Çince V2: [G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (G2PW modellerini indirip, zipten çıkarıp, `G2PWModel` olarak yeniden adlandırıp `GPT_SoVITS/text` dizinine yerleştirin)
## V3 Sürüm Notları
-Yeni Özellikler:
+### Yeni Özellikler
1. **Tını benzerliği** daha yüksek olup, hedef konuşmacıyı yakınsamak için daha az eğitim verisi gerekmektedir (tını benzerliği, base model doğrudan kullanılacak şekilde fine-tuning yapılmadan önemli ölçüde iyileştirilmiştir).
@@ -293,7 +295,7 @@ Yeni Özellikler:
[daha fazla detay]()
-V2 ortamında V3 kullanımı:
+### v2 ortamında v3 kullanımı
1. `pip install -r requirements.txt` ile bazı paketleri güncelleyin.
@@ -323,7 +325,7 @@ V1/V2/V3 ortamından V4'e geçiş:
Yeni Özellikler:
1. **V2 ile karşılaştırıldığında biraz daha yüksek VRAM kullanımı sağlar ancak V4'ten daha iyi performans gösterir; aynı donanım maliyeti ve hız avantajını korur**.
- [Daha fazla bilgi](https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90features-(%E5%90%84%E7%89%88%E6%9C%AC%E7%89%B9%E6%80%A7))
+ [Daha fazla bilgi]()
2. V1/V2 ve V2Pro serisi benzer özelliklere sahipken, V3/V4 de yakın işlevleri paylaşır. Ortalama kalite düşük olan eğitim setleriyle V1/V2/V2Pro iyi sonuçlar verebilir ama V3/V4 veremez. Ayrıca, V3/V4’ün ürettiği ses tonu genel eğitim setine değil, referans ses örneğine daha çok benzemektedir.
@@ -363,11 +365,6 @@ UVR5 için Web Arayüzünü açmak için komut satırını kullanın
python tools/uvr5/webui.py ""
```
-
-
Veri setinin ses segmentasyonu komut satırı kullanılarak bu şekilde yapılır
```bash
@@ -443,5 +440,5 @@ python ./tools/asr/fasterwhisper_asr.py -i -o <çıktı> -l
## Tüm katkıda bulunanlara çabaları için teşekkürler
-
+