mirror of
https://github.com/RVC-Boss/GPT-SoVITS.git
synced 2025-04-05 04:22:46 +08:00
* Update requirements.txt * Create constraints.txt * Update README.md * Update README.md * Update README.md * Update README.md * Update README.md * pyopenjtalk and onnx fix * Update requirements.txt * Update requirements.txt * Update install.sh * update shell install.sh * update docs * Update Install.sh * fix bugs * Update .gitignore * Update .gitignore * Update install.sh * Update install.sh * Update extra-req.txt * Update requirements.txt
384 lines
17 KiB
Markdown
384 lines
17 KiB
Markdown
<div align="center">
|
||
|
||
<h1>GPT-SoVITS-WebUI</h1>
|
||
Güçlü Birkaç Örnekli Ses Dönüştürme ve Metinden Konuşmaya Web Arayüzü.<br><br>
|
||
|
||
[](https://github.com/RVC-Boss/GPT-SoVITS)
|
||
|
||
<a href="https://trendshift.io/repositories/7033" target="_blank"><img src="https://trendshift.io/api/badge/repositories/7033" alt="RVC-Boss%2FGPT-SoVITS | Trendshift" style="width: 250px; height: 55px;" width="250" height="55"/></a>
|
||
|
||
<!-- img src="https://counter.seku.su/cmoe?name=gptsovits&theme=r34" /><br> -->
|
||
|
||
[](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/colab_webui.ipynb)
|
||
[](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE)
|
||
[](https://huggingface.co/spaces/lj1995/GPT-SoVITS-v2)
|
||
[](https://discord.gg/dnrgs5GHfG)
|
||
|
||
[**English**](../../README.md) | [**中文简体**](../cn/README.md) | [**日本語**](../ja/README.md) | [**한국어**](../ko/README.md) | **Türkçe**
|
||
|
||
</div>
|
||
|
||
---
|
||
|
||
## Özellikler:
|
||
|
||
1. **Sıfır Örnekli Metinden Konuşmaya:** 5 saniyelik bir vokal örneği girin ve anında metinden konuşmaya dönüşümünü deneyimleyin.
|
||
|
||
2. **Birkaç Örnekli Metinden Konuşmaya:** Daha iyi ses benzerliği ve gerçekçiliği için modeli yalnızca 1 dakikalık eğitim verisiyle ince ayarlayın.
|
||
|
||
3. **Çapraz Dil Desteği:** Eğitim veri setinden farklı dillerde çıkarım, şu anda İngilizce, Japonca, Çince, Kantonca ve Koreceyi destekliyor.
|
||
|
||
4. **Web Arayüzü Araçları:** Entegre araçlar arasında vokal eşliğinde ayırma, otomatik eğitim seti segmentasyonu, Çince ASR ve metin etiketleme bulunur ve yeni başlayanların eğitim veri setleri ve GPT/SoVITS modelleri oluşturmalarına yardımcı olur.
|
||
|
||
**[Demo videomuzu](https://www.bilibili.com/video/BV12g4y1m7Uw) buradan izleyin!**
|
||
|
||
Görünmeyen konuşmacılar birkaç örnekli ince ayar demosu:
|
||
|
||
https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
|
||
|
||
**Kullanıcı Kılavuzu: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)**
|
||
|
||
## Kurulum
|
||
|
||
### Test Edilmiş Ortamlar
|
||
|
||
- Python 3.9, PyTorch 2.0.1, CUDA 11
|
||
- Python 3.10.13, PyTorch 2.1.2, CUDA 12.3
|
||
- Python 3.9, PyTorch 2.2.2, macOS 14.4.1 (Apple silikon)
|
||
- Python 3.9, PyTorch 2.2.2, CPU cihazları
|
||
|
||
_Not: numba==0.56.4, py<3.11 gerektirir_
|
||
|
||
### Windows
|
||
|
||
Eğer bir Windows kullanıcısıysanız (win>=10 ile test edilmiştir), [entegre paketi indirin](https://huggingface.co/lj1995/GPT-SoVITS-windows-package/resolve/main/GPT-SoVITS-v3lora-20250228.7z?download=true) ve _go-webui.bat_ dosyasına çift tıklayarak GPT-SoVITS-WebUI'yi başlatın.
|
||
|
||
### Linux
|
||
|
||
```bash
|
||
conda create -n GPTSoVits python=3.9
|
||
conda activate GPTSoVits
|
||
bash install.sh
|
||
```
|
||
|
||
### macOS
|
||
|
||
**Not: Mac'lerde GPU'larla eğitilen modeller, diğer cihazlarda eğitilenlere göre önemli ölçüde daha düşük kalitede sonuç verir, bu nedenle geçici olarak CPU'lar kullanıyoruz.**
|
||
|
||
1. `xcode-select --install` komutunu çalıştırarak Xcode komut satırı araçlarını yükleyin.
|
||
2. FFmpeg'i yüklemek için `brew install ffmpeg` komutunu çalıştırın.
|
||
3. Aşağıdaki komutları çalıştırarak programı yükleyin:
|
||
|
||
```bash
|
||
conda create -n GPTSoVits python=3.9
|
||
conda activate GPTSoVits
|
||
pip install -r extra-req.txt --no-deps
|
||
pip install -r requirements.txt
|
||
```
|
||
|
||
### El ile Yükleme
|
||
|
||
#### FFmpeg'i Yükleme
|
||
|
||
##### Conda Kullanıcıları
|
||
|
||
```bash
|
||
conda install ffmpeg
|
||
```
|
||
|
||
##### Ubuntu/Debian Kullanıcıları
|
||
|
||
```bash
|
||
sudo apt install ffmpeg
|
||
sudo apt install libsox-dev
|
||
conda install -c conda-forge 'ffmpeg<7'
|
||
```
|
||
|
||
##### Windows Kullanıcıları
|
||
|
||
[ffmpeg.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe) ve [ffprobe.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe) dosyalarını indirin ve GPT-SoVITS kök dizinine yerleştirin.
|
||
|
||
##### MacOS Kullanıcıları
|
||
|
||
```bash
|
||
brew install ffmpeg
|
||
```
|
||
|
||
#### Bağımlılıkları Yükleme
|
||
|
||
```bash
|
||
pip install -r extra-req.txt --no-deps
|
||
pip install -r requirements.txt
|
||
```
|
||
|
||
### Docker Kullanarak
|
||
|
||
#### docker-compose.yaml yapılandırması
|
||
|
||
0. Görüntü etiketleri hakkında: Kod tabanındaki hızlı güncellemeler ve görüntüleri paketleme ve test etme işleminin yavaş olması nedeniyle, lütfen şu anda paketlenmiş en son görüntüleri kontrol etmek için [Docker Hub](https://hub.docker.com/r/breakstring/gpt-sovits) adresini kontrol edin ve durumunuza göre seçim yapın veya alternatif olarak, kendi ihtiyaçlarınıza göre bir Dockerfile kullanarak yerel olarak oluşturun.
|
||
1. Ortam Değişkenleri:
|
||
- is_half: Yarım hassasiyet/çift hassasiyeti kontrol eder. Bu genellikle "SSL çıkarma" adımı sırasında 4-cnhubert/5-wav32k dizinleri altındaki içeriğin doğru şekilde oluşturulmamasının nedenidir. Gerçek durumunuza göre True veya False olarak ayarlayın.
|
||
2. Birim Yapılandırması,Kapsayıcı içindeki uygulamanın kök dizini /workspace olarak ayarlanmıştır. Varsayılan docker-compose.yaml, içerik yükleme/indirme için bazı pratik örnekler listeler.
|
||
3. shm_size: Windows üzerinde Docker Desktop için varsayılan kullanılabilir bellek çok küçüktür, bu da anormal işlemlere neden olabilir. Kendi durumunuza göre ayarlayın.
|
||
4. Dağıtım bölümü altında, GPU ile ilgili ayarlar sisteminize ve gerçek koşullara göre dikkatlice ayarlanmalıdır.
|
||
|
||
#### docker compose ile çalıştırma
|
||
|
||
```
|
||
docker compose -f "docker-compose.yaml" up -d
|
||
```
|
||
|
||
#### docker komutu ile çalıştırma
|
||
|
||
Yukarıdaki gibi, ilgili parametreleri gerçek durumunuza göre değiştirin, ardından aşağıdaki komutu çalıştırın:
|
||
|
||
```
|
||
docker run --rm -it --gpus=all --env=is_half=False --volume=G:\GPT-SoVITS-DockerTest\output:/workspace/output --volume=G:\GPT-SoVITS-DockerTest\logs:/workspace/logs --volume=G:\GPT-SoVITS-DockerTest\SoVITS_weights:/workspace/SoVITS_weights --workdir=/workspace -p 9880:9880 -p 9871:9871 -p 9872:9872 -p 9873:9873 -p 9874:9874 --shm-size="16G" -d breakstring/gpt-sovits:xxxxx
|
||
```
|
||
|
||
## Önceden Eğitilmiş Modeller
|
||
|
||
1. [GPT-SoVITS Models](https://huggingface.co/lj1995/GPT-SoVITS) üzerinden önceden eğitilmiş modelleri indirip `GPT_SoVITS/pretrained_models` dizinine yerleştirin.
|
||
|
||
2. [G2PWModel_1.1.zip](https://paddlespeech.cdn.bcebos.com/Parakeet/released_models/g2p/G2PWModel_1.1.zip) üzerinden modeli indirip sıkıştırmayı açın ve `G2PWModel` olarak yeniden adlandırın, ardından `GPT_SoVITS/text` dizinine yerleştirin. (Sadece Çince TTS için)
|
||
|
||
3. UVR5 (Vokal/Enstrümantal Ayrımı & Yankı Giderme) için, [UVR5 Weights](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/uvr5_weights) üzerinden modelleri indirip `tools/uvr5/uvr5_weights` dizinine yerleştirin.
|
||
|
||
- UVR5'te bs_roformer veya mel_band_roformer modellerini kullanıyorsanız, modeli ve ilgili yapılandırma dosyasını manuel olarak indirip `tools/UVR5/UVR5_weights` klasörüne yerleştirebilirsiniz. **Model dosyası ve yapılandırma dosyasının adı, uzantı dışında aynı olmalıdır**. Ayrıca, model ve yapılandırma dosyasının adlarında **“roformer”** kelimesi yer almalıdır, böylece roformer sınıfındaki bir model olarak tanınır.
|
||
|
||
- Model adı ve yapılandırma dosyası adı içinde **doğrudan model tipini belirtmek önerilir**. Örneğin: mel_mand_roformer, bs_roformer. Belirtilmezse, yapılandırma dosyasından özellikler karşılaştırılarak model tipi belirlenir. Örneğin, `bs_roformer_ep_368_sdr_12.9628.ckpt` modeli ve karşılık gelen yapılandırma dosyası `bs_roformer_ep_368_sdr_12.9628.yaml` bir çifttir. Aynı şekilde, `kim_mel_band_roformer.ckpt` ve `kim_mel_band_roformer.yaml` da bir çifttir.
|
||
|
||
4. Çince ASR için, [Damo ASR Model](https://modelscope.cn/models/damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/files), [Damo VAD Model](https://modelscope.cn/models/damo/speech_fsmn_vad_zh-cn-16k-common-pytorch/files) ve [Damo Punc Model](https://modelscope.cn/models/damo/punc_ct-transformer_zh-cn-common-vocab272727-pytorch/files) üzerinden modelleri indirip `tools/asr/models` dizinine yerleştirin.
|
||
|
||
5. İngilizce veya Japonca ASR için, [Faster Whisper Large V3](https://huggingface.co/Systran/faster-whisper-large-v3) üzerinden modeli indirip `tools/asr/models` dizinine yerleştirin. Ayrıca, [diğer modeller](https://huggingface.co/Systran) benzer bir etki yaratabilir ve daha az disk alanı kaplayabilir.
|
||
|
||
## Veri Seti Formatı
|
||
|
||
TTS açıklama .list dosya formatı:
|
||
|
||
```
|
||
vocal_path|speaker_name|language|text
|
||
```
|
||
|
||
Dil sözlüğü:
|
||
|
||
- 'zh': Çince
|
||
- 'ja': Japonca
|
||
- 'en': İngilizce
|
||
- 'ko': Korece
|
||
- 'yue': Kantonca
|
||
|
||
Örnek:
|
||
|
||
```
|
||
D:\GPT-SoVITS\xxx/xxx.wav|xxx|en|I like playing Genshin.
|
||
```
|
||
|
||
## İnce Ayar ve Çıkarım
|
||
|
||
### WebUI'yi Açın
|
||
|
||
#### Entegre Paket Kullanıcıları
|
||
|
||
`go-webui.bat` dosyasına çift tıklayın veya `go-webui.ps1` kullanın.
|
||
V1'e geçmek istiyorsanız, `go-webui-v1.bat` dosyasına çift tıklayın veya `go-webui-v1.ps1` kullanın.
|
||
|
||
#### Diğerleri
|
||
|
||
```bash
|
||
python webui.py <dil(isteğe bağlı)>
|
||
```
|
||
|
||
V1'e geçmek istiyorsanız,
|
||
|
||
```bash
|
||
python webui.py v1 <dil(isteğe bağlı)>
|
||
```
|
||
|
||
veya WebUI'de manuel olarak sürüm değiştirin.
|
||
|
||
### İnce Ayar
|
||
|
||
#### Yol Otomatik Doldurma artık destekleniyor
|
||
|
||
1. Ses yolunu doldurun
|
||
2. Sesi küçük parçalara ayırın
|
||
3. Gürültü azaltma (isteğe bağlı)
|
||
4. ASR
|
||
5. ASR transkripsiyonlarını düzeltin
|
||
6. Bir sonraki sekmeye geçin ve modeli ince ayar yapın
|
||
|
||
### Çıkarım WebUI'sini Açın
|
||
|
||
#### Entegre Paket Kullanıcıları
|
||
|
||
`go-webui-v2.bat` dosyasına çift tıklayın veya `go-webui-v2.ps1` kullanın, ardından çıkarım webui'sini `1-GPT-SoVITS-TTS/1C-inference` adresinde açın.
|
||
|
||
#### Diğerleri
|
||
|
||
```bash
|
||
python GPT_SoVITS/inference_webui.py <dil(isteğe bağlı)>
|
||
```
|
||
|
||
VEYA
|
||
|
||
```bash
|
||
python webui.py
|
||
```
|
||
|
||
ardından çıkarım webui'sini `1-GPT-SoVITS-TTS/1C-inference` adresinde açın.
|
||
|
||
## V2 Sürüm Notları
|
||
|
||
Yeni Özellikler:
|
||
|
||
1. Korece ve Kantonca destekler
|
||
|
||
2. Optimize edilmiş metin ön yüzü
|
||
|
||
3. Önceden eğitilmiş model 2k saatten 5k saate kadar genişletildi
|
||
|
||
4. Düşük kaliteli referans sesler için geliştirilmiş sentez kalitesi
|
||
|
||
[detaylar burada](<https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v2%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)>)
|
||
|
||
V1 ortamından V2'yi kullanmak için:
|
||
|
||
1. `pip install -r requirements.txt` ile bazı paketleri güncelleyin
|
||
|
||
2. github'dan en son kodları klonlayın.
|
||
|
||
3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained) adresinden v2 önceden eğitilmiş modelleri indirin ve bunları `GPT_SoVITS\pretrained_models\gsv-v2final-pretrained` dizinine yerleştirin.
|
||
|
||
Ek olarak Çince V2: [G2PWModel_1.1.zip](https://paddlespeech.cdn.bcebos.com/Parakeet/released_models/g2p/G2PWModel_1.1.zip) (G2PW modellerini indirip, zipten çıkarıp, `G2PWModel` olarak yeniden adlandırıp `GPT_SoVITS/text` dizinine yerleştirin.)
|
||
|
||
## V3 Sürüm Notları
|
||
|
||
### Yeni Özellikler:
|
||
|
||
1. **Tını benzerliği** daha yüksek olup, hedef konuşmacıyı yakınsamak için daha az eğitim verisi gerekmektedir (tını benzerliği, base model doğrudan kullanılacak şekilde fine-tuning yapılmadan önemli ölçüde iyileştirilmiştir).
|
||
|
||
2. GPT modeli daha **kararlı** hale geldi, tekrarlar ve atlamalar azaldı ve **daha zengin duygusal ifadeler** ile konuşma üretmek daha kolay hale geldi.
|
||
|
||
[daha fazla detay](<https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v3%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)>)
|
||
|
||
### v2 ortamında v3 kullanımı:
|
||
|
||
1. `pip install -r requirements.txt` ile bazı paketleri güncelleyin.
|
||
|
||
2. GitHub’dan en son kodları klonlayın.
|
||
|
||
3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main) üzerinden v3 önceden eğitilmiş modellerini (s1v3.ckpt, s2Gv3.pth ve models--nvidia--bigvgan_v2_24khz_100band_256x klasörünü) indirin ve `GPT_SoVITS\pretrained_models` dizinine yerleştirin.
|
||
|
||
ek: Ses Süper Çözünürlük modeli için [nasıl indirileceği](../../tools/AP_BWE_main/24kto48k/readme.txt) hakkında bilgi alabilirsiniz.
|
||
|
||
## Yapılacaklar Listesi
|
||
|
||
- [x] **Yüksek Öncelikli:**
|
||
|
||
- [x] Japonca ve İngilizceye yerelleştirme.
|
||
- [x] Kullanıcı kılavuzu.
|
||
- [x] Japonca ve İngilizce veri seti ince ayar eğitimi.
|
||
|
||
- [ ] **Özellikler:**
|
||
- [x] Sıfır örnekli ses dönüştürme (5s) / birkaç örnekli ses dönüştürme (1dk).
|
||
- [x] Metinden konuşmaya konuşma hızı kontrolü.
|
||
- [ ] ~~Gelişmiş metinden konuşmaya duygu kontrolü.~~
|
||
- [ ] SoVITS token girdilerini kelime dağarcığı olasılık dağılımına değiştirme denemesi.
|
||
- [x] İngilizce ve Japonca metin ön ucunu iyileştirme.
|
||
- [ ] Küçük ve büyük boyutlu metinden konuşmaya modelleri geliştirme.
|
||
- [x] Colab betikleri.
|
||
- [ ] Eğitim veri setini genişletmeyi dene (2k saat -> 10k saat).
|
||
- [x] daha iyi sovits temel modeli (geliştirilmiş ses kalitesi)
|
||
- [ ] model karışımı
|
||
|
||
## (Ekstra) Komut satırından çalıştırma yöntemi
|
||
|
||
UVR5 için Web Arayüzünü açmak için komut satırını kullanın
|
||
|
||
```
|
||
python tools/uvr5/webui.py "<infer_device>" <is_half> <webui_port_uvr5>
|
||
```
|
||
|
||
<!-- Bir tarayıcı açamıyorsanız, UVR işleme için aşağıdaki formatı izleyin,Bu ses işleme için mdxnet kullanıyor
|
||
```
|
||
python mdxnet.py --model --input_root --output_vocal --output_ins --agg_level --format --device --is_half_precision
|
||
``` -->
|
||
|
||
Veri setinin ses segmentasyonu komut satırı kullanılarak bu şekilde yapılır
|
||
|
||
```
|
||
python audio_slicer.py \
|
||
--input_path "<orijinal_ses_dosyası_veya_dizininin_yolu>" \
|
||
--output_root "<alt_bölümlere_ayrılmış_ses_kliplerinin_kaydedileceği_dizin>" \
|
||
--threshold <ses_eşiği> \
|
||
--min_length <her_bir_alt_klibin_minimum_süresi> \
|
||
--min_interval <bitişik_alt_klipler_arasındaki_en_kısa_zaman_aralığı>
|
||
--hop_size <ses_eğrisini_hesaplamak_için_adım_boyutu>
|
||
```
|
||
|
||
Veri seti ASR işleme komut satırı kullanılarak bu şekilde yapılır (Yalnızca Çince)
|
||
|
||
```
|
||
python tools/asr/funasr_asr.py -i <girdi> -o <çıktı>
|
||
```
|
||
|
||
ASR işleme Faster_Whisper aracılığıyla gerçekleştirilir (Çince dışındaki ASR işaretleme)
|
||
|
||
(İlerleme çubukları yok, GPU performansı zaman gecikmelerine neden olabilir)
|
||
|
||
```
|
||
python ./tools/asr/fasterwhisper_asr.py -i <girdi> -o <çıktı> -l <dil>
|
||
```
|
||
|
||
Özel bir liste kaydetme yolu etkinleştirildi
|
||
|
||
## Katkı Verenler
|
||
|
||
Özellikle aşağıdaki projelere ve katkıda bulunanlara teşekkür ederiz:
|
||
|
||
### Teorik Araştırma
|
||
|
||
- [ar-vits](https://github.com/innnky/ar-vits)
|
||
- [SoundStorm](https://github.com/yangdongchao/SoundStorm/tree/master/soundstorm/s1/AR)
|
||
- [vits](https://github.com/jaywalnut310/vits)
|
||
- [TransferTTS](https://github.com/hcy71o/TransferTTS/blob/master/models.py#L556)
|
||
- [contentvec](https://github.com/auspicious3000/contentvec/)
|
||
- [hifi-gan](https://github.com/jik876/hifi-gan)
|
||
- [fish-speech](https://github.com/fishaudio/fish-speech/blob/main/tools/llama/generate.py#L41)
|
||
- [f5-TTS](https://github.com/SWivid/F5-TTS/blob/main/src/f5_tts/model/backbones/dit.py)
|
||
- [shortcut flow matching](https://github.com/kvfrans/shortcut-models/blob/main/targets_shortcut.py)
|
||
|
||
### Önceden Eğitilmiş Modeller
|
||
|
||
- [Chinese Speech Pretrain](https://github.com/TencentGameMate/chinese_speech_pretrain)
|
||
- [Chinese-Roberta-WWM-Ext-Large](https://huggingface.co/hfl/chinese-roberta-wwm-ext-large)
|
||
- [BigVGAN](https://github.com/NVIDIA/BigVGAN)
|
||
|
||
### Tahmin İçin Metin Ön Ucu
|
||
|
||
- [paddlespeech zh_normalization](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/zh_normalization)
|
||
- [split-lang](https://github.com/DoodleBears/split-lang)
|
||
- [g2pW](https://github.com/GitYCC/g2pW)
|
||
- [pypinyin-g2pW](https://github.com/mozillazg/pypinyin-g2pW)
|
||
- [paddlespeech g2pw](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/g2pw)
|
||
|
||
### WebUI Araçları
|
||
|
||
- [ultimatevocalremovergui](https://github.com/Anjok07/ultimatevocalremovergui)
|
||
- [audio-slicer](https://github.com/openvpi/audio-slicer)
|
||
- [SubFix](https://github.com/cronrpc/SubFix)
|
||
- [FFmpeg](https://github.com/FFmpeg/FFmpeg)
|
||
- [gradio](https://github.com/gradio-app/gradio)
|
||
- [faster-whisper](https://github.com/SYSTRAN/faster-whisper)
|
||
- [FunASR](https://github.com/alibaba-damo-academy/FunASR)
|
||
- [AP-BWE](https://github.com/yxlu-0102/AP-BWE)
|
||
|
||
@Naozumi520’ye Kantonca eğitim setini sağladığı ve Kantonca ile ilgili bilgiler konusunda rehberlik ettiği için minnettarım.
|
||
|
||
## Tüm katkıda bulunanlara çabaları için teşekkürler
|
||
|
||
<a href="https://github.com/RVC-Boss/GPT-SoVITS/graphs/contributors" target="_blank">
|
||
<img src="https://contrib.rocks/image?repo=RVC-Boss/GPT-SoVITS" />
|
||
</a>
|