跳转至

推理

Fish Audio S2 模型需要较大的显存,我们推荐您使用至少24GB的GPU进行推理。

下载权重

首先您需要下载模型权重:

hf download fishaudio/s2-pro --local-dir checkpoints/s2-pro

命令行推理

Note

如果您计划让模型随机选择音色,可以跳过此步骤。

1. 从参考音频获取 VQ tokens

python fish_speech/models/dac/inference.py \
    -i "test.wav" \
    --checkpoint-path "checkpoints/s2-pro/codec.pth"

您应该会得到一个 fake.npy 和一个 fake.wav

2. 从文本生成 Semantic tokens:

python fish_speech/models/text2semantic/inference.py \
    --text "您想要转换的文本" \
    --prompt-text "您的参考文本" \
    --prompt-tokens "fake.npy" \
    # --compile

此命令将在工作目录中创建一个 codes_N 文件,其中 N 是从 0 开始的整数。

Note

您可能希望使用 --compile 来融合 CUDA 内核以实现更快的推理,但是我们更推荐您使用我们sglang的推理加速优化。 相应地,如果您不计划使用加速,可以注释掉 --compile 参数。

Info

对于不支持 bf16 的 GPU,您可能需要使用 --half 参数。

3. 从语义令牌生成声音:

python fish_speech/models/dac/inference.py \
    -i "codes_0.npy" \

之后你会得到一个fake.wav文件。

WebUI 推理

未完待续。