当前位置:   article > 正文

语音识别(实时语音转录)——funasr的详细部署和使用教程(包括实时语音转录)

语音识别(实时语音转录)——funasr的详细部署和使用教程(包括实时语音转录)

阿里达摩院开源大型端到端语音识别工具包FunASR:

FunASR提供了在大规模工业语料库上训练的模型,并能够将其部署到应用程序中。工具包的核心模型是Paraformer,这是一个非自回归的端到端语音识别模型,经过手动注释的普通话语音识别数据集进行了训练,该数据集包含60,000小时的语音数据。为了提高Paraformer的性能,本文在标准的Paraformer基础上增加了时间戳预测和热词定制能力。此外,为了便于模型部署,本文还开源了基于前馈时序记忆网络FSMN-VAD的语音活动检测模型和基于可控时延Transformer(CT-Transformer)的文本后处理标点模型,这两个模型都是在工业语料库上训练的。这些功能模块为构建高精度的长音频语音识别服务提供了坚实的基础,与在公开数据集上训练的其它模型相比,Paraformer展现出了更卓越的性能。 FunASR 的中文语音转写效果比 Whisper 更优秀。

一、环境配置

https://github.com/modelscope/FunASR

  1. conda create -n funasr python=3.9
  2. conda activate funasr
  3. conda install pytorch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 pytorch-cuda=11.8 -c pytorch -c nvidia
  4. pip install -U funasr
  5. pip install -U modelscope huggingface_hub

二、简单示例

需要下载模型

1.非流式

  1. from funasr import AutoModel
  2. from funasr.utils.postprocess_utils import rich_transcription_postprocess
  3. model_dir = "iic/SenseVoiceSmall"
  4. model = AutoModel(
  5. model=model_dir,
  6. vad_model="fsmn-vad",
  7. vad_kwargs={"max_single_segment_time": 30000},
  8. device="cuda:0",
  9. )
  10. # en
  11. res = model.generate(
  12. input=f"{model.model_path}/example/en.mp3",
  13. cache={},
  14. language="auto", # "zn", "en", "yue", "ja", "ko", "nospeech"
  15. use_itn=True,
  16. batch_size_s=60,
  17. merge_vad=True, #
  18. merge_length_s=15,
  19. )
  20. text = rich_transcription_postprocess(res[0]["text"])
  21. print(text)

英文识别: 

中文识别: 

2.流式

  1. from funasr import AutoModel
  2. chunk_size = [0, 10, 5] #[0, 10, 5] 600ms, [0, 8, 4] 480ms
  3. encoder_chunk_look_back = 4 #number of chunks to lookback for encoder self-attention
  4. decoder_chunk_look_back = 1 #number of encoder chunks to lookback for decoder cross-attention
  5. model = AutoModel(model="iic/paraformer-zh-streaming")
  6. import soundfile
  7. import os
  8. wav_file = os.path.join(model.model_path, "example/asr_example.wav")
  9. speech, sample_rate = soundfile.read(wav_file)
  10. chunk_stride = chunk_size[1] * 960 # 600ms
  11. cache = {}
  12. total_chunk_num = int(len((speech)-1)/chunk_stride+1)
  13. for i in range(total_chunk_num):
  14. speech_chunk = speech[i*chunk_stride:(i+1)*chunk_stride]
  15. is_final = i == total_chunk_num - 1
  16. res = model.generate(input=speech_chunk, cache=cache, is_final=is_final, chunk_size=chunk_size, encoder_chunk_look_back=encoder_chunk_look_back, decoder_chunk_look_back=decoder_chunk_look_back)
  17. print(res)

三、服务器部署 

\funasr_samples\samples\python

python funasr_wss_server.py

运行服务器端:

 运行客户端:即可使用麦克风,进行实时转录。

python funasr_wss_client.py

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/980120
推荐阅读
相关标签
  

闽ICP备14008679号