BHznJNs最近在做一个 STT 相关的项目,有一个问题想请问一下大佬们 中发帖

我的项目中依赖的 STT 库 faster-whisper 是通过 huggingface 来下载模型文件的,但是众所周知 huggingface 国内是无法直连的。并且由于模型下载后的格式不同(huggingface 的模型下载后在本地使用类似于 git 的目录格式),也没法在代码中先用 modelscope 下载好,再让 faster-whisper 直接加载本地模型。 
想请问佬友们有没有什么办法,能让 faster-whisper 直接读取我直接通过 modelscope 下载的模型?
因为是想封装成一个比较容易使用的应用,感觉不太能让用户自备科学上网环境。也想过可以先把模型上传到网盘,再让用户手动下载模型文件。