hallfay 在 macos的语音输入法,用qwen3-asr-flash模型,使用体验与豆包手机输入法接近一致 中发帖
macos使用spokenly,但是因为速度原因,主要是链接速度延迟等原因,体验不理想,有大佬使用cf worker部署来使用asr,体验很不错,但是还是一个,速度极慢,将这个workers改一下变为本地使用的js使用体验飞一般的提升.
内存占用35M,极低.生成速度接近豆包手机输入法的速度,这个只适合本地使用.在spokenly输入模型:qwen3-asr-flash:itn 地址:http://localhost:30039 key:自备 具体使用方法把这段js丢给ai就全懂了,保活用pm2.
#!/usr/bin/env node
/**
* 本地 OpenAI 兼容 ASR API 服务器 - 只使用阿里云 DashScope 服务
*
* 功能: 完全模拟原 Worker,提供 /v1/audio/transcriptions 端点
* 支持浏览器/ ...