湾狐狸🦊 (@baysonfox)本地部署MiniMax-M2.5 配合 OpenCode 写项目 (更新中) 中发帖

如题,他们今天刚把M2.5的权重放到huggingface上,架构也没啥变化 vLLM可以直接兼容,于是下下来部署试试看 
正好有个小玩意写到一半(前端的基础让Opus 4.6写了个大概框架,后端就直接交给它了)
前端的Chat History: OpenCode (可能有NSFW内容)