https://linux.do 论坛的话题更新通知频道。
wohahakawai (@wohhhkawai) 在 [cc+deepseek设置]cc-switch本地设置deepseek-v4-pro[1m]在ClaudeCode会出现两个[1m]的显示抽象小问题的原因以及如何设置解决总结 中发帖
以下参考cc-switch里面一位佬提交的 issue 中的方法、官方文档和其他佬友帖子进行总结
cc-switch BYOK 本地设置
在cc-switch按照下面这样设置虽然 /context 后都能正确打开1m的上下文,但是 /model 会在默认模型里面出现两个 [1m][1m] 的抽象显示情况,就是因为 Claude Code 里 [1m] 是上下文窗口大小的语法标记,它会把 model: opos 填的 deepseek-v4-pro [1m] 解析为:模型名 = deepseek-v4-pro + 上下文 = 1m,然后在显示时再拼一次,所以变成 deepseek-v4-pro [1m][1m]。
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPI...
@large_ppp 在 狐蒂云要跑路了! 中发帖
[42471B3C45E125659F3A9307FB926AF9]
[7BFC13E24720391A2F7F04BD43EB1566]
狐蒂云要跑路了,佬们,有他家产品的,迅速备份!迅速备份!
啁啾 (@Chirp) 在 DeepSeek V4 Pro带来的惊喜 中发帖
这几天让 GPT 5.5 xhigh 排查我的模型训练代码,想定位 fp8 训练下导致 NaN 的原因
一直以来很信任 GPT,做事严谨认真几乎不会出错。这次排错也是,很耐心地和 GPT 交流想法思路。但时间一长,突然感觉很不舒服
[image]
[image]
我和 GPT 一致认同需要定位出问题的网络节点,甚至是已经定位到具体网络层了。但 GPT 像着了魔一样要么反复验证这个结论,要么建议我关掉整个 fp8,就是没针对问题思考方案做修复。等我反应过来时,一整天时间都过去了
尝试换上 GLM 5.1。也能定位到问题位置,但它紧接着做了一个非常耗时的实验,一不注意把我五小时上限吃完了
[image]
然后是尝试 DeepSeek V4 Pro Max。定位错误,思考方案,插入代码一气呵成,最后工具触发失败整段垮掉
不过问题真解决了,一个很优雅的scale相乘,没有Na...
rsharecn (@bdigu) 在 今天用codex开发软件上瘾了,对于这种宏类型的软件,有什么方法可以更模真人操作吗 中发帖
花了一下午,用codex写了一个宏工具,之前用别人的连点器那些,总感觉UI不喜欢
这一次做了自己喜欢的UI的软件
第一次把自己想法落地变成可运行的软件好开心哈哈
有2种风格,浅色模式和暗色模式,还可以跟随系统
问一下大佬,有没有什么方法可以让宏的操作更像真人,来避免一些游戏检测呢
软件虽然做好了,但是自己不敢用 🤣
[image]
[image]
Pig (@LuoHui) 在 求windsurf反代工具(有偿) 中发帖
目前用的是github的windsurfapi 但是模型的工具调用 上下文 模型认知问题都挺多的,感觉不是很可用。有没有佬有更好的工具或者租凭平台,有偿,ldc或者rmb都可以
久 (@JIUUIJ) 在 「Joverna」我又要跑路了(疑似) 中发帖
由于joverna所有的机器都是狐某云的(对不起,它实在太便宜了),最近各路消息传出要倒闭了 :tieba_087:,所以能蹬的快点蹬吧,rpm已经提高
已经在备份了 🥲
花海 (@ciren) 在 Gemini即将迎来大动作 中发帖
三巨头的这个进度一般都是你追我赶的一个状态,grok一直没动静就不说了。
GPT和Claude的进化速度可以说是这段时间一直在打架,疯狂打架,我敢信现在大家的主力模型都是codex-5.5了吧,Claude暂时丢在一旁了。
什么各种桌面小宠物,模型升级,但是Gemini静悄悄的,没有丝毫变化。
我这几天在使用notebookklm以及Gemini的时候,明显感觉是降智了以及出现依稀一些奇奇怪怪的感觉了。
有一种预感就是Gemini要即将迎来一波大动作了,大概就是5.20左右了,就会更新,但是也没有最新的官方的消息动态啥的。
静悄悄的,总感觉憋一波大的
jacob (@eggpig) 在 各位佬,求问pro 5x代充的稳定渠道 中发帖
各位佬晚上好😀
最早我用gpt plus得益于实验室同学去德国交流过,有国外信用卡,所以大家一起用,后面codex出来之后,发现合用额度确实不太够,就各自解散了。
后面我找了一个那种做中转的网站,以148一个月的价格充值到我的gpt账号上,也是plus。
现在情况是我在赶论文,然后后面估计写代码强度也要上来了,感觉plus不管是五小时还是一周额度都不够用,所以就准备一次性升级到100刀的pro5x。
我的主要需求是:最好充值到我的号上,因为绑定了codex还有gpt的会话历史,不愿意来回切换;稳定、被封概率很小,那种一两百的pro我也刷到过,感觉都是等待被封,我还是希望长久的用下去;不会降智&能便宜最好,不过这个优先级最低,因为降智的话,本身我也是一个人用,ip也固定,估计还好。价格稍微浮动一点也能接受了,还是稳定和可靠最重要。
希望各位有经验的佬分享一下自己的渠道,最好是海鲜或...
aerolink (@mingzz) 在 关于算力的峰谷时期与集中运用 中发帖
现在的ai算力还是有明显的峰谷时期的,比如峰时(发现新方法),然后谷时(方法被封),那是否有办法适应这种周期?
想法是有没有办法把先提问,然后在计划完成后,让ai持续工作?也就是一次性攒好多问题,然后有空时一口气解答掉。或者说先用类似sonnet4.5这种长期稳定的模型,来对问题进行预处理,把边界条件补全,然后在高级模型充裕的时期在让高级模型来解决问题?
目前使用的是opencode的ultarwork,实测这个能很好的推动ai一直工作,但仍然有时候ai会在没完成工作的情况下就停止(这个在ralph-loop中尤为明显),据观测是因为ultarwork会引入oracle来判断工作是否完成,而不是自己来判断是否完成。
hecRan 在 【甲骨文】各位佬,我这是注册成功了? 中发帖
各位佬看看,是不是注册成功了。一次性。没什么技巧,开着代理,用无痕,QQ邮箱。
[image]
选择的新加坡,这地方有什么说法吗,后续有什么技巧吗。
Velorix (@3030758482) 在 想问一下gpt订阅转api容易封号吗? 中发帖
想搭建一个中转站,想知道使用sub2api的订阅转api,现在是否容易封号?
gpt的话我打算是直接充值的,不是Free号以及白嫖的Plus。
Marchen_orz (@Marchen) 在 申请了一周的小米orbit计划还没过 中发帖
之前小号申请了orbit只给了standard版本订阅,想着大号重新申请看看能不能给个pro或者max,五一节前两天申请了,到今天一点消息没有,是被刷掉了还是被忘掉了 🥲🥲🥲