https://linux.do 论坛的话题更新通知频道。
@xhzlk如果glm5.1有juice值,那一定是非常稳定的429 中发帖

🤣gpt的juice值需要提示词才能问出来,glm5.1就不一样了,你不问他他都跟你报429(高峰期限流不可用报错)
@AlexFoxDeepSeek V4角色扮演简单测试 中发帖

简单测试了一下角色扮演能力(这可是重中之重啊!),用的是v3.2的简单的提示词(提示词就不发了咳咳咳),能感觉出来回复明显“平淡化”了,原来的v3.2的提示词可能需要优化一下,等某个APP上架了v4 pro我再试试那些大神写的角色卡,这次用的也是pro+think max,不知道如果不开max效果会不会打折扣
𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷 (@lezishen)微软首次向员工提供自愿离职补偿方案 中发帖

[image] 
[image]
[image]
https://cn.wsj.com/articles/microsoft-offers-buyouts-to-7-of-workforce-601754bc
徐福 (@yuelove123)AI读《DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence》 中发帖

使用deepseek-v4 pro的总结,配合gpt-image-2的出图 
[deepseek v4]
霞葉 (@shiki)GPT 5.5 可能没法破限了 中发帖

GPT 5.4 使用之前 model_instruction 方法,加上 ctf 相关的 skill,从没翻车过,就连一些恶意的 exploit 都帮写了。5.5 出来之后想试试渗透能力,结果会话被中断了,感觉可能是外审,这样的话可能没法破限了。 
[image]
🐟 (@stevessr)Bitwarden CLI 遭受供应链攻击 中发帖

[!quote]+ 
JFrog 安全研究人员发现了一个被劫持的 npm 软件包,该软件包以 @bitwarden/cli 2026.4.0 版本发布,冒充合法的 Bitwarden 命令行客户端。该软件包保留了预期的 Bitwarden 元数据,但将预安装和 bw 二进制入口点重新连接到一个自定义加载器 bw_setup.js,而不是合法捆绑的 CLI。
如果 bun runtime 尚未存在,加载器会从 GitHub 下载 bun runtime,然后启动一个大型混淆 JavaScript 有效载荷。一旦解密,该有效载荷就会显示针对开发人员工作站和 CI 环境的广泛凭证盗窃操作:GitHub 和 npm 标记、SSH 材料、shell 历史记录、AWS、GCP 和 Azure 秘密、GitHub 操作秘密以及人工智能工具配置文件都是目标。
该有效载荷使用两个外泄渠道。其主要路...
Kurt (@Ava01)deepseekv4编码 中发帖

大家都是在哪用的dsv4编码呀  trae和cursor都没适配吧?“error”:{“message”:"The reasoning_content in the thinking mode must be passed back to the API. }
fangxiusun求问关于国内云服务厂商带宽使用的问题 中发帖

最近帮一个朋友搞服务器,发现国内云厂商的带宽贵的离谱 
尤其是要求高一点的,简直抢劫一样
基本上20M规定带宽的,1年都要1.5w左右
问了下大模型,想了几个方案,求有经验的佬们指导一下
1、订购几个小流量的带宽
比如,订购4个5M的,绑定个很弱的服务器,然后再通过云厂商的EIP之类的做轮询转发,
这样,只要不是单客户端对大流量有要求的,是不是基本可以满足?
2、订购多个轻量级服务器
同上面的思路一样,轻量级服务器一般是共享200M带宽的,有云厂商也提供的多轻量级服务器路由的能力。
不过我有一点不是很确定,有没有可能,我订阅的轻量级服务器都是在1个200m的池子里面,虽然定了多台,但是实际上是自己抢自己的?
谢谢各位佬的指教
gyj (@gaoyongjian)双机位机考有什么好用的方法吗 中发帖

马上机考了 要双机位 请问有什么其他的好用的方法吗
你这是违法行为 (@Anano)华为芯片拖慢DeepSeek V4上线?同一内核通吃英伟达昇腾还加速近2倍! 中发帖

DeepSeek V4 发布前,社区广泛流传一种猜测:V4 上线时间晚于预期,是因为模型从英伟达迁移到华为昇腾平台遭遇适配困难。V4 技术报告虽未直接回应这一传闻,但披露的性能数据与之明显矛盾。 
报告显示,V4 的细粒度专家分区方案(Fine-Grained EP Scheme)已在 NVIDIA GPU 和华为昇腾 NPU 双平台完成部署验证,常规推理负载加速 1.50 至 1.73 倍,RL rollout 和高速 Agent 服务等延迟敏感场景最高加速 1.96 倍。团队已将 CUDA 版本内核 MegaMoE 作为 DeepGEMM 的一部分开源。换言之,V4 在两套硬件上都跑出了接近理论上限的效率,跨平台适配并未造成性能折损。
[image]
@AlexFoxDeepSeek V4 Thinking Max+OpenCode小功能代码测试 中发帖

用DeepSeek V4测试了一下代码能力,让它给我的一个后端项目加个RSS功能,实测下来感觉还不错,能很好的理解项目架构(也有OpenCode的功劳),做出的改动符合当前项目架构,没有出现写屎山或者自己造轮子情况,不过没有自行生成单元测试,gpt的话大部分时间会自动生成单元测试。就是价格上有点小贵,直接用的官方API,后台显示花费4.98元,总Token为1533274 token,输入(命中缓存)1245696 token,输入(未命中缓存)263792 token,输出23786 token
初雨荷 (@Chuyuhe)cpa反代codex 5.5怎么开启fast模式 中发帖

我平常是在codexapp里使用的自己的cpa服务器,之前5.4时期就有配过。 
当时看到有佬友说config.toml中加入service_tier = "fast"然后在cpa中的payload中加入如下配置就行
[image]
不知道现在是否还能这样配置
这是我目前的codex配置
[image]
btw:codexapp里只能显示自定义模型而且上下文窗口好像只有258k
[image]
𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷 (@lezishen)原来L站都是高收入家庭、 中发帖

[image] 
[image]
[image]
[image]
VIAOTO (@1392726643)codex windows app 新版本浏览器使用功能 中发帖

[PixPin2026-04-2412-57-38] 
在新版本设置中发现了浏览器使用,但是似乎无法使用
lucas (@lucasli)deepseek定位的一些分析 中发帖

大家有称赞有批评,批评主要集中在coding不是很突出上,但作为国内爆款模型,大部分的user还是集中在QA和世界知识上,而不是coding,也就是说他们想做的可能是一款平民称赞的模型,而不是类似于glm的coding model ?
我是小鸭头 (@WSXYT)今天也没赶啥,怎么LDC预估-113 中发帖

[image]我今天应该可能好像没有干啥吧?那个官方的积分显示请求失败,LDSP显示扣我113 😱
Alva (@asjun2lin)DeepSeek V4 的相关影响 中发帖

deepseek v4 的推出,应该对相关同行有着不小的影响。简单的像其他家的ai也要有1m上下文了啥的。光是对昇腾gpu的支持,就能把老黄逼急(前不久采访提到的不该限制gpu卖给中国的言论)。 
光从模型看,哪怕公众号文章提到的性能有所差距

“目前 DeepSeek-V4 已成为公司内部员工使用的 Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距”

对 A\ 应该也会有些政策上的影响吧?(2%的pro订阅不允许使用 claude code)。

至于 codex,最近已经可以说是开始做人了。不仅最新的 5.5 开始说人话,而且还在不断重置额度
@withnoideaL站没有广告,也没付费内容,靠什么盈利? 中发帖

L站是纯公益吗,靠什么维持运行呢?论坛似乎都不挣钱 🤔