https://linux.do 论坛的话题更新通知频道。
@diaobaol 在 你们公司是怎么提供 AI 订阅服务的?走老板私人钱包 中发帖
想问问佬友,你们公司是怎么给员工配 AI 工具的?
比如 ChatGPT Business 、Claude Team 这些,公司有统一购买吗? 还是员工自己掏钱然后报销?或者直接给个共享账号凑合用?
我们这边老板是自己掏私人腰包给大家买,预算大概每人每月 30 刀, 最近想推动走个更正式的方案,但老板不想折腾,ChatGPT Business 没法走内购 想看看大家都是什么情况,有没有比较好的落地方案可以参考一下。
有个同事还推荐中转站,我给老板演示了一下后台记录对话记录,多渠道轮询掺假,提示词注入安装脚本,然后中转站方案就被否了
Xbroad (@zxy5821) 在 甲骨文注册一把过了,感谢Oracle,感谢各位分享的佬友 中发帖
最近看到很多佬都成功注册了甲骨文,期间没有少看佬分享的教程,抱着试试的态度竟然一次成功了,现在账号也顺利升级了,凤凰城区域,请问各位佬接下来使用有什么注意事项吗?
你这是违法行为 (@Anano) 在 寒武纪完成DeepSeek-V4适配,代码已开源,带动国产芯片股走强! 中发帖
寒武纪宣布已在 V4 发布当天完成 285B DeepSeek-V4-Flash 和 1.6T DeepSeek-V4-Pro 两款模型的适配,基于 vLLM 推理框架,适配代码已开源至 GitHub。
适配速度依赖两个前提:一是寒武纪自研 NeuWare 软件栈原生支持 PyTorch、vLLM 等主流框架,模型可快速迁移;二是寒武纪芯片原生支持主流低精度数据格式,无需额外格式转换即可完成精度验证。针对 V4 的新结构,寒武纪通过自研融合算子库 Torch-MLU-Ops,对 Compressor、mHC 等模块做了专项加速,并用 BangC 编写了稀疏/压缩 Attention、GroupGemm 等热点算子内核。
在推理框架层面,寒武纪在 vLLM 中支持 TP/PP/SP/DP/EP 五维混合并行、通信计算并行、低精度量化和 PD 分离部署。V4 技术报告仅提及了在 NVIDI...
lvyufeng 在 关于DeepSeek-V4的Coding评测 中发帖
看各位佬都在测,但是似乎效果没有很好,提醒一下大家配置:
export ANTHROPIC_MODEL=deepseek-v4-pro
export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro
export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-pro
export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-pro
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
export CLAUDE_CODE_DISABLE_NONSTREAMING_FALLBACK=1
export CLAUDE_COD...
@SagiriLzumi 在 感觉Codex的Plus订阅还行,够我一个人用了 中发帖
今天刚刚订阅的这个Plus,原先24年订阅过一年,但是没有现在的功能丰富
(我个人是轻度开发,所以用到的其实不是很多,而且还是间歇用的,以及有中转站兜底)
前几天一直在国模、OpenCode和GPT之间徘徊,看了看KIMI的价格以及GLM等的价格,以及他们的隐私政策(将用户的数据用于训练),并且近期copilot学生订阅也一直在缩水,并且copilot也开始有小时、周限制了,用着现在很难受,而且没有高级模型了,并且中转站有的时候不是很稳定(虽然很便宜)。感觉最终还是不如ChatGPT定价舒服。
最终还是回到GPT的怀抱,感觉还是满血的舒服啊!!
大概用了3次Plan以及3次执行,耗费了5小时限额的25%左右,买之前以为没有周限制,其实发现还是有周限制的。
[CleanShot 2026-04-24 at 13.56.27]
naruto jiang 在 机场私有客户端分流方案 中发帖
当前机场使用通用订阅的连接都不稳定,使用私有客户端的分流规则又不生效(我这里不生效)。
分流规则对于我来说是硬性要求:公司内部网址在公网的 DNS 上不能解析,即使走机场的私有客户端的 bypass 过滤,还是不能解析到真实的 IP。
但是 V2rayN 的 (“设置”->“系统路由设置”->“系统代理设置”) 这里配置的过滤规则是真的过滤,直接走公司内部的 DNS。
于是想到了 2 层代理的方案,机场私有客户端来保证代理的稳定性,V2rayN 来保证我的分流规则。
1、先开启私有客户端,然后修改代理端口为一个空白端口,我这里改成了 7880,主要不想和我是用的 V2rayN 的 7890 冲突
[image]
2、然后开启机场的私有客户端。
[image]
3、然后打开 V2rayN,配置一个 SOCKS 连接
[image]
4、这时候一般 V2rayN 一般会...
小但 (@BarryBooder) 在 trellis和omx对比哪个更好用 中发帖
佬们,如题,之前一直在用omx,这两天在坛里看到有个佬友自制的trellis,粗看下来感觉架构差不多,不知道佬们用起来感觉哪个更好用呢?
疯羊羊 (@vinborth) 在 IOS限免- Jinx去广告终身版0元 中发帖
IOS上去广告的APP Jinx限免了,有需要的赶紧入一个。
Jinx - System-Wide Ad Blocker App - App Store
adtiad (@kokonomiya) 在 deepseek v4 flash翻译挺不错的 中发帖
尝试用ai优化过的calibre translator插件接入,发现翻译速度非常快,而且非常好的遵循提示词,以往会出现行数不一致的情况,deepseek v4 flash都不会有。
[image]
可以猛猛瞪了!
之前在网页测试感觉现在ai翻译都大差不差,不过我需要的专有名词保留以及尽量说人话的感觉还是deepseek稍微好一点,等我翻译完整本书再验证下
JARK006 在 VibeCoding时代的提示词工程还重要吗? 中发帖
在该帖有感而发
以coding为例,其他领域暂不表态。
我的经验是提示词越来越不重要,我以前自以为提示词很重要,给模型定义其身份、行事风格、实现目标的约束和步骤,虽然,它确实是按我的想法来了,做的也不差。
但,随着模型的发展,我发现这种方式越来越限制模型的发挥,只需给定目标,其他约束尽量少,它就越能在我打死都想不到的方式,使用更加精妙的方式实现了目标,上限很高。不仅对项目增益大,我更是快速学到更多,连连拍脑袋的“对啊”。当然,也有大概率搞乱你的原有逻辑框架,但我git有save/load大法,抽卡最终总能SSR。它的代码输出也会参考项目原有框架/风格,不至于会搞的太乱,当然,若是模型能力差就当我没说。
当然,实际上,我的各类oh-my-xxx/everything-Claudecode等等skill实际上发挥了提示词工程的作用,我的意思是,开发者自身就不用太关注提示词工程,专注目...
小布布 (@m249732155) 在 DeepSeekV4的编码能力和GLM5.1谁更强? 中发帖
求问各位佬,DeepSeek-V4-Pro的编码能力和GLM-5.1谁更强?
DeepSeek-V4-Flash和DeepSeek-V4-Pro的能力又差多少呢?
@Zooe 在 【抽奖】庆祝GPT-5.5上线!全网超低0.065倍率,送15张10刀无门槛API兑换码 中发帖
各位佬友大家好!
趁着最近 GPT-5.5 重磅上线,特地来 L 站给大家发波福利!
🔥 核心亮点:
全网首发适配 GPT-5.5,并且倍率仅需 0.065! 欢迎大家来测速和跑量。
中转站地址:[https://www.msutools.cn/]
今天开个抽奖,既是庆祝新模型上线宣传一下小站,也顺便给社区的兄弟们发点福利。
🎁 奖品详情:
价值 $10 的 API 无门槛兑换码 × 15张(总共抽取 15 位幸运儿,每人 1 张)
💡 参与方式:
在本帖下方回复任意内容即可参与抽奖(欢迎留下对中转站测速的建议,或者单纯水一贴也行)。每位用户仅限参与一次。
⏳ 活动时间:
即刻起至 2026年4月25日 12:00 截止。
⚠ 开奖规则(严格遵守社区规范):
截止时间一到,我将关闭本帖子的回帖功能。
锁帖后,使用 LINUX DO 官方抽奖工具 (https:/...
@Rexvoss 在 有没有懂电脑主机的佬,帮忙分析分析硬件配置问题!【非广告】 中发帖
现在的配置:
CPU:I7-6700
显卡:GTX970 4G
内存:DD3 8G*2
需求:最近打洲过热,撑不住了,纠结升级还是换(主要不想花太多钱,纯没事干的时候玩玩洲),不要求支持2K的屏;各位佬有懂主机配置的吗,现在的硬件配置实在是搞不懂。比如我升级个显卡是不是就能搞定了。