https://linux.do 论坛的话题更新通知频道。
hebaodan 在 你们GLM5.1喜欢用superpower吗? 中发帖
你们GLM5.1喜欢用superpower吗?
以前用gpt5.4的时候很有计划,什么任务都开个子任务,而且有计划的进行,现在glm和opus好像都不理skills的
LHL (@lhllinuxdo) 在 DeepSeekv4出预览版了,看看之前DeepSeek给我的回复。 中发帖
https://linux.do/t/topic/1918604?u=lhllinuxdo
这是之前我问DeepSeek联网搜索时收到的回复,大家看看有多少是对的又有多少是错的呢?😂
Anthony Baker 在 关于codex 不能用gpt5.5,一条命令解决 中发帖
npm install -g @openai/codex@0.125.0-alpha.2
安装 alpha版本 可以在模型列表切换,之后可以正常更新
霁蓝 (@CureBlue) 在 Google Voice vs GiffGaff,你们知道吗? 中发帖
想知道 GiffGaff 卡相较于 Google Voice 有什么独到的优点或者是它能做 GV 做不了的吗?一直在想要不要开张 GiffGaff 卡
苍真 (@NoahChaos) 在 一样的上下文, Claude占用Token是其他模型的1.5倍 中发帖
以前在OpenCode中使用Claude和GPT的时候就发现.
同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.
[image]
图片只是说一下OpenCode看的位置, 无视数字, 并不是复现过程
现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.
[image]
图片只是说一下OpenCode看的位置, 无视数字, 并不是复现过程
好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.
@avein 在 codex windows端频繁报错 中发帖
RT,今天让5.5模型帮忙生成一些几十个emoji表情,思考速度是中,标准模式和快速模式都试过,但是依旧是生成几个之后就开始报错,只能重新继续任务,下面是报错信息,跟我的网络环境有关系吗?
stream disconnected before completion: An error occurred while processing your request. You can retry your request, or contact us through our help center at help.openai.com if the error persists. Please include the request ID 374a39eb-5697-42f0-937a-8bc695115a5d in your message.
quio 在 Keep香蕉跑领1kg香蕉🍌 报名时间 4.24到 5.8 中发帖
✅Keep香蕉跑领1kg香蕉🍌
📅报名时间:4.24–5.8
⏰参与时间:4.27 19点起
keep app 🔎【香蕉跑】先报名
🏃跑2km+👥邀2人助力
🎁领1kg佳农香蕉(共1k份)📦
[IMG_20260424_185843]
点点点…点娘! (@Guandengle) 在 GPT i2喂了那么多UI图,生成的图也好看,但是.... 中发帖
但是gpt5.5的审美还是那么拉跨
和前一代5.4相比
只能说有提升,但是微乎其微
昨天我看到codex能用生图模型是就在想
要是生图模型生成UI,然后5.5复刻
那岂不是完美搭配吗
但是如今的事实就是
codex的生图真就只就是让你看看
@rdjf 在 deepseek客户端已经是v4了吗? 中发帖
专家模式:
[image]
快速模式:
[image]
快速模式居然是三个独立的球,不过交互比专家模式有意思
Claudecode支持1m上下文?
[image]
另外,之前看预告一直说v4出多模态了,还是原生多模态,和模型一起训练的,非拼接,如果客户端已经是v4的话,那就是没有多模态了吧
山 南 (@user763) 在 DeepSeek V4,真诚是最好的广告 中发帖
关于 DeepSeek,大家讨论了很多。它务实、高效且极具工程创新精神。虽然在指标上略逊于顶尖的旗舰模型,但 DeepSeek 开创了中国模型的一个范式,在技术突破、开放态度和行业影响三个方面,无愧于中国的“模型之王”。
𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷 (@lezishen) 在 连自家工程师都不用Grok!马斯克欲“抄近道”砸600亿美元 买下Cursor补编程短板 中发帖
[image]
[image]
[image]
https://www.bloomberg.com/news/articles/2026-04-22/musk-makes-60-billion-gamble-after-xai-slips-behind-in-coding