https://linux.do 论坛的话题更新通知频道。
@Cym2925 在 有什么方案让模型根据请求复杂度智能路由的吗 中发帖
有什么方案让模型根据请求复杂度智能路由的吗,比如复杂推理走GPT5.4,日常对话用快速模型,是不是用一个超快速小模型来分流好一些,还有其他方案吗,求佬们推荐
hjw394 (@yrhangde) 在 esp32ai识别或搜题 中发帖
今天中午做了一个ai识别的东西,主要是esp32先联网初始化之类,在拍照发送给本地的一个服务器,服务器会把图片给我本地运行的中转站,然后用prompt:你是一个助手。请用中文一句话描述图片内容。" "要求:不要表情符号,绝对不能超过12个汉字,以便在小屏幕上显示。
[IMG20260423171549]
返回结果给esp32屏幕。我是新人,是在gemini帮助下完成的,后续想把这个做成眼镜的样子,帮助我过期末 🍉,希望有佬帮助。
@zztutu 在 ai工具提问,如何使用上便宜的claude,以及ai科研流程【来自一名fw研究生】 中发帖
各位大佬好!我想知道大家是怎么使用上cc的:使用及购买渠道。我现在一直在用codex,没有尝试过cc。也想知道大家如何使用ai进行科研,大佬们可以给我介绍一下自己的流程。谢谢!
@chenbuhuu 在 VsCode Codex插件聊天加载不出来 中发帖
经常出现如图所示问题,即点击一个聊天之后加载不出该聊天的聊天历史,另外也无法发送聊天。
在服务器上使用codex插件时这个问题更明显,当对话历史非常长时加载非常慢。
我寻思这个聊天历史不就是个文件吗,为什么要加载这么久而且还加载不出来。
有佬遇到过这个问题,有什么解决方法吗?
[image]
荔福路绅士 (@damin) 在 2年后再讨论:coding plan还是本地模型 中发帖
两年前,我开了个贴:《4k 买 API 额度还是买显卡》
转眼 2026 年了。我现在用的是 Claude 初始号通过 Google Play 订阅的 Max 20x,一年下来算算得 2w RMB 左右。对于一个不吃开发饭、也没兼职接单的纯业余选手来说,这笔钱确实不便宜。
但说实话,我一点都不后悔。
尤其是 Claude Cowork 那套用法,真的让我工作时进入一种很舒服的状态。省下来的时间和精力,够我在 L 站好好摸鱼了,工作效率肉眼可见地提升。以前我愿意每个月花 2k 让工作更轻松,现在回想,那时候的决定还是对的。
不过,今年换了工作环境,降薪后这 2w 的年费突然就有点咬人了。预算一紧,初心虽然没变(还是想工作爽一点),但现实开始提醒我,要省钱。
所以回归最初的话题——2026 年,对于像我这样的 coding plan 重度业余用户,到底是继续云端 API,还是转向本地...
@AutumnRiver 在 如何写好prompt?两年经验分享 中发帖
每天跟AI闲扯,关于怎么写prompt积累了一些感觉,写点东西跟佬友们讨论讨论。
AI是一个看过人类所有废话和聪明话的黑盒。你直接与它对话,它的本能必定是滑向最省力、最讨好你的平庸回答,带着一股AI客服味。
高阶Prompt是什么?是一根倒刺,一记重锤,一个信息锚。它的作用只有一个:强行钩住AI脑子里那一点极其稀缺的高密区,砸断它滑向概率废话的退路。
如何写好prompt?问题实则是—如何精准锚定AI大脑中特定的“聪明”部分?
三原则
原则一 使用高信息量关键词。
高信息量关键词等于一个高维坐标,直接把AI锚定在高质量的语料区(如哲学家、顶尖期刊的语料区)。
什么样的关键词信息量大?
我举个例子,人名。
你想让AI帮你把复杂概念讲给外行听,与其说“请说得通俗易懂”,不如说“使用理查德·费曼的授课风格”。在人类浩如烟海的文献中,跟“通俗”关联的词汇鱼龙混杂;但跟“理查德·费曼”...
YU Zhan (@sek1ro-yuzzz) 在 关于claude code阅读文献的一些小问题 中发帖
各位佬,我下载了20篇领域内的顶刊(用minerU转化为了markdown格式)然后准备让Claude code阅读、总结这些文献(主要是总结文献的故事脉络,方便之后参考借鉴这些顶刊的语言风格和叙事手法)。
效果非常好,总结的内容很准确。
但是,我很快发现不对劲了,我的usage飞快的上升,几乎几分钟就用了5h限额的一大半 😂(max 5x账号)
[image]
我用的是opus4.7 xhigh,感觉这次用量消耗的飞快的原因是subagent。不知道佬友们有什么好的方法来改善这个问题,sonnet的智力够吗(等我重置额度后试试)?
不知道通过cc的codex插件来节省tokens好不好用?
我的prompt如下,感觉还行,分享一下:
我在 /Users/***/Desktop/paper/references/ 下有 20 篇文献子目录,每个子目录里有原文 markdow...
@yacc 在 B站的网页端视频加载机制是不是换了 中发帖
如题,我经常一边听长视频一边切换到其他标签页干别的。这几天我发现,如果过几分钟切换回视频播放页,会卡在我上次看到的画面,缓冲几秒钟才能继续。看上去就像是后台播放的时候只传输了音频,等到前台打开因为没有视频信息只好停下来重新传输。
我感觉这很像是B站为了省流自己做的优化(其实也影响不大),应该不会是Chrome自动采取的策略,或者插件脚本之类的吧?甚至是电脑出问题?最近没装什么新东西,如果是软件原因也可能是某个东西更新了?
埋头苦吃 (@syks) 在 百炼token plan消耗的很快可能是发了图片导致缓存失败 中发帖
两天花了百分之五十的额度。原因就是对话过程中发送了图片导致后面的会话缓存都失效了。
[image]
[image]
猪头鱼 (@zty) 在 去哪里买谷歌变种邮箱 中发帖
临时邮箱那一种 类似
k.ie.udu.ong.n.inh@gmail.com
maravenirajukumar+rQW4P@gmail.com
@agi_is_coming 在 codex怎么了,之前一直稳定,今天一直无法自动compact显示超出上下文这种结果,以及reconnecting 中发帖
[CleanShot 2026-04-23 at 19.09.23@2x]
显示Reconnecting… 1/5
stream disconnected before completion: Incomplete response returned, reason: max_output_tokens
Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
这个session还没开始compact就显示这个超出context.
是不是gpt5.5在上线导致的?
之前一直没有这种情况
@hncode 在 姚顺雨带队「重建」混元,首个大模型上线 中发帖
腾讯 Hy3 preview 来了。
这是腾讯混元团队在架构、基础设施重新出发后的第一个版本,首批发布的模型尺寸较小,定位于实用性。同样值得关注的是,Hy3 preview 是姚顺雨归国加盟腾讯后的第一个重要成果,遵循了他「AI 下半场」的理念,模型在腾讯真实业务和复杂场景中打磨提升,关注在真实业务场景的效果与实用性。