@bartboxerCherry Studio中有压缩上下文的方案吗? 中发帖

楼主在科研的时候经常需要在cherry studio里让AI生成方案,然后复制到cc里面实现,再把结果复制到cherry studio里让他决定下一步的方案。这会导致几轮对话后就会产生很长的上下文。虽然还不到模型的最大上下文(gemini-3, 1M),但随上下文增加,模型的智能会降低。 
所以想知道有没有什么方法可以稳定地压缩/总结之前对话的内容(保证不会遗漏结果),然后转移到新对话中?或者memory功能是否能用于这个场景,有佬友用过吗?