Roooosa (@alondite04)【高手请进】平时使用GPTs做文献时,如何解决信息损失问题? 中发帖

RT,我平时会用GPT、Claude、notebook做一些长文档整理、文献和书籍阅读之类的工作,比如根据需求说明文档整理功能点清单,从一本书或长文档中提取我需要的内容(不是简单的一个QA)。 
使用过程中,经常发现GPT在总结、梳理内容过程中会出现信息损失,一些人肉整理时不会合并或省略的功能点,会被AI简化、合并甚至忽略;有时会导致一些重要的细节丢失,人工回顾和检查又很花时间。
上述三大模型都用的是4o/o1,sonnet,gemini 2.0和1206这些高级模型,但是仍然不同程度地会出现这个通病。
即使我使用了一些提示词优化后减少了这种情况,但是仍然有一定概率出现。
想问问佬们是如何避免这个问题的?