devinfancherry studio 的上下文和gemini的上下文是一个意思吗? 中发帖

各位大佬,想请教: 
cherry studio 有个context 消息数量,这个最大是100条,但是如果想利用更长的上下文,或者直接发挥1 M的上下文如何实现?
还有就是,cherry 的上下文比如设置为n,我理解是不是每次请求,都打包前n-1 个对话内容发送给gemini,这样是真正意义的上下文吗?上下文不是ai自己的memory吗?为啥每次要发送,上下文要占用token?