pixiu (@pixu)在IDEA Assiatant 使用自定义的API 中发帖

由于IDEA aiassiatant 不支持输入apikey 
然后就搜索到了liteLLM 这个网关可以做代理,下面是具体的实现步骤,以及过程中遇到的问题。
我的系统是:windows
安装LiteLLM Proxy
pip install "litellm[proxy]"

配置liteLLm proxy
model_list:
- model_name: sonnet-4 # 对外暴露的“别名”,客户端只需用这个 模型可以配置多个
litellm_params:
model: openai/claude-sonnet-4-20250514 # 三方真实模型名(OpenAI兼容前缀)这里的前缀写openAI 消息格式会使用openai 兼容方式,不写好像是A社/messages的方式,具体没有测试过,佬友们可自行测试
api...