闻风 (@wenfeng)claude code中使用LongCat的模型,视乎不会扣除token 中发帖

之前使用沉浸式翻译用了LongCat的LongCat-Flash模型,翻译都是有扣除token的。 
然后我这两天想在claude code中使用玩一玩,发现我在里面的提问居然一点token都没有扣除。
不知道是bug还是啥。
[image]