MC_XiaoHei (@MC-XiaoHei) 在 如果对LLM的输入也是训练会如何? 中发帖
目前LLM按我的理解应该都是先训练好,然后根据用户输入回复
那么如果每一次交互都会修改模型呢?也就类似实时微调
感觉这样会更接近人的行为?(
菜鸡瞎想的(((
目前LLM按我的理解应该都是先训练好,然后根据用户输入回复
那么如果每一次交互都会修改模型呢?也就类似实时微调
感觉这样会更接近人的行为?(
菜鸡瞎想的(((