MIKUSCAT 在 不得不承认gpt5还是很强的 中发帖
首先感谢88code的codex额度,佬友大气,让我能接触codex。
其次就是,我在微调训练role play模型时 因为system prompt过长,所以导致training loss和eval loss都很低,我一直认为是过拟合,其他AI(gemini ,claude)都认为是我数据太少了。只有gpt-5-high一针见血指出问题:应该在训练评估时对前面内容进行掩蔽。问题解决。
骂归骂,close ai和奥特曼还是有实力的