@init0 在 在华为NPU服务器上,实现Chatglm3模型的微调 中发帖
如题,职场小白,上手一个实现模型微调的项目,因为之前一直使用的是GPU,很多库都是支持的,由于迁移到华为NPU服务器,原本能够正常微调训练的Chatglm3系列模型就没办法微调了。在一台8张910b的华为服务器上进行微调,一直报错。经过分析,大概了解到应该是Transformers的版本依赖过高不兼容的问题。但是项目里的Qwen3系列又需要Transformers库依赖高于4.50.0,这就尴尬住了…可是没迁移之前,我在GPU的服务器上就完全没有这些问题,想问各位佬,这种问题的出现是正常的吗