logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

transformers库新版本下,Qwen3模型使用peft微调报错

在我的transformers==4.53.3,peft==0.16.0的版本下,使用get_peft_model(model, config)方法构建模型一直报错。只需要去~\miniconda3\envs\Qwen3\Lib\site-packages\awq\models\base.py的对应位置把“from transformers.modeling_utils import shard_

#pip#conda#pytorch
到底了