使用AdaLora微调训练chatglm2-6b-int4模型报错

#18
by tcdoudousky - opened

在执行peft_model = get_peft_model(model, peft_config)时报错
Target module QuantizedLinear() is not supported. Currently, only torch.nn.Linear and Conv1D are supported.
有没有大神可以帮忙解答

在加载原始模型的时候不要用官方提供的量化代码

# 官方提供的代码:
# 尝试添加 --quantization_bit 8 或 --quantization_bit 4。
# https://github.com/THUDM/ChatGLM3/blob/main/finetune_chatmodel_demo/finetune.py
model = model.quantize(model_args.quantization_bit)

自己用原生的代码加载就可以了,量化耗时大概2-3分钟。

# 用transformers原生参数 load_in_8bit=True 就可以了
model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True, device_map="auto",  load_in_8bit=True)

Sign up or log in to comment