-
Notifications
You must be signed in to change notification settings - Fork 46
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
qlora 微调效果 #4
Comments
@wujindou 这块我还没有时间去做,关于哪种微调方式更好,可能不同数据集会有不同表现吧。 |
嗯,多谢~,我试试看 |
我微调以后效果很差,我执行了merge chatglm2和qlora,然后修改了model path ,启动web以后,发现以下问题:
是不是我的训练数据集太少了? 或者是需要再多训练几次? 请问我该如何继续优化? |
@wujindou |
1.你的数据集或者任务时什么? 2.配置文件和启动命令是什么? |
@wujindou 配置文件就是我项目里的chatGLM_6B_QLoRA.json这个文件,启动命令就是训练的启动命令:
还有,你的数据集有多少数据量?都是这种医疗软件的说明吗? 另外,你是用merge_lora_and_quantize.py把lora model和base model合并了吧,这块排查问题的话,可以先不用webui,直接在ipython这种交互窗口里像下面这样试试吗?
|
这是我的chatGLM_6B_QLoRA.json文件
我的数据集大概1000条的样子,都是类似这种结构的软件说明 --另外,你是用merge_lora_and_quantize.py把lora model和base model合并了吧,这块排查问题的话,可以先不用webui,直接在ipython这种交互窗口里像下面这样试试吗? 是的,我就是把lora model和base model合并了的,然后chatglm2加载的是合并后的/tmp/merged_qlora_model_4bit这个文件 |
不知道是不是数据量的问题,因为你的数据看上去即使是我作为一个人来根据instruction输出output似乎也不是那么容易。尤其是你的例子里,instruction并没有提到“科室”这个词…… 然后1000条数据,真实的batchsize为8,只能跑100多个step吧。 你可以试试统一加一个prompt前缀,描述你的任务,就是这个参数:
另外你是什么显卡,为什么batchsize1就会OOM?还是说数据有很长的? |
@2512309z 对了,还可以试下,合并lora但不量化,用fp16的模型看看效果 |
什么是合并但不量化,不明白,麻烦你详细说一下步骤,谢谢你啊! |
谢谢你耐心解答,我的训练数据确实是有很长的情况,我大概明白你的意思了,如果需要更准确的输出,就得把输入截断,然后将想要的对应输出相结合,组成一条训练数据,不知道我的理解对不对? 另外我的显卡是3张 16G teslaA100,可能就是因为单条训练数据太长的原因导致OOM的 |
就是训练后执行
会得到一个完整的merge后的fp16模型 |
16G的显存应该是够的,不知道你的太长到底是多长…… |
谢谢你啊 ,我所谓的太长意思是,我的输入和输出都很长,导致一条训练数据就很长,我暂时没有时间精力去研究多轮对话 |
我就是按照你的这个步骤做的,merge以后,就直接用chatglm2去使用合并后的模型,并没有量化,难道是因为我没有量化,导致效果不好吗? |
请问想得到不量化的模型的时候,在训练时需要修改train.py里面的参数嘛?我看默认脚本在训练时也有量化步骤: Quantization
|
hi,你好请问有没有adgen上的Qlora在验证集上的效果比如rouge-l 、blue ,效果会比p-tuning好么?
The text was updated successfully, but these errors were encountered: