generated from datawhalechina/repo-template
-
Notifications
You must be signed in to change notification settings - Fork 44
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问unsloth方法使用的基座模型是什么?我用7b训崩了 #44
Comments
@Kedreamix 看看能不能给这位 Bro 展示下你的训练参数 |
以上是尝试2的参数,其他的参数和仓库里的保持一致 |
@dream-tentacle 其实我们在社区里也看到很多人 7B 训崩了,但是不知道什么问题,或许你换个尺寸? |
@dream-tentacle 你好,我用的基座是Qwen-3B-Instruct的模型,这个在我的Swanlab日志中都有详细的参数展示,给予你的问题,我提出几个点,我觉得第一有可能是参数的问题,确实有时候一个好的参数能够让模型快速收敛,不过我只探究了3B模型,所以对于7B模型暂时不能给出很好的建议,第二是我觉得你可以考虑减少一下LoRA的秩数,或许能够更快收敛 |
非常感谢,不过想知道为什么您认为降低LoRA的秩数能更快收敛呢,我的理解里LoRA的秩数主要影响训练的参数量,更多参数被训练似乎并不会说明更慢收敛? |
Open
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
尝试1
我的模型是qwen2.5-7b-instruct,用unsloth方法训练,lora_r是64,会训崩:
尝试2
尝试设置lora_r: 128, per_device_train_batch_size: 8, gradient_accumulation_steps: 16,曲线明显平滑了一些,但是后期也会训崩:
尝试2模型输出
训崩的时候,控制台显示的输出大概是这样的:
The text was updated successfully, but these errors were encountered: