-
Notifications
You must be signed in to change notification settings - Fork 3k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
【Could I make a Pull Request for a new feature(i.e: A Model Class?】自定义的Lora变体模型实现unified checkpoint存储 #9226
Comments
目前PaddleNLP针对LoRA及其变体(如rsLoRA、PiSSA等)的实现全部使用了LoRAModel这个class,暂时不支持自定义模型类的保存和加载机制。 |
如果希望能够提交新PR,支持新的Lora变体的加载、训练、保存,是否可以提交新自定义模型类 |
可以的,不过还是建议优先使用LoRAModel |
请问有无较成功的,已经提交新Lora及其变体的可参考的good commit case,以供我这里的PR参考 |
重写LoKrModel类需要考虑比较多东西,例如LoRAModel当中支持的分布式策略,所以尽量能复用原来结构就复用原来结构,如果实在不行,可以考虑将LoKrModel相关的实现提交PR,我们这边先整体看看。unified checkpoint存储这个可以暂时不考虑,使用 --unified_checkpoint 0 关闭也可以正常保存checkpoint(只是是不同的格式),如有必要再提供支持即可。 |
目前我这里的私下测试进度是单卡可以跑通llama的训练。unified_checkpoint我也修改了一些。不然等我整理一下代码结构再提交PR给您们整体查看~ |
Currently made the first pull request |
Feature request
本人希望能够在llm/finetuning.py的功能模块中增加对其他Lora变体模型类(如LoKr, LoHa)的微调实现和模型存储。
Motivation
🎯需求:使用paddle的框架实现Lora的变体: LoKr。
⌚️进展:目前已经写好了基本的LoKrModel类和Finetunning.py的修改脚本。
❓问题:模型存储不支持自定义的Lora变体类。报错信息和核心代码如下:
在llm/run_finetune.py我已经实现了LoKr变体模型的训练:
Your contribution
If possible, I would make a PR of contributing to LoKr Model Implementation.
The text was updated successfully, but these errors were encountered: