暂无图片
暂无图片
暂无图片
暂无图片
暂无图片
9-大模型(LLMs)微调面.pdf
18
16页
0次
2025-06-21
5墨值下载
大模型(LLMs)微调面
来自: AiGC面试宝典
宁静致远 20231224 00:44
大模型(LLMs)微调面
1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显
存?
1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
2. 为什么SFT之后感觉LLM傻了?
3. SFT 指令微调数据 如何构建?
4. 领域模型Continue PreTrain 数据选取?
5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
7. 进行SFT操作的时候,基座模型选用Chat还是Base?
8. 领域模型微调 指令&数据输入格式 要求?
9. 领域模型微调 领域评测集 构建?
10. 领域模型词表扩增是不是有必要的?
11. 如何训练自己的大模型?
12. 训练中文大模型有啥经验?
13. 指令微调的好处?
14. 预训练和微调哪个阶段注入知识的?
15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
16. 多轮对话任务如何微调模型?
17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
18. 微调模型需要多大显存?
19. 大模型LLM进行SFT操作的时候在学习什么?
20. 预训练和SFT操作有什么不同
21. 样本量规模增大,训练出现OOM
22. 大模型LLM进行SFT 如何对样本进行优化?
23. 模型参数迭代实验
24. 微调大模型的一些建议
25. 微调大模型时,如果 batch size 设置太小 会出现什么问题?
26. 微调大模型时,如果 batch size 设置太大 会出现什么问题?
27. 微调大模型时, batch size 如何设置问题?
28. 微调大模型时, 优化器如何?
29. 哪些因素会影响内存使用?
30. 进行领域大模型预训练应用哪些数据集比较好?
31. 用于大模型微调的数据集如何构建?
32. 大模型训练loss突刺原因和解决办法
32.1 大模型训练loss突刺是什么?
32.2 为什么大模型训练会出现loss突刺?
32.3 大模型训练loss突刺 如何解决?
扫码加
查看更多
一般 n B的模型,最低需要 16-20 n G的显存。(cpu offload基本不开的情况下)
vicuna-7B为例,官方样例配置为 4*A100 40G,测试了一下确实能占满显存。(global batch size
128max length 2048)当然训练时用了FSDP、梯度累积、梯度检查点等方式降显存。
2. 为什么SFT之后感觉LLM傻了?
SFT的重点在于激发大模型的能力,SFT的数据量一般也就是万恶之源alpaca数据集的52k量级,
相比于预训练的数据还是太少了。
如果抱着灌注领域知识而不是激发能力的想法,去做SFT的话,可能确实容易把LLM弄傻
指令微调是为了增强(或解锁)大语言模型的能力。
其真正作用:
指令微调后,大语言模型展现出泛化到未见过任务的卓越能力,即使在多语言场景下也能有不错表
3. SFT 指令微调数据 如何构建?
4. 领域模型Continue PreTrain 数据选取?
技术标准文档或领域相关数据是领域模型Continue PreTrain的关键。因为领域相关的网站和资讯重
要性或者知识密度不如书籍和技术标准。
5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗
忘通用能力?
那么这个比例多少比较合适呢?
目前还没有一个准确的答案。主要与领域数据量有关系,当数据量没有那么多时,一般领域数据与
通用数据的比例在1:51:10之间是比较合适的。
6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就
学习到更多的知识?
领域模型Continue PreTrain时可以同步加入SFT数据,即MIPMulti-Task Instruction
PreTraining
预训练过程中,可以加下游SFT的数据,可以让模型在预训练过程中就学习到更多的知识。
7. 进行SFT操作的时候,基座模型选用Chat还是Base?
原版答案:
新版答案:
1. 代表性。应该选择多个有代表性的任务
2. 数据量每个任务实例数量不应太多(比如:数百个)否则可能会潜在地导致过拟合问题并影
响模型性能
3. 不同任务数据量占比。应该平衡不同任务的比例,并且限制整个数据集的容量(通常几千或几
万),防止较大的数据集压倒整个分布
动机:仅仅使用领域数据集进行模型训练,模型很容易出现灾难性遗忘现象.
解决方法:通常在领域训练的过程中加入通用数据集
of 16
5墨值下载
【版权声明】本文为墨天轮用户原创内容,转载时必须标注文档的来源(墨天轮),文档链接,文档作者等基本信息,否则作者和墨天轮有权追究责任。如果您发现墨天轮中有涉嫌抄袭或者侵权的内容,欢迎发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论

关注
最新上传
暂无内容,敬请期待...
下载排行榜
Top250 周榜 月榜