- 博客(2)
- 收藏
- 关注
原创 BUG总结——A6000部署+微调GLM4-9b-chat模型
1.在安装了basic_demo 和 fineturne_demo的代码,执行微调指令发现如下错误。由于glm的官方提示词,无法满足本任务需要,本人重新设计了提示词。,模型会截断部分输入数据,导致其无法生成有效的标签。2.在后续微调中出现loss 为0的情况。即 模型一次处理的输入文本的长度上限。或许是因为提示词设计的过长,出现。将最大输入输出长度修改为1024。
2024-11-08 14:13:44
296
空空如也
code ocean注册了无法登录
2024-09-20
TA创建的收藏夹 TA关注的收藏夹
TA关注的人