
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
摘要:在使用LightRAG时发现qwen2.5:32b模型无法正确输出结果,表现为无法识别输入内容。通过调整num_ctx参数或改用llama3.1:8b模型后,系统能正确分析《圣诞颂歌》的主题(如救赎、成长、社会阶层等)。但发现代码存在多个低级bug,质疑开发者是否进行充分测试。建议在使用时注意模型选择和参数配置,特别是上下文长度设置对结果的影响很大。
然后在终端里输入exit,然后再关闭ssh session即可。之前用nohup来远程跑LLama factory微调脚本,是没有问题的,但今天发现运行类似。就简单总结这么多,主要是现在大模型微调太费事,如果跑了一半出现这种问题真的很让人崩溃。
这也是个很简单的问题,我简单总结一下,目前在家里有一台双3090涡轮版的PC,声音真的很大,可是很多时候我们其实并不需要其功率很好,只要显存够用就可以。看有些人说Ubuntu上现在不能设置,可是我在24.04上测试是可以设置的。另外,上面的文章往往只提到用一个GPU时的情况,我总忘记怎么指定两个卡。重启后需要重新运行。
最近测试发现,使用LLama factory微调Qwen 2.5大模型,7B模型的效果要好于32B。问了一下大模型,感觉需要修改一下LoRA的超参数。这些是大模型给出的建议设置,我准备先从rank=16试试,这时候lora_alpha应设置为32。10万+样本数据可尝试更高rank(r≥48);(如r=32时alpha取64-128);小样本场景(<1万)建议r≤32避免过拟合。lora_
本文介绍了LightRAG的安装流程及调用Ollama的注意事项。首先需克隆GitHub仓库并创建conda虚拟环境,然后通过pip安装相关组件。下载示例数据后,运行demo脚本时可能遇到503错误,需关闭http代理才能解决。文章提供了从安装到调试的完整步骤,并分享了常见问题的解决方法。
但是GitHub这里说得比较简略了,具体怎么解决呢,在yaml文件的method那一部分加入:deepspeed: examples/deepspeed/ds_z3_config.json。如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个3090上可能不够用,这里我用A6000×4的服务器。呵呵呵,这个bug还不知道有什么办法能解决,现在对32B的模型可以这样,72B的就无能为力了
其实到最后也没搞清楚,是其中一步起了作用,还是很多步综合起来起了作用。不过相信遇到类似问题的朋友按照我这种操作,应该还是可以解决这个问题的。这两天试了一下在Ubuntu上安装docker版本的Dify,说来惭愧,之前一直没怎么用过docker。碰到了一些问题,这里记录一下。这两篇博客都已经讲的比较详细了,我就不再重复了。首先我不知道为什么要加这么多源,难道大家就不能选几个有用的源?其次,发现加了之
简单来说,当data_dir这个参数指定的时候,第一个参数path可以用来指定数据类型,如json,csv,text,xml等。相信大家看一下我给的例子就能明白。最简单的方法就是直接通过微调数据集构造校准数据集,然后再参考一下GPTQModel的主页例子。
但是GitHub这里说得比较简略了,具体怎么解决呢,在yaml文件的method那一部分加入:deepspeed: examples/deepspeed/ds_z3_config.json。如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个3090上可能不够用,这里我用A6000×4的服务器。呵呵呵,这个bug还不知道有什么办法能解决,现在对32B的模型可以这样,72B的就无能为力了
我们构造数据集的时候,最简单的方法就是只构造instruction和output。当然,如果训练数据集比较小的话,测试的效果也不会太好。如果大家只是想对微调效果和特定问题进行展示,可以训练模型到过拟合,呵呵呵。训练完成后切换到Export,然后在上面的“微调方法”——“检查点路径”中选择刚才存储的目录Train_2024_xxxx之类,然后指定导出文件的目录,然后就可以导出了。不过这时候还没有模型








