logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LangChain+ChatGLM做知识库时,参数如何调优(1)

如果用开源的,相关度参数可以先设置0,后面根据效果再逐步从500往下调。调试中发现,需要约束模型在加工匹配后的结果时不要添加不存在的内容。还有一个chunk_size是约束匹配后的文本块长度的,这个在GLM2扩展后,可以适度设置大些,目前设置500。这里有个小坑,导入的docx用office的报错,用wps的就可以。:导入的数据如果是FAQ的问答是最理想的,这样还可以约束切割符。第一个经常碰到的典

到底了