
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
LangChain+ChatGLM做知识库时,参数如何调优(1)
如果用开源的,相关度参数可以先设置0,后面根据效果再逐步从500往下调。调试中发现,需要约束模型在加工匹配后的结果时不要添加不存在的内容。还有一个chunk_size是约束匹配后的文本块长度的,这个在GLM2扩展后,可以适度设置大些,目前设置500。这里有个小坑,导入的docx用office的报错,用wps的就可以。:导入的数据如果是FAQ的问答是最理想的,这样还可以约束切割符。第一个经常碰到的典
到底了








