
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
基于模型蒸馏的大模型文案生成最佳实践
在 DPO 算法的训练过程中,我们鼓励大模型生成高质量的 chosen 文案,惩罚大模型生成类似 rejected 的文案。为了保证生成文案质量满足要求,使用的教师大模型底座参数量需要尽可能高,例如使用满血版的 DeepSeek-V3,一般不需要使用深度思考的模型,例如 DeepSeek-R1 或 QwQ-32B;为了保证生成文案的高质量,使用的教师大模型底座参数量需要尽可能高,例如使用满血版的
RAG 青铜升级:知识库召回率优化实战攻略
大模型(LLM)驱动的问答系统中,RAG(Retrieval-Augmented Generation)架构正迅速成为主流;然而在实际应用中,即便接入了如 GPT-4 或 Claude 等先进模型,但生成结果仍然不够理想。问题的根源往往并不在于模型本身,而在于 —— 它没有检索到相关信息,这就引出了评估 RAG 检索质量的核心指标:召回率(Recall Rate)。本文将深入探讨召回率的本质,以及
到底了