
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
去除文章ai痕迹 模型微调优化方案
结合意见要求,先明确「AI痕迹分类标签」,梳理6种常见AI痕迹并补充说明,同时优化标签生成逻辑,具体如下:明确AI痕迹分类标签(6类,覆盖核心AI生成问题):句式重复僵化:句式单一固定,无灵活变化,如连续多句采用“首先…其次…”的相同句式结构内容冗余无实质信息:堆砌无关内容,未传递有效信息,如反复强调同一观点却无补充说明过渡词生硬:过度滥用然而、因此、综上所述等过渡词,上下文衔接生硬,不符合文本逻
【微调模型 有效去除AI味】两阶段SFT+DPO 1.5B模型实现AI痕迹去除
微调1.5B模型,实现高效、可靠ai味道去除,提升文章可读性

【开源RAG】InstructRAG 过滤无关召回内容 提高问答准确率
过滤无关召回内容,提升Rag问答准确率。

【sft技巧】模型微调技巧
综合介绍各种sft模型微调技巧,提升模型微调效果

【智能体-DeepMiner】利用滑动窗口 提高多轮交互能力
利用滑动窗口,合理省略历史信息,保留完整推理链路,通过高质量数据和灵活的两阶段训练,提高多轮任务能力。

【RAG排序优化】提升rag系统排序效果
分享2025最新rag排序相关经验、算法。

【多模态大模型】训练与推理直观解读
通过实例,直观介绍多模态大模型的训练、图文问答与视频问答

【2025智源大会论文解读】智能体-林衍凯
2025智源大会智能体论文解读涉及模型训练、自主规划等

【图像生成】提示词技巧
介绍图像生成提示词技巧,详细列举各种风格、特征、色彩、构图提示词

【大模型-金融】Trading-R1 多阶段课程学习
作者指出,现有方法存在两大缺陷:通用LLM缺乏金融领域的结构化推理能力,而纯量化模型又缺乏可解释性。为此,论文提出了Trading-R1框架,通过一个“由易到难”的三阶段课程学习,结合监督微调(SFT)与强化学习(RL),成功训练出一个4B参数的开源模型,其在回测中表现优于GPT-4.1等闭源巨头。







