logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

去除文章ai痕迹 模型微调优化方案

结合意见要求,先明确「AI痕迹分类标签」,梳理6种常见AI痕迹并补充说明,同时优化标签生成逻辑,具体如下:明确AI痕迹分类标签(6类,覆盖核心AI生成问题):句式重复僵化:句式单一固定,无灵活变化,如连续多句采用“首先…其次…”的相同句式结构内容冗余无实质信息:堆砌无关内容,未传递有效信息,如反复强调同一观点却无补充说明过渡词生硬:过度滥用然而、因此、综上所述等过渡词,上下文衔接生硬,不符合文本逻

【微调模型 有效去除AI味】两阶段SFT+DPO 1.5B模型实现AI痕迹去除

微调1.5B模型,实现高效、可靠ai味道去除,提升文章可读性

文章图片
【开源RAG】InstructRAG 过滤无关召回内容 提高问答准确率

过滤无关召回内容,提升Rag问答准确率。

文章图片
#开源#RAG
【sft技巧】模型微调技巧

综合介绍各种sft模型微调技巧,提升模型微调效果

文章图片
#深度学习#人工智能#机器学习
【智能体-DeepMiner】利用滑动窗口 提高多轮交互能力

利用滑动窗口,合理省略历史信息,保留完整推理链路,通过高质量数据和灵活的两阶段训练,提高多轮任务能力。

文章图片
#交互
【RAG排序优化】提升rag系统排序效果

分享2025最新rag排序相关经验、算法。

文章图片
#人工智能#算法
【多模态大模型】训练与推理直观解读

通过实例,直观介绍多模态大模型的训练、图文问答与视频问答

文章图片
#计算机视觉#机器学习
【2025智源大会论文解读】智能体-林衍凯

2025智源大会智能体论文解读涉及模型训练、自主规划等

文章图片
#人工智能#算法
【图像生成】提示词技巧

介绍图像生成提示词技巧,详细列举各种风格、特征、色彩、构图提示词

文章图片
#人工智能
【大模型-金融】Trading-R1 多阶段课程学习

作者指出,现有方法存在两大缺陷:通用LLM缺乏金融领域的结构化推理能力,而纯量化模型又缺乏可解释性。为此,论文提出了Trading-R1框架,通过一个“由易到难”的三阶段课程学习,结合监督微调(SFT)与强化学习(RL),成功训练出一个4B参数的开源模型,其在回测中表现优于GPT-4.1等闭源巨头。

#金融#学习
    共 110 条
  • 1
  • 2
  • 3
  • 11
  • 请选择