logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

22.与人类对齐的背景与标准

输出不符合人类价值观:模型可能输出歧视性、暴力、违法等内容。逻辑错误或胡编乱造:模型容易自信地给出错误答案,即“幻觉”问题(hallucination)。拒绝有用问题或出现偏见:模型可能拒答合法的问题,或者带有文化偏见。仔细思考大模型为什么会输出的内容不符合人类的价值观?在大语言模型的预训练和有监督微调的过程中,主要训练目标是根据上下文内容来预测下一个词元,但是,这一过程并未充分考虑人类的价值观或

文章图片
#人工智能#算法
22.与人类对齐的背景与标准

输出不符合人类价值观:模型可能输出歧视性、暴力、违法等内容。逻辑错误或胡编乱造:模型容易自信地给出错误答案,即“幻觉”问题(hallucination)。拒绝有用问题或出现偏见:模型可能拒答合法的问题,或者带有文化偏见。仔细思考大模型为什么会输出的内容不符合人类的价值观?在大语言模型的预训练和有监督微调的过程中,主要训练目标是根据上下文内容来预测下一个词元,但是,这一过程并未充分考虑人类的价值观或

文章图片
#人工智能#算法
21.模型微调——LLM的PEFT微调方法

PEFT(参数高效微调)方法通过仅微调少量额外参数,显著降低了大模型在下游任务中的计算和存储成本。主要包括三类方法:1)Prefix-Tuning通过在输入前添加可训练前缀向量;2)Adapter-Tuning在模型层间插入小型适配器模块;3)LoRA采用低秩分解矩阵近似参数更新。其中LoRA冻结原始权重,注入可训练的低秩矩阵,是目前效果最优的通用方法。HuggingFace的PEFT库实现了这些

文章图片
#LoRA
21.模型微调——LLM的PEFT微调方法

PEFT(参数高效微调)方法通过仅微调少量额外参数,显著降低了大模型在下游任务中的计算和存储成本。主要包括三类方法:1)Prefix-Tuning通过在输入前添加可训练前缀向量;2)Adapter-Tuning在模型层间插入小型适配器模块;3)LoRA采用低秩分解矩阵近似参数更新。其中LoRA冻结原始权重,注入可训练的低秩矩阵,是目前效果最优的通用方法。HuggingFace的PEFT库实现了这些

文章图片
#LoRA
20.模型微调——Prompt-Tuning方法

NLP任务发展经历了四个范式:传统机器学习、深度学习、预训练微调和提示学习。Prompt-Tuning作为最新范式,通过构建模板和标签映射将下游任务转化为预训练任务,显著减少数据需求。其发展历程包括离散提示(GPT3、PET)和连续提示(PromptTuning、P-tuning、PPT)两种方法。连续提示通过参数化模板向量,解决了离散提示方差大的问题。该方法尤其适合大模型场景,可在冻结主模型参数

文章图片
#gpt-3#人工智能
20.模型微调——Prompt-Tuning方法

NLP任务发展经历了四个范式:传统机器学习、深度学习、预训练微调和提示学习。Prompt-Tuning作为最新范式,通过构建模板和标签映射将下游任务转化为预训练任务,显著减少数据需求。其发展历程包括离散提示(GPT3、PET)和连续提示(PromptTuning、P-tuning、PPT)两种方法。连续提示通过参数化模板向量,解决了离散提示方差大的问题。该方法尤其适合大模型场景,可在冻结主模型参数

文章图片
#gpt-3#人工智能
17.模型微调——微调数据集构建

构建高质量指令数据集的方法包括:1)将传统NLP任务(如翻译、摘要等)转化为指令格式,添加任务描述;2)利用日常对话数据,但高质量标注数据稀缺且成本高;3)通过大模型半自动化合成数据(如Self-Instruct方法)。提升方法包括优化指令格式设计、扩展指令数量(但超过7.2M条后收益递减)以及重写筛选指令。研究表明,数据质量比数量更重要,垂直领域少量高质量数据也能取得良好效果。实践中可结合人工标

文章图片
#nlp
17.模型微调——微调数据集构建

构建高质量指令数据集的方法包括:1)将传统NLP任务(如翻译、摘要等)转化为指令格式,添加任务描述;2)利用日常对话数据,但高质量标注数据稀缺且成本高;3)通过大模型半自动化合成数据(如Self-Instruct方法)。提升方法包括优化指令格式设计、扩展指令数量(但超过7.2M条后收益递减)以及重写筛选指令。研究表明,数据质量比数量更重要,垂直领域少量高质量数据也能取得良好效果。实践中可结合人工标

文章图片
#nlp
14.大语言模型微调语料构建

本文介绍了AI模型微调的基本步骤和工作流程实现方法。模型微调包括选择预训练模型、准备数据集、调整结构、设置参数、训练和评估部署等环节。针对数据集制作门槛高的问题,提出通过Dify工作流生成语料方案,该流程包含开始节点、文档解析、数据处理、LLM生成等阶段,最终输出符合要求的JSONL格式微调数据。测试结果显示,系统能成功生成包含system/user/assistant三角色的结构化训练数据,为普

文章图片
#语言模型#人工智能
15.RAG

RAG(检索增强生成)技术通过结合检索系统与生成模型,提升大语言模型(LLM)回答的准确性与时效性。其流程包括:1)从向量化知识库中检索相关内容;2)将检索结果作为上下文输入生成模型;3)生成最终回答。知识库构建需选择数据源(如PDF、DOCX等),设置分段模式(通用/父子模式)和索引方法(经济/高质量模式),并配置检索方式(向量/全文/混合检索)。Dify平台支持知识库创建、分段优化、召回测试及

文章图片
#算法#人工智能#RAG
    共 35 条
  • 1
  • 2
  • 3
  • 4
  • 请选择