
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
摘要:本文提出一种半监督前缀微调方法(Semi-Supervised Prefix Tuning),用于解决工业大数据环境下标签稀缺和计算资源受限的故障诊断问题。通过辅助任务生成(特征识别、SGP筛选、伪标签生成)构建训练数据,采用冻结大语言模型参数、仅微调前缀嵌入层的策略,结合混合提示模板设计(软提示+硬提示),显著提升了模型在有限标注数据下的诊断性能。该方法在计算效率和诊断准确率方面均表现出优
:本研究证明了微调预训练LLMs进行故障诊断是一种可行且富有前景的新范式。它能够融合语义理解,并展现出小样本学习、强鲁棒性等独特优势。
作者:Laifa Tao a,b,c,d, Haifei Liu b,c,d, Guoao Ning b,c,d, Wenyan Cao b,c,d, Bohao Huangb,c,d, Chen Lu。这不是简单的数值输入,而是将特征构建成LLM能理解的“指令-回答”对。如下图所示,通过自然语言描述将数值“包装”起来,形成一段富含语义的文本输入,相当于为LLM准备了一份结构清晰的“故障诊断手册”
本文提出了一种基于强化学习的无标注检索增强生成方法(TG-RL-RAG),用于解决工业故障诊断中大型语言模型专业知识不足、标注成本高和输出不稳定等问题。该方法通过构建专业词库图结构作为强化学习环境,采用PPO算法优化检索策略,并设计复合奖励函数实现无监督学习。创新性地引入"递减式教师引导策略",使模型能够持续适应新故障查询。实验表明,该方法显著提高了故障诊断的准确性和稳定性,为
本文探讨了多模态对齐的核心问题与方法。针对视觉数据(连续高维矩阵)与文本数据(离散序列)的"火星文-地球语"差异,提出通过架构组件和训练策略实现特征空间映射。架构维度包括线性投影层、Q-Former等接口解决物理连接;策略维度采用对比学习或生成式微调实现语义理解。分类层面区分了显式/隐式对齐(强制绑定vs注意力关联)以及特征级/语义级对齐(维度转换vs概念绑定)。特征对齐依赖模
作者:Laifa Tao a,b,c,d, Haifei Liu b,c,d, Guoao Ning b,c,d, Wenyan Cao b,c,d, Bohao Huangb,c,d, Chen Lu。这不是简单的数值输入,而是将特征构建成LLM能理解的“指令-回答”对。如下图所示,通过自然语言描述将数值“包装”起来,形成一段富含语义的文本输入,相当于为LLM准备了一份结构清晰的“故障诊断手册”
DSPy是一种创新的AI编程框架,旨在通过代码而非手动调整提示词来构建大模型应用。其核心特点包括:1)使用Signature定义任务结构而非具体指令;2)通过Module(如ChainOfThought)自动处理推理逻辑;3)利用Teleprompter自动优化提示。与传统提示工程相比,DSPy实现了三个范式转移:类定义取代自然语言指令、内置思维链机制、自动编译优化。目前DSPy在学术界应用较少,
本文提出了一种创新方法,将大型语言模型(LLM)与工业领域知识相结合,用于多模态故障诊断。研究团队通过三阶段框架:1)使用工业文本微调LLM成为领域专家;2)将检查笔记转化为语义向量;3)采用注意力机制加权融合文本和传感器数据,显著提升了水力发电机退化水平预测的准确性(MAE降至4.2)。该方法突破了传统自然语言处理技术难以处理工业专业术语的局限,首次有效利用了长期被忽视的非结构化维修文本数据。研
摘要: 大型语言模型(LLM)的上下文学习(ICL)能力使其在推理阶段无需参数更新即可通过输入示例动态调整行为。研究表明,ICL可能通过自注意力层和MLP层的协同作用,将上下文信息隐式转化为低秩权重更新(ΔW),等效于一次临时“微调”。实验验证了该机制与梯度下降的相似性,提示设计可优化ΔW的生成。ICL展现了模型通过对话覆盖先验知识的能力,但其机制在复杂任务中的扩展仍需探索。这一特性为模型智能的“
两篇文章系统介绍了大语言模型(LLM)的原理与应用。第一篇3万字长文从技术层面深入解析LLM的核心原理,包括Transformer架构、预训练方法等关键技术。第二篇文章以入门指南形式,重点讲解了LLM的基础知识到进阶内容(前五章),涵盖模型架构、训练流程等核心概念。两文互为补充,既提供了专业深度解析,又包含适合初学者的系统介绍,是理解大语言模型的重要参考资料。







