logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

工业设备状态监测(一)

工业设备预测性维护的核心在于多源数据融合与智能分析。振动信号作为首选指标,能灵敏捕捉机械故障;温度监测反映热特性变化,电流分析则对电气异常敏感。通过信号预处理、特征提取和多模态融合,结合AI模型(如CNN、LSTM)实现精准诊断。未来趋势是构建AIAgent系统,综合振动、温度、电流等多维数据,实现从异常检测到维修决策的全流程智能化,在降低成本的同时提升设备可靠性。实践表明,单一信号存在盲区,多信

#人工智能
工业设备状态监测(一)

工业设备预测性维护的核心在于多源数据融合与智能分析。振动信号作为首选指标,能灵敏捕捉机械故障;温度监测反映热特性变化,电流分析则对电气异常敏感。通过信号预处理、特征提取和多模态融合,结合AI模型(如CNN、LSTM)实现精准诊断。未来趋势是构建AIAgent系统,综合振动、温度、电流等多维数据,实现从异常检测到维修决策的全流程智能化,在降低成本的同时提升设备可靠性。实践表明,单一信号存在盲区,多信

#人工智能
【论文阅读29】-通过强化学习进行智能故障诊断的无标记 RAG 增强型 LLM

本文提出了一种基于强化学习的无标注检索增强生成方法(TG-RL-RAG),用于解决工业故障诊断中大型语言模型专业知识不足、标注成本高和输出不稳定等问题。该方法通过构建专业词库图结构作为强化学习环境,采用PPO算法优化检索策略,并设计复合奖励函数实现无监督学习。创新性地引入"递减式教师引导策略",使模型能够持续适应新故障查询。实验表明,该方法显著提高了故障诊断的准确性和稳定性,为

#论文阅读
MLLM模态对齐

本文探讨了多模态对齐的核心问题与方法。针对视觉数据(连续高维矩阵)与文本数据(离散序列)的"火星文-地球语"差异,提出通过架构组件和训练策略实现特征空间映射。架构维度包括线性投影层、Q-Former等接口解决物理连接;策略维度采用对比学习或生成式微调实现语义理解。分类层面区分了显式/隐式对齐(强制绑定vs注意力关联)以及特征级/语义级对齐(维度转换vs概念绑定)。特征对齐依赖模

【论文阅读11】-基于大型语言模型的轴承故障诊断框架

作者:Laifa Tao a,b,c,d, Haifei Liu b,c,d, Guoao Ning b,c,d, Wenyan Cao b,c,d, Bohao Huangb,c,d, Chen Lu。这不是简单的数值输入,而是将特征构建成LLM能理解的“指令-回答”对。如下图所示,通过自然语言描述将数值“包装”起来,形成一段富含语义的文本输入,相当于为LLM准备了一份结构清晰的“故障诊断手册”

#汽车
从Prompt Engineering到DSPy

DSPy是一种创新的AI编程框架,旨在通过代码而非手动调整提示词来构建大模型应用。其核心特点包括:1)使用Signature定义任务结构而非具体指令;2)通过Module(如ChainOfThought)自动处理推理逻辑;3)利用Teleprompter自动优化提示。与传统提示工程相比,DSPy实现了三个范式转移:类定义取代自然语言指令、内置思维链机制、自动编译优化。目前DSPy在学术界应用较少,

【论文阅读14】-推进多模态诊断:将工业文本数据与领域知识和大语言模型相结合

本文提出了一种创新方法,将大型语言模型(LLM)与工业领域知识相结合,用于多模态故障诊断。研究团队通过三阶段框架:1)使用工业文本微调LLM成为领域专家;2)将检查笔记转化为语义向量;3)采用注意力机制加权融合文本和传感器数据,显著提升了水力发电机退化水平预测的准确性(MAE降至4.2)。该方法突破了传统自然语言处理技术难以处理工业专业术语的局限,首次有效利用了长期被忽视的非结构化维修文本数据。研

#语言模型
ICL(In-Context Learning)上下文学习

摘要: 大型语言模型(LLM)的上下文学习(ICL)能力使其在推理阶段无需参数更新即可通过输入示例动态调整行为。研究表明,ICL可能通过自注意力层和MLP层的协同作用,将上下文信息隐式转化为低秩权重更新(ΔW),等效于一次临时“微调”。实验验证了该机制与梯度下降的相似性,提示设计可优化ΔW的生成。ICL展现了模型通过对话覆盖先验知识的能力,但其机制在复杂任务中的扩展仍需探索。这一特性为模型智能的“

深度解析大语言模型LLM原理

两篇文章系统介绍了大语言模型(LLM)的原理与应用。第一篇3万字长文从技术层面深入解析LLM的核心原理,包括Transformer架构、预训练方法等关键技术。第二篇文章以入门指南形式,重点讲解了LLM的基础知识到进阶内容(前五章),涵盖模型架构、训练流程等核心概念。两文互为补充,既提供了专业深度解析,又包含适合初学者的系统介绍,是理解大语言模型的重要参考资料。

#语言模型#人工智能#自然语言处理
CLIP(Contrastive Language-Image Pre-training)

CLIP是一种基于对比学习的多模态模型,通过4亿对图文数据训练,实现文本与图像在共享语义空间中的对齐。其双塔结构包含图像编码器(ResNet/ViT)和文本编码器(Transformer),核心优势在于强大的zero-shot能力,可直接应用于新任务而无需微调。CLIP突破了传统视觉模型的封闭集限制,支持开放词汇理解,但存在属性绑定错误、空间关系感知弱、细粒度任务表现差等缺陷。尽管无法生成内容且训

文章图片
    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择