登录社区云,与社区用户共同成长
邀请您加入社区
本文介绍了一个基于CNN-GRU混合神经网络的锂电池剩余寿命(RUL)预测项目。该项目利用一维CNN提取电池运行数据的局部特征,结合GRU网络建模时序依赖关系,通过端到端训练实现高精度RUL预测。文章分析了项目意义,包括提升电池管理、增强安全性、推动智能BMS发展等,并针对数据质量、标签稀缺、模型优化等挑战提出了解决方案。项目采用MATLAB实现,包含数据预处理、网络架构设计、模型训练与评估等完整
目录项目背景我是怎么把模型结构一步步定下来的代码实现是怎么串起来的核心原理怎么落到我的代码上结果怎么看,模型到底有没有发挥作用为什么我还要专门做 SHAP总结与反思不是把模块堆长就行:我用 GA + CNN + TCN + BiLSTM + Attention + SHAP 做锂电 SOH 预测的一次真实代码复盘这次我想认真复盘的,不是一篇把模型名字串起来的“组合拳介绍”,而是我在一个锂电池 SO
AlexNet是由Alex Krizhevsky等人提出的,在2012年ImageNet大规模视觉识别挑战赛(ILSVRC)中取得了惊人的成果,显著降低了错误率,推动了深度学习的兴起。CNN的优势在于能够自动从原始数据中提取有用的特征,避免了传统计算机视觉方法中需要手动设计特征的复杂性。:VGGNet由牛津大学计算机视觉组提出,以其简单而深度的网络结构为特点,对后续CNN网络的设计有很大的影响。下
随着自动驾驶技术的快速发展,道路场景理解成为智能驾驶系统的核心技术之一。然而,在夜间或低光照条件下,传统道路识别算法面临图像质量下降、特征提取困难等挑战,同时实时性要求限制了复杂深度模型的应用。针对这些问题,本文提出了一种基于低光照增强与轻量型CNN的道路实时识别算法。
本文提出了一种协同CNN-Transformer网络(SCTNet)用于高光谱图像分类,通过双分支特征提取模块(TBFE)并行利用2D和3D卷积捕获局部空间-光谱特征,并设计混合池化注意力模块(HPA)增强特征表示。该网络还引入跨层特征融合机制(CFF)聚合Transformer编码器的多层输出,有效保留浅层关键信息。实验结果表明,SCTNet在五个基准数据集上超越了现有方法,包括最新的SS-Ma
最后,我简单总结一下。本次设计我完成了基于 CNN 的手写数字识别系统,覆盖了从数据处理到模型应用的全流程。核心亮点在于两点训练阶段:采用了旋转和平移的数据增强手段,提升了模型对真实书写变形的抗干扰能力。网络结构:加入了 BN 稳压器加速收敛、Dropout 随机断电防止过拟合,使得特征提取又快又稳。最终模型结构合理,识别效果优良,圆满达到了设计要求。未来可以在优化网络深度、扩展至字母识别或开发可
本文介绍了一个基于MATLAB实现的TCN-Attention时间卷积神经网络项目,用于多变量时间序列的回归区间预测。该项目融合了时间卷积网络(TCN)和注意力机制,通过扩张卷积捕获长时依赖关系,利用双重注意力机制动态调整特征权重。模型架构包含输入预处理、TCN模块、注意力机制和输出回归模块,支持多变量输入并输出预测区间。文章提供了详细的代码实现,包括扩张卷积层、残差块、自定义注意力层等核心组件,
本文提出了一种基于GA-CNN-RNN混合算法的无人机三维路径规划方法。该方法结合遗传算法(GA)的全局搜索能力、卷积神经网络(CNN)的环境特征提取能力和循环神经网络(RNN)的路径序列评估能力,在MATLAB R2025b环境下实现。首先通过三维环境建模构建障碍体素空间,利用CNN提取环境代价特征;然后采用RNN评估路径序列质量;最后通过遗传算法优化路径,综合路径长度、安全距离等多目标约束。实
摘要:该项目基于PyTorch框架开发了一个枸杞虫害识别和防治系统,采用ResNet50、VGG16、ResNet34等卷积神经网络模型,支持模型融合对比。系统提供GUI(PySide6)和Web(Flask+Vue)两种界面,包含完整的训练测试流程、模型评估指标(准确率、召回率等)及可视化功能(热力图、特征图等)。项目提供完整代码、预训练模型和数据集,支持自定义数据集训练,适合图像分类相关研究和
在日常工作中,我专注于并行计算领域,主要依托GPGPU、NPU等高算力芯片进行开发。当前,高算力与AI已深度融合,计算与人工智能二者相辅相成:底层计算为实现通用算法与算子提供基础,而AI模型则能反哺并优化传统算法的决策效率与性能。为系统构建这方面的知识体系,我在公司导师的推荐下,跟随up主“霹雳吧啦Wz”的CNN系列视频进行学习,并通过博客记录学习过程,融入自己的理解与总结。图中展示了VGG网络的
摘要:本项目基于PyTorch框架开发了马铃薯病虫害识别系统,采用ResNet50、VGG16、ResNet34及模型融合技术,支持GUI和Web两种交互界面。系统实现了图像分类、模型可视化、热力图生成等功能,可输出训练曲线、混淆矩阵等评估指标。项目提供完整代码、预训练模型和数据集,支持自定义数据训练,包含详细的运行环境配置指南。关键技术包括PySide6、Flask、OpenCV等,适用于PyC
摘要:本文探讨了FPGA实现卷积神经网络(CNN)的关键技术。首先介绍了FPGA定点运算方法,采用Q7.8格式表示16位定点数,并给出了乘法和加法的Verilog实现。随后详细阐述了CNN各层的FPGA实现方案:通过并行乘法器和加法树实现3×3卷积运算;采用符号位检测实现ReLU激活函数;使用分段线性近似实现Sigmoid函数;设计比较器实现最大池化层;基于乘累加结构实现全连接层;以及将批归一化层
在日常工作中,我专注于并行计算领域,主要依托GPGPU、NPU等高算力芯片进行开发。当前,高算力与AI已深度融合,计算与人工智能二者相辅相成:底层计算为实现通用算法与算子提供基础,而AI模型则能反哺并优化传统算法的决策效率与性能。为系统构建这方面的知识体系,我在公司导师的推荐下,跟随up主“霹雳吧啦Wz”的CNN系列视频进行学习,并通过博客记录学习过程,融入自己的理解与总结。历史地位:2012年I
卷积网络的根本价值,不只是“能做图像分类”,而是它把视觉任务中最核心的结构性先验直接写进了模型:局部感受野、参数共享、层级特征提取、一定程度的平移鲁棒性。
在ViT出现之前,CV界是CNN一家独大,ResNet、EfficientNet等卷积架构统治图像分类多年。做视觉必须用卷积,纯Transformer不行。直到Google Brain团队扔出这篇ICLR 2021的封神之作——,直接用纯Transformer在图像分类任务上干翻SOTA卷积模型,正式开启Transformer统治CV的新纪元。今天这篇精读,从背景痛点→模型结构→公式推导→图解架构
该研究聚焦视觉-语言预训练(VLP)模型的对抗性攻击,首先通过分析不同攻击设置在两类 VLP 模型和三类下游任务中的表现,得出关键结论:扰动双模态输入比单模态更有效、攻击全嵌入比 [CLS] 嵌入(图像模态)或反之(文本模态)更优、ViT 作为图像编码器比 CNN 更鲁棒;随后提出协同多模态对抗攻击(Co-Attack),通过协同扰动图像与文本模态(先优化离散文本再优化连续图像),解决独立攻击的
Cascade R-CNN 的提出是为了解决目标检测中高质量检测(High Quality Detection)的难题。低质量检测的现状:传统检测器(如 Fast/Faster R-CNN)通常使用较低的 IoU(交并比)阈值(如 0.5)来定义正样本。这导致模型训练容易,但输出的边界框(Bounding Box)往往不够精确,包含大量“接近但错误”的负样本(Close False Positiv
这是我设计这套算法时最关键的一步。我之所以先用 CEEMDAN,是因为它对非线性、非平稳信号的适应性很好。CEEMDAN 可以把原始序列分解为若干本征模态函数 IMF,它不像固定基函数分解那样要求序列必须满足比较强的先验假设,更适合真实时间序列这种复杂信号。按照 CEEMDAN 的分解特点,前面的 IMF 一般对应更高频的波动,后面的 IMF 更接近低频趋势。但我在实际看分解结果时很快发现,只做一
摘要:本项目开发了一个基于卷积神经网络的辣椒病虫害识别系统,采用PyTorch框架实现,包含ResNet50、VGG16、ResNet34三种模型及融合模型。系统提供GUI和Web两种界面,支持图像分类、模型训练和评估功能。核心功能包括:1)多模型对比训练;2)输出训练曲线、混淆矩阵等评估指标;3)生成热力图和特征可视化。项目提供完整代码、预训练模型和数据集,可直接运行使用,适用于农业病虫害智能识
在日常工作中,我专注于并行计算领域,主要依托GPGPU、NPU等高算力芯片进行开发。当前,高算力与AI已深度融合,计算与人工智能二者相辅相成:底层计算为实现通用算法与算子提供基础,而AI模型则能反哺并优化传统算法的决策效率与性能。为系统构建这方面的知识体系,我在公司导师的推荐下,跟随up主“霹雳吧啦Wz”的CNN系列视频进行学习,并通过博客记录学习过程,融入自己的理解与总结。以上就是今天要讲的内容
本文提出了一种基于连续小波变换(CWT)结合卷积双向长短期记忆神经网络(CNN-BiLSTM)的智能故障诊断方法。该方法通过CWT将非平稳振动信号转换为时频图像,利用CNN提取空间特征,再通过BiLSTM建模时序依赖关系,实现端到端的故障分类。实验结果表明,该模型能有效识别机械设备的早期故障特征,在多工况、强噪声环境下表现出优越的识别性能。MATLAB实现方案包含数据预处理、特征提取、网络构建和性
本文提出一种名为 Residual Perturbation Attack(ResPA) 的新型对抗攻击方法,旨在解决现有基于迁移的对抗攻击中因过度依赖当前梯度方向导致对抗样本易陷入损失函数尖锐区域、迁移性有限的问题。ResPA 通过指数移动平均(EMA) 整合历史梯度得到参考梯度,以当前梯度与参考梯度的差值(即残差梯度)作为扰动方向,引导对抗样本朝向损失函数的平坦区域,同时将平坦项作为正则化项融
本文介绍Meta最近提出的用于提速多模态 Transformer 的框架 Mixture of Transformers (MoT)。MoT 是一种稀疏多模态 Transformers,可以在文本和图像处理中仅使用一半的计算资源达到与传统模型相当的性能。MoT 框图如下图所示:MoT 旨在处理任意交错模态(如文本、图像和语音)序列。每种模态都使用单独的一组非 Embedding 的 Transfo
在现代工业生产、基础设施监控以及诸多领域,故障的及时准确识别至关重要,它关系到系统安全、效率乃至经济效益。传统的故障识别方法往往依赖于专家经验、统计分析或基于单一模态的特征工程。然而,随着传感器技术的飞速发展,我们能够获取到的数据日益丰富和多样化,呈现出显著的多模态特征,例如振动信号、电流电压波形、声音信号、图像数据等。如何有效融合这些异构数据,挖掘其内在关联,以提升故障识别的精度和鲁棒性,成为了
当前,多模态数据融合在故障识别和分类领域展现出巨大的潜力。然而,如何有效地整合来自不同模态的数据,并充分利用其内在特征,仍然是一个具有挑战性的问题。
模块主要用于执行深度可分离卷积操作,它是一种高效的卷积方法,广泛应用于减少模型参数数量、计算成本以及提高运行效率等场景,特别是在移动和嵌入式设备上的深度学习应用中。类的设计提供了灵活性,可以根据具体任务调整内部层的配置(例如,卷积核大小、步长和填充),以适应不同的输入特征和需求,从而提高了模型的适用范围和扩展性。通过分离卷积操作为深度和逐点两个独立的步骤,深度可分离卷积显著减少了模型参数的数量,这
在当今人工智能的研究浪潮中,多模态融合与可解释性已经成为高端局的必备技能!小图特为您带来最新的相关论文,看看它们是如何在可解释的多模态融合领域中找到创新点并解决实际问题的!
多模态Mamba技术成为AI新热点,通过线性复杂度架构实现跨模态高效融合,在医疗影像、工业检测等领域展现优势。DepMamba、FusionMamba等创新模型突破传统效率瓶颈,mmMamba框架采用渐进式蒸馏技术,在视觉语言任务中实现20倍加速;ML-Mamba模型结合Mamba-2架构,通过新型扫描连接器提升多模态处理能力。研究证明这些方法在保持精度的同时显著提升计算效率,为轻量化多模态模型发
具体来说,作者在基于扩散的分支中利用去噪扩散概率模型(DDPM)构建全局信息,在基于CNN的分支中使用多尺度卷积核对局部细节特征进行提取。大量实验结果表明,在包括红外与可见光图像融合(IVF)和医学图像融合(MIF)在内的多种图像融合任务中,作者提出的DCAFuse优于其他最先进的方法。为各位推广自己的论文搭建一个平台,让更多的人了解自己的工作,同时促使不同背景、不同方向的学者和学术灵感相互碰撞,
本文介绍了基于TCN-BiGRU神经网络的时间序列预测方法。该方法结合时序卷积网络(TCN)和双向门控循环单元(BiGRU)的优势,能够有效捕捉时间序列的长期依赖关系。项目提供完整的MATLAB实现,包含数据生成、预处理、模型构建、训练评估等模块,支持参数设置、断点续训和可视化分析。测试结果显示,模型在模拟数据上取得了较好的预测效果,决定系数R²达到0.9548,皮尔逊相关系数为0.9871。代码
目标检测One-stage和Two-stage的区别
CTB则结合了CNN和Transformer的优势,通过长短距离注意力模块(LSDA)和卷积特征表示块(CFRB)等结构,有效地实现了特征的交互和增强。从定性比较结果来看,IF - USOD方法实现了卓越的准确性,几乎与真实标签完美匹配,在边缘、细节和形状保留方面表现出色,能有效处理复杂背景和细节丰富的场景。为各位推广自己的论文搭建一个平台,让更多的人了解自己的工作,同时促使不同背景、不同方向的学
摘要:本项目基于卷积神经网络开发了苹果叶片病虫害识别系统,采用PyTorch框架实现,包含ResNet50、VGG16和ResNet34三个手写模型。系统提供GUI(PySide6)和Web(Flask+Vue)两种界面,支持图像分类、训练过程可视化(准确率/损失曲线)、模型评估(混淆矩阵、F1值等)及特征图分析。项目提供完整代码、预训练模型和数据集,可在PyCharm/VS Code+Anaco
本教程是 AI 入门 30 天挑战 系列的一部分!合上教程,尝试回答:⏰ 时间:20 分钟如果能答出 80% 以上,我们开始今天的 CNN 之旅!如果不够,花 5 分钟翻一下 Day10 的笔记。想象你在找猫:用普通神经网络的问题:CNN 的解决方案:🎯 费曼输出 #1:解释为什么需要 CNN任务 1:向小学生解释场景: 有个小朋友问你:"为什么要用 CNN?普通的网络不行吗?"要求:参考模板:
我们不必从零开始写CNN,而是使用迁移学习。这是实战中最重要的技巧之一,能极大缩短训练时间并提升精度。我们以ResNet18为例。"""加载预训练模型,并替换最后的全连接层以适应我们的分类任务"""# 加载在ImageNet上预训练的ResNet18# 冻结除最后一层外的所有参数(可选,微调策略之一)# 获取原模型最后一层(fc层)的输入特征数# 替换为一个新的全连接层,输出为我们的类别数(2)为
1.创建项目1.1创建自动学习项目进入modelarts官网,点击管理控制台点击自动学习创建一个自动学习:图像分类项目1.2创建桶并上传数据集深度学习:模型训练:部署上线:评测结果:...
深度学习预测模型的性能高度依赖超参数的合理配置,传统超参数选择方法(如网格搜索、随机搜索)存在效率低下、易陷入局部最优、泛化能力不足等问题,难以满足复杂场景下的预测需求。针对这一痛点,本文提出一种基于鲸鱼优化算法(Whale Optimization Algorithm, WOA)优化卷积神经网络-长短期记忆网络(CNN-LSTM)混合预测模型超参数的方法,构建WOA-CNN-LSTM预测模型。首
cnn
——cnn
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net