原文链接:https://blog.csdn.net/qq_43622216/article/details/128918566

个人收集精力有限,欢迎各位评论或者私信告知SNN相关论文研究!

目录

说明

这篇博客主要用于记录2023年在一些顶会顶刊(AAAI、CVPR等)上发表的SNN相关论文,以及相关论文的链接及简单介绍。
更新SNN相关论文、动态信息,欢迎浏览讨论!

AAAI2023

IJCAI(International Joint Conference on Artificial Intelligence)

ICASSP(IEEE International Conference on Acoustics, Speech and Signal Processing)

Knowledge-Based Systems

Pattern Recognition

  • 论文1: Joint A-SNN: Joint Training of Artificial and Spiking Neural Networks via Self-Distillation and Weight Factorization
    • 中国航天科工集团公司智能科学技术研究院研究人员发表于Pattern Recognition

    • 将网络(ANN和SNN)分为多个stage,每个stage后跟着全局平均池化和全连接层,每一个输出都和label计算交叉熵loss。
      在这里插入图片描述

    • 每一个stage,ANN的输出作为label和SNN对应的输出计算KL散度loss。ANN的输出进行detach处理。
      在这里插入图片描述

    • ANN和SNN提取到的特征可能有不同的标准化幅度。每一个stage,ANN的输出作为label和SNN对应的输出计算L2 norm loss(向量的模的平方,不开根号)。ANN的输出进行detach处理。
      在这里插入图片描述

    • 前几个stage的输出计算loss能够缓和SNN中由于梯度爆炸/消失引起的前几层网络无法训练的问题。

    • 最终的训练loss为: 在这里插入图片描述

    • 提出了weight-factorization training (WFT):对ANN和SNN的参数进行因子分解,使其具有相同的奇异向量(U和V),但是各自的奇异值可以不同。在这里插入图片描述

    • U、V以及ANN和SNN的对角矩阵基于梯度下降进行优化。

ICML

CVPR

ICCV(共10篇)

  • 论文1: Deep Directly-Trained Spiking Neural Networks for Object Detection

    • 由中科院(李国齐)、西安交大、清华大学、北京大学、华为等机构研究人员发表于ICCV 2023。
    • 提出了Energy-efficient Membrane-Shortcut ResNet(EMS-ResNet)和EMS-YOLO,实现低能耗、高效的目标检测。
      在这里插入图片描述
  • 论文2: Towards Memory- and Time-Efficient Backpropagation for Training Spiking Neural Networks

    • 由香港中文大学、北京大学(Zhouchen Lin)、鹏城实验室等研究人员发表于ICCV 2023。
    • 发现时间维度的梯度和空间维度的梯度相比很小,梯度中的空间部分主导着梯度。因此提出了Spatial Learning Through Time (SLTT)方法忽视训练过程中的时间关系,从而在每个时间步长内可以单独更新参数以降低训练过程中的时间和内存开销。
    • SLTT-K:训练过程中的每次迭代随机选择K个时间索引,仅在这K个时间步长中更新参数。
  • 论文3: Masked Spiking Transformer

    • 由香港科技大学(广州)许人镜组、北卡罗莱纳州立大学、香港大学等研究人员发表于ICCV 2023。
    • 基于quantal synaptic failures(量子突触失效,说明神经信号传输过程中丢失的信息可能不会影响突触后神经元的计算信息,但能够降低能耗),构建ANN转SNN的Transformer模型。
    • 提出了Masked Spiking Transformer(MST),合并了Random Spike Masking(RSM)方法。
    • 使用Swin Transformer作为backbone,把LN替换成BN,使用QCFS转换ANN到IF神经元。
    • RSM:随机mask一部分输入的脉冲信号。
  • 论文4: Unleashing the Potential of Spiking Neural Networks with Dynamic Confidence

    • 由曼彻斯特大学研究人员发表于ICCV 2023。
    • 为每一个样本动态地决定SNN推理应该使用的时间步长。
  • 论文5: Membrane Potential Batch Normalization for Spiking Neural Networks

    • 由中国航天科工集团公司智能科学技术研究院等研究人员发表于ICCV 2023。
    • 在脉冲神经元累积膜电势之后对膜电势使用BN,然后再产生脉冲。使用重新参数化在推理时将BN合并入发射阈值,因此不影响推理效率。
  • 论文6: Inherent Redundancy in Spiking Neural Networks

    • 由西安交大、自动化所李国齐组等研究人员发表于ICCV 2023。
    • 使用注意力机制减少冗余的脉冲。
    • 先将接收到的输入从时间和通道维度划分为两组,对于每一组单独应用空间注意力机制然后再进行拼接。调整膜电势分布从而优化输出的脉冲。
  • 论文7: Temporal-Coded Spiking Neural Networks with Dynamic Firing Threshold: Learning with Event-Driven Backpropagation

    • 由电子科技大学(屈鸿、张马路组)、诺森比亚大学、清华大学等研究人员发表于ICCV 2023。
  • 论文8: RMP-Loss: Regularizing Membrane Potential Distribution for Spiking Neural Networks

    • 由中国航天科工集团公司智能科学技术研究院等研究人员发表于ICCV 2023。
    • 使用额外的损失项限制脉冲神经元的膜电势向0/1靠近。使用MPR(ECCV 2022)里提出的函数。
  • 论文9: Efficient Converted Spiking Neural Network for 3D and 2D Classification

    • 由厦门大学、清华大学、东北大学等研究人员发表于ICCV 2023。
    • 应用ANN转SNN进行3D分类(点云)。
    • 阈值的初始化:逐层设置能使得ANN和SNN输出的KL散度最小的脉冲神经元阈值。
    • Adaptive Dynamic Threshold Based on Activation State:用于转换后的推理时,基于未激活的神经元比例计算一个系数w,当比例较高时 w w w较低,从而 w w w与阈值的加权较低,让更多神经元产生脉冲。
    • adaptive firing mechanism:使用α调节膜电势,膜电势达到多少倍的阈值就发射几个脉冲(多比特脉冲)。设置脉冲数量上界为 2 n − 1 2^n-1 2n1和下界为0
  • 论文10: SSF: Accelerating Training of Spiking Neural Networks with Stabilized Spiking Flow

    • 由中科院自动化所、西安交通大学等研究人员发表于ICCV 2023。

NeurIPS(共14篇)

ICLR

本文出自于CSDN-lan人啊,转载请注明!

Logo

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。

更多推荐