logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习中的不确定性量化:技术、应用和挑战综述(一)

不确定性量化(UQ)在减少优化和决策过程中的不确定性方面起着关键作用,应用于解决各种现实世界的科学和工程应用。贝叶斯近似和集成学习技术是文献中使用最广泛的两种UQ方法。在这方面,研究人员提出了不同的UQ方法,并测试了它们在各种应用中的性能,如计算机视觉(如自动驾驶汽车和物体检测)、图像处理(如图像恢复)、医学图像分析(如医学图像分类和分割)、自然语言处理(如文本分类、社交媒体文本和惯犯风险评分)、

文章图片
#深度学习#人工智能
深度学习简史

“上帝是一位算术家!”——雅克比深度学习(DeepLearning)是人工神经网络(artificialneuralnetwork)的一个分支。1943年,来自美国的数学家沃尔特·皮茨(W.Pitts)和美国心理学家沃伦·麦克洛克(W.McCulloch)首次提出人工神经网络的概念,并对其中的神经元进行了数学建模,从此人工神经网络这一研究领域被开启[1]。194...

#深度学习#机器学习#人工智能
【ICLR 2026】通过缓解概念漂移提升时间序列预测

论文摘要(149字) ICLR 2026论文《Tackling Time-Series Forecasting Generalization via Mitigating Concept Drift》针对时间序列预测中的概念漂移被忽视问题,提出模型无关框架ShifTS:通过软注意力掩码(SAM)提取外生特征不变模式缓解概念漂移,结合RevIN归一化处理时间偏移。实验显示,ShifTS在6个数据集上

文章图片
【ICLR 2026 高分论文】预测之后的预测:时间序列的自适应后处理方法

我们提出了一种事后轻量化、与架构无关的方法,无需重新训练即可提升已部署的时间序列预测模型性能。

文章图片
#数据挖掘#机器学习#人工智能
【ICLR 2026】MixLinear:基于0.1 K参数的极低资源多变量时间序列预测

MixLinear是ICLR 2026提出的极低资源多元长时序预测模型,仅含0.1K参数。该模型创新性地采用时域分段趋势提取与频域自适应低秩谱滤波的双路径架构,将时序建模复杂度从O(n²)降至O(n)。在8个标准数据集上,MixLinear实现了与Transformer/线性SOTA模型相当的预测精度,最高优化16.2%的MSE指标,同时获得3.2倍推理加速和81%参数量缩减。模型核心优势在于:1

文章图片
【LLM+时序控制】闭环控制:基于控制理论的可证明稳定时间序列预测框架与大型语言模型

本文聚焦大语言模型(LLM)时间序列预测中开环自回归推理引发的误差累积(暴露偏差)与长视界轨迹漂移问题,从控制理论视角提出F-LLM(Feedback-driven LLM)闭环预测框架

文章图片
#语言模型#人工智能#自然语言处理
深度学习中的不确定性量化:技术、应用和挑战综述(一)

不确定性量化(UQ)在减少优化和决策过程中的不确定性方面起着关键作用,应用于解决各种现实世界的科学和工程应用。贝叶斯近似和集成学习技术是文献中使用最广泛的两种UQ方法。在这方面,研究人员提出了不同的UQ方法,并测试了它们在各种应用中的性能,如计算机视觉(如自动驾驶汽车和物体检测)、图像处理(如图像恢复)、医学图像分析(如医学图像分类和分割)、自然语言处理(如文本分类、社交媒体文本和惯犯风险评分)、

文章图片
#深度学习#人工智能
通用视觉多模态大模型 一统理解/生成/分割/编辑

一方面,研究人员尝试深化MLLMs对视觉的理解,从粗略的实例级理解过渡到对图像的像素级细粒度理解,从而实现视觉区域定位(Regional Grounding)能力,如GLaMM、PixelLM、NExT-Chat和MiniGPT-v2等。部分研究已经开始研究让MLLMs不仅理解输入视觉信号,还能支持生成输出视觉内容。Vitron作为一个统一的像素级视觉多模态大语言模型,实现了从低层次到高层次的视觉

文章图片
#视频生成
机器学习之优化算法(二)之梯度下降及收敛性分析

确定性优化算法和随即优化算法是有明显的分界线的。如果加上分布式集群上的实现方式,就可以分为同步或异步的算法。从梯度下降(GD)后,20世纪50年代,各种一阶算法井喷,其中 SGD 也是这个时候的产物。梯度下降(GD)是柯西(Cauchy )大神的1847年提出的。其基本思想是...

#机器学习
机器学习之优化算法(一)之损失函数

损失函数损失函数被称为 cost function, object function, loss function等,这里不区分几种用法的微小区别。机器学习离不开目标函数,我们分析一下目标函数:其中,前一项是经验风险,后一项是结构风险。前者是为了增加 ML 对已有系统的 fitting,后者是尽量减少 ML 模型的复杂度,以避免 overfitting。整个损失函数称为正则化经验风险最小化...

#机器学习#人工智能
    共 24 条
  • 1
  • 2
  • 3
  • 请选择