logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【论文阅读】(StemGNN)多元时间序列预测的谱时间图神经网络

论文提出了一种新型的深度学习模型StemGNN,用于提高多变量时间序列预测的准确性。论文将多变量时间序列预测问题定义为基于多变量时间图(multivariate temporal graph)的数据结构。StemGNN在频谱域中同时捕获时间序列内部和序列间的相关性。模型结合了图傅里叶变换(GFT)和离散傅里叶变换(DFT),并在端到端框架中使用卷积和序列学习模块进行有效预测。实验在十个真实世界的数

文章图片
#论文阅读#神经网络#人工智能
特征选择和特征工程

删除特征的一个重要原因是。因此,可以删除这些输入变量,而不会造成很多信息丢失。冗余和无关是两个截然不同的概念,因为一个相关特征在存在与之高度相关的另一个相关特征的情况下可能是多余的。在某些方面,特征工程与特征选择相反。使用特征选择,可以删除变量。在特征工程中,可以创建新变量来增强模型。在许多情况下,将使用领域知识进行增强。

文章图片
#python#scikit-learn#pandas +2
【论文阅读】High-Resolution Image Synthesis with Latent Diffusion Model

通过将图像形成过程分解为去噪自编码器的顺序应用,扩散模型(DMs)在图像数据上实现了最先进的合成结果,并且它们的公式允许在不重新训练的情况下引入引导机制来控制图像生成过程。然而,由于这些模型通常直接在像素空间中操作,优化强大的DMs通常需要数百个GPU天,并且由于顺序评估,推理成本很高。为了在有限的计算资源下进行DM训练,同时保留它们的质量和灵活性,作者将它们应用于强大预训练自编码器的潜在空间。与

文章图片
#论文阅读#人工智能#深度学习 +1
【论文阅读】Mamba: Linear-Time Sequence Modeling with Selective State Spaces

Mamba模型基于Transformer架构,旨在解决传统Transformer在长序列上的计算效率问题。通过引入选择性状态空间SSMs(Selective State Spaces),Mamba能够在保持线性时间复杂度的同时,实现与Transformer相媲美的性能。首先,简单地让SSM参数成为输入的函数,解决了它们在离散模态方面的弱点,允许模型根据当前令牌选择性地沿序列长度维度传播或忘记信息。

文章图片
#论文阅读#深度学习
【论文阅读】Patch n‘ Pack: NaViT, a Vision Transformer for any Aspect Ratio and Resolution

此前的模型将图像大小调整为固定分辨率明显是一个次优的选择。然而,诸如 Vision Transformer (ViT) [1]之类的模型提供了灵活的基于序列的建模,因此可以改变输入序列长度。支撑Vit的操作很简单:将图像拆分为多个补丁,每个补丁都线性投影到一个token上。通常,输入图像的大小会调整为固定的正方形纵横比,然后拆分为固定数量的patches。

文章图片
#论文阅读#transformer#深度学习 +3
【论文阅读】Probabilistic Imputation for Time-series Classification with Missing Data

实际应用的多变量时间序列数据通常包含大量缺失值。对此类缺失值进行分类的主要方法是使用特定值(零、平均值、相邻时间步长的值)或可学习参数进行启发式插补。然而,这些简单的策略没有考虑到数据生成过程,更重要的是,由于缺失值的多种可能性,无法有效地捕捉预测中的不确定性。在本文中,提出了一种新的概率框架,用于对缺失值的多变量时间序列数据进行分类。用于缺失值插补的深度生成模型和分类器。

文章图片
#论文阅读#深度学习#人工智能 +1
【论文阅读】(PDFormer)Propagation Delay-Aware Dynamic Long-Range Transformer for Traffic Flow Prediction

交通流量预测是智能交通系统的核心技术之一,其主要挑战在于有效建模交通数据中的复杂时空依赖性。现有的基于图神经网络(GNN)的模型存在三个主要限制:静态空间依赖性建模、短程空间信息考虑不足、忽略交通条件传播的时间延迟。为此,本文提出了一种新的传播延迟感知的动态长程变换器(PDFormer),用于准确的交通流量预测。具体来说,设计了空间自注意力模块来捕捉动态空间依赖性,引入了两个图掩码矩阵来突出短程和

文章图片
#论文阅读#transformer#深度学习
【论文阅读】(DALLE-3)Improving Image Generation with Better Captions

论文展示了通过在高度描述性的生成图像captions上训练,可以显著提高文本到图像模型的提示跟随能力。现有的文本到图像模型在遵循详细图像描述方面存在困难,经常忽略提示中的单词或混淆提示的含义。作者假设这个问题源于训练数据集中图像标题的噪声和不准确性。通过训练一个定制的图像captions生成器并用它来重新标注训练数据集来解决这个问题。然后,训练了几个文本到图像模型,并发现在这些合成captions

文章图片
#论文阅读#计算机视觉#人工智能
【论文阅读】TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis

文章的重点是时间变化建模,这是广泛分析任务的常见关键问题。单个时间点通常无法提供足够的语义信息进行分析,时间变化更能反映时间序列的内在属性,如连续性、周期性、趋势等。许多经典方法假设时间变化遵循预定义的模式,例如ARIMA,Holt-Winter和Prophet。然而,现实世界时间序列的变化通常过于复杂,无法被预定义的模式所覆盖,从而限制了这些经典方法的实际适用性。当前基于深度学习的方法,主要有三

文章图片
#论文阅读#深度学习#人工智能 +1
(VAE)Auto-Encoding Variational Bayes

作者引入了一种随机变分推理和学习算法,该算法可以扩展到大型数据集,并且在一些温和的可微性条件下,甚至可以在棘手的情况下工作。

文章图片
#论文阅读#深度学习#人工智能
    共 20 条
  • 1
  • 2
  • 请选择