logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

A review on rumour prediction and veracity assessment in online social network

在当今时代,社交网络被用作分享个人思想和观点的重要媒介。其背后的主要原因是,它可以轻松地在公众中快速传播信息,并且访问成本非常低。这导致在线社交媒体成为鼓励虚假内容并影响公众舆论及其决策的垫脚石之一。谣言是社交媒体上误导性信息的主要形式之一,应尽早发现,以避免其产生重大影响。由于这些原因,研究人员在过去几年中对开发有效的谣言检测框架产生了浓厚的兴趣。在本文中,我们主要关注了六个主要方面。首先,我们

文章图片
#论文阅读#深度学习
PREFORMER: PREDICTIVE TRANSFORMER WITH MULTI-SCALE SEGMENT-WISE CORRELATIONS FOR LONG-TERM TIME SERI

在长期时间序列预测中,大多数基于 Transformer 的方法采用标准的逐点注意力机制,该机制不仅复杂度高,而且无法明确捕获上下文中的预测依赖关系,因为相应的键和值是从同一点转换的。本文提出了一种基于 Transformer 的预测模型,称为 Preformer。Preformer 引入了一种新颖高效的多尺度分段相关机制,将时间序列划分为分段,并利用基于分段相关的注意力来取代逐点注意力。开发了多

文章图片
#transformer#深度学习#人工智能
SCINet: Time Series Modeling and Forecasting withSample Convolution and Interaction

时间序列的一个独特属性是,在下采样为两个子序列后,时间关系在很大程度上得以保留。利用这一特性,我们提出了一种新颖的神经网络架构,它可以进行样本卷积和交互以进行时间建模和预测,称为 SCINet。具体来说,SCINet 是一种递归下采样-卷积-交互架构。在每一层中,我们使用多个卷积滤波器从下采样的子序列或特征中提取独特但有价值的时间特征。通过结合从多种分辨率聚合的这些丰富特征,​​SCINet 可以

文章图片
#论文阅读#人工智能#深度学习 +1
ITRANSFORMER: INVERTED TRANSFORMERS ARE EFFECTIVE FOR TIME SERIES FORECASTING

最近线性预测模型的繁荣对基于 Transformer 的预测器的架构修改的持续热情提出了质疑。这些预测器利用 Transformer 对时间序列的时间标记的全局依赖性进行建模,每个标记由同一时间戳的多个变量形成。然而,由于性能下降和计算爆炸,Transformer 在预测具有较大回溯窗口的序列时面临挑战。此外,每个时间标记的统一嵌入融合了具有潜在未对齐时间戳和不同物理测量的多个变量,这可能无法学习

文章图片
#论文阅读
ITRANSFORMER: INVERTED TRANSFORMERS ARE EFFECTIVE FOR TIME SERIES FORECASTING

最近线性预测模型的繁荣对基于 Transformer 的预测器的架构修改的持续热情提出了质疑。这些预测器利用 Transformer 对时间序列的时间标记的全局依赖性进行建模,每个标记由同一时间戳的多个变量形成。然而,由于性能下降和计算爆炸,Transformer 在预测具有较大回溯窗口的序列时面临挑战。此外,每个时间标记的统一嵌入融合了具有潜在未对齐时间戳和不同物理测量的多个变量,这可能无法学习

文章图片
#论文阅读
基于深度学习的时间序列算法总结

深度学习方法是一种利用神经网络模型进行高级模式识别和自动特征提取的机器学习方法,近年来在时序预测领域取得了很好的成果。常用的深度学习模型包括循环神经网络(RNN)、长短时记忆网络(LSTM)、门控循环单元(GRU)、卷积神经网络(CNN)、注意力机制(Attention)和混合模型(Mix )等,与机器学习需要经过复杂的特征工程相比,这些模型通常只需要经数据预处理、网络结构设计和超参数调整等,即可

文章图片
#深度学习#算法#人工智能 +1
到底了