logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习模型自我代码复现:MLP多层感知机

根据模型的数学原理进行简单的代码自我复现以及使用测试,仅作自我学习用。模型原理此处不作过多赘述,仅罗列自己将要使用到的部分公式。如文中或代码有错误或是不足之处,还望能不吝指正。本文侧重于使用numpy重新写出一个使用BP算法反向传播的MLP模型,故而不像其他文章那样加入图片演示正向传播与反相传播的原理或是某个特定函数的求导过程以及结论。......

#机器学习#人工智能#深度学习
时间序列模型:lag-Llama

这是一个借鉴了Llama模型结构的单变量概率时间预测模型,使用了海量的数据集进行预训练,用户可以根据实际的任务进行模型微调或者直接进行零样本推理。模型从六个领域搜集了27个时序数据,根据不同的频数分为了7965个数据集进行预训练,之后又从其他数据集上进行零样本学习以及微调,使用CRPS评估的结果如图所示,Lag-Llama微调后的平均结果更好,仅2.786左右。

文章图片
#python#机器学习#深度学习 +1
时间序列机器学习论文:iTransformer

本文反思了为什么Transformer模型在时间序列预测的问题上没有传统的线性模型效果好。文章作者认为,Transformer并非不适合于时间序列预测任务,而是以往的研究者没有“正确使用”Transformer。在没有大改Transformer模型的情况下,通过将输入Embedding的进行转置,使得自注意力层与前向层所提取的特征进行了互换,经过试验发现无论是预测效果还是模型可解释性都大大提高了,

文章图片
#人工智能#深度学习
模型推导:BG/NBD(预测用户生命周期(CLV)模型)

CLV(Customer Lifetime Value)指的是客户生命周期价值,用以衡量客户在一段时间内对企业有多大的价值。企业对每个用户的流失与否、在未来时间是否会再次购买,还会再购买多少次才会流失等问题感兴趣,本文所推导的BG/NBD模型就是用来解决这样一系列问题的。

文章图片
#python#零售
机器学习论文浅读:TimesNet

简单介绍了TimesNet的模型架构:通过傅里叶变换提取周期,将一维的时间序列转化为n个周期并排的二维序列,以此能够使用二维卷积以及类ResBlock的结构提取特征,在短期、长期预测、分类、异常检测以及缺失值处理这5个任务上都展现出了超越其他模型的效果。

文章图片
#人工智能
【机器学习】Prophet模型训练过程代码浅读+使用pymc复现stan文件中的贝叶斯建模过程

Prophet是Facebook公司开源的一款时间序列预测模型接口,可用R语言或python进行相关时间预测操作,本文将会从它的代码上对其进行模型拟合以及预测的过程进行一个梳理,并使用python中的pymc包进行Stan文件中贝叶斯建模的复现。

文章图片
#机器学习#python#数据挖掘
机器学习实战:沃尔玛销量预测(M5竞赛)

参考了Konstantin的特征处理,使用了XGBoost,lightGBM,CatBoost以及Blending策略对M5数据集中的德克萨斯州家居类产品作了预测。得到了可以接受的一个结果。

文章图片
机器学习模型自我代码复现:回归

根据模型的数学原理进行简单的代码自我复现以及使用测试,仅作自我学习用。模型原理此处不作过多赘述,仅罗列自己将要使用到的部分公式。

#python#机器学习
机器学习论文及代码浅读:LassoNet

论文提出了一个在神经网络中能够做特征提取的结构:LassoNet,其核心思想,是使用一个“Skip层”的结构来控制要进入后面隐层的特征数量,从而实现特征的稀疏化。尽管原理看上去很简单,但是针对其进行反向传播的优化算法(Warm Start和Hier-Prox算法),实际上有着相当的数学最优化原理。这篇论文实际上结合了原本线性模型种的L1正则化与ResNet的思路,可以说有着借鉴价值。

文章图片
#机器学习#python
机器学习论文源代码浅读:Autoformer

原本想要和之前一样写作“代码复现”,然而由于本人一开始对于Autoformer能力理解有限,参考了一定的论文中的源代码,写着写着就发现自己的代码是“加了注释版本”的源代码,故而只能是源代码的浅读,而非复现。

文章图片
#人工智能#深度学习
    共 33 条
  • 1
  • 2
  • 3
  • 4
  • 请选择