简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
导入今天学习了《统计学习方法》中的K邻近法,参考刘建平老师的博客,使用python进行分类实现。推荐一下刘建平老师写的K邻近法总结,写的真的很好。这里对K邻近法的原理不再赘述,感兴趣的读者可以自行学习。本人学术水平有限,有错误的地方还请大家指出。算法实现导入包import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefro
Chronos:学习时间序列的大语言模型(代码解析),对关键类进行了逐行代码解析,并对需要注意的地方进行了说明。
Chronos:学习时间序列的大语言模型(训练、微调代码解析)
重新审视长时间序列预测:关于线性映射的调查论文解读
Dish-TS是一个简单而有效的、灵活的、针对时间序列预测中分布偏移的范式。Dish-TS 包括一个两阶段过程,预测前归一化,预测后反归一化。该范式建立在系数网络(CONET)之上,该系数网络将输入序列映射到系数以进行分布测量。如下图所示,Dish-TS被组织成一个双CONET框架,包括一个BACKCONET来说明输入空间(lookbacks)和一个HORICONET来说明输出空间(horizon
使用MMDetection微调RTMDet模型,使其用于实例分割任务,并在Motorcycle Night Ride数据集上进行测试,对训练过程中可能出现的一些问题进行了说明,并给出了解决方案
自动化特征生成框架OpenFE使用示例,并对其参数进行了说明,根据性能和速度场景进行分别说明
大语言模型(LLMs)通常需要在数十亿个tokens上进行预训练,一旦有了新数据,又要重新开始训练。更有效的解决方案是增量预训练(Continue PreTraining)这些模型,这与重新训练相比可以节省大量的计算资源。然而,新数据带来的分布偏移通常会导致在旧数据上的性能下降或者对新数据的适应性不佳。
TimesNet:用于一般时间序列分析的时间二维变化模型论文解读
PatchMixer:一种用于长时间序列预测的Patch混合架构,论文解读