logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

理解Docker、镜像Images、容器Container

Image(镜像):可以理解为虚拟机的快照,里面包含了你要部署的应用程序以及它关联的所有库、软件。通过镜像可以创建许多不同的Container容器,这些容器就行是一台台运行起来的虚拟机,里面包含了虚拟程序。每个容器独立运行,相互之间不影响。容器就是镜像的实例化。我们可以修改容器中的安装包啥的,然后保存这个容器成为一个新的镜像(在顶层叠加)。如果学习Conda环境,这就很好理解了,我们每次构建一个项

#docker#容器
Improving Time Series Forecasting via Instance-aware Post-hoc Revision时序论文阅读

的整体思路是**先用一个主干模型给出一个初始预测结果,然后再对这个结果进行修正**。:为了修正这个错误,首先必须精准识别哪些预测是失败的。:作者将这个的过程建模为一个“”任务。的目标。在传统机器学习或深度学习任务中,模型通常给出一个点预测,比如“明天的气温是 25 度”。而**要求模型输出一个范围或概率**,比如“明天的气温在 23 度到 27 度的概率是 95%”,或者“我是瞎猜的,置信度很低”

#论文阅读
Timer : Transformers for Time Series Analysis at Scale 时序论文阅读

沿着最后一维创建滑动窗口,Timer在输入之前,对x=[551, 672, 1]做了交换维度的操作, permute之后变成了[551, 1, 672];将下游数据集放在./dataset/文件夹下,可以使用提供的数据集微调, 也可以使用自定义的数据集进行微调,不过默认是按照7:1:2划分数据集。能够实现每隔5个样本取1个的效果,同时__len__方法返回的长度也适配了训练过程的采样,能够覆盖原始

#论文阅读
TimeMOE:Billion-Scale Time Series Foundation Models with Mixture of Experts时序论文阅读

强大的混合专家架构:Time-MoE采用稀疏激活机制,在预测任务中仅激活部分网络节点,这不仅确保了高预测精度,还显著降低了计算负担,完美解决了时序大模型在推理阶段的计算瓶颈。2、采用MOE架构,使用多个专家替代单一的FFN层,并设计了一个共享专家捕获公共知识,其他多个专家按需激活和学习,同时增加一个辅助损失函数,让专家模型实现负载均衡。“Point-wise” 是“逐点的”或“按点的”。在训练阶段

#论文阅读
到底了