
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
Informer时序模型(自定义项目)
Informer时序模型预测方法,以及如何将其放到Kaggle上进行GPU加速
Deep Learning Tuning Playbook(深度学习调参手册中译版)
由五名研究人员和工程师组成的团队发布了《Deep Learning Tuning Playbook》,本文对手册进行了中文翻译

Informer时序模型(代码解析)
Informer时序模型代码解析,结合代码理解作者在Transformer模型上做了哪些改进
在Kaggle上使用Stable Diffusion进行AI绘图
在Kaggle上使用Stable Diffusion进行AI绘图

语言模型的On Policy蒸馏:从自我错误中学习
知识蒸馏(KD)被广泛用于通过训练较小的学生模型来压缩教师模型,以降低推理成本和内存占用。然而,当前用于自回归序列模型的KD方法存在训练期间看到的输出序列与学生在推理期间生成的输出序列之间的分布不匹配的问题。为了解决这个问题,我们引入了广义知识蒸馏(GKD)。GKD不是仅仅依赖于一组固定的输出序列,而是利用老师对这些序列的反馈,在学生自生成的输出序列上训练学生。与监督式KD方法不同,GKD还提供了

利用python进行一元线性、多项式回归(statsmodels包)
使用python中的statsmodels包进行一元线性回归与二次多项式回归,并使用模型进行预测
WaveNet时间序列模型(基于GluonTs包)
WaveNet时间序列模型的训练,基于GluonTs包,并展示如何使用optuna包对模型进行调优
A Time Series is Worth 64 Words(PatchTST模型)代码解析
PatchTST模型代码解读

Chronos:学习时间序列的大语言模型(论文解读)
《Chronos:学习时间序列的大语言模型》论文翻译

利用MMPreTrain微调图像分类模型
利用MMPreTrain库微调图像分类模型,讲解了配置文件的各组成部分,并说明了如何修改配置文件
