
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本周首先对克里金方程组的构建求解部分进行了学习,随后尝试用代码进行了不同经验变异模型的克里金插值对比,了解了实践中用到的具体参数;其次阅读了《Deep learning and process understanding for data-driven Earth system science》,了解了其背景与方法论等,为后续学习打下基础。

本周首先对克里金方程组的构建求解部分进行了学习,随后尝试用代码进行了不同经验变异模型的克里金插值对比,了解了实践中用到的具体参数;其次阅读了《Deep learning and process understanding for data-driven Earth system science》,了解了其背景与方法论等,为后续学习打下基础。

本周首先学习了上周接触到的插值方法,了解了它的定义、方法以及对应的优缺点与应用场景,具体包括线性插值、多项式插值与反距离加权等;其次阅读了《WeatherBench: A benchmark data set for data-driven weather forecasting》这篇论文,了解了它的背景、方法论与创新点等。本周对于上周了解到的插值方法进行了学习,感觉多维插值中径向基函数与克里金两

本周主要学习了LSTM的相关内容,包括LSTM的核心结构、优势与局限性以及变体网络,重点了解了遗忘门、输入门与输出门的计算、细胞状态的变化过程、还有双向LSTM和GRU相较LSTM的相关改进与优缺点。此外,本周还对基于LSTM的情感分类项目进行了复现,在加深对LSTM了解的同时,拓展了关于独热向量,贝叶斯优化、超参数自动搜索等的认识。#模型定义#Embedding的作用是将离散的符号(如单词、字符

本周首先利用代码梳理了 U-Net 的网络结构及弹性形变,了解了其实现细节与尺寸变换,同时认识了插值这一数据处理方法;其次,手动梳理了 Sinkhorn 算法的迭代过程,并利用代码对其进行了实现,同时了解了收敛容差这一参数的作用与选择策略。本周主要对上周学习的内容,即 U-Net 与 Sinkhorn 算法进行了梳理,更加深入了解了前者的网络结构与后者的实现,同时通过手动计算对 Sinkhorn
本周首先深入学习了上周接触的 Monge 问题与 Kantorovich 松弛,了解它们的问题描述、数学表示、局限与优势以及意义;其次,阅读了 Vision Transformer 的论文,了解了 ViT 产生的背景、采用的方法以及创新点;此外,拓展了解了刚性、紧性等性质概念。本周首先对 Monge 问题与 Kantorovich 松弛进行了进一步学习,除了接触得比较少的数学概念(如紧性)以外,比

本周首先总结了前面阅读的两篇文献,对比了GPT-1与GPT-2的各方面差异,同时对GELU与ReLu激活函数的区别、零样本任务以及BPE等知识点进行了拓展;其次梳理了shor算法的代码,包括其经典实现与量子实现,深入理解了其过程。两者在核心思想与目标、模型架构与训练过程、执行方式、能力与影响上都有所不同。在核心思想与目标上,GPT-1 明确知道要解决的是什么具体任务(任务感知),一开始通过预训练得

本周首先阅读了《Improving Language Understanding by Generative Pre-Training》这篇论文,了解了其背景、方法与实验结果;其次回顾了傅里叶变换的知识,并在离散傅里叶变换的基础上学习了量子傅里叶变换,了解了其电路结构与具体步骤,认识了受控旋转门,并对哈达玛门有了更进一步的了解。本周首先阅读了GPT的奠基性论文,后续考虑对该系列论文进行深入了解,思

本周主要学习了LSTM的相关内容,包括LSTM的核心结构、优势与局限性以及变体网络,重点了解了遗忘门、输入门与输出门的计算、细胞状态的变化过程、还有双向LSTM和GRU相较LSTM的相关改进与优缺点。此外,本周还对基于LSTM的情感分类项目进行了复现,在加深对LSTM了解的同时,拓展了关于独热向量,贝叶斯优化、超参数自动搜索等的认识。#模型定义#Embedding的作用是将离散的符号(如单词、字符








