
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本周跟着吴恩达老师的机器学习系列课程学习了多元线性回归的相关知识,了解了特征缩放与正规方程的原理及公式,用两种方法完成了多元线性回归的代码实现,对特征缩放的作用与正规方程有了更加清楚的了解。

矩阵是指由数字组成的矩形阵列,写在方括号内,通常由大写字母表示。矩阵维度指的是矩阵中行与列的数量,通常由“行数列数”的形式表示。假设A是一个mn的矩阵,那么A通常包括m行n列:本周跟着吴恩达老师的机器学习系列课程回顾了矩阵的定义及基本运算,并进行了代码实现,对上周单变量线性回归的过程有了更深刻的理解。

上面的KL散度、JS散度与总变分距离都是同一个“大家族”的特例,即 f-散度族(f-Divergences)。这是一类用于衡量两个概率分布之间差异的函数,它们都基于一个共同的数学形式。离散情况下:连续情况下:其中要求为凸函数,且并约定:1.;2.。它们(主要是前面学习的三种)与 Wasserstein 距离的主要对比如下:1. Wasserstein 距离与总变分距离都是度量,而KL散度与JS散度
本周阅读的论文主要是提出了一种纯量子模型,不同上周论文的量子核嵌入,它除了输入和输出部分外均由量子构成,同时提供了复现代码,下周可以尝试复现一下,整体架构较简单,后续可以考虑作为基线模型。

本周首先阅读了 U-Net 的论文,了解了 U-Net 的背景、架构、创新点与优势,同时分析了它的局限性;其次学习了Sinkhorn 算法,拓展了最优传输问题的表示形式,了解了算法的目标、步骤、优缺点以及应用场景。总的来说,实验结果不仅定量证明了U-Net的卓越性能,还定性展示了其在保留细节和正确处理复杂拓扑结构方面的能力,为后续的医学图像分割研究设立了新的基准。但尽管 U-Net 取得了巨大成功

本周主要利用代码进行了径向基函数的插值实战,通过设计不同的数据分布对比了不同核的性能,并进行了可视化。除此之外还配置了API,下载并可视化了一小部分地表温度数据,为后续学习复现打下基础。本周主要是进行了 RBF 在插值方面的代码实践,加深了对 RBF 结构与实际应用的理解。其次下载并可视化了了小型的气象数据。下周预计学习克里金法。
本周首先基于上周对于 Kantorovich 松弛的学习,进一步学习了 Kantorovich 对偶问题,了解了其问题描述、数学表示以及对偶定理;其次利用代码对视觉 Transformer 的结构进行了梳理复现,了解了 MLP 扩展比率与截断正态分布等概念。可以发现,对偶性将物理世界的优化问题(如何移动物质)转化为经济世界的优化问题(如何定价)。在物理世界中,它本质上是一种集中式、命令型的资源配置

本节主要对上周论文中的数据预处理方法,即三重指数平滑、自回归模型与小波去噪进行补充学习,了解了它们的核心思想、算法流程、数学公式与适用场景,并尝试使用代码进行实践观察处理结果。本周三种方法都只大致了解了算法思想、流程与适用场景,并对比了其效果,个人感觉学习的广度和深度都不算太够,但对上周的论文加深了理解,除此之外对 API 和 vibe coding 也有了一定接触,感觉对后面的学习也有一定帮助。

本周首先阅读了 U-Net 的论文,了解了 U-Net 的背景、架构、创新点与优势,同时分析了它的局限性;其次学习了Sinkhorn 算法,拓展了最优传输问题的表示形式,了解了算法的目标、步骤、优缺点以及应用场景。总的来说,实验结果不仅定量证明了U-Net的卓越性能,还定性展示了其在保留细节和正确处理复杂拓扑结构方面的能力,为后续的医学图像分割研究设立了新的基准。但尽管 U-Net 取得了巨大成功

本周首先通过代码加深了对CNN的基本网络结构(卷积+激活+池化+全连接)的理解,其次学习了CNN经典网络架构(包括LeNet-5、AlexNet、ResNet等)的结构特点及其演变过程,并动手实现了部分基础模块,有效巩固了对CNN整体架构与设计思想的认识。本周比较注重理论和代码的结合学习,内容比较多,感觉对卷积神经网络的经典架构都有了一个大致的认识,希望在后续可以通过实战加深对部分经典网络的理解。








