简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
生活中有很多不确定的事情, 如何用一个有效的模型和有效的算法来量化这些不确定性, 便是我们要考虑的问题。 大体上来说, 我们可以将不确定性分为两类:Aleatory uncertainty 和 epistemic uncertainty。 前者指的便是自然界中的某些随机性, 比方说 x∼U(0,1)x\sim U(0,1)x∼U(0,1) 是一个随机变量, 每次取值都不一样, 又称为偶然不确定性;
N = 21x = np.linspace(0, 10, 11)y = [3.9, 4.4, 10.8, 10.3, 11.2, 13.1, 14.1,9.9, 13.9, 15.1, 12.5]# fit a linear curve an estimate its y-values and their error.a, b = np.polyfit(x, y, deg=1)y_est = a
这篇文章介绍一种用来拟合多精度数据的神经网络。 在科学计算中,低精度的数据往往是廉价的、大量的;高精度数据则不同,他们是昂贵的、少量的,所以如何充分利用不同精度的数据来得到更加 precise 的结果便是一个需要解决的问题。这里我们利用神经网络给出了一个回答。基本思想想法很简单。假定 {xi,yi}i=1Nl\{x_i,y_i\}_{i=1}^{N_l}{xi,yi}i=1Nl 是我们有的
基本思想K-means 是一种基本的、经典的聚类方法,也被称为K-平均或K-均值算法,是一种广泛使用的聚类算法。K-Means算法是聚焦于相似的无监督的算法,以距离作为数据对象间相似性度量的标准,即数据对象间的距离越小,则它们的相似性越高,则它们越有可能在同一个类簇。其算法具体的步骤为其中,nnn为样本数,μi\mu_iμi 为聚类中心(Clustering Center), ccc 为聚类..
系列最开始当然要提到很经典的文章 —— Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations 。 这篇文章是布朗大学的助理教授Maziar Rais.
LM算法简介考虑如下非线性最小二乘问题minf(x)=12∥r(x)∥2,\min \quad f(x) = \frac{1}{2}\Vert r(x)\Vert^2, minf(x)=21∥r(x)∥2,其中残差向量 r:Rn→Rr:\mathbb{R}^n \to \mathbb{R}r:Rn→R 为r(x)=(r1(x),r2(x),⋯ ,rm(x))T.r(x) = \big(r_1(
我们在用神经网络求解PDE时, 经常要用到输出值对输入变量(不是Weights和Biases)求导; 在训练WGAN-GP 时, 也会用到网络对输入变量的求导。 以上两种需求, 均可以用pytorch 中的autograd.grad() 函数实现。autograd.grad(outputs, inputs, grad_outputs=None, retain_graph=None, cr...
LIBSVM是台湾大学林智仁(Lin Chih-Jen)教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包,他不但提供了编译好的可在Windows系列系统的执行文件,还提供了源代码,方便改进、修改以及在其它操作系统上应用;该软件对SVM所涉及的参数调节相对比较少,提供了很多的默认参数,利用这些默认参数可以解决很多问题;并提供了交互检验(Cross Valid...