logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

不确定性量化(Uncertainty Quantification):前言

生活中有很多不确定的事情, 如何用一个有效的模型和有效的算法来量化这些不确定性, 便是我们要考虑的问题。 大体上来说, 我们可以将不确定性分为两类:Aleatory uncertainty 和 epistemic uncertainty。 前者指的便是自然界中的某些随机性, 比方说 x∼U(0,1)x\sim U(0,1)x∼U(0,1) 是一个随机变量, 每次取值都不一样, 又称为偶然不确定性;

python plt.fill_between

N = 21x = np.linspace(0, 10, 11)y = [3.9, 4.4, 10.8, 10.3, 11.2, 13.1, 14.1,9.9, 13.9, 15.1, 12.5]# fit a linear curve an estimate its y-values and their error.a, b = np.polyfit(x, y, deg=1)y_est = a

#python
Multi-fidelity DNNs : 多精度深度神经网络

这篇文章介绍一种用来拟合多精度数据的神经网络。 在科学计算中,低精度的数据往往是廉价的、大量的;高精度数据则不同,他们是昂贵的、少量的,所以如何充分利用不同精度的数据来得到更加 precise 的结果便是一个需要解决的问题。这里我们利用神经网络给出了一个回答。基本思想想法很简单。假定 {xi,yi}i=1Nl\{x_i,y_i\}_{i=1}^{N_l}{xi​,yi​}i=1Nl​​ 是我们有的

Kmeans算法在MATLAB中的实现及实例

基本思想K-means 是一种基本的、经典的聚类方法,也被称为K-平均或K-均值算法,是一种广泛使用的聚类算法。K-Means算法是聚焦于相似的无监督的算法,以距离作为数据对象间相似性度量的标准,即数据对象间的距离越小,则它们的相似性越高,则它们越有可能在同一个类簇。其算法具体的步骤为其中,nnn为样本数,μi\mu_iμi​ 为聚类中心(Clustering Center), ccc 为聚类..

#聚类#matlab
基本模型 PINNs : Physics Informed Neural Networks

系列最开始当然要提到很经典的文章 —— Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations 。 这篇文章是布朗大学的助理教授Maziar Rais.

LM(Levenberg-Marquadrdt )算法在MATLAB中的实现及实例

LM算法简介考虑如下非线性最小二乘问题min⁡f(x)=12∥r(x)∥2,\min \quad f(x) = \frac{1}{2}\Vert r(x)\Vert^2, minf(x)=21​∥r(x)∥2,其中残差向量 r:Rn→Rr:\mathbb{R}^n \to \mathbb{R}r:Rn→R 为r(x)=(r1(x),r2(x),⋯ ,rm(x))T.r(x) = \big(r_1(

#matlab#算法
详解 pytorch 中的 autograd.grad() 函数

我们在用神经网络求解PDE时, 经常要用到输出值对输入变量(不是Weights和Biases)求导; 在训练WGAN-GP 时, 也会用到网络对输入变量的求导。 以上两种需求, 均可以用pytorch 中的autograd.grad() 函数实现。autograd.grad(outputs, inputs, grad_outputs=None, retain_graph=None, cr...

#python
MATLAB 调用LIBSVM 进行分类任务

LIBSVM是台湾大学林智仁(Lin Chih-Jen)教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包,他不但提供了编译好的可在Windows系列系统的执行文件,还提供了源代码,方便改进、修改以及在其它操作系统上应用;该软件对SVM所涉及的参数调节相对比较少,提供了很多的默认参数,利用这些默认参数可以解决很多问题;并提供了交互检验(Cross Valid...

#matlab#支持向量机
到底了