logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习笔记:高斯混合模型 GMM

观测数据属于第k个子模型的概率。第k个子模型的高斯分布密度函数。(也就是一个高斯分布的密度函数。

文章图片
#机器学习#人工智能
机器学习笔记:DBSCAN

Density-Based Spatial Clustering of Applications with Noise输入:数据集,邻域半径 epsilon,邻域中数据对象数目阈值 minPoints;输出:密度联通簇。1)从数据集中任意选取一个数据对象点 p;2)如果对于参数 epsilon 和 minPoints,所选取的数据对象点 p 为核心点,则找出所有从 p 密度可达的数据对象点,形成一

文章图片
#机器学习#python#人工智能
机器学习笔记:自监督学习

每一步编码器都会进行更新,这样最新的 query 采样得到的 key 可能是好多步之前的编码器编码得到的 key。上述的基于对比学习的方法,还是需要基于某一特定的对比任务 ,那么有没有更通用一点的对比学习呢》这样的损失函数(InfoNCE)·会鼓励相似性度量函数(点积)将较大的值分配给正例,将较小的值分配给负例。问题在于,由于算力和计算资源的限制,batch size不能设置的过大——>效率不高。

#机器学习#学习#人工智能
机器学习笔记:triplet loss

1 Triplet lossTriplet Loss,即三元组损失,其中的三元是Anchor、Negative、Positive。通过Triplet Loss的学习后使得Positive元和Anchor元之间的距离最小,而和Negative之间距离最大。( 其中Anchor为训练数据集中随机选取的一个样本,Positive为和Anchor属于同一类的样本,而Negative则为和Anchor不同类

#机器学习#python
机器学习笔记:神经网络层的各种normalization

1 Normalization的引入1.1 独立同分布机器学习,尤其是深度学习的模型,如果它的数据集时独立同分布的(i.i.d.independent and identically distributed),那么模型的效果最好。独立同分布的数据可以简化常规机器学习模型的训练、提升机器学习模型的预测能力因此,很多模型在将数据喂入机器学习模型之前,都会有一步“白化”(whitening)操作。白化一

文章图片
#神经网络#深度学习#机器学习
机器学习笔记:VAE

1 VAE 介绍在机器学习笔记:auto encoder_UQI-LIUWJ的博客-CSDN博客 中,我们知道了auto-encoder。但是auto-encoder有一个不足之处,就是因为auto-encoder不是一个概率模型,所以没法从学习的模型中生成新的数据,或者说我们train了一个模型,得到的输出是固定不变的。在这种情况下VAE就诞生了:它可以1)从原始数据中学习特征表示向量z2)可以

文章图片
#机器学习#自然语言处理#线性代数
机器学习笔记:可解释机器学习

来自李宏毅2019-Explainable ML_哔哩哔哩_bilibili0 前言深度学习可以做的事情是,比如我们给模型一张猫的照片,模型可以预测:”这是一只猫“我们现在想知道的是:模型为什么会认为这是一只猫呢?1 local explanation & global explanation1.1 local explanation(why do you think this is a

#机器学习#人工智能
机器学习笔记:轨迹驻留点 staypoint

较小的地理区域内移动距离低于某个阈值。

文章图片
机器学习笔记:ResNet 及残差连接

1 为什么会有ResNet?自从深度神经网络在ImageNet大放异彩之后,后来问世的深度神经网络就朝着网络层数越来越深的方向发展。直觉上我们不难得出结论:增加网络深度后,网络可以进行更加复杂的特征提取,因此更深的模型可以取得更好的结果。但事实并非如此,人们发现随着网络深度的增加,模型精度并不总是提升,并且这个问题显然不是由过拟合(overfitting)造成的,因为网络加深后不仅测试误差变高了,

#深度学习#神经网络#机器学习
    共 329 条
  • 1
  • 2
  • 3
  • 33
  • 请选择