
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
算法工程师---机器学习机器学习/算法工程师1. 数学基础1.1 微积分1.2概率论1.3 线性代数2. 机器学习算法2.1分类2.2 回归2.3 聚类2.4 推荐系统2.5 模型融合和提升2.6 其他3. 深度学习算法4. 数据结构与算法5.编程语言、工具和环境6.自然语言处理7.计算机基础7.1 操作系统7.2 计算机网络7.3 数据库8.场景题机器学习/算法工程师1. 数学基础1.1 微积分
3Dmax入门基本操作创建基本体和参数修改3D贴图可编辑多边形边(线)摸式下:边界(边缘)模式下:多边形(面)模式下:元素(部件)模式下:基本操作操作快捷键视图放大放小ALT+W平移鼠标中键旋转ALT+鼠标中键放大缩小滚轮最大化物体Z对模型操作选中物体左键移动W旋转E缩放R快速复制shift材质球编辑器M创建基本体和参数修改创建基本体修改参数下面是世界坐标,一般放在世界中心
关于因果推断中的可识别性问题:定义: identifiability(可识别性),即如果一个因果量可以通过纯统计量计算得到,则该因果量为可识别的,这意味着我们可以从观测数据中求得因果效应。在观察性研究中,借助什么样的数据可以推出可靠的因果效应呢?具体来说,假如我们对每个用户有一系列干预前的指标(pre-treatment variables)????、有干预 ????、有观察结果 ????我们能不
最大期望算法(Expectation-maximization algorithm)—EM算法定义概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐性变量。计算步骤第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;第二步是最大化(M),最大化在E步上求得的最大似然值来计算参数的值。M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交
1.基础介绍numpy和pandas的区别如果用 python 的列表和字典来作比较, 那么可以说 Numpy 是列表形式的,没有数值标签,而 Pandas 就是字典形式。Pandas是基于Numpy构建的,让Numpy为中心的应用变得更加简单。Pandas两个主要数据结构:SeriesDataFrameSeries:Series的字符串表现形式为:索引在左边,值在右边。由于我们没有为数据指定索引
pytorch 样本数据无法整除batchsize怎么办train_loader = DataLoader(dataset, batch_size=args.batch_size, shuffle=False, drop_last=True)在加载数据集的时候,加入drop_last=True
基础问题CNN1.卷积神经网络和全连接网络的根本不同之处在哪里两者之间的唯一区别是神经网络相邻两层的连接方式。在全连接神经网络中,每相邻两层之间的节点都有边相连,而对于卷积神经网络,相邻两层之间只有部分节点相连;全连接网络缺点: 参数太多,计算速度变慢,容易过拟合卷积神经网络:局部链接;权值共享;参数更少,降低过拟合的可能卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络。RN
L0范式L0范数是指向量中非0的元素的个数。L1范式L1范数是指向量中各个元素绝对值之和。对于向量:矩阵:L2范式L2范数是指向量各元素的平方和然后求平方根。矩阵:F范式Frobenius 范数,简称F-范数,是一种矩阵范数,记为||·||F。矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总和开根,即...
散度KL散度定义特性公式离散连续机器学习JS散度出现的原因公式特性问题交叉熵(Cross Entropy)定义公式和KL散度的关系KL散度定义KL(Kullback-Leibler divergence)散度用来描述两个概率分布P和Q的差异的一种方法,也叫做相对熵(relative entropy)。特性1.KL具有非对称性,即D(P||Q) ≠ D(Q||P)。2.非负性:因为对数函数是凸函数,







