logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

特征选择笔记

1.机器学习中特征选择的重要性机器学习遵循一个简单的规则-如果您放入垃圾,那么只会让垃圾出来。这里的垃圾是指数据中的噪音。当功能数量非常多时,这一点变得尤为重要。您无需使用所有可用功能来创建算法。您可以通过仅提供真正重要的功能来辅助算法。我亲眼目睹了特征子集比相同算法的完整特征集能提供更好的结果。就像罗汉·饶(Rohan Rao)所说的那样:“有时候,少即是好!”不仅在比赛中,而且在工业应用中也非

#机器学习
贝叶斯,深度学习问题复习

贝叶斯朴素贝叶斯分类器原理以及公式,出现估计概率值为 0 怎么处理(拉普拉斯平滑),缺点;解释贝叶斯公式和朴素贝叶斯分类。https://editor.csdn.net/md/?articleId=106044348贝叶斯分类,这是一类分类方法,主要代表是朴素贝叶斯,朴素贝叶斯的原理,重点在假设各个属性类条件独立。然后能根据贝叶斯公式具体推导。考察给你一个问题,如何利用朴素贝叶斯分类去分类,比如:

#神经网络
opencv radon hough

Hough"""@file hough_lines.py@brief This program demonstrates line finding with the Hough transform"""import sysimport mathimport cv2 as cvimport numpy as npdef main(argv):default_file = '/Users/panhao

#opencv
为什么transformer比RNN和LSTM更好?

transofrmer在机器翻译的上下文中引入了transofrmer,目的是避免递归,以便允许并行计算(减少训练时间),并减少由于长期依赖性而导致的性能下降。主要特点是:非顺序的:句子是整体处理的,而不是逐字处理。self attention:这是新引入的“单位”,用于计算句子中单词之间的相似性得分。位置嵌入:引入了另一种替代复发的创新。这个想法是使用固定或学习的权重,该权重对与句子中标记的特定

#神经网络
机器学习的transformer

新的深度学习模型被引入的速度越来越快,有时很难及时的了解所有新技术。 也就是说,已经证明一种特定的神经网络模型对于常见的自然语言处理任务特别有效。该模型称为Transformer,我们将分为两个部分详细介绍它第1部分:序列到序列学习和Attention机制序列到序列(Seq2Seq)是一个神经网络,它将给定的元素序列(例如句子中的单词序列)转换为另一个序列。Seq2Seq模型特别擅长翻译,将一种语

#机器学习
数据噪声以及去噪

数据挖掘中的噪声简介实际数据是数据挖掘算法的输入,它受多个组件的影响。其中,噪声的存在是关键因素。噪声是不可避免的问题,它会影响数据挖掘应用程序中经常发生错误的数据收集和数据准备过程。噪声有两个主要来源:隐式错误由测量工具引入;以及批处理或专家在收集数据时(例如在文档数字化过程中)引入的随机错误。在这种情况下建立的分类器的性能(我们通常希望最大化)将在很大程度上取决于训练数据的质量,而且还取决于分

#数据挖掘
贝叶斯,深度学习问题复习

贝叶斯朴素贝叶斯分类器原理以及公式,出现估计概率值为 0 怎么处理(拉普拉斯平滑),缺点;解释贝叶斯公式和朴素贝叶斯分类。https://editor.csdn.net/md/?articleId=106044348贝叶斯分类,这是一类分类方法,主要代表是朴素贝叶斯,朴素贝叶斯的原理,重点在假设各个属性类条件独立。然后能根据贝叶斯公式具体推导。考察给你一个问题,如何利用朴素贝叶斯分类去分类,比如:

#神经网络
恒等映射Identity function

恒等映射是一个返回相同值的函数,该值用作其参数。也称为恒等关系或恒等转换。如果f是一个函数,则对于x的所有值,参数x的恒等关系表示为f(x)= x。在关系和函数方面,对于每个a ϵ P,此函数f:P→P由b = f(a)= a定义,其中P是实数集。函数的作用域和范围都为P,绘制的图形将显示一条直线通过原点。恒等函数定义:令R为实数集。因此,对于所有a∈R,由y = f(a)= a的实值函数f:R→

#机器学习
最小二乘法OLS以及最大似然估计MLE的比较

OLS和MLE我们经常遇到OLS和MLE。 “ OLS”代表“普通最小二乘”,而“ MLE”代表“最大似然估计”。通常,这两个统计术语相互关联。让我们了解普通最小二乘法和最大似然估计之间的差异。普通最小二乘法或OLS也可以称为线性最小二乘。这是一种用于近似确定位于线性回归模型中的未知参数的方法。通过最小化数据集内观察到的响应与线性近似预测的响应之间的垂直距离平方的总和,可以得到普通最小二乘。通过一

#机器学习
一元牛顿,多元牛顿,拟牛顿

在理解牛顿法的问题时,我们首先要知道泰勒公式:这个公式主要是来描述当前点的邻域的一个近似值。其次我们还需要知道Hessian Matrix该矩阵的重要性最容易在2D cas中可视化在二阶泰勒展开式中使用Hessian。 Hessian出现在二阶泰勒展开式中:牛顿法是一种迭代方法,用于近似求解方程式的解(寻找根)。 如果f 是一个二次函数,牛顿的方法可以直接找到函数的最小值。一元牛顿由于幂次的增加,

#机器学习#算法
    共 15 条
  • 1
  • 2
  • 请选择