
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
机器学习之NLP常见函数整理一、nltk包函数1.1 词干提取1.2 词形还原一、nltk包函数1.1 词干提取当遇到两个或两个以上单词具有共同根源的情况。 例如,agreed, agreeing 和 agreeable这三个词具有相同的词根。 涉及任何这些词的搜索应该把它们当作是根词的同一个词。所以需要进行词干提取。在NLTK库中有一些方法来完成这个链接,并给出显示根词的输出。 以下程序使用Po
机器学习之二分类模型评价指标一、二分类模型衡量指标1.1 混淆矩阵:Confusion matrix1.2 精确度:Accuracy1.3 准确率:Precision1.4 召回率:Recall一、二分类模型衡量指标1.1 混淆矩阵:Confusion matrixP(Positive) :代表1N(Negative) :代表0T(True) :代表预测正确F(False) :代表预测错误1.2
机器学习之聚类算法一、K-Means聚类及其优化算法1.1 传统K-Means聚类算法1.1.1 原理1.1.2 代码实现一、K-Means聚类及其优化算法1.1 传统K-Means聚类算法1.1.1 原理算法流程输入:样本集合D=x1,x2,...,xnD={x_1, x_2, ..., x_n}D=x1,x2,...,xn,聚类簇数kkk, 最大迭代次数NNN;输出:簇划分C=C1,C2
机器学习之python文件读取一、read_sql与to_sql函数1.1 read_sql函数1.2 to_sql函数二、from_dict函数和to_dict函数2.1 from_dict函数2.2 to_dict函数三、read_json函数和to_json函数3.1 read_json函数3.2 to_json函数四、read_html函数和to_html函数4.1 read_html函数
深度学习之优化算法1、GD:Gradient Descent, 梯度下降法1.1 原理1.2 梯度下降法的几种形式2、Adam3、AdaGrad4、Momentum5、RMSProp1、GD:Gradient Descent, 梯度下降法1.1 原理梯度下降学习的目标通常是最小化机器学习问题的损失函数,寻找全局最优值。基本的梯度下降算法遵循的思想是,梯度的相反方向指向较低的区域。所以它在梯度的相反
机器学习之word2vec1、词向量基础2、word2vec原理2.1 CBOW与Skip-Gram用于神经网络模型2.1.1 CBOW与Skip-Gram用于神经网络2.1.2 CBOW vs Skip-gram区别2.2 word2vec基础之霍夫曼树2.3 word2vec基础之Hierarchical Softmax的模型2.3.1 基于Hierarchical Softmax的模型梯度计
计算机视觉之-RestNet、GoogleNet、VGG模型结构一级目录二级目录三级目录一级目录二级目录三级目录
机器学习之不平衡数据集处理一、不平衡数据集1.1 不平衡数据集定义1.2 处理方法一、不平衡数据集1.1 不平衡数据集定义不平衡数据集指的是数据集各个类别的样本量极不均衡。以二分类问题为例,假设正类的样本数量远大于负类的样本数量,通常情况下把样本比例接近100:1这种情况下的数据称为不平衡数据。1.2 处理方法...
自然语言处理之RNN一、循环神经网络( Recurrent Neural Network, RNN)1.1 全连接神经网络弊端,引出RNN1.2 循环神经网络RNN1.2 循环神经网络RNN训练方法1.3 循环神经网络RNN的多种类型任务1.3.1 one-to-one1.3.2 one-to-n1.3.3 n-to-n1.3.4 n-to-one1.3. 5 n-to-m1.4 BiRNN:双向







