logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

NLP实战之基于sklearn和基于spark的中文文本分类

1 基于sklearn的机器学习方法完成中文文本分类1.1 文本分类 = 文本表示 + 分类模型1.1.1 文本表示:BOW/N-gram/TF-IDF/word2vec/word embedding/ELMo1.1.2 分类模型:NB/LR/SVM/LSTM(GRU)/CNN语种判断:拉丁语系,字母组成的,甚至字母也一样 => 字母的使用(次序、频次)不一样1.1.3 文本表示词袋模型(中

#nlp#自然语言处理#深度学习
NLP实战之textCNN中文文本分类

原理可以参考:使用textCNN进行文本分类的原理Keras的另一个实现可以参考:Keras实现textCNN文本分类模型构建与训练定义网络结构定义一个textCNN类, 代码为tensorflow2.x版本。from tensorflow.keras import Input, Modelfrom tensorflow.keras.layers import Embedding, Dense,

#python#tensorflow#深度学习 +2
NLP实战之HAN文本分类

HAN(层叠注意力)神经网络文本分类原理讲解HAN出处:论文Hierarchical Attention Networks for Document Classification可以参见讲解文献阅读笔记:Hierarchical Attention Networks for Document Classification这篇论文表示,对文档/较长文本进行分类的时候,仅仅对word粒度进行Atten

#深度学习#自然语言处理#keras +1
NLP实战之textRCNN中文文本分类

text-RCNN神经网络文本分类原理讲解RCNN出处: 论文Recurrent Convolutional Neural Networks for Text Classification讲解可以参考TextRCNN 阅读笔记网络结构Word Representation Learning. RCNN uses a recurrent structure, which is a bi-direct

#神经网络#深度学习#机器学习 +2
NLP实战之text-Attition-BiLSTM中文文本分类

双向注意力LSTM神经网络文本分类原理讲解TextAttBiRNN是在双向LSTM文本分类模型的基础上改进的,主要是引入了注意力机制(Attention)。对于双向LSTM编码得到的表征向量,模型能够通过注意力机制,关注与决策最相关的信息。其中注意力机制最先在论文 Neural Machine Translation by Jointly Learning to Align and Transla

#深度学习#keras#自然语言处理
NLP实战之ELMo词向量文本分类

ELMo词向量文本分类原理讲解ELMo出处:论文Deep contextualized word representationsELMo无需标注。原理可参考:从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史-张俊林模型构建与训练中文预训练模型:github上有哈工大的HIT-SCIR/ELMoForManyLangs,多种语言,注意区分有繁体中文和简体中文(网盘下载)

#深度学习#机器学习#神经网络 +1
Bi-LSTM原理及TensorFlow实现序列标注

本文整理了Bi-LSTM的原理,并在静觅博客静觅:TensorFlow Bi-LSTM实现序列标注的基础上对TensorFlow 搭建一个Bi-LSTM来处理序列标注问题的代码进行了详细的注释。Bi-LSTM理解RNN的意思是,为了预测最后的结果,我先用第一个词预测,当然,只用第一个预测的预测结果肯定不精确,我把这个结果作为特征,跟第二词一起,来预测结果;接着,我用这个新的预测结果结合第三...

#深度学习
贝叶斯公式的理解及应用(垃圾邮件过滤)

全概公式 贝叶斯公式贝叶斯推断 过滤垃圾邮件条件概率

#机器学习
半监督学习综述

半监督学习简介自从 1946 年第一台电子计算机 ENIAC 诞生至今,计算机技术得到了迅猛的发展,这使得人类采集、存储数据的能力空前的提高,利用计算机对收集到的数据进行分析提取有价值信息的技术(机器学习技术)也随之而生,并得到了很快的发展。传统的机器学习技术一般只利用有标记样本集或者只利用无标记样本集进行学习,而在实际问题中大多是有标记样本与无标记样本并存,为了更好地利用这些数据,半监督学习技.

#机器学习
pytorch中BiLSTM模型构建及序列标注

损失函数NLLLoss() 的 输入 是一个对数概率向量和一个目标标签. 它不会为我们计算对数概率,适合最后一层是log_softmax()的网络. 损失函数 CrossEntropyLoss() 与 NLLLoss() 类似, 唯一的不同是它为我们去做 softmax.可以理解为:CrossEntropyLoss()=log_softmax() + NLLLoss()...

#pytorch
    共 47 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择