logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【DL学习笔记11】《深度学习进阶——自然语言处理》—— ch04:word2vec的高速化

1. 改进一:Embedding层;2. 改进二:Negative Sampling(负采样):多分类到二分类的实现、负采样、采样方法、负采样的实现;3. 改进版word2vec的学习:CBOW模型的实现、CBOW模型的学习代码、CBOW模型的评价;4. word2vec相关的其他话题:应用例、单词向量的评价方法......

文章图片
#python#人工智能#word2vec +1
【DL学习笔记06】深度学习入门——基于Python的理论与实现(ch07: 卷积神经网络 CNN)

1. 整体结构;2. 卷积层:全连接层存在的问题、卷积运算、3维数据的卷积运算、批处理;3. 池化层;4. 卷积层和池化层的实现:卷积层、池化层;5. CNN的实现;6. CNN的可视化:第1层权重的可视化、基于分层结构的信息提取;7. 具有代表性的CNN:LeNet、AlexNet...

文章图片
#python#人工智能#深度学习
【DL学习笔记09】《深度学习进阶——自然语言处理》——ch02: 自然语言和单词的分布式表示

1. 什么是自然语言处理;2. 同义词词典;3. 基于计数的方法:基于Python的语料库的预处理、分布式、共现矩阵、向量间的相似度、相似单词的排序;4. 基于计数的方法的改进:点互信息(PMI)、降维 dimensionality reduction、基于SVD的降维、PTB数据集、基于PTB数据集的评价;0. 补充:enumerate、argsort...

文章图片
#自然语言处理#python#机器学习
【DL学习笔记04】深度学习入门——基于Python的理论与实现(ch05: 误差反向传播法)

1. 计算图:用计算图求解、局部计算、为何用计算图解体(优点)2. 链式法则 3. 反向传播 4.简单层的实现:乘法层(MulLayer)、加法层(AddLayer)5. 激活函数层的实现 6. Affine/Softmax层的实现:Affine层批版本的Affine层、Softmax-with-Loss层 7. 误差反向传播法的实现:梯度确认、使用误差反向传播法的学习...

文章图片
#python#人工智能#机器学习
【DL学习笔记04】深度学习入门——基于Python的理论与实现(ch05: 误差反向传播法)

1. 计算图:用计算图求解、局部计算、为何用计算图解体(优点)2. 链式法则 3. 反向传播 4.简单层的实现:乘法层(MulLayer)、加法层(AddLayer)5. 激活函数层的实现 6. Affine/Softmax层的实现:Affine层批版本的Affine层、Softmax-with-Loss层 7. 误差反向传播法的实现:梯度确认、使用误差反向传播法的学习...

文章图片
#python#人工智能#机器学习
【DL学习笔记12】《深度学习进阶——自然语言处理》—— ch05: RNN

1.概率和语言模型:概率视角下的word2vec、语言模型将CBOW模型用作语言模型?;2. RNN:循环的神经网络、展开循环、Backpropagation Through Time、Truncated BPTT、Truncated BPTT的mini-batch学习;3. RNN的实现:RNN层的实现、Time RNN层的实现;4. 处理时序数据的层的实现:RNNLM的全貌图、Time层的实现

文章图片
#人工智能#python#rnn +2
【DL学习笔记10】《深度学习进阶——自然语言处理》——ch03: word2vec

1. 基于推理的方法和神经网络:神经网络中单词的处理方法;2. 简单的word2vec:CBOW模型的推理与学习;3. 学习数据的准备:上下文和目标词、转化为one-hot表示、数据预处理总结;4. CBOW模型的实现;5. word2vec的补充说明:CBOW模型和概率、skip-gram模型、两个模型的区别分析、基于计数与基于推理总结...

文章图片
#python#人工智能#深度学习 +1
【CV作业06-1】影像组学pyradiomics库安装

python版本高于3.7,可能会出现pyradiomics安装后部分功能无法使用的问题。pip命令安装pyradiomics,使用阿里云的源。为稳妥起见专门为影像组学研究配置一个虚拟环境。查看pyradiomics版本。进入创建好的虚拟环境。

文章图片
#python#计算机视觉
【DL学习笔记12】《深度学习进阶——自然语言处理》—— ch05: RNN

1.概率和语言模型:概率视角下的word2vec、语言模型将CBOW模型用作语言模型?;2. RNN:循环的神经网络、展开循环、Backpropagation Through Time、Truncated BPTT、Truncated BPTT的mini-batch学习;3. RNN的实现:RNN层的实现、Time RNN层的实现;4. 处理时序数据的层的实现:RNNLM的全貌图、Time层的实现

文章图片
#人工智能#python#rnn +2
【DL学习笔记03】深度学习入门——基于Python的理论与实现(ch04: Train Neuralnet)

1. 从数据从中学习:数据驱动、训练数据和测试数据;2. loss function:均方误差、交叉熵误差、mini-batch学习、mini-batch版交叉熵误差的实现;3. 数值微分:梯度、梯度法(gradient method)、神经网络的梯度;4. 学习算法的实现:2层神经网络的类、mini-batch的实现、基于测试数据的评价;5. 小结...

文章图片
#机器学习#深度学习#人工智能
到底了