logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

动手学深度学习实践(李沐)——LSTM模型

LSTM计算逻辑流程图:对比——GRU计算逻辑流程:

#pytorch#深度学习#神经网络
2020李宏毅机器学习笔记——17. Pointer Network(指针网络)

摘要:本章是在介绍Pointer Network(指针网络)的文章目录1.Introduce(引入)1.Introduce(引入)原始问题:就是输入一大堆数据点,然后再输出一些点且这些点连起来可以将输入点全部包围起来。这个本来是一个演算法可以解决的问题,现在我们用NN来解决。我们把所有点的坐标(当前假设是二维的),丢到NN里面,要求输出得到最外围点的下标。这个问题实际上可以看做是Sequence-

#机器学习#神经网络#人工智能
学习笔记——动手学深度学习(RNN,GRU,LSTM)

文章标题摘要1. RNN循环神经网络1.1 无隐藏状态的神经网络1.2 有隐藏状态的循环神经网络1.3 以文本数据集为例实现RNN预测模型1.3.1 读取数据1.3.2 独热编码(词)1.3.3初始化RNN的模型参数1.3.4定义RNN模型1.3.5 创建一个类来包装这些函数1.3.6 梯度裁剪1.3.7 预测(未训练先预测)1.3.8 开始训练1.4 简洁实现RNN文本预测模型2. 门控循环单元

#深度学习#rnn#lstm
2020李宏毅机器学习笔记——17. Pointer Network(指针网络)

摘要:本章是在介绍Pointer Network(指针网络)的文章目录1.Introduce(引入)1.Introduce(引入)原始问题:就是输入一大堆数据点,然后再输出一些点且这些点连起来可以将输入点全部包围起来。这个本来是一个演算法可以解决的问题,现在我们用NN来解决。我们把所有点的坐标(当前假设是二维的),丢到NN里面,要求输出得到最外围点的下标。这个问题实际上可以看做是Sequence-

#机器学习#神经网络#人工智能
2020李宏毅机器学习笔记——19. Transformer(全自注意力网络)

摘要:文章目录1. Transformer的引入2. Self-Attention1. Transformer的引入一般的sequence-to-sequence模型是用RNN(单方向或者双向)来做,RNN输入是一串sequence,输出是另外一串sequence。RNN常被用于input是一个序列的情况,但是有一个问题——不容易平行化(并行化计算)。例如下图中左边的模型就是RNN结构的seque

#深度学习#机器学习#神经网络
李宏毅机器学习笔记—— 15. Network Compression( 网络压缩)

摘要: 本章主要是讲解了文章目录Network Compression( 网络压缩)1. Network Pruning(网络剪枝)1.1Network can be Pruned2. Knowledge Distillation(知识蒸馏)3. Parameter Quantization(参数量化)4. Architecture Design(架构设计)5. Dynamic Computati

#机器学习#人工智能
2020李宏毅机器学习笔记——25. GAN(生成对抗网络)

Generative Adversarial Network(生成对抗网络)文章目录摘要0引言1. Basic Idea of GAN(GAN的基本思想)1.1 Generation(生成)1.2 Discriminator(判别器)1.3 生成器和判别器的关系—对抗学习1.4 Algorithm摘要本章主要是在讲解GAN的基本思想,0引言自2014年Ian Goodfellow 提出了GAN(G

#语音识别#深度学习#机器学习
2020李宏毅机器学习笔记——19. Transformer(全自注意力网络)

摘要:文章目录1. Transformer的引入2. Self-Attention1. Transformer的引入一般的sequence-to-sequence模型是用RNN(单方向或者双向)来做,RNN输入是一串sequence,输出是另外一串sequence。RNN常被用于input是一个序列的情况,但是有一个问题——不容易平行化(并行化计算)。例如下图中左边的模型就是RNN结构的seque

#深度学习#机器学习#神经网络
2020李宏毅机器学习笔记——23. ELMO,BERT,GPT (三种解决一词多意问题的方法)

ELMO,BERT,GPT (三种解决一词多意问题的模型)文章目录摘要1. 提出背景2. Embeddings from Language Model(ELMO)3. Bidirectional Encoder Representations from Transformers(BERT)3.1 Training of BERT摘要1. 提出背景机器是如何理解我们的文字的呢? 怎样让机器读懂人类文

#机器学习#深度学习#自然语言处理
    共 21 条
  • 1
  • 2
  • 3
  • 请选择