
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LSTM计算逻辑流程图:对比——GRU计算逻辑流程:
摘要:本章是在介绍Pointer Network(指针网络)的文章目录1.Introduce(引入)1.Introduce(引入)原始问题:就是输入一大堆数据点,然后再输出一些点且这些点连起来可以将输入点全部包围起来。这个本来是一个演算法可以解决的问题,现在我们用NN来解决。我们把所有点的坐标(当前假设是二维的),丢到NN里面,要求输出得到最外围点的下标。这个问题实际上可以看做是Sequence-
文章标题摘要1. RNN循环神经网络1.1 无隐藏状态的神经网络1.2 有隐藏状态的循环神经网络1.3 以文本数据集为例实现RNN预测模型1.3.1 读取数据1.3.2 独热编码(词)1.3.3初始化RNN的模型参数1.3.4定义RNN模型1.3.5 创建一个类来包装这些函数1.3.6 梯度裁剪1.3.7 预测(未训练先预测)1.3.8 开始训练1.4 简洁实现RNN文本预测模型2. 门控循环单元
摘要:本章是在介绍Pointer Network(指针网络)的文章目录1.Introduce(引入)1.Introduce(引入)原始问题:就是输入一大堆数据点,然后再输出一些点且这些点连起来可以将输入点全部包围起来。这个本来是一个演算法可以解决的问题,现在我们用NN来解决。我们把所有点的坐标(当前假设是二维的),丢到NN里面,要求输出得到最外围点的下标。这个问题实际上可以看做是Sequence-
摘要:文章目录1. Transformer的引入2. Self-Attention1. Transformer的引入一般的sequence-to-sequence模型是用RNN(单方向或者双向)来做,RNN输入是一串sequence,输出是另外一串sequence。RNN常被用于input是一个序列的情况,但是有一个问题——不容易平行化(并行化计算)。例如下图中左边的模型就是RNN结构的seque
摘要: 本章主要是讲解了文章目录Network Compression( 网络压缩)1. Network Pruning(网络剪枝)1.1Network can be Pruned2. Knowledge Distillation(知识蒸馏)3. Parameter Quantization(参数量化)4. Architecture Design(架构设计)5. Dynamic Computati
Generative Adversarial Network(生成对抗网络)文章目录摘要0引言1. Basic Idea of GAN(GAN的基本思想)1.1 Generation(生成)1.2 Discriminator(判别器)1.3 生成器和判别器的关系—对抗学习1.4 Algorithm摘要本章主要是在讲解GAN的基本思想,0引言自2014年Ian Goodfellow 提出了GAN(G
摘要:文章目录1. Transformer的引入2. Self-Attention1. Transformer的引入一般的sequence-to-sequence模型是用RNN(单方向或者双向)来做,RNN输入是一串sequence,输出是另外一串sequence。RNN常被用于input是一个序列的情况,但是有一个问题——不容易平行化(并行化计算)。例如下图中左边的模型就是RNN结构的seque
ELMO,BERT,GPT (三种解决一词多意问题的模型)文章目录摘要1. 提出背景2. Embeddings from Language Model(ELMO)3. Bidirectional Encoder Representations from Transformers(BERT)3.1 Training of BERT摘要1. 提出背景机器是如何理解我们的文字的呢? 怎样让机器读懂人类文







