logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习笔记之BERT(四)DistilBERT

本节将介绍一种参数、消耗计算资源少的BERT改进模型——DistilBERT模型。

文章图片
#深度学习#bert
机器学习笔记之计算学习理论(二)PAC学习

上一节从霍夫丁不等式为切入点,介绍了样本平均值和全样本期望,本节将继续介绍PAC学习。

文章图片
#机器学习
深度学习笔记之循环神经网络(四)铺垫:Softmax函数的反向传播过程

上一节介绍了递归神经网络前馈计算过程的基本逻辑,以及作为语言模型时,衡量一个语言模型的优劣性指标——困惑度。本节介绍Softmax函数的反向传播(Backward Propagation,BP)过程。

文章图片
#深度学习
深度学习笔记之优化算法(五)AdaGrad算法的简单认识

上一节对Nesterov动量法进行了简单认识,本节将介绍AdaGrad方法。

文章图片
#深度学习
机器学习笔记之线性分类——朴素贝叶斯分类器(Naive Bayes Classifier)

本节将介绍一个经典的基于线性分类的概率生成模型——朴素贝叶斯分类器(Naive Bayes Classifier)。

#机器学习
深度学习笔记之Seq2seq(二)基于Seq2seq注意力机制的动机

上一节介绍了Seq2seq网络常用的基本结构以及在机器翻译任务中,关于目标函数与预测概率的描述。本节依然以机器翻译任务为例,对Seq2seq中的注意力机制(Attention)进行描述。

文章图片
#深度学习#人工智能
深度学习笔记之循环神经网络(六)长短期记忆神经网络(LSTM)

上一节介绍了循环神经网络(Recurrent Neural Network,RNN)的反向传播过程,本节将针对RNN存在的梯度消失问题,介绍一种新的网络——长短期记忆神经网络(Long-Short Term Memory,LSTM)。

文章图片
#深度学习
深度学习笔记之循环神经网络(四)铺垫:Softmax函数的反向传播过程

上一节介绍了递归神经网络前馈计算过程的基本逻辑,以及作为语言模型时,衡量一个语言模型的优劣性指标——困惑度。本节介绍Softmax函数的反向传播(Backward Propagation,BP)过程。

文章图片
#深度学习
    共 22 条
  • 1
  • 2
  • 3
  • 请选择