
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
什么是PyTorch?Autograd: 自动求导PyTorch神经网络简介训练一个分类器通过例子学PyTorch使用Numpy实现三层神经网络使用Tensor来实现三层神经网络实现autograd来实现三层神经网络使用自定义的ReLU函数和Tensorflow的对比使用nn模块来实现三层神经网络使用optim包自...
一文读懂BERT(从原理到实践)2018年的10月11日,Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》,成功在 11 项 NLP 任务中取得 state of the art 的结果,赢得自然语言处理学界的一片赞誉之声。本文是对近期关于BERT论文、相关文章、代码进..
一文读懂BERT(从原理到实践)2018年的10月11日,Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》,成功在 11 项 NLP 任务中取得 state of the art 的结果,赢得自然语言处理学界的一片赞誉之声。本文是对近期关于BERT论文、相关文章、代码进..
本教程会介绍使用seq2seq模型实现一个chatbot,训练数据来自Cornell电影对话语料库。对话系统是目前的研究热点,它在客服、可穿戴设备和智能家居等场景有广泛应用。传统的对话系统要么基于检索的方法——提前准备一个问答库,根据用户的输入寻找类似的问题和答案。这更像一个问答系统,它很难进行多轮的交互,而且答案是固定不变的。要么基于预先设置的对话流程,这主要用于slot-filling(T..
Numpy 的速度已经较 Python 有了很大的提升。当发现 Python 代码运行较慢,尤其出现大量的 for-loops 循环时,通常可以将数据处理移入 Numpy 并实现其向量化最高速度处理。但Numpy 加速只是在 CPU 上实现的。由于消费级 CPU 通常只有 8 个核心或更少,所以并行处理数量以及可以实现的加速是有限的。这就催生了新的加速工具——CuPy 库。何为 CuPy?C...
本文主要介绍Transformer的原理以及对Transformer的源码进行复现。关于Transformer的原理在上篇《一文读懂BERT(原理篇)》一文中有较详细的介绍,读者可以通过传送门过去进一步阅读,本片着重对代码部分进行研究。本文内容参考了The Annotated Transformer(读者可以从这里下载代码)以及《Convolutional Sequence to Sequence
ALBERT原文:《ALITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS》中文预训练ALBERT模型来了:小模型登顶GLUE,Base版模型小10倍速度快1倍。Google一出手就是不一样,不再是BERT+的模式,而是做了个大改动。ALBERT模型是BERT的改进版,与最近其他State of the a...
目录一、什么是BERT?二、BERT安装三、预训练模型四、运行Fine-Tuning五、数据读取源码阅读(一) DataProcessor(二) MrpcProcessor六、分词源码阅读(一)FullTokenizer(二) WordpieceTokenizer七、run_classifier.py的main函数八、BertModel类九、自己...
一文读懂BERT(从原理到实践)2018年的10月11日,Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》,成功在 11 项 NLP 任务中取得 state of the art 的结果,赢得自然语言处理学界的一片赞誉之声。本文是对近期关于BERT论文、相关文章、代码进..
一文读懂BERT(从原理到实践)2018年的10月11日,Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》,成功在 11 项 NLP 任务中取得 state of the art 的结果,赢得自然语言处理学界的一片赞誉之声。本文是对近期关于BERT论文、相关文章、代码进..