logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《Attention Is All You Need》论文阅读笔记

源码地址:https://github.com/tensorflow/tensor2tensor于《Attention Is All You Need》提出的Transformer模型是自然语言处理的里程碑模型,同时Transformer模型也为后来的BERT、GPT奠定了基础。以下根据论文原文和官方的源代码介绍Transformer的具体内容。

《A Neural Probabilistic Language Model》论文笔记

该文章开创性地提出了将单词转换为特征向量、用神经网络模型学习单词的联合概率分布、并行计算,这三者成为现在大语言模型的基础。论文中对抗维度灾难、大规模模型并行训练的思考,至今仍对大模型研究具有重要的参考意义。

#语言模型#论文阅读#人工智能
到底了