
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
《Attention Is All You Need》论文阅读笔记
源码地址:https://github.com/tensorflow/tensor2tensor于《Attention Is All You Need》提出的Transformer模型是自然语言处理的里程碑模型,同时Transformer模型也为后来的BERT、GPT奠定了基础。以下根据论文原文和官方的源代码介绍Transformer的具体内容。
《A Neural Probabilistic Language Model》论文笔记
该文章开创性地提出了将单词转换为特征向量、用神经网络模型学习单词的联合概率分布、并行计算,这三者成为现在大语言模型的基础。论文中对抗维度灾难、大规模模型并行训练的思考,至今仍对大模型研究具有重要的参考意义。
到底了







