logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习第五节 分类实战

在数据或者图片少的情况下 我们可以通过数据增广来进行增加数据集这只对训练集有效 对验证集则不需要进行变换Adam和AdamW:SGD 比较直接,容易陷入局部最优。Adam 结合了过去和现在的梯度信息,在很多情况下效果会比 SGD 好。AdamW ,就是在 Adam 基础上加入了权重衰减,能更好地防止过拟合,训练效果往往更稳定。Adam(上) Adamw(下)半监督。

#深度学习#分类#人工智能
深度学习第八节 Bert实战

自然语言处理(NLP)领域自 BERT 模型诞生以来,便开启了 “预训练 + 微调” 的新时代。作为 Google 2018 年推出的里程碑式模型,BERT 凭借双向上下文建模能力,在文本分类、问答系统等多项任务中实现性能突破,至今仍是开发者入门 NLP 的核心工具。本文结合实战经验,从原理、应用到常见问题解决,带你完整掌握 BERT 的使用方法。

#深度学习#bert#人工智能
深度学习第七节 自注意力机制 self-attention

在自然语言处理(NLP)领域,让机器理解文字的含义、语境关联是核心难题。从早期的词编码到如今的大模型,技术迭代的核心围绕 “如何更好捕捉语言规律” 展开,而自注意力机制与 BERT 模型的出现,彻底改变了 NLP 的发展轨迹。本文将从基础到核心,拆解这两大关键技术的原理与价值。

#深度学习#人工智能
深度学习 第六节 无监督学习 Unsupervised learning

AI学习人类 其实是AI在学习特征无监督学习的核心意义在于摆脱对人工标注数据的依赖,让模型从海量无标签数据中自主发现隐藏结构与模式,降低数据使用门槛、拓展 AI 的应用边界,同时为探索通用人工智能提供关键路径。

#学习#人工智能
深度学习第七节 自注意力机制 self-attention

在自然语言处理(NLP)领域,让机器理解文字的含义、语境关联是核心难题。从早期的词编码到如今的大模型,技术迭代的核心围绕 “如何更好捕捉语言规律” 展开,而自注意力机制与 BERT 模型的出现,彻底改变了 NLP 的发展轨迹。本文将从基础到核心,拆解这两大关键技术的原理与价值。

#深度学习#人工智能
深度学习 第六节 无监督学习 Unsupervised learning

AI学习人类 其实是AI在学习特征无监督学习的核心意义在于摆脱对人工标注数据的依赖,让模型从海量无标签数据中自主发现隐藏结构与模式,降低数据使用门槛、拓展 AI 的应用边界,同时为探索通用人工智能提供关键路径。

#学习#人工智能
到底了