logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

快速上手大模型:深度学习13(文本预处理、语言模型、RNN、GRU、LSTM、seq2seq)

本文摘要介绍了文本预处理和语言模型的基础知识,以及RNN、GRU、LSTM等神经网络模型。主要内容包括:1)文本预处理步骤(读取数据、词元化、构建词表);2)语言模型定义与实现(n元语法模型、困惑度评估);3)RNN及其变体GRU、LSTM的原理;4)编码器-解码器架构及其在seq2seq任务中的应用。重点强调了文本预处理和语言模型的重要性,而RNN系列模型仅需了解。文中提供了完整的代码实现,包括

#语言模型#人工智能#自然语言处理 +2
快速上手大模型:深度学习15(BERT、优化算法)

摘要:本文介绍了迁移学习和BERT模型的关键内容。迁移学习通过预训练模型提取特征,构建新网络处理新任务。BERT是基于Transformer编码器的双向语言模型,创新点包括掩码语言模型和下一句子预测任务。文章详细说明了BERT的架构、代码实现(包括输入表示、编码器和预训练任务)以及微调方法。最后介绍了优化算法,从梯度下降到AdamW,指出大模型普遍采用AdamW优化器。全文涵盖了从理论基础到实践实

#深度学习#bert#人工智能 +3
快速上手大模型:深度学习15(BERT、优化算法)

摘要:本文介绍了迁移学习和BERT模型的关键内容。迁移学习通过预训练模型提取特征,构建新网络处理新任务。BERT是基于Transformer编码器的双向语言模型,创新点包括掩码语言模型和下一句子预测任务。文章详细说明了BERT的架构、代码实现(包括输入表示、编码器和预训练任务)以及微调方法。最后介绍了优化算法,从梯度下降到AdamW,指出大模型普遍采用AdamW优化器。全文涵盖了从理论基础到实践实

#深度学习#bert#人工智能 +3
快速上手大模型:深度学习14(束搜索、注意力、Transformer)

本文系统介绍了自然语言处理中的注意力机制及其相关技术。主要内容包括:1)束搜索算法原理及其在序列预测中的应用;2)注意力机制的核心思想与实现方法,包括Nadaraya-Watson核回归示例;3)自注意力机制和位置编码;4)Transformer架构详解,涵盖多头注意力、前馈网络、层归一化等关键组件;5)完整的编码器-解码器实现及训练过程。文章通过理论分析和代码实现相结合的方式,深入阐述了现代NL

文章图片
#深度学习#人工智能#算法 +2
快速上手大模型:深度学习14(束搜索、注意力、Transformer)

本文系统介绍了自然语言处理中的注意力机制及其相关技术。主要内容包括:1)束搜索算法原理及其在序列预测中的应用;2)注意力机制的核心思想与实现方法,包括Nadaraya-Watson核回归示例;3)自注意力机制和位置编码;4)Transformer架构详解,涵盖多头注意力、前馈网络、层归一化等关键组件;5)完整的编码器-解码器实现及训练过程。文章通过理论分析和代码实现相结合的方式,深入阐述了现代NL

文章图片
#深度学习#人工智能#算法 +2
快速上手大模型:深度学习12(目标检测、语义分割、序列模型)

本文介绍了计算机视觉中的目标检测、语义分割和序列模型三大任务。目标检测部分详细讲解了边界框表示方法及代码实现,并概述了R-CNN系列、SSD、YOLO等经典算法的发展历程和特点。语义分割部分简要说明其像素级分类的特性。序列模型部分则介绍了时间序列数据的建模方法,包括马尔科夫假设和潜变量模型等自回归模型计算方法。文章还指出当前主流算法已转向YOLOv8/v9、DINOv2、SAM等更先进的模型。

#深度学习#目标检测#算法 +2
快速上手大模型:深度学习12(目标检测、语义分割、序列模型)

本文介绍了计算机视觉中的目标检测、语义分割和序列模型三大任务。目标检测部分详细讲解了边界框表示方法及代码实现,并概述了R-CNN系列、SSD、YOLO等经典算法的发展历程和特点。语义分割部分简要说明其像素级分类的特性。序列模型部分则介绍了时间序列数据的建模方法,包括马尔科夫假设和潜变量模型等自回归模型计算方法。文章还指出当前主流算法已转向YOLOv8/v9、DINOv2、SAM等更先进的模型。

#深度学习#目标检测#算法 +2
快速上手大模型:深度学习11(数据增强、微调、目标检测)

本文介绍了深度学习中的三种关键技术:数据增强、微调和目标检测。数据增强部分阐述了翻转、切割、颜色变换等方法,并提供了相关代码实现。微调部分讲解了预训练模型的应用方式,包括冻结层训练和完全微调,并以热狗识别为例演示代码实现。目标检测部分重点介绍了锚框生成、交并比计算和非极大值抑制算法,详细说明了边界框标注和预测的完整流程,并提供了完整的代码示例。这些技术能有效提升模型性能,特别是在数据量有限的情况下

#深度学习#人工智能#计算机视觉 +2
快速上手大模型:深度学习11(数据增强、微调、目标检测)

本文介绍了深度学习中的三种关键技术:数据增强、微调和目标检测。数据增强部分阐述了翻转、切割、颜色变换等方法,并提供了相关代码实现。微调部分讲解了预训练模型的应用方式,包括冻结层训练和完全微调,并以热狗识别为例演示代码实现。目标检测部分重点介绍了锚框生成、交并比计算和非极大值抑制算法,详细说明了边界框标注和预测的完整流程,并提供了完整的代码示例。这些技术能有效提升模型性能,特别是在数据量有限的情况下

#深度学习#人工智能#计算机视觉 +2
快速上手大模型:深度学习10(卷积神经网络2、模型训练实践、批量归一化)

云服务器有很多,可以自行选择一家性价比高的,但长期从事深度学习、大模型等相关工作还是建议组里有计算资源。复制下来是红色框的信息,根据红色框编写绿色部分内容(其中01序号自定),删除红框内容并保存。(3)验证后创建notebook-输入需要训练的代码-选择GPU/TPU即可。(4)使用更轻量的模型(MobileNet / ResNet18);(3)减少模型复杂度 / 层数 / 通道数;(1)减小ba

#深度学习#人工智能
    共 39 条
  • 1
  • 2
  • 3
  • 4
  • 请选择