logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

NLP —— 注意力机制Seq2Seq

本文介绍了注意力机制的概念及其在Seq2Seq模型中的应用。Seq2Seq是一种编码器-解码器架构,常用于序列转换任务,其编码器和解码器通常由RNN、LSTM或GRU构成。传统Seq2Seq模型存在两个主要弊端:处理长序列时计算量大且准确率下降;未考虑词间相关性导致翻译效果差。注意力机制通过动态分配权重解决这些问题,使解码器在生成每个词时能关注编码器端最相关的信息。 注意力机制分为三类:软注意力(

文章图片
#自然语言处理#深度学习#lstm +2
NLP —— LSTM/GRU模型

LSTM和GRU模型对比分析 LSTM(长短时记忆网络)通过遗忘门、输入门、输出门和细胞状态结构,有效解决了RNN处理长序列时的梯度消失问题。其优点包括强大的长序列处理能力和特征捕捉能力,但存在计算复杂度高、参数量大的缺点。GRU(门控循环单元)作为LSTM的简化版本,合并了细胞状态和隐藏状态,保留了重置门和更新门,在保持相近性能的同时提高了计算效率。实际应用中,GRU更适合追求运行效率的场景,而

文章图片
#lstm#自然语言处理#gru +3
深度学习 —— RNN

RNN(循环神经网络)是一种处理序列数据的神经网络模型,通过循环机制捕捉时间依赖关系。其核心特点是当前时间步的输入包含上一步的隐藏层输出,使信息具有记忆性。RNN按输入输出结构可分为NvsN(词性标注)、Nvs1(情感分析)、1vsN(文本生成)和NvsM(机器翻译)四种类型;按内部构造分为传统RNN、LSTM和GRU等变体。该模型广泛应用于NLP任务如文本分类、机器翻译等,通过tanh激活函数调

文章图片
#rnn#人工智能#深度学习
Openclaw -> Hermes —— 初体验

本篇写 hermes 相关。主要日常 openclaw 基本已经能满足个人需求,近期很多朋友来询问。抽空安装体验下 爱马仕(Hermes),本篇写的比较基础,后续用多 会持续更新。

文章图片
#AI
深度学习 —— Pytorch(张量)

本文总结了PyTorch张量的核心操作:1) 张量与NumPy数组转换时内存共享机制,深拷贝不共享内存;2) 张量运算包括点乘(*)、矩阵乘(@)及基本算术运算,带下划线操作会改变原张量;3) 索引支持切片、布尔索引等灵活取值方式;4) 常用计算函数如mean/sum/pow等需注意数据类型;5) 形状操作包括reshape改变形状、unsqueeze/squeeze升降维、transpose/p

文章图片
#深度学习#pytorch#人工智能
深度学习 —— 正则化&批量归一化BN

摘要:正则化是防止机器学习模型过拟合的重要方法。L1和L2正则化通过添加惩罚项实现,L1会产生稀疏解,L2常用作权重衰减。Dropout是深度学习中常用的正则化技术,训练时随机关闭部分神经元并缩放输出,测试时使用完整网络。批量归一化(BN)通过对每层输入进行标准化加速训练,主要应用于CV领域,包括BatchNorm1d/2d/3d等实现。这些方法通过不同机制提高模型泛化能力,在实际应用中需根据任务

文章图片
#深度学习#人工智能#pytorch +1
深度学习 —— Pytorch入门

深度学习技术发展与应用摘要 深度学习作为人工智能的重要分支,自1950年图灵测试提出以来不断发展。其核心特点包括多层非线性变换、自动特征提取能力以及对大数据的处理优势,主要模型涵盖CNN、RNN、Transformer等主流架构。当前深度学习已广泛应用于CV、NLP、多模态和推荐系统等领域。技术实现方面,PyTorch框架提供了完善的张量计算支持,包括多种初始化方式(arange、linspace

文章图片
#深度学习#人工智能#pytorch
mac部署openclaw+ollama(本地模型)

本文介绍了如何在本地环境安装配置OpenClaw与Ollama的详细步骤。首先需要安装Docker Desktop和OpenClaw,并配置Node.js 20版本。然后启动Ollama服务并拉取qwen2.5:7b模型,为OpenClaw配置本地provider。通过设置默认模型、启动网关和测试agent,最终可在浏览器中通过Control UI与本地模型进行对话。整个过程包含多个终端操作步骤,

文章图片
#macos#node.js
深度学习 —— 梯度下降法的优化方法

本文首先回顾梯度下降法的基本原理和计算示例,指出其存在优化速度慢、易陷鞍点和局部最优等缺点。然后介绍指数移动加权平均方法,分析不同β值对数据平滑程度的影响。重点比较了多种优化方法:从基础的SGD到动量法、AdaGrad、RMSprop,再到改进的Adam和AdamW。其中AdamW通过解耦权重衰减,解决了Adam后期训练不稳定的问题,被推荐为首选方法。最后给出了PyTorch中各类优化器的API调

文章图片
#深度学习#人工智能#pytorch +1
深度学习 —— Pytorch实践

本文介绍了PyTorch框架中的自动微分和梯度下降法在深度学习中的应用。首先讲解了自动微分模块的作用机制,包括定义参数、计算损失、反向传播和参数更新等步骤。其次详细说明了梯度下降法的实现过程,通过迭代计算损失梯度并更新参数来寻找最优解。文章还介绍了detach()函数解决梯度计算张量转换问题的方法。最后以线性回归为例,展示了PyTorch构建模型的完整流程:数据准备、模型搭建、损失函数设置、优化器

文章图片
#pytorch#人工智能#python +3
    共 35 条
  • 1
  • 2
  • 3
  • 4
  • 请选择