logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RNN(Recurrent Neural Network,循环神经网络)家族详解(RNN,LSTM,GRU)

摘要: 本文系统解析了循环神经网络(RNN)及其改进模型LSTM的核心机制与应用。传统RNN通过循环记忆结构处理序列数据,但存在梯度消失问题。LSTM引入遗忘门、输入门、输出门和细胞状态四大机制,有效解决了长期依赖问题。文章详细对比了RNN与LSTM的数学表达、PyTorch实现及计算示例,并通过人名特征提取案例演示了RNN的时序计算过程。RNN适用于语音识别、文本分类等场景,而LSTM在长序列任

文章图片
#rnn#lstm#gru +4
人工智能概念之一:机器学习基础概念(距离计算方法、归一化和标准化、交叉验证和网格搜索)

本文介绍了机器学习中的关键技术:1)距离计算方法(欧式、曼哈顿、切比雪夫距离),用于衡量样本相似性;2)数据预处理方法(归一化和标准化),分别用于调整数据范围和正态分布;3)交叉验证与网格搜索的结合应用,用于优化模型参数和提高泛化能力。文中还提供了相关Python代码示例,展示如何实现这些技术在实际项目中的应用。这些方法共同构成了机器学习模型开发的重要基础环节。

#机器学习#人工智能
逻辑回归(Logistic Regression)算法详解

本文系统阐述逻辑回归从理论到实战的完整体系。理论上,通过伯努利分布与对数几率变换推导出Sigmoid函数,构建线性组合到概率的映射,以交叉熵损失为优化目标。实战中,利用sklearn实现电信客户流失预测,经独热编码、Min-Max归一化等预处理,特征重要性分析表明总费用、月付合同等是流失主因,为业务留存策略提供数据支撑,体现模型在二分类问题中的工程价值与可解释性优势。

文章图片
#算法#逻辑回归#机器学习 +2
人工智能概念之六:分类任务的评估指标(用逻辑回归演示回归效果评估)

本文系统讲解了分类任务的核心评估指标及其应用场景。首先介绍了混淆矩阵的四个关键指标(TP、FP、FN、TN),通过电信客户流失案例展示了如何全面评估模型预测效果。其次详细解析了精确率、召回率和F1-score的计算公式及适用场景,特别强调不同业务需求(如医疗诊断vs广告投放)对指标的侧重差异。最后深入讲解了ROC曲线和AUC值的原理与优势,包括抗类别不平衡、阈值无关等特性,并通过实例演示了AUC计

文章图片
#人工智能#分类#逻辑回归 +1
人工智能概念:常见的大模型微调方法

大模型微调技术主要包括全量微调、冻结层微调和参数高效微调三大类方法。全量微调性能最优但计算成本高;冻结层微调通过冻结底层参数平衡效果与效率;参数高效方法(如LoRA、Adapter)通过低秩分解或小型适配模块大幅减少训练参数,在保持性能的同时显著降低资源需求。其中LoRA凭借零推理延迟和参数高效成为资源受限场景的首选,而Prompt-Tuning更适合few-shot任务。不同方法各具特点,需根据

文章图片
#人工智能#深度学习#算法
LangChain快速入门

LangChain:大模型应用的工业级连接器 LangChain由Harrison Chase于2022年创建,现已成为GitHub明星项目(7万+星),被IBM、AWS等巨头采用。其核心价值在于: 统一模型接口:支持OpenAI、LLaMA等主流模型的无缝切换 精准提示控制:通过模板和示例引导模型输出 可复用任务链:串联多个组件形成自动化流程 智能决策代理:支持工具调用和自主规划 典型应用包括:

文章图片
#pytorch
人工智能概念之十一:常见的激活函数与参数初始化

本文解析了神经网络中激活函数与参数初始化的协同作用。激活函数如Sigmoid、ReLU、GELU等为网络注入非线性能力,而参数初始化方法需与激活函数匹配以避免梯度问题。文章详细介绍了经典和现代激活函数的特性及适用场景,同时探讨了不同初始化方法(如Xavier、Kaiming)如何与激活函数配合,确保网络训练的稳定性和高效性。正确的激活函数与初始化组合能显著提升模型性能,是神经网络设计的关键环节。

文章图片
#人工智能#深度学习#python
利用英译法案例演示RNN中的注意力机制(基于PyTorch)

本文通过一个英法翻译案例,详细解析了基于RNN的Encoder-Decoder架构中注意力机制的实现原理。文章首先介绍了数据处理流程,包括文本规范化、词表构建和数据加载模块;然后阐述了模型架构设计,采用LSTM编码器与带注意力机制的解码器;最后展示了注意力机制如何动态聚焦输入序列的关键部分。通过PyTorch实现,案例直观演示了注意力权重在翻译过程中的动态变化,揭示了注意力机制提升长句子翻译质量的

文章图片
#rnn#lstm#python +2
人工智能概念:RNN中的基础Encoder-Decoder框架

Seq2Seq模型与注意力机制:自然语言处理的关键突破 Seq2Seq模型通过Encoder-Decoder架构实现跨序列转换,但传统方法存在两大核心缺陷:1)固定维度语义向量C导致信息瓶颈,长序列信息丢失严重;2)单一C无法区分不同解码阶段的语义焦点,造成翻译错误。注意力机制的创新在于动态生成上下文向量ct,通过权重分配聚焦关键输入。例如翻译"欢迎来北京"时,生成"

文章图片
#人工智能#rnn#深度学习 +1
人工智能概念之二:人工智能核心概念(三大核心概念、发展三要素、样本、特征、标签、过拟合、欠拟合、泛化、导数、矩阵、正规方程、梯度下降)

AI 目标是让机器具人类智能,ML 是实现路径(从数据学规律),DL 是 ML 分支(用多层网络处理高维数据),三者呈 AI>ML>DL 层级。发展依赖数据(决定上限)、算法(提取规律)、算力(GPU/TPU 加速)。数据由样本、特征(预测依据)、标签(目标)构成,需划训练 / 测试集防过拟合。特征工程含提取、归一化 / 标准化预处理、降维及交叉 / 多项式组合。模型需平衡复杂度防过拟合 / 欠拟

#人工智能#python
    共 12 条
  • 1
  • 2
  • 请选择