logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

基础篇(下):神经网络与反向传播(程序员视角)

本文通过Java函数嵌套类比,揭示了神经网络的核心原理:神经网络本质是多层函数嵌套(线性变换+激活函数),通过反向传播自动优化参数(权重w和偏置b)。文章以PyTorch实战演示了二分类任务的完整流程,包括数据准备、网络定义、反向传播优化和效果评估。关键点在于:1)神经网络通过"自动调参"实现学习能力;2)反向传播通过链式求导自动计算参数梯度;3)调参技巧(学习率设置、防止过拟

#python#神经网络#pytorch +1
核心篇(上):NLP 预处理全流程(程序员实战版)

流程掌握:从 “文本清洗→分词→补齐 / 截断→词嵌入”,每一步都能通过代码落地;实战能力:能将原始代码文本转化为模型可输入的向量,为后续 Transformer 架构学习打下基础。下一篇文章,我们将深入 NLP 的核心架构 ——Transformer,用 “程序员熟悉的分层设计” 类比自注意力机制、编码器 / 解码器结构,带你手动实现简化版 Transformer,理解大模型 “理解长文本语义”

#python#自然语言处理#开发语言
用 AI 高效生成学习笔记:从困境到实战(一)

摘要: 本文介绍了如何利用AI大语言模型(如通义千问)优化传统学习笔记方法,解决边学边记效率低、结构混乱等问题。核心步骤包括:提炼学习内容关键框架,通过DashScope SDK调用通义千问生成结构化笔记(含定义、方法、实例),最后人工补充修正。文章提供了Python代码示例,演示如何基于书籍目录和重点自动生成分章节笔记,并预告后续将实现PDF内容自动提取与个性化适配功能,进一步提升学习效率。

#人工智能#python#AI
用 AI 高效生成学习笔记:从困境到实战(一)

摘要: 本文介绍了如何利用AI大语言模型(如通义千问)优化传统学习笔记方法,解决边学边记效率低、结构混乱等问题。核心步骤包括:提炼学习内容关键框架,通过DashScope SDK调用通义千问生成结构化笔记(含定义、方法、实例),最后人工补充修正。文章提供了Python代码示例,演示如何基于书籍目录和重点自动生成分章节笔记,并预告后续将实现PDF内容自动提取与个性化适配功能,进一步提升学习效率。

#人工智能#python#AI
到底了