logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

02 SDXL:环境安装、模型下载与图片生成实战 ARM + Ubuntu 24 + RTX 4090

本文记录一次在 ARM + Ubuntu 24 + RTX 4090 环境下本地部署 SDXL 的完整过程,包括依赖安装、Hugging Face 镜像测试、模型最小集合下载、本地模型加载以及图片生成测试。实测表明,该环境下已经可以成功跑通 SDXL 本地推理流程并生成图片,虽然当前生成效果还有待进一步优化,但整体链路已经打通,可作为后续小说分镜图、图生视频和批量内容生产的基础模块。

#AIGC
39 Python 数据挖掘番外篇:为什么 `LinearRegression` 也能做多项式回归? ——从 `PolynomialFeatures(degree=2)` 说起

很多同学学习 `PolynomialFeatures(degree=2)` 时都会疑惑:既然是多项式回归,为什么模型还是 `LinearRegression`?本文从“线性”真正含义出发,说明多项式回归并不是更换模型,而是先把原始特征扩展为 \(x\)、\(x^2\) 等,再交给线性回归拟合。文章结合公式与代码,帮助学生理解“对特征非线性、对参数线性”的本质区别。

#数据挖掘#python#回归 +1
11 从 MLP 到 LeNet:为什么图像不能简单当成普通向量来处理?

图像任务真正难的地方,从来不只是“图片能不能变成数字”,而是:这些数字之间是什么关系?图像和普通表格数据到底有什么不同?把图片直接展平之后,模型到底失去了什么?这篇文章就专门把这个问题讲清楚。

#深度学习
10 从 MLP 到 LeNet:反向传播到底在做什么?为什么梯度能一层层传回来(附三层网络手写示例)

反向传播是神经网络训练中的核心机制,本文围绕“反向传播到底在做什么”展开,重点解释:训练的目标是让损失函数变小,而模型真正能调整的是参数 。在多层网络中,前面层的参数并不会直接影响最终损失,而是通过中间层逐步影响输出,因此必须借助链式法则,把损失对各层参数的影响一层层算回去。文章结合三层小网络示例,从前向计算、损失计算到梯度回传,帮助理解为什么多层网络不仅是“更大”,更关键的是它形成了中间表示和更

#神经网络
09 从 MLP 到 LeNet:梯度下降到底在做什么?

梯度下降并不神秘,它解决的是“参数该往哪个方向改,才能让损失变小”这个问题。训练时,输入和标签是已知量,真正需要不断调整的是模型参数,比如权重和偏置机器一开始并不会分类,而是通过样本不断修正参数,慢慢学会判断规则 。因此,梯度下降本质上就是围绕损失函数展开:先用损失衡量预测和真实答案之间的差距,再根据损失对参数的变化趋势去更新参数。

#人工智能#机器学习#深度学习
08 从 MLP 到 LeNet:为什么一个神经元不够?

本文围绕“为什么一个神经元不够”展开,重点说明单个神经元虽然已经能够完成最基础的分类决策,但它本质上仍然只是一个线性分类器,因此很快会碰到表达能力边界。文章以“圆形内外分类”为主要案例,展示单层线性模型为什么无法学出圆形边界,并进一步说明多层网络开始有能力解决这类问题的根本原因:隐藏层和非线性激活使模型能够逐步组合简单变换,从而表示更复杂的分类结构。这也是多层感知机 MLP 比单层模型更强的核心原

#机器学习#深度学习#神经网络
06 从 MLP 到 LeNet:为什么线性模型不够用?

本文围绕“为什么线性模型不够用”展开,重点说明线性模型的核心限制不在于参数多少,而在于它只能表达线性关系。文章通过 XOR 这一经典例子,先用二维图说明正负样本为什么无法被一条直线分开,再通过三维特征映射展示数据表示方式变化后分布结构如何改变。这表明有些问题不是训练不够,而是模型本身的表达能力不够。理解这一点,是从简单模型走向更强表达模型的重要基础。

#机器学习#逻辑回归#神经网络
05 从 MLP 到 LeNet:损失函数到底在衡量什么?

围绕损失函数的基本作用,解释它到底在衡量什么。文章重点补充了两个关键点:第一,损失函数直接是关于真实标签和预测结果的函数,进一步展开后也可以看成关于模型参数的函数;第二,通过均方误差、二分类交叉熵和多分类交叉熵的具体数值例子,可以直观看到损失如何反映“预测离真实答案有多远”。同时,文章也进一步解释了为什么多分类交叉熵在 one-hot 标签下看起来只直接使用正确类别的概率,但错误类别仍然会通过 s

#机器学习#深度学习#人工智能
04 从 MLP 到 LeNet:sigmoid 和 softmax 到底在做什么?为什么输出层需要它们?

本文围绕分类模型输出层中的 sigmoid 和 softmax,解释模型为什么不能直接输出类别,以及这两个函数分别在做什么。文章重点说明:类别编号本质上只是标签,不具备可直接优化的连续意义,因此模型通常先输出一组原始分数。sigmoid 用于把单个数值压缩到 0 到 1 之间,适合二分类;softmax 用于把一组分数转换成总和为 1 的概率分布,适合单标签多分类。通过公式、代码和图示,可以更直观

#人工智能#机器学习
03 从 MLP 到 LeNet:一个分类模型,究竟是怎样做出判断的?

本文从分类模型的基本工作方式出发,说明模型究竟是怎样做出判断的。文章重点解释:分类模型通常不会直接输出类别,而是先根据输入和参数计算出一组类别分数,再从中选出分数最高的类别作为预测结果。通过一个最小示例,可以直观看到输入、权重、偏置、输出分数和最终预测之间的关系。理解这一点,是后续继续讨论 sigmoid、softmax、损失函数和训练过程的基础

#分类#人工智能
    共 34 条
  • 1
  • 2
  • 3
  • 4
  • 请选择