logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Deep Learning入门---神经网络概念

学习:从训练数据中自动获取最优权重参数的过程。损失函数:衡量神经网络性能“恶劣程度”的指标,如均方误差和交叉熵误差。均方误差:损失函数的一种,计算输出与监督数据各元素差的平方和。交叉熵误差:损失函数的一种,用于分类问题,仅计算正确解标签对应的输出的自然对数。mini-batch学习:从训练数据中随机选取一小批数据进行学习,近似整体损失函数。梯度:损失函数关于所有权重参数的偏导数汇总而成的向量,指示

#深度学习#神经网络#人工智能
零基础开始,一步步解释常见损失函数原理。

损失函数用于衡量模型预测值与真实值之间的差距。核心思想是神经网络通过调整自身参数来最小化损失函数的值,使预测结果尽可能接近真实答案。任务类型损失函数名称核心思想关键特点回归均方误差(MSE)惩罚大的误差(平方放大)对异常值敏感,梯度稳定回归平均绝对误差(MAE)平等对待所有误差(绝对值)对异常值鲁棒,在零点不可导回归小误差精细调,大误差稳着来平衡MSE和MAE,实践常用分类交叉熵误差让正确类别的预

#pytorch#深度学习
正则化和优化算法

特性正则化 (L1, L2, 权重衰减)优化算法 (SGD, Momentum, AdaGrad, Adam)首要目标提高泛化能力,防止过拟合。控制模型复杂度。加速训练,促进收敛。高效找到损失函数最小值。作用对象模型参数 (θ) 本身。施加一个指向零的力。梯度 (∇L)。调整梯度的大小和方向用于更新。数学本质在优化问题中增加一个约束项(先验)。求解无约束优化问题的数值迭代方法。关键项-ηλ * θ

#算法#深度学习#神经网络 +1
PyTorch之泰坦尼克号—对Titanic数据进行训练代码分析和基础解释

训练时:计算损失 → 反向传播 → 更新参数验证时:只做前向传播 → 计算准确率 → 不更新参数特征工程:通过增加二次项,让简单模型也能学习复杂关系训练:要梯度,要更新参数,目的是学习验证/预测:不要梯度,不更新参数,目的是评估torch.no_grad() 就是切换这两个模式的开关。

#pytorch#机器学习#逻辑回归
The file name must end with .xml

找了一下午,思想局限了开始我将jar包放在的res文件中,一直找不到原因,在网上搜在[gradle.properties]添加android.disableResourceValidation=true表示失败。sync没有出现错误,都是build出现The file name must end with .xml最后 确定文件放错地方了 (应该放到libs文件中)在android Studio中

#android studio#jar
到底了