logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

中级OpenGL教程 001:从Main函数到相机操控的完整实现

本文详细介绍了中级OpenGL项目的完整实现流程,重点解析了四大核心模块:项目架构设计、模块化初始化流程、标准渲染逻辑和相机系统。项目采用单例Application设计,通过事件回调体系实现交互解耦,模块化Prepare函数管理各类资源。渲染流程遵循清屏→绑定→更新→绘制的固定步骤,相机系统提供两种投影方式和两种控制模式。文章还展示了帧循环的核心逻辑,强调这套架构的高可扩展性,可作为工业级Open

文章图片
#图形渲染#c++#unity +1
特殊成员函数的生成规则:Effective Modern C++条款17解析

摘要:C++中的特殊成员函数(默认构造函数、析构函数、拷贝/移动构造函数和赋值运算符)对对象生命周期管理至关重要。C++11在C++98基础上新增了移动操作,将"三法则"扩展为"五法则"。文章详细对比了不同标准的生成规则变化,强调显式控制(=default/=delete)的重要性,并指出析构函数对移动操作的影响。通过实例代码展示了资源管理类和性能优化技巧,

#c++#程序人生#开发语言
激活函数:神经网络的「非线性灵魂」,让模型从“直线”走向“万能”

激活函数是神经网络的核心组件,赋予模型非线性能力,使其从简单的线性回归升级为能够拟合任意复杂曲线的强大工具。本文通过数学推导证明,没有激活函数的多层网络会退化为单层线性模型,仅能处理直线分割和拟合。激活函数通过引入非线性变换,使网络能够层层提取特征,实现复杂任务的精准拟合。文章还介绍了Sigmoid、ReLU、Tanh和Softmax等常用激活函数的特点及适用场景,并通过代码示例和可视化工具展示了

文章图片
#神经网络#人工智能#深度学习 +4
深度拆解全连接神经网络:从结构到计算的核心原理

本文深入解析全连接神经网络的核心原理,从结构设计到计算逻辑全面剖析。首先介绍其分层结构(输入层、隐藏层、输出层)和"同层无连、跨层全连"的连接规则。其次强调网络对二维矩阵输入的严格要求,指出三维数据需拆分处理。重点阐述神经元的前向传播(计算内部状态值和激活值)与反向传播(参数优化)的四步计算流程,并强调激活函数在引入非线性因素中的关键作用。全文系统性地总结了全连接网络的结构特性

文章图片
#神经网络#人工智能#深度学习 +2
PyTorch 线性回归实战:从损失曲线到拟合效果全解析

本文基于PyTorch实现线性回归模型,通过可视化分析训练过程。首先绘制损失曲线,观察模型在前40轮快速收敛、后期趋于稳定的特点;接着展示样本散点图与预测拟合线,验证模型预测效果近乎完美。文章揭示了AI三要素(数据、算法、算力)的协同作用,并指出固定学习率的局限性。最后展望进阶方向,建议采用动态学习率优化,并预告将从线性模型扩展到非线性模型的深度学习内容。全文通过代码示例和可视化图表,完整呈现了线

文章图片
#pytorch#线性回归#人工智能 +4
PyTorch 线性回归实战:从损失曲线到拟合效果全解析

本文基于PyTorch实现线性回归模型,通过可视化分析训练过程。首先绘制损失曲线,观察模型在前40轮快速收敛、后期趋于稳定的特点;接着展示样本散点图与预测拟合线,验证模型预测效果近乎完美。文章揭示了AI三要素(数据、算法、算力)的协同作用,并指出固定学习率的局限性。最后展望进阶方向,建议采用动态学习率优化,并预告将从线性模型扩展到非线性模型的深度学习内容。全文通过代码示例和可视化图表,完整呈现了线

文章图片
#pytorch#线性回归#人工智能 +4
Effective Modern C++ 条款21:优先选用std::make_unique和std::make_shared,而非直接new

摘要:本文探讨了现代C++中智能指针创建的最佳实践,对比了直接使用new与std::make_unique/std::make_shared的优劣。直接使用new存在代码冗余、异常安全性和性能问题,而make系列函数能有效解决这些问题,提供更简洁、安全和高效的实现。但文中也指出其局限性,如不支持自定义析构器、初始化列表等问题,建议根据具体场景灵活选择。最终结论强调make函数是智能指针创建的首选方

#c++#开发语言#程序人生
Effective Modern C++ 条款16:保证const成员函数的线程安全性

C++中const成员函数的线程安全陷阱:本文揭示了const成员函数在多线程环境下的潜在风险,特别是使用mutable变量时的并发访问问题。文章通过代码示例展示了两种解决方案:互斥锁保护和原子操作优化,并详细分析了双重检查锁定模式的实现。同时提出了最佳实践建议,包括不要假设const成员函数的线程安全性、选择合适的同步原语等。最后介绍了无锁编程的可能性,如使用std::call_once。文章强

#c++#开发语言#程序人生
从零实现线性回归:深度学习入门必学的完整训练流水线

本文系统介绍了线性回归模型的完整训练流程,作为深度学习入门核心范式。通过五步固定框架(数据准备→模型构建→损失函数→优化器→训练循环),详细演示了PyTorch实现过程,包括数据分批加载、MSE损失计算、SGD参数优化等关键环节。代码示例覆盖梯度清零、维度对齐等实战细节,并可视化损失下降曲线验证模型收敛。该流程具有高度通用性,只需替换模型组件即可迁移至复杂任务,是掌握深度学习基础的重要跳板。文末提

文章图片
#线性回归#深度学习#算法 +4
深入浅出PyTorch线性回归:从原理到实战,手把手解锁模型构建秘籍 ✨

本文介绍了使用PyTorch实现线性回归的完整流程。线性回归作为机器学习基础算法,通过构建y=wx+b模型拟合数据。PyTorch实现分为四个步骤:1)准备数据集,使用make_regression生成带噪声的样本数据;2)构建模型,继承nn.Module定义线性层;3)设置损失函数(MSE)和优化器(SGD);4)训练模型,通过前向传播、反向传播和参数更新迭代优化。整个过程展示了PyTorch框

文章图片
#pytorch#线性回归#人工智能 +4
    共 76 条
  • 1
  • 2
  • 3
  • 8
  • 请选择