logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

顺口溜记23种设计模式

在学习设计模式的时候,发现有23种之多。记忆起来十分困难,所以编一个顺口溜是不错的方法。当然死记还是不够的,但是要记死,重在理解和灵活运用。迪厅里开口赖单原则:迪米特法则,里氏替换法则,开放封闭法则,接口隔离法则,依赖倒置法则,单一职责法则三厂建造单原型三厂:简单工厂,工厂方法,抽象工厂模式。建造者模式。单例模式,原型模式。5个 简单工厂不算组装适代享外桥组合模式;装饰器模式;适配器模式...

#设计模式
用deepseek学大模型04-机器学习建模过程

设置网络层数、激活函数(如ReLU、Sigmoid)、Dropout率(防止过拟合)、优化器(如Adam、SGD)等。

文章图片
#机器学习#人工智能
分布式系统性能调优系统架构

性能监控部分JobServer是分布式任务集群。 需要队分布式系统中的各个环节进行时间上报。有一定的开发工作量,应尽量做到不影响分布式任务的性能。整个时间线树如下:struct TimeNode {std::string name;//job nameint task_id;//job idint64_t begin;//begin timeint64_t end;//end timestd::s

文章图片
#c++#深度学习#flink
用deepseek学大模型07-激活函数和损失函数

激活函数输出范围梯度特性计算成本适用场景Sigmoid(0,1)最大0.25高二分类输出层Tanh(-1,1)最大1.0高RNN隐藏层ReLU[0, +∞)0或1低通用隐藏层Leaky ReLU(-∞, +∞)0.01或1低避免神经元死亡Softmax[0,1] (概率)依赖输入分布高多分类输出层。

#算法
用deepseek学大模型02-数学基础 微积分

导数:衡量单变量函数变化率。偏导数与梯度:多变量函数的局部变化率与全局方向。链式法则:反向传播的数学基础,逐层计算梯度。梯度下降法:利用负梯度方向更新参数,最小化损失函数。通过理解这些概念并实践代码示例,可掌握深度学习优化算法的数学本质。

#人工智能
用deepseek学大模型08-循环神经网络

通过上述步骤,您可系统掌握 RNN 的核心理论、实现及优化方法。控制历史信息保留,避免传统 RNN 的连乘梯度,缓解消失问题。,导致梯度消失/爆炸。LSTM 通过细胞状态。

文章图片
#rnn#深度学习#人工智能
用deepseek学大模型05逻辑回归

逻辑回归通过概率建模解决二分类问题,代码简洁高效,但需注意其线性假设的限制。通过正则化、特征工程等手段可显著提升模型性能。

文章图片
#逻辑回归#机器学习#人工智能
    共 36 条
  • 1
  • 2
  • 3
  • 4
  • 请选择