logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习 - PyTorch简介

PyTorch的特点和优势动态计算图、易用性、强大的社区支持、与NumPy兼容。安装和环境配置运行结果1.9.0 # 具体版本可能不同配置虚拟环境(推荐使用venv或conda# 创建虚拟环境# 激活虚拟环境基本数据类型和张量操作# 从列表创建张量print(a)运行结果。

文章图片
#深度学习#pytorch#人工智能
Python递归和循环的选择

递归和循环是编程中用于重复执行任务的两种常见方法,它们各有适用场景和限制。以下是递归和循环的区别和适用场景。

文章图片
#python#算法
机器学习常见概念

用通俗易懂的语言讲解机器学习中的常见概念

文章图片
#机器学习#人工智能
序列标注任务 - CRF条件随机场

原理:序列标注任务是指给定一个输入序列,为每个元素分配一个标签。例如,给一句话中的每个词打上词性标签(名词、动词等)。生活化场景:想象你在读一本小说,书中每个人物的名字都要用不同颜色的高光笔标出来。这就像在进行命名实体识别(NER),你需要识别出哪些词是人名,然后标注出来。原理:HMM是一种用于序列标注的模型,它假设序列中的状态之间有隐含的马尔可夫过程。而MEMM则结合了最大熵模型的思想,用来建模

文章图片
#概率论#机器学习#人工智能
深度学习 - 激活函数

激活函数具体效果常见问题及解决方案Sigmoid训练速度较慢,梯度消失问题显著,适用于输出层概率预测。梯度消失:使用 ReLU 或其他激活函数。训练不稳定:标准化输入数据。慢收敛:调整学习率。ReLU通常能提供较好的训练效果和模型性能,但可能会遇到 Dying ReLU 问题。Dying ReLU:使用 Leaky ReLU 或 Parametric ReLU。输出不平衡:使用 Batch Nor

文章图片
#深度学习#人工智能
机器学习 - 强化学习详解

通过对 Q-learning 和 PPO 算法的深入剖析,可以看到强化学习的核心在于通过与环境的持续交互,智能体能够不断调整其策略或值函数,以实现最优决策。Q-learning 通过更新 Q 表来找到最优策略,而 PPO 则通过策略优化直接改进策略网络,使智能体能够在复杂环境中稳定学习。无论哪种算法,其最终目的都是帮助智能体在各种状态下做出最优决策,从而实现预期的目标。

文章图片
#机器学习#人工智能
导数和偏导数练习

这里是上述50个导数和偏导数练习题的答案:

文章图片
#机器学习
机器学习 - 强化学习详解

通过对 Q-learning 和 PPO 算法的深入剖析,可以看到强化学习的核心在于通过与环境的持续交互,智能体能够不断调整其策略或值函数,以实现最优决策。Q-learning 通过更新 Q 表来找到最优策略,而 PPO 则通过策略优化直接改进策略网络,使智能体能够在复杂环境中稳定学习。无论哪种算法,其最终目的都是帮助智能体在各种状态下做出最优决策,从而实现预期的目标。

文章图片
#机器学习#人工智能
深度学习 - 激活函数

激活函数具体效果常见问题及解决方案Sigmoid训练速度较慢,梯度消失问题显著,适用于输出层概率预测。梯度消失:使用 ReLU 或其他激活函数。训练不稳定:标准化输入数据。慢收敛:调整学习率。ReLU通常能提供较好的训练效果和模型性能,但可能会遇到 Dying ReLU 问题。Dying ReLU:使用 Leaky ReLU 或 Parametric ReLU。输出不平衡:使用 Batch Nor

文章图片
#深度学习#人工智能
到底了