logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Claude Skills 构建完全指南

skill 是一组指令,被打包一个简单的文件夹,用于教会 Claude 如何处理特定任务或工作流程。Skills 是根据你的具体需求定制 Claude 最强大的方式之一。你无需在每次对话中重复说明你的偏好、流程和领域专业知识,只需通过 skills 一次性教会 Claude,之后每次使用都能受益。当你拥有可复用的工作流时,skills 会发挥强大作用:例如根据需求文档生成前端设计、以统一的研究方法

文章图片
#算法#python#java +4
【TensorRT】使用C++将yolov8 onnx转化为tensorrt格式

我们使用TensorRT进行加速推理时,需要先将onnx格式转化为tensorrt格式,以下是使用C++来进行转化代码以及对应的CMakeLists.txt文件。在CMakeLists.txt中cuda及TensorRT的头文件和库文件路径需要改成自己的。以yolov8为例,使用cmake编译好后会生成。可执行文件,执行以下命令即可等待生成。

文章图片
#c++#开发语言#人工智能 +1
【已解决】vscode如何调试python第三方库

1. 打开vscode配置,搜索Debug Just My Code,将"调试时,仅单步执行用户编写的代码,禁用此选项可允许单步执行库代码" 的 √ 取消2.点击Debug Just My Code 左边设置,选择将设置应用于所有配置文件

#vscode#ide#编辑器
【时间序列分析】斯皮尔曼(Spearman)相关系数理论基础及python代码实现

什么是秩相关系数?秩相关系数(Coefficient of Rank Correlation),又称等级相关系数,反映两个随机变量变化趋势的方向和强度之间的关系。它通过将两个随机变量的样本值按大小顺序排列位次,使用这些位次代替实际数据来计算得出。秩相关系数用于衡量变量间的等级相关程度,常用的等级相关分析方法包括Spearman相关系数和Kendall秩相关系数等。

文章图片
#算法#深度学习#人工智能 +4
【深度学习】L1损失、L2损失、L1正则化、L2正则化

稀疏性:很多参数值为0LLWλ∑i1p∣wi∣∂L∂wi∂LW∂wiλ⋅signwiwiwi−lr∗∂L∂wj−lr∗λsignwiLLWλi1∑p​∣wi​∣∂wi​∂L​∂wi​∂LW​λ⋅signwi​wi​wi​−lr∗∂wj​∂L​−lr∗λsignwi​∂LW∂w。

文章图片
#深度学习#人工智能#算法 +1
【深度学习】梯度累加和直接用大的batchsize有什么区别

梯度累加与使用较大的batchsize有类似的效果,但是也有区别。

文章图片
#深度学习#pytorch
【深度学习】训练集、测试集、验证集、过拟合、欠拟合详解

在机器学习和深度学习中,数据集的划分是模型训练过程中至关重要的一步。常见的数据划分方式包括:训练集(Training Set)、验证集(Validation Set)和测试集(Test Set),本文将详细介绍他们的作用。

文章图片
#深度学习#人工智能#神经网络
【深度学习】通俗理解偏差(Bias)与方差(Variance)

在统计学习中,我们通常使用方差与偏差来衡量一个模型。

文章图片
#深度学习#人工智能#集成学习 +3
【深度学习】Huber Loss详解

平滑是指损失函数在参数空间内变化的平稳程度。在损失函数的图像中,如果它是光滑的,表示它的值不会出现剧烈的波动。平滑的损失函数对于优化过程有利,因为它减少了优化过程中由于损失函数剧烈波动而导致的难以收敛的情况。在优化中,平滑的损失函数能够帮助优化算法(如梯度下降)稳定地找到全局或局部最小值,而不会被局部的“尖峰”或“坑”困住。Huber损失就是一个平滑的损失函数,它在小误差时使用平方损失,避免了大误

文章图片
#深度学习#人工智能#算法 +2
【深度学习】LSTM、BiLSTM详解

LSTM是一种循环神经网络,它可以处理和预测时间序列中间隔和延迟相对较长的重要事件。LSTM通过使用门控单元来控制信息的流动,从而缓解RNN中的梯度消失和梯度爆炸的问题。输入门遗忘门和输出门。遗忘门的作用是决定哪些信息从记忆单元中遗忘,它使用sigmoid激活函数,可以输出在0到1之间的值,可以理解为保留信息的比例。作用是决定哪些新信息被存储在记忆单元中输出门决定了下一个隐藏状态,即生成当前时间步

文章图片
#深度学习#lstm#人工智能
    共 63 条
  • 1
  • 2
  • 3
  • 7
  • 请选择