logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

导入numpy、训练模型时,UserWarning: The value of the smallest subnormal for <class ‘numpy.float64’> type is z

云上开发环境,无需配置环境,即可灵活调试运行代码。注意一个用户只能启动一个jupyter实例,且16个小时后会自动释放资源,到期时间前请及时将资源下载到本地单次运行时长为16小时,关闭后会释放资源规格 1*ascend-snt9b|ARM: 19核 180GB镜像 python3.9-ms2.7.0-cann8.2.RC1特性 预装mindspore、numpy、pandas等依赖我自己的香橙派上

#numpy#深度学习#人工智能 +1
Qwen2.5-14B-Instruct 进行lora微调后,权重如何合并?

我现在使用MindSpore 1.6版本对Qwen2.5-14B-Instruct完成了分布式微调,并对分布式权重进行了合并,我想将训练后的模型权重与基础模型进行合并后转换成HuggingFace格式权重用于VLLM部署推理应该怎么处理?合并后的权重基础训练设置seed: 42 # 随机种子,保证实验可复现output_dir: ‘./output/bill-xw-15’ # 输出目录路径load

#人工智能#机器学习#深度学习 +1
MindSpore Lite不支持dynamic input shape/dynamic axes

以下是复现问题的模型,测试条件是使用了OpenHarmony的MindSpore Lite相关API,不过应该正常MindSpore Lite也是能复现的。converter转换的时候带--inputShape=转换出固定shape的模型,可以正常加载,但是当尝试Resize的时候,又报错了。converter转换后,dynamic input shape/dynamic axes都变成-1,然后

文章图片
#前端#人工智能#javascript
鸿蒙应用开发配置Mindspore Lite依赖

问题描述:按照Mindspore官网上在安卓上配置Mindspore Lite的教程在鸿蒙上进行配置在安卓上可以正常部署,但在DevEco Studio上配置后显示如下错误: 程序包com.mindspore.lite不存在import com.mindspore.lite.Model;^解答:你好,harmonyOS目前不支持arr包,具体可以参考鸿蒙论坛的这个讨论:华为开发者论坛......

#大数据
鸿蒙应用开发配置Mindspore Lite依赖

按照Mindspore官网上在安卓上配置Mindspore Lite的教程在鸿蒙上进行配置。目前鸿蒙暂不支持aar包。如果需要做鸿蒙应用开发,建议直接使用c或者c++推理接口。在安卓上可以正常部署,但在DevEco Studio上配置后显示如下。错误: 程序包com.mindspore.lite不存在。Mindspore Lite可以直接部署在鸿蒙上。...

#harmonyos#华为#java
多版本CUDA Toolkit共存时安装MindSpore的疑问

一、背景:1、在Linux系统的服务器上,目前已经安装有NVIDIA GPU驱动535.183.01版本和CUDA Toolkit 12.2版本,CUDA Toolkit默认的安装路径是/usr/local/cuda和/usr/local/cuda-12.2,该系统暂时无法使用Docker容器。

#人工智能#深度学习
【MindSpore易点通】Transformer的注意力机制

通过本文自注意力机制self-attention的过程解析,首先通过输入词的query和key相乘计算出一个关系权重,再用这个关系权重对value进行加权求和,以提升一个序列中相关向量的权重,降低不相关元素的权重。在计算完自注意力分数后,我们看到后面还有一个softmax计算,考虑到softmax的图形,在值越大的地方梯度会越小,所以如果上一步计算出的分数值越大,那样就会出现梯度小时的情况,此时就

文章图片
#transformer#深度学习#自然语言处理
MindSpore报ValueError:For 'Pad',all elements of paddings must >=0

定位报错问题的步骤:1、 找到报错的用户代码行:;2、 根据日志报错信息中的关键字,缩小分析问题的范围:;3、 查询不同版本上的API映射,与标杆算子进行对比;4、 需要重点关注变量定义、初始化的正确性。

#ubuntu#python#linux
使用官方1600张数据集正常训练,自己500个数据集却loss:nan

文章摘要 在使用MindSpore2.0.0和MindYolo030框架训练YOLOv5x模型时,当数据集从官方1600张图片更换为自建500张图片后,出现从第2个epoch开始loss值为NaN的问题。可能原因包括:数据集样本量过少、图片质量不佳或标注文件格式错误。建议解决方案是:1)检查数据集标注XML文件格式是否符合VOC标准;2)确认图片像素大小是否合适,必要时缩小图像尺寸;3)增加数据增

#人工智能#深度学习#机器学习
MindSpore中的yolov5s转换为.onnx后结果变了,会提示301 parameters in the ‘net‘ are not loaded

环境信息:win10,cpu,报错信息:工程和权重文件从官方网站上下载的。

文章图片
    共 187 条
  • 1
  • 2
  • 3
  • 19
  • 请选择