logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

MindSpore昇思大模型:开启AI之旅的快速通道

from mindspore.nn import SoftmaxCrossEntropyWithLogits # 交叉熵损失函数(适合分类任务)from mindspore.nn import Momentum # Momentum优化器# 1. 损失函数:SoftmaxCrossEntropyWithLogits(包含Softmax激活与交叉熵计算)# sparse=True表示标签为整数形式(

文章图片
#人工智能
MindSpore昇思大模型:开启AI之旅的快速通道

from mindspore.nn import SoftmaxCrossEntropyWithLogits # 交叉熵损失函数(适合分类任务)from mindspore.nn import Momentum # Momentum优化器# 1. 损失函数:SoftmaxCrossEntropyWithLogits(包含Softmax激活与交叉熵计算)# sparse=True表示标签为整数形式(

文章图片
#人工智能
一文搞懂前馈网络(全连接):原理 + MindSpore 实战

​# 优化器:Adam+权重衰减​optimizer = nn.Adam(net.trainable_params(), lr=0.001, weight_decay=1e-4)​​。全连接网络的训练,本质是 “优化权重 ​w和偏置 ​b”,让模型预测越来越准。MindSpore 不用改损失函数,直接在优化器里加参数:​。损失函数是 “裁判”,用来衡量模型预测值 ​y^​和真实标签 ​y的差距。(

从零开始!用 FNN 实现手写数字识别

​隐藏层:2 层,第一层 128 个神经元,第二层 64 个神经元,激活函数用 ReLU(常用的非线性激活函数,能解决梯度消失问题)。运行代码后,我们会看到一张手写数字 “5” 的图片(因为 x_train [0] 的标签是 5),这就是我们要让模型学习识别的数据。print("训练集图片形状:", x_train.shape) # (60000, 28, 28):60000张28×28的图片。#

#算法#深度学习
从零开始!用 FNN 实现手写数字识别

​隐藏层:2 层,第一层 128 个神经元,第二层 64 个神经元,激活函数用 ReLU(常用的非线性激活函数,能解决梯度消失问题)。运行代码后,我们会看到一张手写数字 “5” 的图片(因为 x_train [0] 的标签是 5),这就是我们要让模型学习识别的数据。print("训练集图片形状:", x_train.shape) # (60000, 28, 28):60000张28×28的图片。#

#算法#深度学习
基于昇思大模型的 RNN 情感分类实战:从原理到代码实现

情感分类是指将文本(如评论、推文)划分为不同情感类别的任务(常见为二分类:正面 / 负面)。循环神经网络(RNN)因能捕捉序列数据的时序依赖关系,成为处理文本这类序列数据的经典选择 —— 它可以 “记住” 前文信息,从而理解文本的语义连贯性。在昇思 MindSpore 中,我们可以通过简洁的代码实现 RNN(含 LSTM、GRU 等变体)的情感分类模型,下面从数据处理、模型构建、训练评估三个环节展

#rnn#分类#人工智能
到底了