logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习之常见损失函数

目录一、LogLoss对数损失函数(逻辑回归,交叉熵损失)二、平方损失函数(最小二乘法, Ordinary Least Squares )三、指数损失函数(Adaboost)四、Hinge损失函数(SVM)五、其它损失函数六、Keras / TensorFlow 中常用 Cost Function 总结七、tf.losses 模块一、LogLoss对数损失函数......

#深度学习#机器学习#逻辑回归
mindspore发布件

MindSpore Repohttps://repo.mindspore.cn/MindSpore Repohttps://repo.mindspore.cn/mindspore-lab/mindnlp/newest/any/

#人工智能
昇腾 msmodelslim w8a8量化代码解析

最近有很多朋友都在部署deepseek模型,而且都用到了模型量化这个功能,目的是减少显存占用、提升推理速度。量化算法流程上图是算法流程,主要包含4步:①,使用昇腾 msmodelslim 仓库提供的量化接口对原始模型权重进行量化,生成int8格式的权重文件,以及后续在推理的时候要用到的激活值的量化参数和 matmul 结果的反量化参数;②,推理执行过程中,把Matmul的激活值(也就是输入X)进行

深度学习之手写数字识别

一、数据集介绍MINST数据集分类1.MNIST数据集MNIST数据集官网下载下来的数据集被分成两部分:60000行的训练数据集(mnist.train)和10000行的测试数据集(mnise.test)每一张图片包含28*28个像素,我们把这一个数组展开成一个向量,长度是28*28=784。因此在MNIST训练数据集中mnist.train.images是一个形状为...

深度学习之卷积神经网络CNN 常用的几个模型

LeNet5论文:http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdfLeNet-5:是Yann LeCun在1998年设计的用于手写数字识别的卷积神经网络,当年美国大多数银行就是用它来识别支票上面的手写数字的,它是早期卷积神经网络中最有代表性的实验系统之一。LenNet-5共有7层(不包括输入层),每层都包含不同数量的训练参数,如下图...

深度学习之残差网络的原理

目录一. 什么是残差(residual)二、残差网络的背景三、残差块(residual block)四、深度残差学习五、DenseNet网络和Resnets网络对比转载:https://blog.csdn.net/u014665013/article/details/81985082假如采用Sigmoid函数,对于幅度为1的信号,每向后传递一层,梯度就衰减为原来的0.2...

深度学习之常见激活函数-Sigmoid、Tanh、ReLu、softplus、softmax、ELU、PReLU

一、常见激活函数总结激活函数:就是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。常见的激活函数包括SigmoidTanHyperbolic(tanh)ReLusoftplussoftmaxELUPReLU  这些函数有一个共同的特点那就是他们都是非线性的函数。那么我们为什么要在神经网络中引入非线性的激活函数呢?  如果不用激励函数(其实...

深度学习之GPU的配置和适用

目录一、keras代码GPU配置二、tensorflow代码GPU配置三、给算子指定GPU或CPU当设置的GPU号大于实际的GPU个数时(比如实际只有一个GPU,配置中设置成使用1号GPU),创建会话会失败,提示tensorflow.python.framework.errors_impl.InternalError: Failed to create session.一、k...

阿里云天池大赛赛题解析——深度学习篇

阿里云天池大赛赛题解析——深度学习篇

#大数据
深度学习之残差网络的原理

目录一. 什么是残差(residual)二、残差网络的背景三、残差块(residual block)四、深度残差学习五、DenseNet网络和Resnets网络对比转载:https://blog.csdn.net/u014665013/article/details/81985082假如采用Sigmoid函数,对于幅度为1的信号,每向后传递一层,梯度就衰减为原来的0.2...

    共 54 条
  • 1
  • 2
  • 3
  • 6
  • 请选择