logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

PyTorch模型转TensorRT实战:解决INT8量化精度暴跌的7种方案(人工智能丨机器学习丨深度学习丨神经网络)

问题背景:ReLU6输出范围[0,6],对称量化(如[-127,127])导致高值截断补偿公式:x^int8=round(xfp32×SasymZasym)\hat{x}_{int8} = \text{round}\left(\frac{x_{fp32} \times S_{asym}}{Z_{asym}}\right)x^int8​=round(Zasym​xfp32​×Sasym​​)其中非对

文章图片
#人工智能#机器学习#深度学习 +4
OpenCV工业质检实战:表面缺陷检测(划痕/裂纹)从数据标注到模型部署全流程(附C++/Python代码)

本文将从“工业需求→数据准备→算法实现→模型部署→优化迭代”五个维度,完整讲解基于OpenCV的表面缺陷检测全流程。包含**金属划痕、塑料裂纹两个核心案例**,提供C++和Python双版本代码,覆盖“传统算法+轻量深度学习”两种方案,同时给出工业场景特有的**光源布置、抗干扰、嵌入式部署**技巧。

#opencv#python#计算机视觉 +2
三维重建入门:多视图几何基础与点云计算(人工智能丨深度学习丨计算机视觉丨3D点云丨OpenCV丨pytorch)

理论层面对极几何通过基础矩阵建立跨视图约束,是三维重建的数学基石立体视觉利用视差与深度的几何关系,实现从二维到三维的关键转化工程实践特征匹配与三角测量是点云生成的核心步骤,需平衡精度与速度Open3D库提供高效的点云处理工具链,简化滤波、配准等操作。

文章图片
#人工智能#深度学习#计算机视觉 +1
轻量级神经网络:MobileNet/ShuffleNet/EfficientNet,移动端部署的“瘦身”技巧

大家好,我是南木。最近在后台收到很多移动端AI开发者的提问:“训练好的ResNet模型在手机上跑不动,帧率只有2FPS怎么办?”“如何在保证准确率的前提下,把模型体积从200MB压缩到10MB以内?”“MobileNet和EfficientNet到底该怎么选?”这些问题的核心,本质是“模型性能”与“移动端资源”的矛盾——移动端设备(手机、嵌入式设备)的算力(通常<100 GFLOPs)、内存(<8

#神经网络#人工智能#深度学习 +3
轻量级神经网络:MobileNet/ShuffleNet/EfficientNet,移动端部署的“瘦身”技巧

大家好,我是南木。最近在后台收到很多移动端AI开发者的提问:“训练好的ResNet模型在手机上跑不动,帧率只有2FPS怎么办?”“如何在保证准确率的前提下,把模型体积从200MB压缩到10MB以内?”“MobileNet和EfficientNet到底该怎么选?”这些问题的核心,本质是“模型性能”与“移动端资源”的矛盾——移动端设备(手机、嵌入式设备)的算力(通常<100 GFLOPs)、内存(<8

#神经网络#人工智能#深度学习 +3
Transformer模型全拆解:自注意力/多头注意力/前馈网络,看透大模型“基石”的底层逻辑(附公式推导+代码)

首先明确三个核心向量的来源和含义(假设输入序列的嵌入维度为d_modelQuery(查询向量,Q):代表“当前位置需要什么信息”,维度d_k(如64);Key(键向量,K):代表“当前位置提供什么信息”,维度d_k;Value(值向量,V):代表“当前位置的具体信息”,维度d_v(通常d_v = d_k它们的生成方式很简单:对输入序列的嵌入矩阵X(维度QXWQQ = X W_QQXWQ​KXWKK

#transformer#深度学习#人工智能 +3
Transformer模型全拆解:自注意力/多头注意力/前馈网络,看透大模型“基石”的底层逻辑(附公式推导+代码)

首先明确三个核心向量的来源和含义(假设输入序列的嵌入维度为d_modelQuery(查询向量,Q):代表“当前位置需要什么信息”,维度d_k(如64);Key(键向量,K):代表“当前位置提供什么信息”,维度d_k;Value(值向量,V):代表“当前位置的具体信息”,维度d_v(通常d_v = d_k它们的生成方式很简单:对输入序列的嵌入矩阵X(维度QXWQQ = X W_QQXWQ​KXWKK

#transformer#深度学习#人工智能 +3
生成式神经网络全解析:从GAN/VAE到Diffusion Model,解锁AIGC创意生成(附Stable Diffusion实战代码)

作为AI技术专家兼学习规划博主,我经常收到开发者的提问:“南木,想做图像生成,该选GAN还是VAE?“Diffusion Model为什么能生成比GAN更细腻的图?“Stable Diffusion的文本引导是怎么实现的?能不能自己跑通代码?

#神经网络#生成对抗网络#深度学习 +1
神经网络损失函数全解析:交叉熵/Focal Loss/对比学习,不同任务下的“误差衡量”逻辑(附公式推导+代码实战)

作为AI技术专家兼学习规划博主,我每天都会收到读者的类似提问:“南木,为什么分类任务用交叉熵而不是MSE?算出来的损失值到底代表什么?”“类别不平衡时,模型全预测多数类也能拿高准确率,Focal Loss真的能解决吗?”“对比学习没有标签,它的损失函数是怎么‘衡量误差’的?完全看不懂公式啊!”损失函数是神经网络的“指挥棒”——它定义了“模型预测与真实目标的误差”,直接决定参数更新的方向和幅度。很多

#神经网络#人工智能#机器学习 +2
    共 226 条
  • 1
  • 2
  • 3
  • 23
  • 请选择