
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
使用MindIE部署DeepSeek-V3.2-Exp,完整、详细。
MindIE下的atb-model源码库(修正function call),改正后,可支持流式和非流式推理

使用MindIE部署DeepSeek-V3.2-Exp,完整、详细。
问题记录:为什么使用GPU训练模型会越来越慢?本篇没前言,没总结,就仅仅是记录下我的一个“傻瓜式”代码。。。。。。在RPN上修改我的代码,使用GPU跑训练越来越慢,每次迭代消耗时间越来越大。经过仔细查找,发现犯了一个sb错误,在每次迭代都是新建了一个读gt的新图,这样会使整个图越来越来,训练越来越慢,最终导致内存爆了。怎么排查?答:在session定义下使用sess.graph.fina...
机器学习——特征工程之分类变量前言分类变量的编码1、one-hot 编码2、虚拟编码3、效果编码处理大型分类变量1、特征散列化2、分箱计数总结前言关于特征工程,已经对空值、数值型和文本数据的处理做了大致方法的说明,这篇对数据类型中的另一大重要部分——分类变量,作处理方法总结。声明:关于编程语法相关问题不会展开论述,本文只针对方法路线分类变量的编码先说明什么样的数据被称为分类变量:分类变量...
机器学习——贝叶斯算法和朴素贝叶斯算法前言贝叶斯算法1、贝叶斯决策论算法示例前言先理解下贝叶斯算法要解决的问题:正向概率: 假设袋子里面有N个白球,M个黑球,伸手进去摸一把,摸出黑球的概率有多大?很简单:M/(N+M)逆向概率: 如果事先并不知道袋子里黑白球的比例,而是闭着眼睛摸出一个(或好几个)球,观察这些取出来的球的颜色之后,那么就可以对此袋子里面的黑白球的比例作出什么样的推测...
问题记录:为什么使用GPU训练模型会越来越慢?本篇没前言,没总结,就仅仅是记录下我的一个“傻瓜式”代码。。。。。。在RPN上修改我的代码,使用GPU跑训练越来越慢,每次迭代消耗时间越来越大。经过仔细查找,发现犯了一个sb错误,在每次迭代都是新建了一个读gt的新图,这样会使整个图越来越来,训练越来越慢,最终导致内存爆了。怎么排查?答:在session定义下使用sess.graph.fina...
传统机器学习——特征工程之数值处理前言二值化区间量化(分箱)1.固定宽度分箱前言书接上文,前面两篇介绍了关于空值的处理,这篇开始用不同手段细化处理过程,本篇将会介绍数值型数据的二值化、区间量化(分箱)、对数变换、指数变换、特征缩放\归一化、交互特征、特征选择。(注:为了只操作在一个数据集上,有些原理在其上的应用可能比较生硬)声明:关于编程语法相关问题不会展开论述,本文只针对方法路线。二值...
一直想总结下目标检测的一系列算法,分为两个主要路线,一个是从RCNN发展起来的两阶段算法,另一个是以YOLO发展的一阶段算法。本篇属于RCNN算法中重要的一部分,用来解决生成候选区域的问题,算是基础,也很重要,尽管该算法已经过时了,但是掌握其中的思想用来解决可以问题还是不错的。简述作用:在原图片上,以尽可能快和好地生成可能包含目标的候选块。换句话说,避免了穷举法的计算量大且无图像本身信息的缺点。解
机器学习——损失函数前言一、分类问题的损失函数1、0-1损失(one-zero loss)2、Log Loss3、Focal Loss4、相对熵、KL散度(Relative Entropy/Kullback-Leibler Divergence)5、指数损失(Exponential Loss)6、Hinge Loss二、回归问题的损失函数1、均值平方差(Mean Squared Error,MSE







