
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在XGBoost中,使用预排序的方法来处理节点分裂,会先对每个特征按照特征值大小进行排序,然后保存为block结构,后面的迭代中会重复地使用这个结构,使计算量大大减小。对这一点存在一些疑问:举例说明,假设一个样本有“年龄”,“身高”两个特征,取值分别为[23,24,25,26,27,99],[244,180,181,175,172,168]。预排序后分别为[23,24,25,26,27,99],[
由于计算机的存储原因,浮点数(float,double)等类型计算时存在精度损失。如:为什么会出现浮点数:定点格式在知道这些数不会超过预先确定的内存单元,且没有太多小数位的场合比较合适用,在数可能很大或可能很小的场合定点格式完全不适用。用浮点数表示一些极大和极小的数值比较方便,但是在处理浮点数的时候经常会发生精度损失的问题。源自知乎解决方法:1、转换为整数运算2、python的第三方库decima
测试时计算精度遇到提醒如下。y_true中的某些标签未出现在y_pred中,永远不会预测标签。不影响计算结果。解决方法:增大测试时从DataLoader读取数据的batch_size。因为在一个batch_size的测试时没有读取到全部类别的数据,因此会进行提示。增大batch_size即可避免这个warning。E:\anaconda\lib\site-packages\sklearn\metr
原文链接【技术博客】纵向联邦学习简介及实现——MomodelAI在研究纵向联邦学习时,为了对细节有更深入的理解,查询了一些资料并对图中的公式(出自上文引用)进行了推导。推导过程如下。其中,1.未加入正则化项。2.对B求导与A的结果类似,改变相应下标即可3.推导过程中,Xθ的相乘顺序经常混淆,这一点和原图中的公式稍有不同。同时完成了《联邦学习》一书中的纵向联邦线性回归(P78)的公式推导。思路类似,