
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
研究生的数学建模比赛是硕士研究生和博士研究生一起竞赛,对比本科参加的大学生数学建模竞赛天壤之别,难度和复杂度不可同日而语,竞争压力之大也不可想象,不过因为兴趣还是参加了。这次搭配上不需要妹纸(并不是),一个组最好有一个女生,但也只是建议,毕竟实验室的三个工科男搭配的也有模有样。今年的比赛时间是2021.10.14日8:00至20201.10.18日12:00,10月13日下载试题了,开赛前仔细阅读
Python使用Numpy求圆周率π的值,使用蒙特卡洛方法,在一个正方形中,用正方形的边长画出1/4圆的扇形,假设圆的半径为r,则正方形的面积为r平方,圆的面积为1/4πr平方,它们的面积之比是π/4在正方形内随机产生足够多的点,计算落在扇形区域内的点的个数与总的点个数的比值。当产生的随机点足够多时,这个比值和面积比应该是一致的。这样我们就可以算出π的值。判断一个点是否落在扇形区域的方法是计算这个
一、一次测试过程:测试方法:将2片芯片(A和B)置于测试台上,互相进行测试,测试报告是“好”或“坏”,只取其一。就是这份报告是针对对方而言的,也就是说A芯片说B芯片是好的,B芯片说A是坏的假设:好芯片的报告一定是正确的,坏芯片的报告是不确定的(可能会出错)如果A芯片本来就是好的,那么它说的话就是可靠可信的,而且它一定说真话,如果它说B芯片是好的,那B芯片就一定是好的,因为A不会说假话的;如果B芯片
ORB-SLAM2只做定位的话,精度还是挺准确的,所以用单目摄像头录制视频,制作自己的数据集跑一下,看看定位精度,将过程加以记录。

一直在思考如何利用AI大模型提升工作效率,但由于工作环境的限制,一直处于观望状态,未能实际操作。最近,随着DeepSeek的走红,网上关于本地部署大模型和构建个人专用知识库的相关视频越来越多,这让我看到了希望。由于工作的特殊性,我无法将文档资料上传到公有云或使用类似ChatGPT的大模型,因此一直希望能在本地部署大模型,无需联网,就能训练自己的数据并构建专属知识库。这样,无论是查找资料还是快速生成

XGboost(eXtreme Gradient Boosting)属于有监督学习,是Gradient Boosting模型的一种改进版,在国外的Kaggle,国内的Kesci、天池、DataCastle等平台上的数据比赛中应用十分广泛,更加取得了非常不错的成绩。XGboost在Python、R、Java等多种语言中都有相应的实现版本,一下以Python为例,介绍python环境下xgboost的
求解方程:T(n)=T(n/3)+T(2n/3)+n方程T(n)=T(n/3)+T(2n/3)+n,递归树层数 k,每层O(n) ,计算T(n)。这个问题是递归树应用的实例。第一层为n,第二层为n/3、2n/3,第三层是n/9、2n/9、2n/9、4n/9,以此类推递归树上所有项恰好是迭代之后产生和式中的项。递归树成熟为k,每层为O(n),最后使用对数的换底公式求出结果。递归树层数 k,每层O(n
ORB-SLAM3在复杂光照环境下,特征提取和特征匹配的性能明显下降,其准确性和鲁棒性收到很大影响,尤其是当周围环境获取的ORB特征点数量不足时,位姿的估计过程无法进行,甚至或导致初始化和跟踪失败的情况,目前工程所需在复杂光照下运行SLAM,ORB-SLAM3是工程性非常好的SLAM算法,所以打算将图像增强用于ORB-SLAM3的特征提取,增强光照环境下的鲁棒性。

在做复杂性分析的时候,采取的都是上界,但是要做实际的估计就不是这样的。比如在搜索的时候着色问题根据图的结构的不同,真正在做调色的时候调色空间大小其实是不太好估计的,搜索空间的树,到底有多少个搜索结点需要搜索,到底有多大,因为中间有剪枝,剪枝又与图有关系,所以这个时候不太好做精确的估计的,这个时候可以采取的办法叫做蒙特卡洛搜索法。一、Monte Carlo方法随机的选择一些路径,随机的进行赋值,然后