简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
目前处理非欧数据最常见的方法还是构建图,而networkx一个专门的构建图数据的工具。方便又好用。先给链接:https://networkx.github.io/官方文档:https://networkx.github.io/documentation/latest/networkx的安装方法上面的官方文档已经很详细记录,阿盏就不赘述了。官方文档里给了几个demo,虽然便利,但泛化性不强。我这边给
采用射线法就可以判断一个点是否在多边形内, 只需从点出发向右侧水平做出一条射线,如果跟多边形交点个数为奇数,则点在多边形内,否则在多边形外。看一张图就可以看懂啦图片来自:https://www.jianshu.com/p/ba03c600a557输入:P点坐标[px, py]多边形poly顶点坐标[[x1, y1], [x2, y2], ..., [xn, yn]]返回:True or False
在transformer席卷CV领域之后,掀起了一股新型神经网络模型的涌现热潮。短短一两年时间,研究者们从不同结构领域冲击着SOTA,有ViT的,有CNN的,甚至还有纯MLP的。其中,不乏有一些启发性和奠基性的模型出现,隐约感觉到这两年是基础模型的爆发年。ViT引领了继2012年AlexNet和2015年ResNet之后的第三个基础模型爆发潮。于是,木盏以此博文做一个不是很完全的综述,整理给大家浏
今天做了一个关于keras保存模型的实验,希望有助于大家了解keras保存模型的区别。我们知道keras的模型一般保存为后缀名为h5的文件,比如final_model.h5。同样是h5文件用save()和save_weight()保存效果是不一样的。我们用宇宙最通用的数据集MNIST来做这个实验,首先设计一个两层全连接网络:inputs = Input(shape=(784, ))...
CLIP带给我的震撼是超过transformer的,这是OpenAI的重要贡献之一。就如官网所描述的:用对比学习(Contrastive Learning)来对齐约束图像模型和文本模型。用文本嵌入指导图像学习,图像嵌入指导文本学习。这样一来,图像分类进入了CLIP时代,不需像传统深度学习图像分类一样,先定义出类别范围,然后准备各类别的数据(比如MNIST的十分类,ImageNet的千分类)。我们有
Instant-NGP的出现,无疑给神经表达领域带来了新的生命力。可认为是NeRF诞生以来的关键里程碑了。首次让我们看到了秒级的重建、毫秒级的渲染的NeRF工作。作为如此顶到爆的工作,Instant-NGP毫无疑问斩获SIGGRAPH 2022的最佳论文。虽然只是五篇最佳论文之一,但就目前的引用量看来,飙升到1000+引用量的Instant-NGP更像是the best of the best。夸
前言GNN/GCN在非欧数据中的应用具有极大的挖掘价值。通常,GNN的应用分为两种:1,节点分类;2,图分类。节点分类可以用在点云分割,社交网络节点分类,推荐算法等等。图分类可以用在姿态估计,蛋白质分类等等,当然,也可以用在图像分类。对于节点分类而言,图结构在forward阶段是不会改变的,改变的只是节点的隐藏层属性。如下:对于图分类而言,图结构在前传的时候会downsize,最后聚合成一个点的f
和JAVA语言一样,Python也用try关键字来处理异常。为什么处理异常非常重要呢?主要原因:很多操作只要‘尝试’了才知道会不会成功。比如,用python打开一个txt文件,并把txt文件中的字符串转换成整型数。try的搭配通常有“try... except...”,也可以有"try...finally"等。我们先看"try...except...",实验准备:1. 一个txt文...
球面谐波(SH)因为其良好的性质活跃在NeRF、Plenoxels、3DGS等显隐式场景表示的方法中。问:球面谐波是什么?答:一组基函数。可以理解为傅里叶分解的一种特殊形式,即“任何函数都可以用这组基的算术组合来近似”。
作为一个2年多的不资深keraser和tfer,被boss要求全员换成pytorch。不得不说,pytorch还是真香的。之前用keras,总会发现多GPU使用的情况下不太好,对计算资源的利用率不太高。把模型改成pytorch以后,发现资源利用率非常可观。非常看好pytorch的前途,到时候能制衡一下tf就好了。闲话不多扯,我来讲讲初入pytorch最重要的东西:dataset网上有很多介...