![](../../asset/images/user/BgImg_default.jpg)
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
最近对可解释性平台Captum进行了实际操作。这是Facebook 发布的一个基于 Pytorch 的模型解释库。该库为许多新的算法(如:ResNet、BERT、一些语义分割网络等)提供了解释性,帮助大家更好地理解对模型预测结果产生作用的具体特征、神经元及神经网络层。针对图像分类问题,其可以快速定位影响结果的一些像素点,并进行可视化展现;而对于文本翻译等问题,能够可视化标注出不同单词的重要性,以及
贝叶斯统计缘起于托马斯.贝叶斯(1702-1761),一位英国长老会牧师和业余数学家。在他去世后发表的论文“论有关机遇问题的求解”中, 贝叶斯定理的现代形式实际上归因于拉普拉斯(1812)。拉普拉斯重新发现了贝叶斯定理,并把它用来解决天体力学、医学甚至法学的问题。但自19世纪中叶起,随着频率学派(在下文有时也称作经典统计)的兴起,概率的贝叶斯解释逐渐被统计学主流所拒绝。现代贝叶斯统计学的复兴肇..
最近尝试用 R 对一些文件进行批量的解压与压缩,这里记录一些常用的解压与压缩的方法。由于解压与压缩是对称的两种方法,这里我们着重以对文件的解压为例,分不同的格式进行讲解。.zip压缩:zip()解压:unzip()若要压缩文件,就直接在 zip() 函数的第一个参数里面输入压缩后的文件名,第二个参数输入压缩前的文件名。而解压文件就更简单了,直接利用 unzip() 里面加上需要解...
最近对利用R绘制venn图进行了一些学习。参考了网上很多资料:【R作图】在R中绘制韦恩图的几种方法 和 一些漂亮的venn图如何使用R来绘制韦恩图(Venn Diagram)venn.diagram: Make a Venn Diagram具体包括下面三个包: limma、venneuler、VennDiagram。总的来说,三个包都有着各自的不足。下面会一一进行说明,这里先放上结论:...
通常在我们写论文时,所需要的统计图是非常严谨的,里面的希腊字符与上下脚标都必须要严格书写。因此在使用R绘图时,如何在我们目标图中使用希腊字符、上标、下标及一些数学公式呢?在本博客中我们会进行详细的说明。后面我们都将以一个最简单的绘图为例,只是将其标题进行修改。希腊字母使用希腊字符、上标、下标及数学公式,都需要利用一个函数:expression(),具体使用方式如下:plot(cars)...
本篇博文主要来源于对文章 Unwrapping The Black Box of Deep ReLU Networks: Interpretability, Diagnostics, and Simplification 的学习,同时还有部分内容摘自wiki百科。什么是ReLU函数?ReLU,全称为:Rectified Linear Unit,是一种人工神经网络中常用的激活函数,通常意义下,其指代
嵌入(embedding)方法是目前文本分析,知识图谱相关中非常常见的一种算法。其为表示学习的一类方法,可以自动地从数据中学习“有用”的特征,并可以直接用于后续的具体任务。后面学习的相关嵌入学习均为表示学习中的内容。节点嵌入关于图的一些信息如何能够转化为计算机可以识别的语言呢?通常的方法也是进行嵌入(embedding)。在此之前,我们已经学习了双曲嵌入:双曲嵌入深度学习双曲嵌入论文与代码实现——
![文章图片](https://img-blog.csdnimg.cn/c063843fe3154584979959fe680ac72b.png)
当我们想使用 R 安装一些 Github 相关的软件包,经常会遇到或者或那的网络问题,此时我们需要怎么做呢?以最近大家分析疫情数据经常用的 Y叔的 nCov2019 包为例,通常我们可以使用如下的尝试顺序:1. remotes 包安装install.packages("remotes")# 首先安装 remote 包remotes::i...
由于在实际的训练中,原始的图结构往往不是训练的最优图结构。下面我们考虑如何对图进行增强(graph augmentation),这个类似于数据扩增,提升训练效率,模型的泛化能力及测试集的准确率。这种图增强的方法分为两种类型:图特征增强;图结构增强。需要图增强的原因有如下几点:输入图的节点可能比较缺乏特征;图结构可能过于稀疏,从而没有足够的信息传递;图结构可能过于稠密,进而导致信息传递出现冗余;图可
![文章图片](https://img-blog.csdnimg.cn/07a9add5fec443c98ee594b2bfdb0e06.png)
本篇博文主要来源于对文章 Unwrapping The Black Box of Deep ReLU Networks: Interpretability, Diagnostics, and Simplification 的学习,同时还有部分内容摘自wiki百科。什么是ReLU函数?ReLU,全称为:Rectified Linear Unit,是一种人工神经网络中常用的激活函数,通常意义下,其指代