
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
转自python官方文档glob通过使用通配符.*?,找出所有匹配特定模式的路径名考虑一个包含以下内容的目录data\__ data\__ 1.gif\__ 2.txt\__ card.gif\__ .card.gif\__ sub\__ 3.txtglob() 将产生如下结果(路径的任何开头部分都将被保留):import globfiles =
翻译自The significance of builder.max_workspace_size. - TensorRT - NVIDIA Developer Forumsmaximum workspace限制了模型中任何层可以使用的内存数量。这并不意味着如果设置1 << 30,就会分配1GB内存。在运行时,只会分配层操作所需的内存数量。在构建大网络时,设置这个参数,给予足够多的内存
介绍子序列和子串的意思不一样,如下图所示,子序列不要求连续,只需要在给定序列中出现过,并且相对顺序一致。而子串需要连续。图片来自动态规划 最长公共子序列 过程图解最长公共子序列(LCS):同时出现在两个字符串中的最长子序列实现1143. 最长公共子序列思想和求解两个字符串之间的编辑距离差不多,使用动态规划的方法,递推公式如下:dp[i,j]dp[i, j]dp[i,j]表示字符串x[:i]x[:i
onnxOpen Neural Network Exchange (ONNX)是微软和Facebook携手开发的开放式神经网络交换工具。为人工智能模型(包括深度学习和传统ML)提供了一种开源格式。它定义了一个可扩展的计算图模型,以及内置运算符和标准数据类型。目前主要关注推断所需的功能。ONNX之于机器学习模型就像JPEG之于图像或MPEG之于视频。你可以使用pytorch,tensorflow或者

定义矩阵的奇异值分解(SVD)是指,将一个非零的 m×nm \times nm×n 实矩阵 A,A∈Rm×nA, A \in \mathbf{R}^{m \times n}A,A∈Rm×n, 表示为以下三个实矩阵乘积形式的运算, 即进行矩阵的因子分解:A=UΣVTA=U \Sigma V^{\mathrm{T}} A=UΣVT其中,UUU 是 mmm 阶正交矩阵, VVV 是 nnn 阶正交矩阵,
目前,了解到的深度学习模型集成的方法主要有两种:第一:平均checkpoints即对存储好的多个checkpoint中的参数求平均,然后重新保存。这里的多个checkpoint可以是同一份数据训练,模型收敛后存储的多个模型;也可以是不同的数据训练得到的模型。该方法的优点是可以提高单个模型的效果,并且推理的速度和存储都不会发生变化。缺点在于待平均的模型的结构要完全一致,另外提升的效果不会很大。以py
相关知识收集于网络,主要来自显卡、GPU和CUDA简介GPU 和显卡是什么关系?显卡、显卡驱动、cuda 之间的关系是什么?并增加了一些自己的理解,如有错误,欢迎指正如有侵权请联系删除显卡显卡(Video card、Display card、Graphics card、Video adapter)全称显示接口卡,是计算机最基本配置、最重要的配件之一。就像电脑联网需要网卡,主机里的数据要显示在屏幕上
transformer中的attention为什么scaled简单的说是为了上attention得到的权值更加均匀一点。在数量级较大时,softmax将几乎全部的概率分布都分配给了最大值对应的标签。详见 transformer中的attention为什么scaled如果本身就想获得差距较大的attention值,可以不用scaled。例如在这个ner任务里面...
corenlp斯坦福大学开发的基于java语言的自然语言处理工具,能够为文本多种语言学标注,包括分词,句子边界,词性标注,命名实体识别,数字与时间,句法解析(dependency and constituency parses),指代消解,情感,引用归因,关系。目前支持6种语言:阿拉伯语、汉语、英语、法语、德语和西班牙语。属于一个原始句子,会经过上图一系列的标注处理,产生标注集合。词性标注:命名实