logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

google云盘批量删除文件

之前不小心把3万条数据全部解压到了个目录下,已经爆满。但是官方没有提供全部删除功能和批量删除功能,只能使用一些特殊方式来快速批量删除了。方法一:使用colab运行python脚本1、新建一个ipynb2、挂载谷歌云盘把下面代码粘贴到下图中所示位置,然后运行即可。注意:colab要获取你云盘的权限,直接无脑全部勾选就行。from google.colab import drivedrive.moun

【python】linux系统下doc转docx文件

1、需要用到库。2、然后使用python的subprocess执行转化命令。

文章图片
#python#linux#服务器
【Pytorch】prototypical network原型网络小样本图像分类简述及其实现

基本概念小样本学习(Few-Shot Learning, FSL),顾名思义,就是能够仅通过一个或几个示例就快速建立对新概念的认知能力。这对于人类来说很简单,比如一个警察完全可以单凭一张照片就能在茫茫人海中认出犯罪嫌疑人。实现小样本学习的方式也有很多,比如:度量学习、数据增强、预训练模型、元学习等等。元学习(meta learning或learning to learn),对于一族待解决的多个任务

文章图片
#pytorch#深度学习#分类
【python】使用docx获取word文档的标题等级、大纲等级和编号等级

3、源码中的<w:outlineLvl w:val=“2”/>就表示这是个3级大纲(因为是从0开始)。2、然后我们再获取每个段落的xml源码,即:xml = paragraph._p.xml。1、docx.Document()读取文档后会按照文章段落划分成一段一段的。4、接下来就好办了,就用字符串匹配把这个值提取出来就行了。原理和代码同上,只需要把。

文章图片
#python#c#
【炼丹笔记】调参方法总结

参考:https://tianchi.aliyun.com/notebook-ai/detail?spm=5176.12586969.1002.24.1cd8593aLNK3uJ&postId=95460目前调参方案有:贪心调参参考:https://blog.csdn.net/m0_37893230/article/details/104449166网格调参随即搜索调参贝叶斯调参参考:ht

文章图片
#机器学习#算法
【python】使用docx获取word文档的标题等级、大纲等级和编号等级

3、源码中的<w:outlineLvl w:val=“2”/>就表示这是个3级大纲(因为是从0开始)。2、然后我们再获取每个段落的xml源码,即:xml = paragraph._p.xml。1、docx.Document()读取文档后会按照文章段落划分成一段一段的。4、接下来就好办了,就用字符串匹配把这个值提取出来就行了。原理和代码同上,只需要把。

文章图片
#python#c#
【Pytorch】FM推导及其实现

因子分解机(Factorization Machine, FM, 2010年)是由Steffen Rendle提出的一种基于矩阵分解的机器学习算法。最大的特点是易于整合交叉特征、可以处理高度稀疏数据,主要应用在推荐系统及广告CTR预估等领域。数理推导FM的原始的模型方程为:y^(x):=w0+∑i=1nwixi+∑i=1n∑j=i+1n⟨vi,vj⟩xixj\hat{y}(x):=w_0+\sum

#pytorch#机器学习
使用conda安装包时明明换了国内镜像源,安装还是太慢?甚至压根安不上?

装得慢之前安装camelot的时候直接照着文档复制了命令,结果安装速度出奇的慢,anaconda明明已经换成国内镜像源了啊。细看了下命令才发现多加了个-c conda-forge。-c后面的参数就是下载通道的地址,也可以直接换成国内镜像源地址-c 下载通道名 就全等于 --channel 下载通道名装不上但有时候又会出现根本装不上的错误PackagesNotFoundError: The foll

#python
如何计算一个神经网络模型的时间复杂度

在计算机中,加法运算比乘法运算快很多,所以在估计计算量的时候我们主要计算要做多少次乘法。在神经网络中,主要的运算是矩阵乘法。矩阵乘法的计算量是这样计算的:一个的矩阵乘以一个 的矩阵要做 次乘法,所以 就是两个矩阵相乘的计算量了。如果足够大,则其复杂度为。这就是我们计算神经网络复杂度的依据。【举个例子】计算某两层网络的复杂度?假设矩阵是的,是的,是的。所以第一层是的矩阵乘以的矩阵,得到一个的矩阵,计

文章图片
#神经网络#深度学习
【炼丹笔记】如何看loss调参

看loss调参train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习;train loss 不断下降,test loss趋于不变,说明网络过拟合;train loss 趋于不变,test loss不断下降,说明数据集100%有问题;train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量

文章图片
#深度学习#神经网络#机器学习
    共 19 条
  • 1
  • 2
  • 请选择