logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

mysql批量插入数据执行失败的话是部分失败还是全部失败

值得注意的是,以上都是在没有手动开启事务的情况下操作的,但这依然是一个原子操作。大家也可以手动开启事务试试(先执行begin语句,再执行上述命令即可)批量语句,只要有一个失败,就会全部失败。总之,是原子的,大家可以自己试试。

#数据库
谷歌搜索引擎总是被修改

电脑上有恶意软件的迹象:浏览器引擎被重定向广告弹窗电脑运行变慢解决办法

#搜索引擎
“为lan使用代理服务器”总是不断地自动勾上,怎么取消?

“为lan使用代理服务器”总是不断地自动勾上,怎么取消? - Whatmatters的回答 - 知乎https://www.zhihu.com/question/25686082/answer/1147207314气死,转头电脑浏览器就不能用了原因确实是这个原因,但解决办法仍未找到而且专业付费梯子好像才会有这个问题,之前免费的梯子就没有记录手动解决的过程控制面板internet连接把这里原本的勾去

#经验分享
梯度:般在神经网络里面是一个batch清空一次梯度还是一个epoch清空一次梯度?

通常,在神经网络训练中,是在每个 mini-batch 处理完成后清空一次梯度,而不是在每个 epoch 结束后清空一次梯度。这是因为在每个 mini-batch 中,模型参数的梯度是根据当前 mini-batch 的损失计算得到的,如果不在每个 mini-batch 后清空梯度,梯度会在每个 mini-batch 中累积,导致参数更新不准确。

文章图片
#神经网络#batch#人工智能
将神经网络加到列表里面之后,用.to(device)函数迁移参数到gpu上失败

使用[nn.Linear(10,10) for i in range(n)]生成多个相同的神经网络被重复调用,独自训练参数,结果参数迁移的时候发现只有列表的第一个对象的参数被迁移到gpu上了,其他参数都没有被迁移过去。nn.ModuleList 这个类,可以把任意 nn.Module 的子类 (比如 nn.Conv2d, nn.Linear 之类的) 加到这个 list 里面,类似于Python

文章图片
#神经网络#人工智能#深度学习
搭建神经网络(torch.nn的用法)

零零碎碎总结了一些torch框架里面nn模块的用法,尤其是关于搭建神经网络的。

文章图片
#神经网络#人工智能#深度学习
论文阅读:DSformer:A Double Sampling Transformer for Multivariate Time Series Long-term Prediction

多变量长期预测任务旨在预测未来较长一段时间的数据的变化,从而为决策提供参考。当前模型对时间序列的以下三个特征利用还不充分:全局信息、局部信息、变量相关性。由此文章提出DSformer(double sampling transformer)模型,该模型包含了double sampling(DS) block和 temporal variable attentioon(TVA) block。

文章图片
#论文阅读#transformer#深度学习
torch增加维度操作

在Python中,None 表示空值或占位符。在masked_pos[:, :, None]这个切片操作中,None 被用作一个占位符,以改变张量的维度。这通常用于将一维张量变为二维张量,或者改变张量的形状。具体来说,masked_pos[:, :, None] 的操作是用于在 masked_pos 这个张量的最后一个维度(通常是元素的维度)上增加一个新的维度。这个新维度将在每个原始元素之间插入,

#python
python for 循环里面的i

偶然发现的神奇现象for i in range(5):print(i+1)i=i*10print(i+1)输出:11211321431541发现了吗,在循环里面去更改i的值不会影响循环结构中的i

    共 24 条
  • 1
  • 2
  • 3
  • 请选择