logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

最简单地将GitHub项目更新到本地仓库

参考链接:https://www.cnblogs.com/chenlogin/p/6592228.html用命令行打开本地仓库所在目录执行git fetch origin master //从远程的origin仓库的master分支下载代码到本地的origin master执行git log -p master… origin/master //比较本地的仓库和远程参考的区别(按q退出)4执行 g

#git#github#linux
PyTorch——Batch Normalization(批量归一化)

参考链接https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter05_CNN/5.10_batch-normBatch Normalization(BN)的作用通常来说,数据标准化预处理对于浅层模型就足够有效了:处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近:这往往更容易训练出有效的模型。但对深

#神经网络#深度学习#pytorch
PyTorch——AlexNet实现(附完整代码)

参考链接https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter05_CNN/5.6_alexnetAlexNet网络结构AlexNet v.s. LeNet第一,与相对较小的LeNet相比,AlexNet包含8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。lexNet第一层中的卷积窗口形状是11×11。因为ImageNet中绝大多

#深度学习#神经网络#计算机视觉 +1
pandas小笔记——去除数据中的NaN值

Pandas 会为缺少的值分配 NaN 值。我们可以选择对这些NaN值对应的行列进行删除,也可以选择填充。删除NaN值data.dropna(how = ‘all’)# 传入这个参数后将只丢弃全为缺失值的那些行data.dropna(axis = 1)# 丢弃有缺失值的列data.dropna(axis=1,how=“all”)# 丢弃全为缺失值的那些列data.dropna(axis=0,sub

#数据分析#pandas
PyTorch——自注意力(self-attention)机制实现(代码详解)

参考链接https://www.bilibili.com/video/BV1JE411g7XF?p=54https://arxiv.org/abs/1706.03762https://blog.csdn.net/qq_36653505/article/details/83375160简述自注意力机制(self-attention)self-attention可以视为一个特征提取层,给定输入特征a1

#深度学习#pytorch#神经网络
简易使用GloVe模型--避坑指南

参考链接:https://github.com/maciejkula/glove-pythonhttps://blog.csdn.net/sinat_26917383/article/details/83029140https://blog.csdn.net/beilizhang/article/details/108175380说明本教程需调用glove_python这个包,而不采用Stanfo

#python#机器学习#自然语言处理
MySQL——修改语句

参考链接https://www.bilibili.com/video/BV12b411K7Zu?p=105&spm_id_from=pageDriver修改语句修改单表的记录语法UPDATE表名SET列=新值,列=新值,...WHERE筛选条件案例比如,“修改beauty表中姓唐的女神的电话为13899888899”UPDATEbeautySETphone='13899888899'WHE

#mysql#数据库#sql
MySQL——删除语句

参考链接https://www.bilibili.com/video/BV12b411K7Zu?p=107删除语句方式一:delete语法单表的删除DELETE FROM表名WHERE筛选条件;多表的删除SQL92:DELETE表1的别名,表2的别名FROM表1 别名,表2 别名WHERE连接条件AND筛选条件;SQL99:DELETE表1的别名,表2的别名FROM表1 别名INNER|LEFT|

#mysql#数据库#sql
PyTorch——L2范数正则化(权重衰减)

参考资料https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter03_DL-basics/3.12_weight-decay权重衰减(weight decay)权重衰减等价于L2范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。手动实现def l2_penalty(w):re

#深度学习#pytorch#神经网络
MySQL——修改语句

参考链接https://www.bilibili.com/video/BV12b411K7Zu?p=105&spm_id_from=pageDriver修改语句修改单表的记录语法UPDATE表名SET列=新值,列=新值,...WHERE筛选条件案例比如,“修改beauty表中姓唐的女神的电话为13899888899”UPDATEbeautySETphone='13899888899'WHE

#mysql#数据库#sql
暂无文章信息