logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Python数据处理csv的简单应用

目录题目代码运行实例题目文件scores.csv包含十位学生的成绩单,表头是"姓名语文数学英语"。请编程完成下述功能。1)计算每位学生的总分与排名,并将扩充后的学生信息写入文件data.csv中,新文件表头是"姓名语文数学英语总分名次";2)同时,在控制台上分行输出各门课的最高分与最低分以及对应的学生姓名,输出格式为"课程名 :(最高分,学生1,… ,学生n),(最低分,学生1,… ,学生n)";

#python
【论文阅读】CNN网络权值的拓扑数据分析

虽然自然图像的空间具有复杂的拓扑结构,但可以通过同调群 Hk 的近似来更好地理解,其中前 k 个群形成对拓扑的 k 阶近似。通过对我们的数据进行归一化,近似中的零阶项 H0 被消除。然后,一阶项 H1 包含自然图像的最基本结构,即线性梯度。由于线性梯度通常由它们的角度参数化,而角度自然地被圆形结构所包含,所以我们拓扑的一阶近似是一个圆。Carlssons的工作实际上表明第一贝蒂数是3,这表明 H1

文章图片
#论文阅读#cnn#网络
【Java】分布式锁Redis和Redisson

Redis锁机制一般是由 setnx 命令实现,set if not exists,语法setnx key value,将key设置值为value,如果key不存在会返回1,这种情况下等同 set 命令。当key存在时,什么也不做会返回0,并且(或者可以通过 try catchfinally来释放锁)。

文章图片
#java#分布式#redis
【Python】argparse解析命令行参数模块

action - 命令行遇到参数时的动作,默认值是 store。– store_const,表示赋值为const;– append,将遇到的值存储成列表,也就是如果参数重复则会保存多个值;– append_const,将参数规范中定义的一个值保存到一个列表;– count,存储遇到的次数;此外,也可以继承 argparse.Action 自定义参数解析;nargs - 应该读取的命令行参数个数,可

#python#github#git
【论文阅读】Multi-metrics adaptively identifies backdoors in Federated Learning

核心动作:Multi-metrics adaptively identifies(多指标自适应识别)应用场景:backdoors in Federated Learning(联邦学习中的后门攻击)核心创新:用 “多指标” 替代 “单指标”,用 “动态加权” 适配不同数据分布与攻击类型。高维失效:欧氏距离(L2L_2L2​)在高维空间(如神经网络参数)中 “失去意义”(所有点距离差异趋近于 0,无法

#论文阅读
【论文阅读】Towards Sample-specific Backdoor Attack with Clean Labels via Attribute Trigger

在第二阶段,攻击者将生成的有毒样本和剩余的良性样本发布给受害者用户,受害者用户将根据这些样本训练他们的模型。在第三阶段,对手可以激活模型后门,通过改变预定义的图像属性来操纵模型预测到目标标签。

#论文阅读
【论文阅读】Persistent Homology Based Generative Adversarial Network

现有的生成模型不能充分捕捉图像的全局结构信息,使得图像生成过程中难以协调全局结构特征和局部细节特征。该文提出了一种基于持续同调的生成对抗网络(PHGAN)。本文基于持久同调方法设计了拓扑特征变换算法,并通过全连通层模块和自注意模块将拓扑特征集成到遗传神经网络的鉴别器中,使PHGAN具有良好的全局结构信息捕获能力,提高了模型的生成性能。在CIFAR10数据集和STL10数据集上对PHGAN进行了实验

文章图片
#论文阅读#深度学习#计算机视觉
Python组合数据类型

这是Python123上的题目,我觉得很有意义,这是他给的标准答案(最后一个是我自己写的),之所以记录就是可以让自己以后多看看目录1、文本词频统计2、《沉默的羔羊》之最多单词3、人名最多数统计1、文本词频统计请统计hamlet.txt文件中出现的英文单词情况,统计并输出出现最多的10个单词,注意:‪‬‪‬‪‬‪‬‪‬‮‬‭‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‫‬‪‬‪

#python
【论文阅读】ImageNet Classification with Deep Convolutional Neural Networks

1、摘要alexNet由5个卷积层和3个全连接层构成,其中还加入了一些max pooling层,最后用softmax回归的到1000个结果。使用了dropout正则化方法来防止过拟合。在ImageNetSVRC-2010的1000个类的120万张高分辨率图像中,获得了37.5%和17.0%的top-1和top-5的错误率。这是近年神经网络兴起的除了LeNet之外的第一个开山之作(1)TOP-1 准

文章图片
#论文阅读
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择