logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

移动边缘计算网络中面向成本效益的联邦学习的联合类平衡客户端选择与带宽分配 论文阅读

联邦学习(FL)在保护数据隐私和减轻移动边缘计算(MEC)网络中的网络负担方面具有巨大潜力。然而,由于移动客户端(MC)的系统和数据异质性,在带宽有限的 MEC 网络中实现成本高效的 FL,客户端选择和带宽分配是关键。为应对这些挑战,我们研究了联合客户端选择和带宽分配问题,以降低 FL 训练的成本(即延迟和能耗)。我们提出了该问题,并将其分解为一个整体子问题以减少轮次数量,以及一个部分子问题以减少

#边缘计算#网络#论文阅读
鱼书第三章:下载mnist数据集失败解决方案

将上述四个压缩包放入dataset文件夹中,注意dataset文件夹应在以下目录中。

文章图片
#python
PyTorch 深度学习实践-逻辑斯蒂回归

sigmod的函数是一个在生物学中常见的S型函数,也称为S型生长曲线。在信息科学中,由于其单增以及反函数单增等性质,常被用作神经网络的激活函数,将变量映射到0,1之间。-------------摘自《百度百科》sigmod函数也叫作Logistic函数,用于隐层神经单元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特征相差比较复杂或者相差不是特别大的时候效

文章图片
#深度学习#pytorch#回归
PyTorch 深度学习实践-循环神经网络(高级篇)

用ASCII表作为词典,长度为128,每一个值对应一个独热向量,比如77对应128维向量中第77个位置为1其他位置为0,但是对于embed层只要告诉它哪个是1就行,这些序列长短不一,需要padding到统一长度。它会将填充后的嵌入和实际序列长度作为输入,并返回一个打包后的序列,便于 RNN 处理。,判断句子是哪类(0-negative,1-somewhat negative,2-neutral,3

文章图片
#深度学习#pytorch#rnn
【深度学习原理与Pytorch实战笔记-第三章 单车预测器——你的第一个神经网络】

【深度学习原理与Pytorch实战笔记-第三章 单车预测器——你的第一个神经网络】

文章图片
#深度学习#pytorch
PyTorch 深度学习实践-循环神经网络基础篇

嵌入层的主要作用是将离散的词汇映射到连续的向量空间中,从而为RNN提供密集的、低维的输入表示,这比直接使用稀疏的one-hot编码更为高效。,但是这个线性层是共享的,如下图,每次把hi和xi+1计算得到的hi+1传送到下一层进行计算,同时xi+1还需要通过某种运算融合xi的信息(比如求和、求乘积等)h0是先验知识,比如对于图像生成文本,可以先通过cnn+fc生成h0,也可以把h0设成和h1等统一维

文章图片
#深度学习#pytorch#rnn
A Multi-style Interior Floor Plan Design Approach Based on Generative Adversarial Networks论文阅读

人工智能正在重塑室内平面设计的过程,使其更加智能和自动化。由于对室内设计需求的增加,本文提出了一种双模块方法来实现多风格平面设计,采用pix2pix系列模型,一种生成对抗网络(GAN)。该方法由两个模块组成,从设计草图中生成语义标签图像和从标签图像中生成多风格设计图。为此,通过提取和编码区域的标签来分离关键区域的布局和样式纹理信息。然后,通过对双模块生成和单模块生成的实验比较,验证了所提出的双模块

文章图片
#论文阅读#生成对抗网络
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks - 翻译学习

大型预训练语言模型已被证明可以在其参数中存储事实知识,并在对下游NLP任务进行微调时获得最先进的结果。然而,他们访问和精确操作知识的能力仍然有限,因此在知识密集型任务中,他们的性能落后于特定任务的体系结构。此外,为他们的决定提供出处和更新他们的世界知识仍然是悬而未决的研究问题。具有对显式非参数记忆的可微访问机制的预训练模型可以克服这个问题,但迄今为止只针对提取下游任务进行了研究。微调方法——该模型

文章图片
#自然语言处理#学习#人工智能
将自己的数据集转化为coco格式便于CO-DETR训练

参考上篇博客,记录co-detr训练推理过程,现在需要用其他的数据集进行训练,先要研究当前数据集的json文件格式,提取出这些内容进行填充"id": 1,},],"id": 246,],"bbox": [0,0,3840,],},],"id": 1,}]

#深度学习#目标检测
    共 15 条
  • 1
  • 2
  • 请选择