logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度迁移学习(Deep Migration Learning)

深度迁移学习(Deep Transfer Learning)是一种在深度学习领域中应用的迁移学习方法,旨在通过利用从一个领域学习到的知识来改善在另一个相关但数据较少的领域上的学习任务。深度迁移学习常常使用预训练的深度神经网络模型,通过迁移已学习到的知识和特征来加快和优化在目标领域上的学习过程。深度迁移学习的优势在于它能够利用源领域丰富的数据和已学习到的知识来改善目标领域上的学习性能。**迁移知识:

文章图片
#迁移学习#人工智能#机器学习
在深度迁移学习中,什么是源域,什么是目标域?

域迁移的目标是通过迁移源域中学到的知识和特征,在目标域上实现更好的泛化性能。在目标域中,通常有较少的标记样本可供学习,因此模型需要通过迁移学习来利用源域中学到的知识和特征,以便在目标任务上获得良好的性能表现。通过从源域到目标域的知识迁移,模型可以更好地适应目标域的特征和数据分布,从而提高在目标任务上的效果。因此,我们需要通过迁移学习的方式,将从源域学到的知识和特征应用到目标域上,以提高在目标域上的

文章图片
#迁移学习#深度学习#人工智能
第二章 数据结构 算法及其描述

算法的特性 :有穷性 :算法的有穷性是指算法必须能在执行有限个步骤之后终止;确切性:算法的每一步骤必须有确切的定义;输入项:一个算法有0个或多个输入,以刻画运算对象的初始情况,所谓0个输入是指算法本身定出了初始条件;输出项:一个算法有一个或多个输出,以反映对输入数据加工后的结果。没有输出的算法是毫无意义的;可行性:算法中执行的任何计算步骤都是可以被分解为基本的可执行的操作步骤,即每个计算...

【目标检测论文阅读笔记】FE-YOLOv5: Feature enhancement network based on YOLOv5 for small object detection

由于其固有的特性,小目标在多次下采样后的特征表示较弱,甚至在背景中消失。FPN简单的特征拼接在信息传递中引入了不相关的上下文,进一步降低了小物体的检测性能。为了解决上述问题,我们提出了简单但有效的FE-YOLOv5。(1) 我们设计了来捕捉小目标更具辨别力的特征。全局注意力 和 高级全局上下文信息用于指导浅层的高分辨率特征。全局注意力与跨维度特征交互,减少信息丢失。高级上下文通过非局部网络对全局关

文章图片
#目标检测#论文阅读#计算机视觉
UMOT数据集||水下目标检测数据集

作者联系方式: landrykezebou@gmail.com, panettavisonsensinglab@gmail.com。MOTChallenge Underwater:该数据集包含了水下目标追踪的视频序列和相应的注释,视频序列来自于不同的场景和视角。The PETS 2009 dataset:该数据集包含了水下目标检测和追踪的视频序列,视频序列来自于一个水下实验室。The CoLin

文章图片
#python
papers with code介绍(人工智能方向研究生的必备网站)

Browse State-of-the-Art 其实是paperswithcode团队做的另外一个网站,paperswirhcode主要思路是查找最新的论文和代码,而Browse State-of-the-Art则是按照应用的不同领域来进行查找。Browse State-of-the-Art 其实是paperswithcode团队做的另外一个网站,paperswirhcode主要思路是查找最新的论

文章图片
#人工智能#深度学习#pytorch
365天深度学习打卡第N1周:Pytorch文本分类入门

本节是一个使用PyTorch实现的简单文本分类实战案例。在这个例子中,我们将使用AG News数据集进行文本分类。Dataset)是一个广泛用于文本分类任务的数据集,尤其是在新闻领域。该数据集是由AG’s Corpus of NewsArticles收集整理而来,包含了四个主要的类别:世界、体育、商业和科技为了完成本节内容,需要安装好torchtext与portalocker库定义TextClas

文章图片
#深度学习#pytorch#分类
一文读懂Embedding的概念,以及它和深度学习的关系

另外,向量间的距离也可能会建立联系,比方说“北京”是“中国”的首都,“巴黎”是“法国”的首都,那么向量:|中国|-|北京|=|法国|-|巴黎|再走近20厘米,又发现耳朵也不同,最后,在距离屏幕10厘米的地方,终于发现第四个不同的地方在眼睛的高光。而一维列表,你能很快算出来?先不管它什么意思,这个过程,我们把一个A中的12个元素的矩阵变成C中6个元素的矩阵,直观上,大小是不是缩小了一半?比如:其实我

文章图片
#深度学习#矩阵#算法
【深度学习】Multi-Head Attention 原理

对于同一个文本,一个Attention获得一个表示空间,如果多个Attention,则可以获得多个不同的表示空间。基于这种想法,就有了Multi-Head Attention。因为在每个Attention中,采用不同的Query / Key / Value权重矩阵,每个矩阵都是随机初始化生成的。将模型分为多个头,形成多个子空间,可以让模型去关注不同方面的信息。上图中Multi-Head Atten

文章图片
#深度学习#python#机器学习
论文必备:深度学习中的网络结构是怎么画的

这个工具可以非常方便的画出各种类型的图,是下面这位小哥哥开发的,来自于麻省理工学院弗兰克尔生物工程实验室, 该实验室开发可视化和机器学习工具用于分析生物数据。可以绘制的图包括以节点形式展示的FCNN style,这个特别适合传统的全连接神经网络的绘制。以平铺网络结构展示的LeNet style,用二维的方式,适合查看每一层featuremap的大小和通道数目。以三维block形式展现的AlexNe

文章图片
#深度学习#python#人工智能
    共 41 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择