logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

NLP | Transformer 中的关键知识点附代码

Transformer是seq2seq的模型,也就是数据有顺序,输出的是序列。本文主要结合代码理解Transformer。

文章图片
#深度学习#自然语言处理#人工智能 +2
Speech | 语音合成,语音识别常见数据集及数据格式详情

本文主要是介绍了语音中最常见的数据集(包含各个语种),及其格式等。

文章图片
#人工智能#语音识别
NLP | 自然语言处理经典seq2seq网络BERT详解及代码

BERT 是 Transformers 双向编码器表示的缩写,是一种用于自然语言处理的机器学习 (ML) 模型。它由 Google AI Language 的研究人员于 2018 年开发,是 11 种以上最常见语言任务的瑞士军刀解决方案,例如情感分析和命名实体识别。从历史上看,计算机很难“理解”语言。当然,计算机可以收集、存储和读取文本输入,但它们缺乏基本的语言上下文。因此,出现了自然语言处理 (

文章图片
#深度学习#人工智能#自然语言处理 +2
论文篇 | 2020-Facebook-DETR :利用Transformers端到端的目标检测=>翻译及理解(持续更新中)

我们提出了一种将对象检测视为直接集合预测问题的新方法。我们的方法简化了检测方式,有效地消除了对许多手工设计的组件的需求,例如非最大抑制过程或锚点生成,这些组件明确地编码了我们关于任务的先前知识。新框架的主要成分称为DEtection TRansformer或DETR,是基于集合的全局损耗,通过二分匹配强制进行独特的预测,以及transformer编码器 - 解码器架构。给定一组固定的学习对象查询,

文章图片
#目标检测#深度学习#计算机视觉
项目复现 | DETR:利用transformers端到端的目标检测

论文:End-to-End Object Detection with Transformers论文详解地址:方法一。

文章图片
#人工智能#深度学习#计算机视觉
YOLO | YOLOv8 训练自己的数据集

YOLOv8是Ultralytics最新的基于YOLO的目标检测模型系列,提供最先进的性能。

文章图片
#计算机视觉#目标检测
Transformer | DETR目标检测中的位置编码position_encoding代码详解

Transformer不像RNN可以根据位置顺序接受和处理单词,所以为了得到词的位置信息,将位置信息添加到每个词的嵌入向量中,这称为位置编码。DETR中提供了两种编码方式,一种是正弦编码(PositionEmbeddingSine),一种是可以学习的编码(PositionEmbeddingLearned),默认为正弦编码。

#目标检测#人工智能#计算机视觉
项目复现 | DETR:利用transformers端到端的目标检测

论文:End-to-End Object Detection with Transformers论文详解地址:方法一。

文章图片
#人工智能#深度学习#计算机视觉
论文篇 | 2020-Facebook-DETR :利用Transformers端到端的目标检测=>翻译及理解(持续更新中)

我们提出了一种将对象检测视为直接集合预测问题的新方法。我们的方法简化了检测方式,有效地消除了对许多手工设计的组件的需求,例如非最大抑制过程或锚点生成,这些组件明确地编码了我们关于任务的先前知识。新框架的主要成分称为DEtection TRansformer或DETR,是基于集合的全局损耗,通过二分匹配强制进行独特的预测,以及transformer编码器 - 解码器架构。给定一组固定的学习对象查询,

文章图片
#目标检测#深度学习#计算机视觉
了解arXiv,及arXiv的注册详细操作。

arXiv【1】(X依希腊文的χ发音,读音如英语的archive)是一个收集物理学、数学、计算机科学、生物学与数理经济学的论文预印本的网站,始于1991年8月14日。截至2008年10月,arXiv.org已收集超过50万篇预印本;至2014年底,藏量达到1百万篇。截至2016年10月,提交率已达每月超过10,000篇。在arXiv上发表,并没有专业的审稿人,所以也不是学术性期刊,相当于占位。因为

文章图片
#计算机视觉
    共 69 条
  • 1
  • 2
  • 3
  • 7
  • 请选择