logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Speech | 语音合成,语音识别常见数据集及数据格式详情

本文主要是介绍了语音中最常见的数据集(包含各个语种),及其格式等。

文章图片
#人工智能#语音识别
❀YOLOv5❀在原本代码上调用笔记本摄像头

源码用的是 :ultralytics_yolov5-master第一步源码可以运行。第二步:将detect.py中parse_opt中读取照片改为读取本地摄像机。这个位置改为修改后再运行detect.py就会出现这样:我看别的博主有修改datasets.py,新版本的不用,读取摄像头的程序,文件中都有写好。......

文章图片
#深度学习#pytorch#计算机视觉
多模态 | 多模态中单模态中提取特征方法(代码)

在多模态任务中,有一种方法时在单模态中先各自提取各模态的特征,然后进行融合,本文主要实现各模态特征的提取。

文章图片
#深度学习#python
多模态 | 多模态中单模态中提取特征方法(代码)

在多模态任务中,有一种方法时在单模态中先各自提取各模态的特征,然后进行融合,本文主要实现各模态特征的提取。

文章图片
#深度学习#python
NLP | Transformer 中的关键知识点附代码

Transformer是seq2seq的模型,也就是数据有顺序,输出的是序列。本文主要结合代码理解Transformer。

文章图片
#深度学习#自然语言处理#人工智能 +2
Speech | 语音合成,语音识别常见数据集及数据格式详情

本文主要是介绍了语音中最常见的数据集(包含各个语种),及其格式等。

文章图片
#人工智能#语音识别
NLP | 自然语言处理经典seq2seq网络BERT详解及代码

BERT 是 Transformers 双向编码器表示的缩写,是一种用于自然语言处理的机器学习 (ML) 模型。它由 Google AI Language 的研究人员于 2018 年开发,是 11 种以上最常见语言任务的瑞士军刀解决方案,例如情感分析和命名实体识别。从历史上看,计算机很难“理解”语言。当然,计算机可以收集、存储和读取文本输入,但它们缺乏基本的语言上下文。因此,出现了自然语言处理 (

文章图片
#深度学习#人工智能#自然语言处理 +2
论文篇 | 2020-Facebook-DETR :利用Transformers端到端的目标检测=>翻译及理解(持续更新中)

我们提出了一种将对象检测视为直接集合预测问题的新方法。我们的方法简化了检测方式,有效地消除了对许多手工设计的组件的需求,例如非最大抑制过程或锚点生成,这些组件明确地编码了我们关于任务的先前知识。新框架的主要成分称为DEtection TRansformer或DETR,是基于集合的全局损耗,通过二分匹配强制进行独特的预测,以及transformer编码器 - 解码器架构。给定一组固定的学习对象查询,

文章图片
#目标检测#深度学习#计算机视觉
YOLO | YOLOv8 训练自己的数据集

YOLOv8是Ultralytics最新的基于YOLO的目标检测模型系列,提供最先进的性能。

文章图片
#计算机视觉#目标检测
了解arXiv,及arXiv的注册详细操作。

arXiv【1】(X依希腊文的χ发音,读音如英语的archive)是一个收集物理学、数学、计算机科学、生物学与数理经济学的论文预印本的网站,始于1991年8月14日。截至2008年10月,arXiv.org已收集超过50万篇预印本;至2014年底,藏量达到1百万篇。截至2016年10月,提交率已达每月超过10,000篇。在arXiv上发表,并没有专业的审稿人,所以也不是学术性期刊,相当于占位。因为

文章图片
#计算机视觉
    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择