logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

生成模型 | 三维重建(3D reconstruction)调研及总结【20231219更新版】

本文是关于三维重建的论文调研,主要集中于基于图片到3d的模型~

文章图片
#3d#人工智能
Linux | Ubuntu20.04系统使用命令从移动硬盘/U盘拷贝文件到服务器上

确认自己移动硬盘、U盘的格式,本文为exfat格式。

#linux
NLP | textCNN &textRNN 图文详解及代码

textCNN &textRNN主要是做。文本分类是自然语言处理的一项基本任务,试图推断给定文本(句子、文档等)的标签或标签集。

文章图片
#自然语言处理#人工智能#深度学习
NLP | Transformer 中的关键知识点附代码

Transformer是seq2seq的模型,也就是数据有顺序,输出的是序列。本文主要结合代码理解Transformer。

文章图片
#深度学习#自然语言处理#人工智能 +2
Speech | 语音合成,语音识别常见数据集及数据格式详情

本文主要是介绍了语音中最常见的数据集(包含各个语种),及其格式等。

文章图片
#人工智能#语音识别
NLP | 自然语言处理经典seq2seq网络BERT详解及代码

BERT 是 Transformers 双向编码器表示的缩写,是一种用于自然语言处理的机器学习 (ML) 模型。它由 Google AI Language 的研究人员于 2018 年开发,是 11 种以上最常见语言任务的瑞士军刀解决方案,例如情感分析和命名实体识别。从历史上看,计算机很难“理解”语言。当然,计算机可以收集、存储和读取文本输入,但它们缺乏基本的语言上下文。因此,出现了自然语言处理 (

文章图片
#深度学习#人工智能#自然语言处理 +2
论文篇 | 2020-Facebook-DETR :利用Transformers端到端的目标检测=>翻译及理解(持续更新中)

我们提出了一种将对象检测视为直接集合预测问题的新方法。我们的方法简化了检测方式,有效地消除了对许多手工设计的组件的需求,例如非最大抑制过程或锚点生成,这些组件明确地编码了我们关于任务的先前知识。新框架的主要成分称为DEtection TRansformer或DETR,是基于集合的全局损耗,通过二分匹配强制进行独特的预测,以及transformer编码器 - 解码器架构。给定一组固定的学习对象查询,

文章图片
#目标检测#深度学习#计算机视觉
项目复现 | DETR:利用transformers端到端的目标检测

论文:End-to-End Object Detection with Transformers论文详解地址:方法一。

文章图片
#人工智能#深度学习#计算机视觉
YOLO | YOLOv8 训练自己的数据集

YOLOv8是Ultralytics最新的基于YOLO的目标检测模型系列,提供最先进的性能。

文章图片
#计算机视觉#目标检测
    共 73 条
  • 1
  • 2
  • 3
  • 8
  • 请选择