
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文是关于三维重建的论文调研,主要集中于基于图片到3d的模型~

确认自己移动硬盘、U盘的格式,本文为exfat格式。
三步实现OpenCV和haarcascade简单人脸检测

textCNN &textRNN主要是做。文本分类是自然语言处理的一项基本任务,试图推断给定文本(句子、文档等)的标签或标签集。

Transformer是seq2seq的模型,也就是数据有顺序,输出的是序列。本文主要结合代码理解Transformer。

本文主要是介绍了语音中最常见的数据集(包含各个语种),及其格式等。

BERT 是 Transformers 双向编码器表示的缩写,是一种用于自然语言处理的机器学习 (ML) 模型。它由 Google AI Language 的研究人员于 2018 年开发,是 11 种以上最常见语言任务的瑞士军刀解决方案,例如情感分析和命名实体识别。从历史上看,计算机很难“理解”语言。当然,计算机可以收集、存储和读取文本输入,但它们缺乏基本的语言上下文。因此,出现了自然语言处理 (

我们提出了一种将对象检测视为直接集合预测问题的新方法。我们的方法简化了检测方式,有效地消除了对许多手工设计的组件的需求,例如非最大抑制过程或锚点生成,这些组件明确地编码了我们关于任务的先前知识。新框架的主要成分称为DEtection TRansformer或DETR,是基于集合的全局损耗,通过二分匹配强制进行独特的预测,以及transformer编码器 - 解码器架构。给定一组固定的学习对象查询,

论文:End-to-End Object Detection with Transformers论文详解地址:方法一。

YOLOv8是Ultralytics最新的基于YOLO的目标检测模型系列,提供最先进的性能。
