logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Loss/损失函数05:Triplet Loss(三元组损失)详解【拉近类内距离、拉远类间距离】【应用场景:人脸识别、图像检索、行人重识别、签名验证、语音识别】

相似的图像(如同一个人的不同照片)在特征空间中距离很近不相似的图像(如不同人的照片)在特征空间中距离很远传统的分类损失(如交叉熵)需要预先知道所有类别,但在人脸识别中,我们可能会遇到训练时没见过的新人脸。Triplet Loss通过学习一个嵌入空间(Embedding Space),使得相似样本靠近,不相似样本远离,从而解决这个问题。三元组结构目标DapαDanDapαDan损失函数L∥fa−fp

#人工智能
ImageNet-1k数据集

AlexNet(2012)在 ImageNet 竞赛上实现了巨大突破,直接把 deep learning 推向计算机视觉的中心舞台,“ImageNet moment”。许多模型(ResNet、DenseNet、MobileNet、ViT 等)都先在 ImageNet-1k 上预训练,再迁移到下游任务(检测、分割等)。“在 ImageNet 上预训练”、“ImageNet top-1 acc”、“R

#人工智能
NLP-语义分析(Semantic Parsing):Text2SQL【“打破人与结构化数据之间的壁垒”,即普通用户可以通过自然语言描述完成复杂数据库的查询工作】

Text to SQL( 以下简称Text2SQL),是将自然语言文本(Text)转换成结构化查询语言SQL的过程,属于自然语言处理-语义分析(Semantic Parsing)领域中的子任务。,即普通用户可以通过完成复杂数据库的查询工作,得到想要的结果。

文章图片
#自然语言处理#数据库#sql
PyTorch训练(三):DDP(DistributedDataParallel)【“单机多卡”、“多机多卡”分布式训练模式】【支持混合精度(fp16/fp32)】【只将数据并行,模型大于显卡则不行】

一、概述我们知道 PyTorch 本身对于单机多卡提供了两种实现方式DataParallel(DP):Parameter Server模式,一张卡位reducer,实现也超级简单,一行代码。DistributedDataParallel(DDP):All-Reduce模式,本意是用来分布式训练,但是也可用于单机多卡。DataParallel(DP)是基于Parameter server的算法,实现

文章图片
#pytorch#深度学习
大数据-Hadoop-搭建(一):搭建Hadoop完全分布式集群(在VMware中的Linux虚拟机)【CentOS6】【独立安装Apache Hadoop】

大数据-Hadoop:搭建Hadoop完全分布式集群(在VMware中的Linux虚拟机)一、VMware、Linux虚拟机环境准备1、网络配置1.1 查看网络IP和网关1.1.1 查看虚拟网络编辑器1.1.2 修改ip地址1.1.3 查看网关1.1.4 查看windows环境的中VMnet8网络配置(控制面板-网络和Internet-更改适配器选项)1.2 配置Linux系统的网络IP和网关1.

文章图片
#大数据#hadoop#hdfs
【知识图谱】Neo4j GDS(Graph Data Science)安装和使用

图算法用于计算图、节点或关系的度量。它们可以提供关于图中相关实体(中心性、排名)或社区等固有结构(社区检测、图分区、聚类)的见解。许多图算法都是迭代方法,经常使用随机游动、广度优先或深度优先搜索或模式匹配遍历图进行计算。由于可能的路径随着距离的增加呈指数增长,许多方法的算法复杂度也很高。幸运的是,优化算法已经存在,它们利用了图形的某些结构,将已经探索过的部分记忆起来,并将操作并行化。如APOC的安

#知识图谱#人工智能
DINOv3 元数据生成详解

元数据(Metadata)是描述数据集的预处理索引文件,用于加速训练时的数据加载。传统加载# 将整个文件加载到内存data = np.load('entries-TRAIN.npy') # 占用 ~50 MB 内存内存映射# 不占用内存,按需加载data = np.load('entries-TRAIN.npy', mmap_mode='r') # 占用 ~0 MB 内存。

#人工智能
2022-2025视觉编码器范式:离散型与连续型进展深度调研

多模态时代背景: 自2022年底ChatGPT掀起新一轮AI热潮以来,视觉-语言模型(VLM)和多模态大模型(MLLM)成为研究前沿,在图文对答、视觉推理等任务上取得显著进展[1]。这波进展源于Transformer架构跨模态的成功:Vision Transformer (ViT)将NLP中序列输入+Transformer编码器范式引入视觉领域,统一了CV与NLP的处理方式[2]。随后OpenAI

#人工智能
2022-2025视觉编码器范式:离散型与连续型进展深度调研

多模态时代背景: 自2022年底ChatGPT掀起新一轮AI热潮以来,视觉-语言模型(VLM)和多模态大模型(MLLM)成为研究前沿,在图文对答、视觉推理等任务上取得显著进展[1]。这波进展源于Transformer架构跨模态的成功:Vision Transformer (ViT)将NLP中序列输入+Transformer编码器范式引入视觉领域,统一了CV与NLP的处理方式[2]。随后OpenAI

#人工智能
    共 965 条
  • 1
  • 2
  • 3
  • 97
  • 请选择