logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《第二十二篇》Cross-Attention:注意力机制详解-代码实现和公式详解《二》

本文详细介绍了Cross-Attention的原理、公式和实现。Cross-Attention用于Transformer解码器和Encoder-Decoder结构,通过查询向量(Q)与键、值向量(K、V)的交互实现序列对齐。核心公式为softmax(QK^T/√d_k)V,其中Q来自Decoder,K、V来自Encoder。文章还给出了多头注意力机制公式和PyTorch实现代码,包括投影计算、注意

#人工智能#深度学习#自然语言处理 +1
《第一篇》大模型强化学习中的 PPO、DPO、KTO、ORPO 全解析

本文系统解析了大语言模型微调中的四种强化学习算法:PPO、DPO、KTO和ORPO。PPO通过约束策略更新实现稳定优化,DPO直接利用人类偏好数据避免奖励建模,KTO在DPO基础上加入KL正则项,ORPO则专注于离线数据训练。文章详细介绍了各算法的原理、数据格式、数学公式和简化实现,并对比了它们的适用场景和特点。这些方法为LLM优化提供了不同路径,从传统的在线策略优化到更高效的离线偏好学习,帮助开

#人工智能#机器学习#深度学习 +1
《第五篇》vLLM:让大语言模型推理更高效的新一代引擎 —— 原理详解

vLLM是加州大学伯克利分校开发的高性能大语言模型推理框架,通过创新的PagedAttention技术(类比操作系统内存分页机制)显著提升推理效率。它解决了传统框架显存占用高、批处理效率低等问题,支持LLaMA、Mistral等主流开源模型,吞吐量比Transformers提升2.6倍,显存降低32%。vLLM兼容HuggingFace API,适用于本地推理、实时问答系统等场景,但不支持闭源模型

#语言模型#人工智能#自然语言处理
一键将VOC数据集转换为YOLO格式,附完整Python脚本

通过代码就可以将VOC数据转变为YOLO格式的训练数据集格式。方便再yolov4、v5的代码中进行训练。

#python#深度学习#目标跟踪 +2
《第四十五篇》RT-DETR 技术原理与应用全解:打造实时目标检测新基准

RT-DETR是百度PaddlePaddle团队提出的实时目标检测模型,基于DETR架构进行轻量化改进。其核心创新包括:1)混合编码器结构(Hybrid Encoder)结合动态卷积与注意力机制,提升推理速度3倍;2)采用可变形解码器(Deformable Decoder)进行稀疏采样;3)自适配标签分配策略优化训练稳定性;4)完全消除NMS后处理,支持端到端推理。模型支持多种主干网络,在COCO

#transformer#深度学习#人工智能
一键将VOC数据集转换为YOLO格式,附完整Python脚本

通过代码就可以将VOC数据转变为YOLO格式的训练数据集格式。方便再yolov4、v5的代码中进行训练。

#python#深度学习#目标跟踪 +2
    共 30 条
  • 1
  • 2
  • 3
  • 请选择