logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

OCR文字识别 -CRNN+CTC原理

一文读懂CRNN+CTC文字识别 - 知乎

#计算机视觉
18个生成对抗网络(GAN)的绝妙应用

https://baijiahao.baidu.com/s?id=1640452629602950683&wfr=spider&for=pc

LLAMA-Factory Qwen3-1.7b模型微调

一、LLaMA Factory介绍一、LLaMA Factory介绍核心特点:一站式大模型微调工具包,支持几乎所有主流开源大模型(LLaMA 系列、Qwen、ChatGLM、Mistral、Yi 等),集成了多种微调策略(全量微调、LoRA、QLoRA、IA³、Prefix Tuning 等),并提供命令行和 Web UI 操作,对新手友好。

VLLM-大模型部署Qwen3-8b

PagedAttention 是 vLLM 的核心技术,它解决了 LLM 服务中内存的瓶颈问题。传统的注意力算法在自回归解码过程中,需要将所有输入 Token 的注意力键和值张量存储在 GPU 内存中,以生成下一个 Token。这些缓存的键和值张量通常被称为 KV 缓存。vLLM 是一个开源的大模型推理加速框架,通过 PagedAttention 高效地管理 attention 中缓存的张量,实现

#语言模型
LLAMA Factory 微调Qwen2.0-VL-2B视觉大模型

2、mllm_data_tiny中包含图片和一个mllm_data_tiny.json文件,文件夹的名称和json文件名保持一致;3、mllm_data_tiny.json格式如下,messages字段包含问题和答案,images包含图片的路径;1、增加mllm_data_tiny文件夹,并且修改dataset_info.json。二、选择基础大模型和目标数据集进行训练;

#语言模型
pytorch自带的模型剪枝工具prune的使用

https://blog.csdn.net/zhou_438/article/details/109053992

Jetson Xavier、Jetson TX2、 1080(Ti)、2080显卡运行深度学习模型性能对比(英伟达开发平台VS常用显卡)

https://blog.csdn.net/herr_kun/article/details/87919813?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.control&dist_request_id=1328593.9559.16147409299102921

ubuntu安装opencv的c++开发环境

https://blog.csdn.net/luanpeng825485697/article/details/81181825

3D目标检测多模态融合的三种方式

https://www.cnblogs.com/YongQiVisionIMAX/p/13656030.htmlearly-fusion实际上是在最初的输入上的融合deep-fusion则是在特征层面上的融合late-fusion则是对应在决策层上的融合。

    共 38 条
  • 1
  • 2
  • 3
  • 4
  • 请选择