logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【T2Retrieval C_MTEB数据集 RAG召回测试数据集处理代码】

【代码】【T2Retrieval C_METB数据集 RAG召回测试数据集】

文章图片
【paddleOCR-vl 本地部署总结!】

本文介绍了PaddleOCRVL的安装与使用方法。安装需通过pip安装指定版本的paddlepaddle-gpu、paddleocr和safetensors包。使用时可选择是否启用文档方向分类、文本矫正和版面检测功能,通过predict方法处理图像后,可输出结构化结果或保存为json/markdown格式。此外还提到可通过vllm/sglang进行docker和cli两种部署方案,但未展开具体内容

文章图片
【火山引擎 大模型批量推理数据教程---详细讲解一篇过!】

本文介绍了使用火山引擎进行批量推理的详细步骤指南。首先需要注册账号并准备好JSONL格式的数据集,确保数据符合规范要求。然后创建对象存储桶用于存放数据,在控制台提交批量处理任务。最后强调任务完成后要及时下载结果并删除存储桶以避免产生费用。整个流程处理速度快,适合需要批量推理的场景。文档提供了相关操作界面截图和代码示例,并附有各个环节的官网链接方便操作。

文章图片
#火山引擎
【FunASR的详解和使用】

FunASR是一个由阿里巴巴达摩院开发的开源语音识别工具包,旨在为学术研究和工业应用提供桥梁。它支持多种语音识别功能,包括语音识别(ASR)、语音端点检测(VAD)、标点恢复、语言模型、说话人验证、说话人分离和多人对话语音识别。FunASR提供了便捷的脚本和教程,支持预训练模型的推理与微调,帮助用户快速构建高效的语音识别服务。支持各种音视频格式输入,可以把几十个小时的长音频与视频识别成带标点的文字

文章图片
【Ollama 加载ModelScope模型】

Ollama是建立在llama.cpp开源推理引擎基础上的大模型推理工具框架。得益于底层引擎提供的高效模型推理,以及多硬件适配,Ollama能够在包括CPU、GPU在内的,不同的硬件环境上,运行各种精度的GGUF格式大模型。通过一个命令行就能拉起LLM模型服务。ModelScope社区上托管了数千个优质的GGUF格式的大模型(包括LLM和视觉多模态模型),并支持了Ollama框架和ModelSco

文章图片
【Gemini 3 Prompting: Best Practices for General Usage Gemini 3 Prompting:通用场景最佳实践】

摘要: 《Gemini 3 Prompting: 通用场景最佳实践》总结了Gemini 3 Pro相比2.5版的显著提升,并提供核心优化原则:指令需精准简洁,保持结构一致性(推荐XML/Markdown标记),多模态输入需明确关联,长上下文指令应置于末尾。关键策略包括显式任务分解(先规划再执行)、自检输出(核对用户意图与假设)、工具调用前的预计算说明,以及自主代理模式(持续解决问题直至完成)。建议

文章图片
【maker-pdf 文档文字识别(包含ocr),安装使用完整教程】

本文介绍了使用marker-pdf工具进行PDF文本提取的步骤。首先通过conda创建python3.12虚拟环境并安装依赖,然后下载预训练模型。核心代码展示了如何使用PdfConverter转换PDF文件,提取文本内容并打印输出。该方法需要GPU加速处理大模型,所有模型权重会缓存在本地指定目录中。整个流程包括环境配置、模型下载和文本提取三个主要步骤,最终输出PDF文件的文本内容。

文章图片
#python
【linux 安装cuda 过程完整可行 cuda_11.4.2例子】

【linux 安装cuda 完整可行过程 cuda_11.4.2例子】

文章图片
#linux
【MHA/MQA/GQA 详解】

本文详细解析了三种注意力机制:多头注意力(MHA)、多查询注意力(MQA)和分组查询注意力(GQA)。核心区别在于如何分配注意力头数量,主要解决Transformer模型在推理阶段的显存占用和带宽瓶颈问题。MHA表达能力最强但显存占用高;MQA显存占用最小但性能损失较大;GQA作为折中方案,在保持接近MHA性能的同时大幅降低显存需求。现代大模型(如LLaMA-2/3)普遍采用GQA,因其能平衡推理

文章图片
【paddleOCR-vl 本地部署总结!】

本文介绍了PaddleOCRVL的安装与使用方法。安装需通过pip安装指定版本的paddlepaddle-gpu、paddleocr和safetensors包。使用时可选择是否启用文档方向分类、文本矫正和版面检测功能,通过predict方法处理图像后,可输出结构化结果或保存为json/markdown格式。此外还提到可通过vllm/sglang进行docker和cli两种部署方案,但未展开具体内容

文章图片
    共 41 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择