logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLaMA Factory DDP并行训练全解析:从核心原理到Ubuntu 22.04实践

DDP是PyTorch生态中用于大规模模型训练的核心并行技术。它的核心原理是将训练数据拆分到多个GPU上,每个设备独立完成前向传播与反向传播计算,再通过梯度同步机制保证所有设备上的模型参数一致性。在理想状态下,这种架构可以实现训练速度的线性提升(即使用N张GPU时,训练速度提升至近N倍)。在大模型微调场景中,DDP的价值尤为突出。以LLaMA 2 7B模型为例,单卡训练通常需要20GB以上显存,训

基于LangGraph+VLLM的医疗辅助诊断系统(Ubuntu22.04+A40 48G)

本文介绍基于LangGraph构建医疗辅助诊断工作流的技术实现。系统采用三层架构:模型层通过VLLM本地部署Qwen2-7B-Medical医疗大模型(适配A40 48G显卡);工作流层使用LangGraph构建包含症状收集、初步诊断、检查建议和治疗建议的多节点流程;交互层支持命令行/Gradio界面。详细环境配置包括Ubuntu22.04系统、Miniconda环境、NVIDIA驱动535+CU

基于LangChain和vLLM的维基百科问答系统

本文介绍了基于维基百科的知识问答系统架构及实现方案。系统采用模块化设计,包含知识获取(维基百科实时抓取)、文本处理(LangChain)、向量存储(FAISS)、本地推理(vLLM引擎)和Web界面(Streamlit)五大组件。详细说明了Ubuntu 22.04环境下的配置流程,包括Anaconda安装、CUDA 12.4环境配置以及Python依赖包管理。核心代码实现了维基百科内容检索、文本分

基于FSDP的LLaMA-Factory大模型高效训练指南

LLaMA-Factory结合FSDP为训练大规模语言模型提供了强大的解决方案。通过参数分片、混合精度训练和智能容错机制,它有效解决了大模型训练中的显存瓶颈和稳定性问题。对于需要在有限硬件资源上训练大模型的开发者来说,掌握FSDP在LLaMA-Factory中的应用是至关重要的技能。

基于LangGraph的代码生成与测试自动化系统

├── setup_environment.sh# 环境配置脚本。├── vllm_server.py# vLLM模型服务。├── deploy_system.sh# 系统部署脚本。├── start_all_services.sh# 服务启动脚本。├── stop_services.sh# 服务停止脚本。├── test_system.py# 系统验证脚本。创建Streamlit前端。创建Fas

基于LlamaIndex+Ollama开发AI法律助手(Ubuntu22.04+Python3.12.4)

摘要: 本文详细介绍了基于LlamaIndex构建本地AI法律助手的完整流程。系统采用Ubuntu22.04系统,通过Conda管理Python3.12.4环境,利用Ollama本地部署大模型(支持Llama3/Qwen2)。核心功能包括法律文档加载、向量索引构建和智能问答,特别优化了中文法律文本处理,通过定制系统提示词确保回答的准确性和规范性。实现步骤涵盖环境配置、依赖安装、索引构建及交互式问答

Stable Diffusion WebUI 从安装到实战:原理、部署与问题全解

Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Model)的文本到图像生成人工智能模型,由 Stability AI 主导开发,于 2022 年发布。Stable Diffusion WebUI 是基于 Stable Diffusion 模型的可视化操作界面(以 AUTOMATIC1111 版本最为流行),提供了直观的参数调整、模型管理和图像生成功能,

基于LangGraph的聊天机器人模拟评估系统(Ubuntu 2204 + Conda + vLLM)

作者:吴业亮博客:wuyeliang.blog.csdn.net2. 创建并激活Conda环境3. 安装依赖(匹配V100 CUDA 11.8)二、项目结构三、完整代码实现1. requirements.txt2. config.py(核心配置,需替换模型路径)3. model_wrapper.py(VLLM模型封装)4. langgraph_agent.py(LangGraph评估流程)5. w

Ubuntu 22.04 上的 LLaMA Factory 量化实践:bitsandbytes、GPTQ与AWQ详解

在Ubuntu 22.04上使用LLaMA Factory进行模型量化,是一条高效且实用的路径。你的需求推荐方案核心理由快速验证、原型开发配置最简单,无需等待预量化,即插即用。生产环境、高并发服务GPTQ INT4在同等压缩率下,提供了最优的推理速度和精度平衡。对微调后精度要求极高通过激活感知,在微调场景下通常能更好地保持模型性能。显存极度受限内存占用最低,且推理性能稳定。量化技术是大模型能够广泛

LLaMA-Factory 主流调优算法详解

LLaMA-Factory 是一站式大语言模型(LLM)微调框架,支持多种参数高效调优(PEFT)和全参数调优算法,适配不同算力、精度和任务场景。本文详细解析其中核心的五种调优算法的原理、适用场景、实现逻辑及优缺点。

    共 195 条
  • 1
  • 2
  • 3
  • 20
  • 请选择