
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
微调(Fine-tuning)是深度学习中一种利用预训练模型进行特定任务优化的方法,旨在提升模型在特定任务上的性能。微调步骤包括加载预训练模型、修改模型结构、设置优化器和损失函数、训练模型及评估性能。微调场景涵盖修改模型输出层、自我认知及对话风格等。微调方法主要分为增量微调、局部微调和全量微调,各方法在参数调整范围、显存需求、训练速度及效果等方面有所不同。微调技术如LoRA和QLoRA通过引入低秩

RagFlow 是一个基于深度文档理解的自动化 RAG(Retrieval-Augmented Generation)工作流工具,支持从多种复杂格式的非结构化数据中提取信息。其核心特性包括基于模板的文本切片、降低幻觉、兼容异构数据源以及支持大语言模型和向量模型的配置。RagFlow 提供了易用的 API,可轻松集成到企业系统中。安装与部署过程依赖于 Docker 和 Docker Compose,

大模型,通常指的是大型语言模型(Large Language Model,简称 LLM),它是一种基于深度学习技术、拥有海量参数的人工智能模型。

Dify 是一个开源的大型语言模型(LLM)应用平台,支持多种模型如 OpenAI、Anthropic、Ollama 等,并提供可视化 Prompt 编排、RAG 增强检索、Agent 框架等功能。本文详细介绍了如何通过 Docker Compose 部署 Dify,并接入本地模型如 Ollama 和 VLLM。部署步骤包括安装 Docker 和 Docker Compose、启动 Dify 容器

RAG(检索增强生成)是一种结合信息检索(Retrieval)和大语言模型生成(Generation)的技术,旨在提升模型生成内容的准确性和事实性。它通过从外部知识库中动态检索相关信息,并将这些信息作为上下文输入给生成模型,从而减少幻觉并提高回答质量。RAG = 检索(Retrieval) + 生成(Generation),动态增强 LLM 的知识。核心价值:解决 LLM 的幻觉问题,支持实时更新

Dify 是一个开源的大型语言模型(LLM)应用平台,支持多种模型如 OpenAI、Anthropic、Ollama 等,并提供可视化 Prompt 编排、RAG 增强检索、Agent 框架等功能。本文详细介绍了如何通过 Docker Compose 部署 Dify,并接入本地模型如 Ollama 和 VLLM。部署步骤包括安装 Docker 和 Docker Compose、启动 Dify 容器

微调(Fine-tuning)是深度学习中一种利用预训练模型进行特定任务优化的方法,旨在提升模型在特定任务上的性能。微调步骤包括加载预训练模型、修改模型结构、设置优化器和损失函数、训练模型及评估性能。微调场景涵盖修改模型输出层、自我认知及对话风格等。微调方法主要分为增量微调、局部微调和全量微调,各方法在参数调整范围、显存需求、训练速度及效果等方面有所不同。微调技术如LoRA和QLoRA通过引入低秩

适用场景:原型开发、中小规模生产、需要快速迭代的AI应用。优势:零配置起步、Python原生接口、内置Embedding支持。推荐搭配:LangChain/LlamaIndex 构建完整AI工作流。

LMDeploy 是由 MMDeploy 和 MMRazor 团队开发的全套轻量化、部署和服务解决方案,专为本地化私有部署设计。其核心优势包括极致性能优化、生产级部署、多格式兼容和开放生态。LMDeploy 支持从模型量化到生产级API服务的全流程优化,特别适合需要低延迟、高并发的企业应用。通过内置的量化工具和高并发管理,LMDeploy 显著提升了推理速度并降低了显存占用,使得在消费级显卡上也能

Ollama 是当前最简单高效的本地大模型运行方案🔍隐私敏感场景:数据完全本地处理💻快速原型开发:一键测试不同模型🚀教育研究用途:低成本体验 LLM 能力资源推荐官方模型库中文优化模型合集LLaMA.cpp。
