
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
摘要: LangGraph 是一种基于有向图的工作流设计工具,突破了传统线性链式结构的限制。其核心组件包括全局共享的 State、功能节点(Node)、流转边(Edge)和完整图(Graph),通过条件分支和循环机制支持复杂流程。典型应用场景包括智能客服意图识别、代码自动修复等,能以更简洁的代码实现多轮对话、工具调用等复杂逻辑。安装简单,通过定义状态、编写节点函数、构建图形结构即可快速开发智能应用
随着大模型应用进入生产环境,可观测性成为关键挑战。LangSmith和Phoenix两大工具形成互补:LangSmith提供云端自动化追踪和预置仪表盘,适合快速调试和业务监控;Phoenix则专注本地化漂移检测和可视化分析,满足合规需求。最佳实践表明,开发阶段使用LangSmith监控性能指标,投产后结合Phoenix进行算法优化,可实现完整的可观测闭环。二者配合能有效解决延迟飙升、成本失控和回答
本文介绍了国内外主流大模型API的通用调用方法,帮助开发者实现"一次学会,到处调用"。文章首先分析了统一调用范式的必要性,随后提出3步8要素的通用调用框架。接着详细演示了OpenAI官方API及阿里通义千问、百度文心ERNIE、智谱GLM-4等国内模型的调用方式,包括账号注册、密钥获取和代码示例。最后通过横向对比给出选型建议,并提供生产级优化技巧,如环境变量管理、重试机制和并发
摘要: Hugging Face(HF)与魔搭ModelScope(MS)是两大主流模型平台,分别面向国际与中文场景。HF提供50万+模型,依赖社区生态;MS由阿里主导,专注中文SOTA模型与本土加速。下载方式多样:小型模型可通过transformers自动缓存;大型模型推荐Git LFS或镜像站(如清华/阿里云);国内用户优先使用MS镜像实现MB/s级下载。双平台支持断点续传,并可通过Ollam
文章摘要 本文系统介绍了大语言模型微调技术(Fine-Tuning),重点聚焦生产落地最成熟的SFT+LoRA/QLoRA方案。微调能以1%算力获得90%模型能力,是企业应用的最佳选择。文章详解了微调技术演进(从全参量到QLoRA)、核心概念(SFT/LoRA/RLHF等)和完整9步流程,并通过中文医疗问答模型实战演示:从数据制备(20万条医学数据)、基座选择(Qwen2.5-7B)、QLoRA配
文章摘要 本文系统介绍了大语言模型微调技术(Fine-Tuning),重点聚焦生产落地最成熟的SFT+LoRA/QLoRA方案。微调能以1%算力获得90%模型能力,是企业应用的最佳选择。文章详解了微调技术演进(从全参量到QLoRA)、核心概念(SFT/LoRA/RLHF等)和完整9步流程,并通过中文医疗问答模型实战演示:从数据制备(20万条医学数据)、基座选择(Qwen2.5-7B)、QLoRA配
摘要:提示词工程是优化AI输出的关键技术,通过结构化设计提升模型表现。核心方法包括:1)明确任务目标与格式要求;2)采用角色设定、示例引导等结构化技巧;3)多轮交互细化复杂任务;4)参数调优控制输出特性。应用场景涵盖代码生成、文本润色等,需通过测试迭代建立最佳实践。高级技巧如元提示和链式推理可进一步提升效果,实际应用需结合领域知识持续优化。(149字)
LangChain = 模型 × 提示词 × 记忆 × 工具 × 链 × 代理 的“六边形战士”。用Prompts把需求讲清;用Indexes让模型“多读书”;用Memory让它“长记性”;用Tools给它“手脚”;用Agents让它“自己动”;用Callbacks让一切“可观测”。
LLaMA-Factory是一个低代码大模型微调框架,相比原生脚本具有显著优势:仅需5行代码、零学习成本、18GB显存即可训练7B模型,支持SFT/RLHF/DPO/PPO全流程。通过WebUI可快速完成数据准备(支持微信聊天记录转换)、模型训练(QLoRA优化)、评估和部署。该框架内置DeepSpeed多卡并行、断点续传、可视化监控等功能,训练后模型可导出为单文件并兼容vLLM部署。实测微调后模
LLaMA-Factory是一个低代码大模型微调框架,相比原生脚本具有显著优势:仅需5行代码、零学习成本、18GB显存即可训练7B模型,支持SFT/RLHF/DPO/PPO全流程。通过WebUI可快速完成数据准备(支持微信聊天记录转换)、模型训练(QLoRA优化)、评估和部署。该框架内置DeepSpeed多卡并行、断点续传、可视化监控等功能,训练后模型可导出为单文件并兼容vLLM部署。实测微调后模







