logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

把大模型“画”成图:LangGraph 超详细入门 + 实战

摘要: LangGraph 是一种基于有向图的工作流设计工具,突破了传统线性链式结构的限制。其核心组件包括全局共享的 State、功能节点(Node)、流转边(Edge)和完整图(Graph),通过条件分支和循环机制支持复杂流程。典型应用场景包括智能客服意图识别、代码自动修复等,能以更简洁的代码实现多轮对话、工具调用等复杂逻辑。安装简单,通过定义状态、编写节点函数、构建图形结构即可快速开发智能应用

#人工智能
把 LLM 应用放上“手术台”:LangSmith 与 Phoenix 可观测性实战指南

随着大模型应用进入生产环境,可观测性成为关键挑战。LangSmith和Phoenix两大工具形成互补:LangSmith提供云端自动化追踪和预置仪表盘,适合快速调试和业务监控;Phoenix则专注本地化漂移检测和可视化分析,满足合规需求。最佳实践表明,开发阶段使用LangSmith监控性能指标,投产后结合Phoenix进行算法优化,可实现完整的可观测闭环。二者配合能有效解决延迟飙升、成本失控和回答

#人工智能
从 OpenAI 到“国产百模”:一篇搞定国内外大模型 API 调用

本文介绍了国内外主流大模型API的通用调用方法,帮助开发者实现"一次学会,到处调用"。文章首先分析了统一调用范式的必要性,随后提出3步8要素的通用调用框架。接着详细演示了OpenAI官方API及阿里通义千问、百度文心ERNIE、智谱GLM-4等国内模型的调用方式,包括账号注册、密钥获取和代码示例。最后通过横向对比给出选型建议,并提供生产级优化技巧,如环境变量管理、重试机制和并发

#人工智能
从 Hugging Face 到魔搭 ModelScope:一篇搞定「开源模型社区」双雄

摘要: Hugging Face(HF)与魔搭ModelScope(MS)是两大主流模型平台,分别面向国际与中文场景。HF提供50万+模型,依赖社区生态;MS由阿里主导,专注中文SOTA模型与本土加速。下载方式多样:小型模型可通过transformers自动缓存;大型模型推荐Git LFS或镜像站(如清华/阿里云);国内用户优先使用MS镜像实现MB/s级下载。双平台支持断点续传,并可通过Ollam

#人工智能
从入门到落地:AI 大模型微调全景实战指南

文章摘要 本文系统介绍了大语言模型微调技术(Fine-Tuning),重点聚焦生产落地最成熟的SFT+LoRA/QLoRA方案。微调能以1%算力获得90%模型能力,是企业应用的最佳选择。文章详解了微调技术演进(从全参量到QLoRA)、核心概念(SFT/LoRA/RLHF等)和完整9步流程,并通过中文医疗问答模型实战演示:从数据制备(20万条医学数据)、基座选择(Qwen2.5-7B)、QLoRA配

#人工智能
从入门到落地:AI 大模型微调全景实战指南

文章摘要 本文系统介绍了大语言模型微调技术(Fine-Tuning),重点聚焦生产落地最成熟的SFT+LoRA/QLoRA方案。微调能以1%算力获得90%模型能力,是企业应用的最佳选择。文章详解了微调技术演进(从全参量到QLoRA)、核心概念(SFT/LoRA/RLHF等)和完整9步流程,并通过中文医疗问答模型实战演示:从数据制备(20万条医学数据)、基座选择(Qwen2.5-7B)、QLoRA配

#人工智能
驾驭AI的魔法咒语:大模型提示词工程完全指南

摘要:提示词工程是优化AI输出的关键技术,通过结构化设计提升模型表现。核心方法包括:1)明确任务目标与格式要求;2)采用角色设定、示例引导等结构化技巧;3)多轮交互细化复杂任务;4)参数调优控制输出特性。应用场景涵盖代码生成、文本润色等,需通过测试迭代建立最佳实践。高级技巧如元提示和链式推理可进一步提升效果,实际应用需结合领域知识持续优化。(149字)

#人工智能
LangChain 从入门到实战:一张全景图 + 6 大案例带你通关

LangChain = 模型 × 提示词 × 记忆 × 工具 × 链 × 代理 的“六边形战士”。用Prompts把需求讲清;用Indexes让模型“多读书”;用Memory让它“长记性”;用Tools给它“手脚”;用Agents让它“自己动”;用Callbacks让一切“可观测”。

零代码玩转大模型微调:LLaMA-Factory 全栈实战指南

LLaMA-Factory是一个低代码大模型微调框架,相比原生脚本具有显著优势:仅需5行代码、零学习成本、18GB显存即可训练7B模型,支持SFT/RLHF/DPO/PPO全流程。通过WebUI可快速完成数据准备(支持微信聊天记录转换)、模型训练(QLoRA优化)、评估和部署。该框架内置DeepSpeed多卡并行、断点续传、可视化监控等功能,训练后模型可导出为单文件并兼容vLLM部署。实测微调后模

#人工智能
零代码玩转大模型微调:LLaMA-Factory 全栈实战指南

LLaMA-Factory是一个低代码大模型微调框架,相比原生脚本具有显著优势:仅需5行代码、零学习成本、18GB显存即可训练7B模型,支持SFT/RLHF/DPO/PPO全流程。通过WebUI可快速完成数据准备(支持微信聊天记录转换)、模型训练(QLoRA优化)、评估和部署。该框架内置DeepSpeed多卡并行、断点续传、可视化监控等功能,训练后模型可导出为单文件并兼容vLLM部署。实测微调后模

#人工智能
    共 25 条
  • 1
  • 2
  • 3
  • 请选择