
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在自然语言处理(NLP)领域,Supervised Finetuning(SFT)是一种至关重要的技术手段,用来提升大模型在某一特定领域的表现。通过精细的策划和实施,SFT 能够指导模型的学习过程,确保其学习成果与既定目标高度吻合。SFT 指的是,用户提供一份标注好的数据集,即,包含输入的 prompt 和预期输出的 response。然后,在已有的某个基座模型上继续调整参数,来达到和下游任务对齐

文章详细介绍了如何使用Python、FastAPI、LangGraph和MCP构建智能Web AI Agent系统。该系统具备状态记忆、工具调用、自主决策和多步骤执行能力,能理解用户意图并执行实际任务。文章提供了完整的项目架构、代码实现和实战演示,展示了如何创建超越传统聊天机器人的真正数字助手,并包含生产级增强建议。

最近最火的莫过于DeepSeek,现在网上关于 AI 模型部署的文章一抓一大把,动不动就是 “一键部署,轻松上手”、“30 分钟搭好一个本地能跑起来的大模型”。可现实是,当你真上手用 Ollama 搭建 DeepSeek 模型时,那简直就是踩坑大冒险!今天咱就来好好唠唠那些坑,帮你顺利搭建属于自己的 DeepSeek。

文章指出大模型部署看似简单(下载工具、执行命令),实则运维复杂,存在多重难点:选择适配推理引擎困难;模型与引擎需架构转换;参数兼容性问题;需处理上下文长度限制和并发限制。建议添加中间层封装模型接口,而非直接暴露,以确保稳定运行。

本文详细介绍了如何使用ollama、DeepSeek和CherryStudio在本地部署大模型并搭建知识库的完整流程。这套方案无需付费,适合配置不高的电脑(如仅有集成显卡),能够实现个性化使用AI大模型,确保本地资料安全保密。作者分享了从安装平台、下载模型到搭建知识库的具体步骤和注意事项,还提供了AI大模型学习资源。

文章详解大模型训练流程:预训练形成基座模型,后训练包含监督微调(SFT)和强化学习(RL)。SFT通过标注数据集最小化预测误差,RL通过奖励模型优化输出质量。结合DeepSeek和Qwen案例,展示了从通用模型到垂域模型的训练路径,帮助小白理解大模型训练的基础逻辑和应用场景。

本文解析LangChain、LangFlow和LangGraph三大大模型应用框架。LangChain是基础开发框架,提供组件库;LangFlow是可视化工具,降低门槛;LangGraph是状态机框架,处理复杂Agent逻辑。文章从定位、能力、场景等角度对比三者差异,帮助读者根据需求选择:系统开发用LangChain,快速原型用LangFlow,复杂Agent用LangGraph,三者可组合使用。

文章介绍如何使用LangChain 1.1的Middleware机制实现Claude Skills动态工具过滤,让AI Agent在运行时智能选择所需工具,避免上下文窗口耗尽和"选择困难"。文章详细讲解环境配置、状态管理、中间件实现到Agent创建的完整过程,帮助开发者减少Token消耗,提升模型推理效率与准确性,构建高效可扩展的AI Agent。

2025年的AI领域,一个全新的职位正在上演“速度与激情”。根据求职平台Indeed的数据,一个名为“前沿部署工程师”(Forward-Deployed Engineer,简称FDE)的岗位,其招聘需求在2025年前9个月同比激增了超过800%。OpenAI正计划将其全球FDE团队扩张至约50人,而Anthropic则计划将包含FDE在内的应用AI团队规模扩大五倍。

当提到“大模型”和“本地部署”,很多人可能第一反应是:“这是不是只有那些顶尖的技术大牛才能搞定?”其实,随着开源工具的发展,构建自己的大模型和知识库已经变得轻而易举,就像请一个聪明的私人助理帮你处理日常任务一样简单








