
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文深度解析了Google Agent白皮书中的生成式AI Agent概念,详细介绍了Agent的三大核心组成部分(模型、工具、编排层),以及ReAct、Chain-of-Thought等推理框架。文章还探讨了Agent如何通过Extensions、Functions和Data Stores三类工具与外部世界交互,以及通过定向学习提升模型性能的方法。这些内容为构建自主规划、决策和执行复杂任务的AI

哈佛医学院等机构联合团队完成了全球首个系统性研究,评估大模型与人类中医在针灸诊疗任务中的表现。研究发现Qwen、GPT等模型在中医诊断和治疗建议方面已接近专家水平,关键在于对中医术语的深度理解和文化语料基础。该研究为中医AI化提供了可行框架,未来AI将从辅助角色走向协同诊疗,推动中医标准化、国际化,成为传统医学与现代科技融合的桥梁。

本文从n8n工作流的有向无环图(DAG)本质出发,提出了通用的自动化工作流设计方法论:数据获取→清洗→加工→结果分发与沉淀。通过舆情监测工作流实例,展示了如何结合AI大模型评估数据,并总结了自动化工作流设计的十大步骤,包括明确目标、选择触发器、获取数据、分支逻辑、AI应用、错误处理等。文章强调应从构建微型系统的理论框架思考工作流设计,而非仅关注单一任务实现。

前三章都围绕指令微调,这一章来唠唠RLHF。何为优秀的人工智能?抽象说是可以帮助人类解决问题的AI, 也可以简化成3H原则:Helpful + Honesty + Harmless。面向以上1个或多个原则,RLHF只是其中一种对齐方案,把模型输出和人类偏好进行对齐。大体分成3个步骤

LLM(Large Language Model,大型语言模型)是一个功能强大的新平台,但它们并不总是使用与我们的任务相关的数据或者是最新的数据进行训练。RAG(Retrieval Augmented Generation,检索增强生成)是一种将 LLM 与外部数据源(例如私有数据或最新数据)连接的通用方法。它允许 LLM 使用外部数据来生成其输出。要想真正掌握 RAG,我们需要学习下图所示的技术

MCP(Model Context Protocol)是大模型与外部系统间的标准化通信接口,通过Dify平台的mcp-server插件,开发者可轻松将应用转化为MCP服务端。文章详细介绍了在Dify中集成MCP服务的5个步骤:安装插件、创建工作流、发布API端点、调用MCP Server及服务测试。MCP采用客户端-服务端架构,简化了AI系统间的集成,使大模型能安全高效地访问外部数据源和工具,为A

MCP上下文管理与持久化技术解决了传统AI的"健忘症"问题,通过三层记忆架构(即时、工作、长期记忆层)实现跨会话记忆。该技术包含智能化上下文压缩、分层存储、会话管理等功能,使AI能够保持工作连续性、记住决策历史。应用于企业场景如金融客服、制造业设备维护等,赋予AI从"工具"升级为"工作伙伴"的能力,同时保障数据安全与隐私。

每个人的职业生涯都充满了选择与转折,而我,曾经是一名嵌入式开发人员,学的是电子信息专业。这个专业涵盖了广泛的领域,但缺乏深度的专业知识。尽管一开始觉得嵌入式开发充满挑战和乐趣,但随着时间推移,我逐渐意识到这条路并不适合自己。面对职业发展的瓶颈,我毅然决然地选择了转行学习AI大模型,并最终实现了职业生涯的华丽转身。在面对职业发展的瓶颈时,勇敢地迈出改变的第一步是多么重要。通过构建基础知识体系、参与实

本文详细介绍了在Win11家庭版系统中,通过Docker和WSL2环境,部署Dify平台并连接本地Ollama中的DeepSeek大模型的完整过程。内容包括环境准备、Ollama安装、DeepSeek模型获取、Dify部署配置以及常见问题解决方案。作者分享了连接失败、镜像拉取慢、模型位置冲突等问题的解决经验,证明了Dify+Ollama+DeepSeek在本地环境运行的可行性,为读者提供了实用的技

本篇文章深入分析了大型模型微调的基本理念和多样化技术,细致介绍了LoRA、适配器调整(Adapter Tuning)、前缀调整(Prefix Tuning)等多个微调方法。详细讨论了每一种策略的基本原则、主要优点以及适宜应用场景,使得读者可以依据特定的应用要求和计算资源限制,挑选最适合的微调方案。
