logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

langchain deepagent框架

Deep Agents是一个基于LangGraph构建的智能代理库,专注于处理复杂多步骤任务。它提供任务规划、文件系统管理、子代理创建和长期记忆等核心功能,适用于需要深度任务拆解和上下文管理的场景。通过内置工具如write_todos和文件系统操作,代理能高效处理大量数据并避免上下文溢出。支持多种存储后端和自动会话摘要,可部署为专业研究员等角色。安装简单,只需配置API密钥即可快速创建具备网络搜索

文章图片
#python#人工智能
深度觉醒 — Deep Agents(三座大山 — Agent 的核心挑战)

摘要:Agent技术的核心挑战与突破方向 当前AI Agent技术面临三大核心挑战:规划不可靠性、交互体验局限和记忆系统缺陷。在规划方面,LLM自主决策能力存在范式错配,领域特化认知架构比通用Agent更有效。交互体验上,需突破"对话即交互"的局限,转向事件驱动的"Ambient Agents"模式。记忆系统则需通过上下文工程策略(写入/选择/压缩/隔离)优

文章图片
#python
langChainv0.3学习笔记(高级篇)

本文摘要介绍了LangChain工具的基本概念和使用方法。工具是供语言模型调用的实用函数/程序,用于执行特定任务或访问外部API。一个工具包含名称、描述、JSON Schema输入定义和执行函数四要素。文章详细说明了如何通过@tool装饰器、StructuredTool.from_function类方法和继承BaseTool三种方式创建工具,并提供了调用工具返回结果的两种方法(仅使用参数调用和直接

文章图片
#AI
Ollama学习参考笔记

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。Ollama 提供了一个简单的方式来加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。Ollama 的特点在于它不仅仅提供了现成的模型和工具集,还提供了方便的界面和 API,使得从文本生成、对话系统到语义分析等任务都能快速实现。与其他 NLP

文章图片
#学习
AutoGen快速入门

摘要 AutoGen是一个专注于多智能体协作的大语言模型应用开发框架,相比LangChain和LangGraph具有更轻量、现代化的特点。它主要由四个组件构成:1)Studio提供零代码Web界面快速原型开发;2)AgentChat支持Python编程构建对话式应用;3)Core为事件驱动框架,适用于复杂多Agent系统;4)Extensions提供扩展功能对接外部服务。AutoGen的优势在于原

文章图片
#python#前端#java
保姆级AI开发环境搭建

随着 DeepSeek 模型的发布,它在全球范围内引起了极大的关注。为了让更多开发者能够迅速进入AI领域并参与到这一革新性技术的应用中,本文将提供一份详尽的“保姆级”开发环境搭建指南。针对 Windows 和 Linux 两大操作系统,文章将逐步介绍如何搭建适用于 DeepSeek 模型的 AI 开发环境。内容涵盖了从基础工具安装到高级配置,包括 Python、PyTorch、TensorFlow

文章图片
#人工智能
SSE协议

ChatGPT 是一个基于深度学习的大型语言模型,处理自然语言需要大量的计算资源和时间,响应速度肯定比普通的读数据库要慢的多,普通 http 接口等待时间过长,显然并不合适。在使用 ChatGPT 时,发现输入 prompt 后,页面是逐步给出回复的,起初以为使用了 WebSckets 持久化连接协议,查看其网络请求,发现这个接口的通信方式并非传统的 http 接口或者 WebSockets,而是

文章图片
LLMOps——Langfuse

Langfuse是一个开源的LLM工程平台,提供调试、监控和评估全流程支持。其核心特性包括:开源自托管、调用链追踪、性能指标监控、提示版本管理和多框架集成。相比LangSmith,Langfuse具有完全开源、支持自托管、成本更低和集成更广泛等优势。Langfuse采用模块化架构,包含Web应用、Worker异步处理、PostgreSQL/ClickHouse存储等组件,最新v3版本提升了性能和可

文章图片
#AI
vllm笔记

vLLM 是一款由加州大学伯克利分校团队开发的大语言模型推理加速框架,通过创新的 PagedAttention 算法有效解决了大语言模型推理中的内存管理瓶颈问题。PagedAttention 借鉴操作系统的分页机制,将键值(KV)缓存划分为固定大小的块,显著减少内存碎片化,提升内存利用率。vLLM 还通过 KV 缓存共享机制和细粒度批处理技术,进一步优化了并行采样、束搜索和批处理请求中的内存使用效

文章图片
The FastMCP Client

FastMCP 客户端是一个确定性、可控的 MCP 协议实现,专为结构化交互设计。核心功能包括自动推断传输机制(内存/HTTP/Stdio)、配置多服务器连接、管理工具/资源/提示操作等。通过 async with 管理连接生命周期,支持测试、开发及构建高级系统基础。最新版本 2.4.0 新增基于配置的多服务器客户端功能,允许通过字典定义多个服务器连接。客户端采用职责分离架构,区分协议操作与连接机

文章图片
#microsoft#windows
    共 68 条
  • 1
  • 2
  • 3
  • 7
  • 请选择