
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文基于Apache Flink Agents框架实现了实时情感分析工作流,使用本地LLM API处理文本流数据。Flink Agents将LLM推理能力嵌入分布式流处理管道,解决了传统AI批处理模式在扩展性、容错性、背压处理等方面的不足。文章详细对比了Flink Agents与传统脚本方式的优势,并提供了具体实现方案,包括数据模型定义、Prompt模板设计及本地LLM连接配置。测试版本为Flin

本文分析了EMR 7.12.0集群中AWS Glue Data Catalog替代Hive Metastore的实现机制。通过Hive的SPI扩展点,EMR使用AWS SDK v2调用Glue API,并实现Hive/Glue数据模型的双向转换。架构分为三层:公共层提供核心功能,Hive3和Spark专用层分别适配不同场景。启动过程通过工厂模式加载AWSCatalogMetastoreClient

本文研究了EMR集群中的LogPusher组件,详细分析了其架构设计与运行机制。LogPusher作为核心日志收集上传组件,采用三层配置系统、HSQLDB数据库管理,具备日志压缩加密、磁盘空间管理、多线程并发上传等功能。测试基于EMR7.12版本,组件版本为instance-controller-1.85.0-1.noarch。文章重点剖析了其线程模型(包括调度器、RPC轮询和磁盘管理线程)和关机

本文介绍了AI Agent记忆系统的概念与实现方式。记忆系统分为短期记忆和长期记忆:短期记忆参与模型推理,需要上下文管理策略(如压缩、摘要);长期记忆从短期记忆抽取,通过检索辅助推理,通常由独立组件实现(如Mem0、Zep)。文章对比了不同框架的记忆实现,包括AgentScope的会话级短期记忆和跨会话长期记忆,以及AWS Strands框架的Mem0集成。还介绍了通过agent-memory-s

在RAG系统中对FAISS,HNSW,BM25向量检索引擎选型的问题
AgentScope Runtime是一个面向AI Agent的全栈运行时,提供安全沙箱环境和高效部署能力。核心功能包括: 沙箱工具服务:通过Docker容器提供隔离的执行环境,支持文件系统操作、浏览器自动化等功能,使用WebSocket和CDP协议实现交互。 运行时管理服务(runtime-sandbox-server):集中管理沙箱容器,支持动态创建、预热池和多种后端(Docker/k8s等)

本文介绍了Langfuse自托管部署与集成实践。在EKS集群部署中,通过Helm配置存储类、OAuth认证、加密参数和数据库组件(PostgreSQL、Redis、ClickHouse、MinIO)。部署后展示了控制台界面,并通过Python代码示例演示了@observe装饰器的调用跟踪功能,包括用户会话管理和性能分析。最后介绍了将Langfuse集成到Strands Agent架构中的实现方法,

本文介绍了如何使用DynamoDB实现支持多会话的LangChain Agent系统。系统核心功能包括会话持久化、多会话支持、自动加载和会话切换。技术选型采用LangChain框架和DynamoDB数据库,设计了合理的表结构,使用user_id作为分区键提高查询效率,并设置TTL自动清理过期会话。会话管理器实现了创建、保存、加载和列出会话等功能,与Agent集成后能自动恢复最近对话。该系统通过Dy

本文介绍了企业级AI Agent中"渐进式披露"技能知识的设计模式。通过将技能信息分层存储(元数据、核心内容、详细资源),系统启动时仅加载轻量级摘要(约50 tokens),在用户具体提问时才按需加载完整技能内容。每个技能采用标准化目录结构存储,包含元数据文件、操作指南、资源文件和可执行脚本。文章详细说明了AgentSkill类的实现方法,包括元数据加载、指令加载、资源加载和脚

摘要:本文探讨了将Bedrock AI模型API转换为OpenAI兼容格式的适配器开发过程。针对现有工具如LiteLLM和bedrock-access-gateway在Bedrock Tool Calling功能支持上的不足,作者开发了专用适配器解决格式转换问题。核心挑战包括消息格式差异(如OpenAI的tool_calls与Bedrock的toolUse)、Tool Result格式差异以及Be








